Im Artikel Emotions evoked by the sound of music beschrieben Zentner und Kollegen erstmals ein empirisch begründetes Modell musikevozierter Emotionen (Zentner, Grandjean, & Scherer, 2008; Zentner, 2011). Nach diesem Modell lassen sich musikevozierte Emotionen in neun verschiedene Kategorien einteilen (vgl. Abb. 1.). Mittels musikspezifischer Emotionskategorien können musikevozierte Zustände präziser beschrieben werden als über unspezifische Emotionskategorien wie Traurigkeit, Ärger und Freude oder Affekt-Dimensionen wie Erregung und Valenz.
Dieses Modell lieferte die Grundlage für die Geneva Emotional Music Scale (GEMS), eine Skala, die sich speziell zur Erfassung musikinduzierter Emotionen eignet. Die GEMS umfasst 45 Emotionsausdrücke, neun Emotionsskalen und drei Überfaktoren. Kürzere Skalen stehen ebenfalls zur Verfügung. Eine Übersicht finden Sie hier.
Neurowissenschaftliche Untersuchungen haben gezeigt, dass mehrere der GEMS-Faktoren spezifische neurophysiologische Aktivierungsmuster aufweisen (Trost et al., 2012). In einer Kollaboration mit der Universität Durham (UK) wird die Eignung der GEMS zur Optimierung von Audio-Metadaten untersucht (sogenannte ‚Tags’). Insbesondere soll eruiert werden, wie digitale Musiksammlungen nach Emotionen geordnet und Algorithmen für Musikempfehlungen erweitert werden können.
Literatur
Zentner, M., Grandjean, D., & Scherer, K. (2008). Emotions evoked by the sound of music: Characterization, classification, and measurement. Emotion, 8, 494-521.
Zentner, M. (2011). Homer’s Prophecy: An essay on music’s primary emotions. Music Analysis, 29, 102-125.
Trost, W., Ethofer, T., Zentner, M., & Vuilleumier, P. (2012). Mapping aesthetic musical emotions in the brain. Cerebral Cortex, 22, 2769-2783.
Eerola, T. (PI) & Zentner, M. (Co-PI). Tagging online music contents for emotion. A systematic approach based on contemporary emotion research” – [Link zum ESRC Forschungsprojekt]