Im Artikel Emotions evoked by the sound of music beschrieben Zentner und Kollegen erstmals ein empirisch begrĂŒndetes Modell musikevozierter Emotionen (Zentner, Grandjean, & Scherer, 2008; Zentner, 2011). Nach diesem Modell lassen sich musikevozierte Emotionen in neun verschiedene Kategorien einteilen (vgl. Abb. 1.). Mittels musikspezifischer Emotionskategorien können musikevozierte ZustĂ€nde prĂ€ziser beschrieben werden als ĂŒber unspezifische Emotionskategorien wie Traurigkeit, Ărger und Freude oder Affekt-Dimensionen wie Erregung und Valenz. Dieses Modell lieferte die Grundlage fĂŒr die Geneva Emotional Music Scale (GEMS), eine Skala, die sich speziell zur Erfassung musikinduzierter Emotionen eignet. Die GEMS umfasst 45 EmotionsausdrĂŒcke, neun Emotionsskalen und drei Ăberfaktoren. KĂŒrzere Skalen stehen ebenfalls zur VerfĂŒgung. Eine Ăbersicht finden Sie hier. Neurowissenschaftliche Untersuchungen haben gezeigt, dass mehrere der GEMS-Faktoren spezifische neurophysiologische Aktivierungsmuster aufweisen (Trost et al., 2012). In einer Kollaboration mit der UniversitĂ€t Durham (UK) wird die Eignung der GEMS zur Optimierung von Audio-Metadaten untersucht (sogenannte âTagsâ). Insbesondere soll eruiert werden, wie digitale Musiksammlungen nach Emotionen geordnet und Algorithmen fĂŒr Musikempfehlungen erweitert werden können. Abbildung 1: Illustration des GEMS Modells (Zentner et al., 2008) Literatur Zentner, M., Grandjean, D., & Scherer, K. (2008). Emotions evoked by the sound of music: Characterization, classification, and measurement. Emotion, 8, 494-521. Zentner, M. (2011). Homerâs Prophecy: An essay on musicâs primary emotions. Music Analysis, 29, 102-125. Trost, W., Ethofer, T., Zentner, M., & Vuilleumier, P. (2012). Mapping aesthetic musical emotions in the brain. Cerebral Cortex, 22, 2769-2783. Eerola, T. (PI) & Zentner, M. (Co-PI). Tagging online music contents for emotion. A systematic approach based on contemporary emotion researchâ â [Link zum ESRC Forschungsprojekt]