Im Alltag sind wir von vielerlei Geräuschen umgeben, die wir normalerweise gut unterscheiden können. Wenn wir zum Beispiel das Radio einschalten, merken wir schnell, ob wir Musik hören oder jemand spricht. Aber was, wenn Sprache und Musik ähnlich klingen? Wie unterscheiden wir sie dann?
Ein Team aus Wissenschaftlerinnen des Frankfurter Max-Planck-Instituts für empirische Ästhetik, des Max Planck NYU Center for Language, Music, and Emotion (CLaME) und der Arizona State University ist dieser Frage auf die Spur gegangen.
Schon mehrfach wurde verglichen, wie Menschen Sprache bzw. Musik wahrnehmen. Die Unterschiede sind jedoch schwer zu erfassen – vor allem, wenn es Überschneidungen gibt, wie bei Reimen oder in der Rap-Musik. Um die Grenzen besser abstecken zu können, initiierte das internationale Forschungsteam eine Online-Studie mit mehr als hundert Personen mit insgesamt 15 verschiedenen muttersprachlichen Hintergründen.
Quellennachweis: Max-Planck-Institut für empirische Ästhetik
Neueste Kommentare