Im Alltag sind wir von vielerlei Geräuschen umgeben, die wir normalerweise gut unterscheiden können. Wenn wir zum Beispiel das Radio einschalten, merken wir schnell, ob wir Musik hören oder jemand spricht. Aber was, wenn Sprache und Musik ähnlich klingen? Wie unterscheiden wir sie dann?

Ein Team aus Wissenschaftlerinnen des Frankfurter Max-Planck-Instituts für empirische Ästhetik, des Max Planck NYU Center for Language, Music, and Emotion (CLaME) und der Arizona State University ist dieser Frage auf die Spur gegangen.

Schon mehrfach wurde verglichen, wie Menschen Sprache bzw. Musik wahrnehmen. Die Unterschiede sind jedoch schwer zu erfassen – vor allem, wenn es Überschneidungen gibt, wie bei Reimen oder in der Rap-Musik. Um die Grenzen besser abstecken zu können, initiierte das internationale Forschungsteam eine Online-Studie mit mehr als hundert Personen mit insgesamt 15 verschiedenen muttersprachlichen Hintergründen.

mehr Infos

Quellennachweis: Max-Planck-Institut für empirische Ästhetik

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen