Cover: Von Anapher bis Zweitsprache - Facetten kommunikativer Welten

Von Anapher bis Zweitsprache - Facetten kommunikativer Welten

Bayrak, Cana; Frank, Annika; Heintges, Jessica; Sotkov, Mihail


Sprache und Musik in der (linguistischen) Forschung: Ursprung, Verarbeitung und Potentiale für die Sprachförderung

Kerstin Leimbrink 1


1 Dortmund

„Menschen können es in der Musik zu hoher Kompetenz mit Stimme oder Instrumenten bringen, entscheidend ist aber die Universalität: Jeder Mensch kann die musikalischen Grundelemente wahrnehmen.“

(Hoffmann 2011, S. 172) [1]

1 Gemeinsamkeiten und Unterschiede von Sprache und Musik

Der Pianist Igor Levit wird nach einem Konzert nach den Hauptaussagen in Beethovens 2. Klavierkonzert gefragt. [2] Seine Antwort verweist auf einen Hauptunterschied zwischen Musik und Sprache: Es gibt keine Kausalität zwischen Musik und Hörerschaft, die derart ausgestaltet ist, dass Musik quasi falsch oder defizitär gehört werden kann. Beim Hören von Musik geht es vielmehr um individuelles emotionales Erleben, das auch physiologisch messbar sein kann (z.B. Gänsehaut, erhöhter Blutdruck).

Der Psychologe Aniruddh Patel beschreibt den Unterschied zwischen Musik und Sprache so: „Try to transform your last published paper into a piece of music, so that someone (who has not read the paper) is able to understand its content” (Patel 2008, S. 329) [3].

Beide, Levit und Patel, verweisen auf die Abwesenheit konventionell fixierter Bedeutung in der Musik. Dies führt zu der generellen Unterscheidung zweier koexistierender Systeme: Sprache ist im Kern ein System zum Transfer von Wissen und Erfahrung, ist Mittel zum Ausdruck und Austausch von Gedanken, Informationen und zum Erkenntnisgewinn (vgl. Ehlich 1998) [4]. Musik dagegen ist im Kern ein System zum Hervorrufen und zum Transfer von Emotionen und zur Modulierung von Stimmungen. Während Sprache mittels Schallwellen vom Mund übertragen wird und der restliche Körper für andere Handlungen frei bleibt, geschieht musikalisches Handeln mittels Stimme und/oder Instrument, wobei der gesamte Körper bei der Klangerzeugung eingebunden ist. Musizieren setzt ab einem bestimmten Niveau in höheren Maßen den gekonnten Umgang mit der Stimme bzw. einem Instrument voraus als dies beim Sprechen der Fall ist.

Die Gemeinsamkeiten von Sprache und Musik sind jedoch weitreichender und zahlreicher als die Unterschiede. Sprache und Musik

  • sind universelle menschliche Ausdrucksformen, die kulturspezifisch geprägt und von einer sozialen Umgebung abhängig sind.
  • sind in der Praxis auf kooperatives und koordiniertes Handeln angelegt (z.B. in einem Gespräch oder in einem Konzert). Die Handelnden sind gemeinsam anwesend und koordinieren ihr Handeln durch Sprecherwechsel, durch die Vergabe von Einsätzen, durch äußere Anzeichen des Verstehens wie Blickkontakt, Nicken und Mimik. Die Intonation wird synchronisiert, es erfolgt eine Anpassung an die Tonlage und an das Sprechtempo des Gegenübers, die Instrumente werden gestimmt usw.
  • sind wahrscheinlich evolutionär gemeinsam verankert und genetisch angelegt.
  • werden von Generation zu Generation tradiert. Die sprachlichen bzw. musikalischen Komponenten werden aber extragenetisch durch Lernen und Lehren weitergegeben, leben in der Veränderung und sind an menschliche Praxisfelder geknüpft.
  • werden in der Ontogenese über gemeinsame prosodische Elemente erworben, die in der Terminologie ähnlich sind. Dazu zählen z.B.
  • Akzent und Rhythmus in der Sprache vs. Metrik, Rhythmik und Takt in der Musik,
  • Tonhöhe (Tonhöhenverlauf) in der Sprache vs. Melodik in der Musik,
  • Lautstärke vs. Dynamik,
  • Sprechgeschwindigkeit vs. Tempo,
  • Stimmfärbung vs. Klangfarbe und
  • Pausen in beiden Domänen.
  • sind syntaktische Systeme, die komplexe, hierarchisch strukturierte Sequenzen verwenden, die auf impliziten Strukturnormen beruhen. Die syntaktische Verarbeitung beinhaltet die Integration diskreter Elemente (z.B. Wörter, Töne und Akkorde) in Strukturen höherer Ordnung (z.B. Sätze in der Sprache und harmonische Sequenzen in der Musik) nach einer Reihe von kombinatorischen Prinzipien und auf der Folie eines Hintergrundsystems.
  • teilen sich kognitive Repräsentationen und neuronale Ressourcen, die Mustercharakter haben können und von einer Konstellation abhängig sind.

 

2 Prosodie

Eine zentrale Schnittstelle von Sprache und Musik ist die Prosodie. Unter Prosodie (auch: Intonation), von (Alt-)Griechisch ‚das Hinzugesungene‘, die melodische Gliederung gesprochener Sprache, werden in der Linguistik die musikalischen Qualitäten der gesprochenen Sprache zusammengefasst. Dazu gehören die Tonhöhenbewegungen beim Sprechen, die Lautstärke, die Dauer von Segmenten, die Klangfarbe und die Pausengliederung wie auch der Rhythmus und der Takt. Im Deutschen kennzeichnet die Intonation u.a. den Satzmodus, Bedeutungsunterscheidungen bzw. -spezifizierungen, den Ausdruck von Emotionen – besonders bei Interjektionen wie hm – und gewichtet Äußerungsteile.

Die Verwendung prosodischer Merkmale unterscheidet sich in der Sprache zu Erwachsenen und zu kleinen Kindern. Prosodisch charakteristisch bei der kindgerichteten Sprache (KGS) ist die Tonhöhe. Während die normale Sprechstimme einer Frau bei ca. 220 Hz verortet wird, variiert sie in der KGS zwischen 250-650 Hz. Ein variierter Tonhöhenverlauf und ein großes Tonhöhenspektrum sorgen für Aufmerksamkeit und motorische Aktivität des Säuglings und motivieren zu vokalen Äußerungen und zu Körperbewegungen. Funktionen von KGS sind die Erregung von Aufmerksamkeit, das Herstellen eines gemeinsamen Handlungsraums und das Erkennen von Wort- und Phrasengrenzen. KGS ermöglicht es, Regelmäßigkeiten über die Anordnung von sprachlichen Mustern wie Phonemen, Wörtern und Phrasen zu erwerben.

Sowohl in der Sprache als auch in der Musik finden sich universelle Intonationsmuster für bestimmte kommunikative Absichten, z.B. werden zur Beruhigung ein enger Tonraum und fallende Tonhöhenbewegungen verwendet, ähnlich ist es bei Wiegen- und Schlafliedern (vgl. Szagun 2013; Patel 2008) [5] [3]. In der Musik (Affektenlehre) stehen bestimmte musikalische Intervalle für bestimmte Emotionsausdrücke. Freude zeigt sich bei Sprache und Musik in aufsteigenden Melodielinien, einem höheren Frequenzbereich, einer größeren Variabilität der Frequenz, einer größeren Lautstärke und einem schnelleren Tempo.

 

3 Ursprung und Verarbeitung

Wir kommen nun zu der Frage, ob es einen gemeinsamen rhythmisch-prosodischen Ursprung von Sprache und Musik gibt. Konsens besteht in der Forschung weitgehend darüber, dass der Sprache in der Evolution eine wenig artikulierte gesangsartige Protosprache vorausgeht (vgl. Jespersen 1922; Wray 2000; Mithen 2006) [6] [7] [8]. Die musikalischen Elemente waren in der frühen Sprachgeschichte reichhaltiger als heute. In der Musikwissenschaft gibt es drei prominente Ursprungstheorien:

  1. The Singing Neanderthals (Mithen 2006) [8]
  2. Musilanguage-Modell (Brown 2000) [9]
  3. Mixed-Origins-of-Music-Theorie (Altenmüller/Kopiez 2015) [10]

Mithen (2006) [8] versucht durch Rückschlüsse auf heutige Affenarten und Fossilien die Ursprünge der lautlichen Kommunikation zu ergründen. Laut DNA-Analysen teilten sich Menschen vor acht bis sieben Millionen Jahren mit einigen afrikanischen Affenarten einen gemeinsamen Vorfahren. Primaten kommunizierten mit einem gemeinsamen Repertoire an Ruf- und Klangsignalen. Die Tonhöhe und deren Variation ist das zentrale Merkmal der Kommunikation. Mithen geht von einer Proto-Musiksprache aus, die er mit Hmmmm abkürzt. Gesten und Laute sind danach

  • holistisch: Sie werden von Primaten nicht arbiträr genutzt, sondern gelten als einzelne, nicht kompositorisch verwendbare Äußerungen, die eine festgelegte Bedeutung haben. Artgenossen wurden durch Begrüßungen, Kommandos, Drohungen und Forderungen quasi gesteuert.
  • manipulativ: Die Affen versuchten, das Verhalten ihrer Artgenossen zu beeinflussen bzw. bestimmte Reaktionen auszulösen.
  • multi-modal: Diese Eigenschaft wird nur den Menschenaffen zugeordnet. Es werden sowohl Gesten als auch lautliche Formen gleichzeitig genutzt.
  • mimetisch: Dieses Merkmal gilt für die frühen Menschen und bezieht sich auf die Fähigkeit, Geräusche, Lebewesen und Aktionen nachzuahmen. Dieses Element kam evolutionär erst später hinzu. 
  • musikalisch: Insbesondere Gibbons und Blutbrustpaviane verwenden rhythmisch und melodisch kontrollierte Äußerungen, synchronisieren ihr Verhalten und zeigen turn-taking prosodisch an.

Brown (2000) [9] geht von einem gemeinsamen Vorläufer aus, die sogenannte Musilanguage. Bedeutung entsteht durch Tonhöhe und Rhythmus. Ein Beispiel sind die Warnrufe der Grünen Meerkatze. Durch Gruppen-Bindung entstanden Formen der Urmusik, mit einfachen Mitteln und Werkzeugen wurden Klänge erzeugt (z.B. Didgeridoospiel, Trommeln, Urgesang). Danach teilten sich die Entwicklungslinien, einerseits in Musik mit Betonung auf der akustisch-emotionalen Ebene, andererseits in Sprache mit der bedeutungstragenden Seite.2

Die Mixed-Origins-of-Music-Theorie von Altenmüller/Kopiez (2015) [10] ergänzt das Musilanguage-Modell um physiologische Befunde, die Chill-Reaktion (Gänsehaut). Die Chill-Reaktion diente ursprünglich der Thermoregulation, aber auch der Abwehr. Sie trat einerseits bei positiv bewerteten Reizen auf, die mit sozialer Wärme einhergehen, andererseits bei negativ empfundenen schrillen Lauten. Neu gelernte akustische Muster wurden durch die Chill-Reaktion belohnt, was wiederum Antrieb zum weiteren auditiven Lernen war. Es entwickelte sich eine ausdifferenzierte rhythmisch-melodische Unterscheidungsfähigkeit, die erst die Voraussetzung für die „Erfindung“ der Musik bildete. Musik unterstützte auf spielerische Weise die auditive Mustererkennung. Dies führte zu einer sehr präzisen Wahrnehmung von Rhythmen und Melodien und könnte die Basis für die Entwicklung von Sprache und Musik bereitet haben. Musik bot einen Spielraum für neue Hörerfahrungen. Die begleitende Erregung und die Ausschüttung von Neurohormonen unterstützen die Gedächtnisbildung. Ein leistungsstarkes Gedächtnis für auditive Muster wurde notwendig. Dennoch ist die Frage nach der Entstehung von Musik und Sprache bis heute nicht gänzlich geklärt, denn die Empirie fehlt.

Kommen wir zur neuronalen Verarbeitung von Sprache und Musik. Nach Patel (2008) [3] kommt es bei der Verarbeitung zu Überschneidungen, da in beiden Domänen Wörter und Töne in größere Einheiten gruppiert werden. Im Broca-Areal erfolgt eine Spezialisierung, verschiedene Elemente von Sprache und Musik werden zu einem Gesamtbild zusammengefügt, einzelne Wörter zu Phrasen und Sätzen, einzelne Töne zu Intervallen, Melodien und größeren Einheiten. Wenn man ein Buch liest und dabei Musik hört, trennt das Gehirn die beiden Aufgaben nicht sauber voneinander. Das Broca-Areal ist mit beidem gleichzeitig beschäftigt. Wenn Probanden eine besonders schwierige Tonfolge vorgespielt wird, fällt es ihnen schwerer, die Struktur eines Satzes zu verarbeiten. Bei anspruchsvollen Aufgaben wie beim musikalischen Verständnis interagiert demnach die syntaktische Verarbeitung von Musik und Sprache.

Daran schließt sich die Frage an, ob musikalisches Training die Art und Weise verändern kann, wie das Gehirn Sprache verarbeitet. Nach Patel verbessert musikalisches Training dann die Sprachverarbeitung (insbesondere die Prosodieverarbeitung), wenn Musik höhere Anforderungen als Sprache an einen gemeinsamen sensorischen oder kognitiven Prozess stellt. Diese höheren Anforderungen müssen verbunden sein mit:

  • emotionalen Belohnungen der Musik (z.B. der Chill-Reaktion),
  • häufigen Wiederholungen, die die musikalische Ausbildung mit sich bringt und
  • konzentrierter Aufmerksamkeit, die sie erfordert,

damit in der Kombination die neuronale Plastizität aktiviert wird und dauerhafte Veränderungen der Gehirnstruktur und -funktion bewirkt werden, die sich positiv auf die Sprachverarbeitung auswirken können.

Auch in der Ontogenese wird von einem gemeinsamen Ursprung von Sprache und Musik ausgegangen. Zu den ersten akustischen Reizen, die ein Fötus in der Schwangerschaft wahrnimmt, zählt die Stimme der Mutter und der Rhythmus ihres Herzschlags. Bei Neugeborenen wurde eine angeborene Präferenz für die Stimme der Mutter nachgewiesen, wahrscheinlich um Sprachinformationen unmittelbar nach der Geburt zu verarbeiten und zu speichern. Über die Stimme werden erste Wahrnehmungsschemata übertragen, die die nachgeburtliche Wahrnehmung z.B. von angenehm empfundenen Stimmen und von Musik beeinflussen. Neuronale Gedächtnisspuren bilden sich durch auditorisches Lernen (vgl. Partanen/Kujala/Tervaniemi/Huotilainen 2013) [11]. Die pränatale rhythmisch-melodische Wahrnehmung scheint die neuronale Basis für das spätere auditorische Synchronisieren zu schaffen, welches in der präverbalen Interaktion zu beobachten ist (vgl. Leimbrink 2016) [12].  

Verarbeitet werden akustische Reize im primären auditorischen Kortex, dem Hörzentrum. Webb und Chang [13] führten 2015 eine Studie mit 40 Säuglingen durch, die zwischen der 25. und 32. Woche extrem früh geboren wurden. Untersucht wurde die Wirkung von Schallexposition auf die Hirnentwicklung, speziell auf den auditorischen Cortex (AC). Es handelte sich dabei um ungefilterten Krankenhauslärm (derzeitiger Pflegestandard) und tiefpass-gefilterte Aufnahmen der Mutterstimme und ihrer Herzschlaggeräusche über drei Stunden pro Tag.

Die Ergebnisse zeigten, dass Neugeborene, die im ersten Lebensmonat mütterlichen Stimm- und Herzschlaggeräuschen ausgesetzt waren, nach einem Monat einen signifikant größeren AC im Vergleich zu Kontroll-Neugeborenen aufwiesen, die routinemäßig behandelt wurden. Die Ergebnisse deuten darauf hin, dass die tägliche Exposition ausreichend war, um strukturelle Veränderungen im sich entwickelnden AC zu bewirken. Man geht davon aus, dass die Exposition der Stimme und des Herzschlags eine biologisch vertraute sensorische Erfahrung vermittelt, die eine wichtige Rolle bei der Eliminierung der Auswirkungen der schädlichen Krankenhausumgebung auf die Gehirnentwicklung spielen kann. Die Studie liefert Hinweise auf eine erfahrungsabhängige Plastizität im primären AC bei Frühgeborenen. Die frühe pränatale Phase spielt demnach eine wichtige Rolle bei der Entwicklung des auditorischen Gehirnsystems.

Nun gehen wir genauer auf das wechselseitige prosodische Verhalten von Bezugspersonen und Säuglingen ein. Neugeborene reproduzieren die Hauptintonationsmuster ihrer jeweiligen Sprache in ihren eigenen Vokalisationen, was auf eine angeborene Fähigkeit zur auditiven Nachahmung und zur Rekonstruktion in Musterform hinweist.

Im Französischen ist die Intonation durch einen Tonhöhenanstieg gegen Ende sprachlicher Einheiten gekennzeichnet, während die deutsche Intonation typischerweise eine fallende Melodiekontur aufweist. Mampe/Friderici/Christophe/Wermke (2009) [14] wiesen nach, dass Schreimelodien von französischen und deutschen Neugeborenen ein entsprechendes Muster entweder für eine steigende (Französisch) oder fallende Intonationskontur (Deutsch) aufweisen.

In einer weiteren Untersuchung von Prochnow (2013) [15] wurden Schreimelodien von schwedischen und deutschen Säuglingen verglichen. Die schwedische Sprache hat zwei tonale Wortakzente, die zusätzlich zur Betonung des Wortes auftreten. Sie bewirken, dass die Intonation öfter auf- und absteigt, anders als beispielsweise im Deutschen oder Englischen. Die Ergebnisse zeigen, dass die schwedischen Neugeborenen einen signifikant höheren Anteil an komplexen Schreimelodien aufweisen, was bedeutet, dass der charakteristische Tonhöhenakzent höchstwahrscheinlich durch implizites Lernen auswendig gelernt und die Schreimelodie postnatal beeinflusst wird. Die Studie liefert weitere Belege für die Annahme, dass die Empfindlichkeit von Neugeborenen für die Prosodie, für Rhythmus, Dynamik und Akzentuierungen bedeutsam ist. Die Sensibilität für die Umgebungssprache scheint angeboren zu sein.

 

4 Rhythmus und Bewegungen

Rhythmus prägt als universelles Ordnungsprinzip die Musik, aber auch die gesprochene Sprache. Die gesprochene Sprache besteht aus einer Abfolge lautlicher Segmente, die beim Sprechen zu größeren Einheiten zusammengefasst werden. Die kleinste Einheit ist die Silbe, darauf folgt die rhythmische Gruppe und nach bestimmten Prinzipien betonte und unbetonte Silben. Betonte Silben werden durch die prosodischen Mittel Dynamik, Tempo, Tonhöhe, Intensität besonders hervorgehoben. Es ergeben sich mehr oder weniger feste rhythmisch-melodische Strukturen und Muster innerhalb einer Sprache, die – mit abnehmender Vorhersagbarkeit – in gesungenen Texten (streng vorgegebener Rhythmus), Kinderreimen, Gedichten, Prosatexten etc. und auch in der Alltagssprache anzutreffen sind.

Der Mensch hat die einzigartige Fähigkeit, seine motorischen Bewegungen mit einem externen auditorischen Stimulus zu koordinieren. Häufig zwingt uns Musik dazu, uns synchron zum Takt zu bewegen mit spontanem oder absichtlichem Finger- und Fußklopfen und rhythmischem Kopfnicken. Das auffälligste synchronisierte Verhalten ist das Tanzen (Ganzkörperbewegungen). Frühere Entwicklungsstudien zeigen, dass die Fähigkeit, sich mit einem externen Beat (schlagende Trommel) zu synchronisieren erst im Vorschulalter auftritt (4–8 Jahre). Die Voraussetzungen für das Synchronisieren scheinen jedoch schon lange vor dem Vorschulalter gegeben zu sein. Zentner/Eerola (2010) [16] untersuchten die Qualität rhythmischer Kopf-, Hand- und Fußbewegungen von Säuglingen. Stimuli waren Ausschnitte klassischer Musik (Mozart, Saint-Saëns), reine Rhythmusversionen derselben Ausschnitte, Kinderlieder, gleich lange Trommelschläge sowie musikalische Stimuli mit schnellen Tempowechsel. Sprachstimuli waren Ausschnitte aus ADS (an Erwachsene gerichtete Sprache) und KGS. ADS wurde genutzt, da diese auditiv und rhythmisch etwas variabler ist als KGS, aber nicht die strenge zeitliche Regelmäßigkeit von Musik aufweist. Die Säuglinge präsentierten insgesamt mehr rhythmische Bewegungen zu Musik und metrisch regelmäßigen Geräuschen. Die rhythmischen Versionen der Stimuli, einschließlich der Trommelschläge, riefen genauso viel rhythmische Bewegung hervor wie die Musik. Zudem zeigten die Säuglinge bis zu einem gewissen Grad Tempoflexibilität: Ein schnelleres Tempo des Stimulus war mit einem schnelleren Bewegungstempo verbunden. Die Genauigkeit der Synchronisation korrelierte auch mit dem Lächeln, also dem Äußern positiver Emotionen. Zu beobachten waren Alterseffekte: sechsmonatige Säuglinge, die Jüngsten, bewegten sich rhythmischer zu KGS als die älteren Gruppen, reagierten also stärker auf prosodische Merkmale. Die Ergebnisse deuten auf eine Veranlagung für rhythmische Bewegungen als Reaktion auf Musik und andere metrisch regelmäßige Klänge hin. Die Fähigkeiten zur rhythmischen Synchronisation sowie zur systematischen Tempovariation scheinen angeboren zu sein.

Im Prozess des weiteren Spracherwerbs verinnerlichen Kinder die rhythmische Beschaffenheit der Sprache/n, die sie hören, hinsichtlich der Silbenzahl von Wörtern und Wortgruppen, Abfolgen von betonten und unbetonten Silben, Silbenreime etc. durch Kinderreime in Verbindung mit Klatschen und Bewegungen. Nachgewiesenermaßen bestehen enge neurologische Zusammenhänge zwischen dem Sprechen und (rhythmischen) Bewegungen (Klatschen, Stampfen, Tanzen etc.). Der Sprechrhythmus wird von Beginn an im Unbewussten verankert und sukzessive automatisiert.

Die Forschung zeigt, dass sprachauffällige Kinder oft auch rhythmische Defizite aufweisen (Synchronisation zu einem Beat). Fördermaßnahmen legen nahe, dass sich das Einüben sprechrhythmischer Muster in Verbindung mit Körperbewegungen positiv auf den Spracherwerb, insbesondere den Erwerb von Satzmustern in der L1 und L2 auswirkt (vgl. Meißner/Reinke 2015) [17].

 

5 Zusammenfassung

Für Sprache und Musik gilt:

  • Sprache und Musik scheinen einen gemeinsamen evolutionären Vorläufer zu haben. Beide beruhen auf gemeinsamen prosodischen Kategorien. Bedeutungsunterschiede ergeben sich über die prosodischen Elemente Rhythmus und Tonhöhe.
  • Die Grundlagen der Wahrnehmung von Musik und Sprache liegen in der vorgeburtlichen Phase. Sprachliche und musikalische Fähigkeiten werden über das pränatale Hören gemeinsam erworben.
  • In der präverbalen Phase bilden die prosodischen Elemente die Grundlage für den Spracherwerb und den Erwerb musikalischer Fähigkeiten. Die Wahrnehmung und das Erkennen von prosodischen Elementen wie Tonhöhe, Tonhöhenverlauf, Lautstärke und Rhythmus sind eine wesentliche Voraussetzung für den frühkindlichen Spracherwerb.
  • Erkenntnisse aus der Neurowissenschaft belegen die z.T. gemeinsame Verarbeitung von Musik und Sprache. Viele kognitive Verarbeitungsprozesse sind sowohl an der Wahrnehmung von Musik als auch an der von Sprache beteiligt. Teile der prosodischen Merkmale wie die Tonhöhe werden neuronal überlappend verarbeitet.
  • Das Wahrnehmen und Produzieren von Musik ist ein komplexer Vorgang, der nahezu alle Bereiche des Gehirns involviert, mehr als beim Sprechen. Der Einsatz von Musik scheint Prozesse auf verschiedenen Ebenen der Sprachverarbeitung positiv zu beeinflussen und zu unterstützen. Verarbeitungsprozesse in einer Domäne profitieren von Training in der anderen Domäne.

 

6 Ausblick: Sprachförderung mit Musik

Die vorangegangenen Ausführungen legen nahe, dass eine sprachlich-musikalische Förderung einen interdisziplinären Forschungs- und Vermittlungsansatz erfordert mit Fachexpertise in beiden Domänen. Erfahrene Sprach- und Musikvorbilder, ErzieherInnen und Lehrkräfte mit Wissen über Gemeinsamkeiten, Unterschiede, Interrelationen, Fördereinsätze etc., können anregungsreiche sprachlich-musikalische Reize (sensomotorische Erfahrungen im Zusammenhang von lautlicher Wahrnehmung und Bewegung) vermitteln, wenn sie entsprechend aus- und weitergebildet werden. Eine Implementierung des Themas in Lehramtsstudiengänge v.a. für Primarstufen und Förderschulen ist wünschenswert.3 Für WissenschaftlerInnen setzt dies eine engere Vernetzung und Wissensweitergabe linguistischer Erkenntnisse und Kooperationen voraus.

Beteiligte sind

  • Frühgeborenen-Stationen und Kinderärzte,
  • sprachheilpädagogische Kitas, Kindergärten und Frühförderzentren (präventive Musikintervention auffälliger Säuglinge und Kleinkinder) sowie
  • Kitas und Schulen (Ausweitung musikalischer Förderprogramme wie Musikkindergärten, JeKi-Projekte etc.).

Notwendig sind weitere Forschungsstudien zur Synchronisation von Sprache und Musik, insbesondere in den Bereichen der pränatalen und präverbalen Entwicklung, die mehr Wissen über Einflussfaktoren liefern, z.B. der Frage nachgehen, wie sich die Digitalisierung und die Corona-Pandemie mit einem geänderten Kommunikationsverhalten (weniger face-to-face-Interaktionen führen zu weniger Blickkontakt und prosodischer Synchronisation sowie zu weniger musikalischer Aktivität in Kitas und Schulen) auf die kognitive, sprachliche und musikalische Entwicklung von Säuglingen und (Klein-) Kindern auswirkt.

 

1      Video s. https://www.facebook.com/brklassik/videos/320963498923562/, zuletzt geprüft am 15.04.2021. [2]

2      Bei tonalen Sprachen bzw. Tonsprachen als Zwischenformen ist der Tonhöhenverlauf einer Silbe bedeutungsunterscheidend, sie weisen lexikalische Töne auf. Bei sogenannten Intonationssprachen wie z.B. dem Deutschen oder dem Englischen lassen sich bestimmte Satzmelodien erkennen (z.B. enden die meisten Fragen steigend) sowie bestimmte syntaktische Verwendungen zur Hervorhebung von Phrasen. Durch Tonmuster wird der Hörer gelenkt (z.B. hm).

3      Dies betrifft in großem Maße den Bereich DaZ/DaF. Bisher sind rhythmisch-prosodische Aspekte in DaF/DaZ-Lehrwerken und Lernmaterialien zwar in Form von Gedichten bzw. Texten vereinzelt anzutreffen, werden jedoch selten explizit thematisiert bzw. systematisch eingesetzt. Rhythmisch und musikalisch aufbereitete Sprechstücke, Übungen zur Intonation und Aussprache sowie Grammatikvermittlung im Zusammenhang mit rhythmischen Elementen finden sich u.a. bei Fischer (2007) [18] und Weis (2014) [19]. Aussprachelernmaterialien für DaF mit rhythmischen Aspekten stellen u.a. Reinke/Hirschfeld (2014) [20] bereit.

 


References

[1] Hoffmann, Ludger (2011): Kommunikative Welten – das Potential menschlicher Sprache. In: Ludger Hoffmann, Kerstin Leimbrink und Uta M. Quasthoff (Hg.): Die Matrix der menschlichen Entwicklung. Berlin [u.a.]: de Gruyter, S. 165–209.
[2] https://www.facebook.com/brklassik/videos/320963498923562/, zuletzt geprüft am 15.4.2021.
[3] Patel, Aniruddh D. (2008): Music, language, and the brain. Oxford: Oxford University Press.
[4] Ehlich, Konrad (1998): Medium Sprache. In: Hans Strohner, Lorenz Sichelschmidt und Martina Hielscher (Hg.): Medium Sprache. Frankfurt a. M. [u.a.]: Lang, S. 9–21.
[5] Szagun, Gisela (2013): Sprachentwicklung beim Kind. Ein Lehrbuch. 5. aktualisierte Aufl. Weinheim [u.a.]: Beltz.
[6] Jespersen, Otto (1922): Language: Its Nature, Development and Origin. London: Allen & Unwin.
[7] Wray, Alison (2000): Holistic Utterances in Protolanguage: The Link from Primates to Humans. In: Chris Knight, Michael Studdert-Kenney and James R. Hurford (Hg.): The Evolutionary Emergence of Language. Social Function and the Origins of Linguistic Form. Cambridge (MA): Cambridge University Press, S. 285–302.
[8] Mithen, Steven (2006): The singing Neanderthals: The origins of music, language, mind, and body. Cambridge (MA): Harvard University Press.
[9] Brown, Steven (2000): Evolutionary Models of Music: From Sexual Selection to Group Selection. In: François Tonneau and Nicholas S. Thompson (Hg.): Perspectives in Ethology. Evolution, Culture, and Bevavior. Vol. 13. Boston [u.a.]: Springer.
[10] Altenmüller, Eckhard; Kopiez, Reinhard (2015): Warum uns Musik bewegt: Evolutionäre und musikpsychologische Aspekte. In: Archäologie in Deutschland, Sonderheft 7, S. 22–29.
[11] Partanen, Eino; Kujala, Teija; Tervaniemi, Mari; Huotilainen, Minna (2013): Prenatal Music Exposure Induces Long-Term Neural Effects. In: PLoS ONE 8 (10). Online verfügbar unter https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0078946, zuletzt geprüft am 14.06.2021.
[12] Leimbrink, Kerstin (2016): Kommunikation von Anfang an. Die Entwicklung der Sprache in den ersten Lebensmonaten. 2. Aufl. Tübingen: Stauffenburg.
[13] Webb, Stuart; Chang, Anna (2015): Second language vocabulary learning through extensive reading with audio support: How do frequency and distribution of occurrence affect learning? In: Language Teaching Research 19 (6), S. 667–686.
[14] Mampe, Birgit; Friderici, Angela D.; Christophe, Anne; Wermke, Kathleen (2009): Newborns' Cry Melody Is Shaped by Their Native Language. In: Current Biology 19 (23), S. 1994–1997.
[15] Prochnow, A. (2013). Der Erwerb melodisch-rhythmischer Grundbausteine im Rahmen der vorsprachlichen Entwicklung–eine vergleichende Analyse der Schreie von schwedischen und deutschen Neugeborenen (Doctoral dissertation, Universität Würzburg, zuletzt abgerufen am 12.5.2022).
[16] Zentner, Marcel; Eerola, Tuomas (2010): Rhythmic engagement with music in infancy. In: PNAS 107 (13), S. 5768–5773.
[17] Meißner, Svetlana; Reinke, Kerstin (2015): Deutsche Sprache fördern mit Sprechrhythmus. Zur rhythmusgestützten Vermittlung grammatischer Strukturen im Unterricht Deutsch als Zweitsprache (Primarstufe). In: Zeitschrift für Deutsch als Zweitsprache (1), S. 12–26.
[18] Fischer, Andreas (2007): Deutsch lernen mit Rhythmus. Der Sprechrhythmus als Basis einer integrierten Phonetik im Unterricht Deutsch als Fremdsprache. Leipzig: Schubert-Verlag.
[19] Weis, Ingrid (2014): Sprachentdecker und Textzauberer. Kreativ zu Grammatik und Text im Deutschunterricht der Grundschule. Stuttgart: Klett.
[20] Reinke, Kerstin; Hirschfeld, Ursula (2014): 44 Aussprachespiele. Deutsch als Fremdsprache. Stuttgart: Klett.