Zum Inhalt springen

Hörsinn

    Im Unterschied zum Sehsinn ist der Hörsinn bereits bei der Geburt sehr gut ausgebildet, wobei das Neugeborene noch ein paar Tage braucht, bis seine Gehörgänge gänzlich frei von Fruchtwasser sind, aber es hört schon ab dem 5. Schwangerschaftsmonat recht gut und nimmt in den ersten Lebensmonaten Geräusche ganz besonders differenziert wahr. Auch die zeitliche Auflösung des Gehörs scheint bereits gut zu funktionieren, denn junge Säuglinge können Phoneme aller Sprachen unterscheiden. Wahrnehmungsvorlieben gibt es insbesondere für melodiös gesprochene Sprache im Frequenzbereich von Frauenstimmen. Dass das akustische Gedächtnis bereits bei der Geburt recht gut funktioniert, wurde experimentell nachgewiesen: Neugeborene erinnern sich an das Lautmuster einer Geschichte, die ihnen während der Schwangerschaft vorgelesen wurde und scheinen zudem eine Vorliebe für die eigene Muttersprache zu haben, was man ebenfalls auf pränatale Einflüsse zurückführt. Die Fähigkeit, Geräusche im Raum zu orten, lässt sich nur schwer überprüfen, weil das Kind abgesehen von der subkortikal über die Colliculi gesteuerten groben Orientierung hin zur Schallquelle durch seine eingeschränkten Sehfähigkeiten und die begrenzte motorische Kopfkontrolle zunächst nicht gut zeigen kann, wo es die Quelle eines Geräusches vermutet.

    Geräusche sind Schallwellen, die auf die Ohren treffen, wo  sie durch das Trommelfell in Schwingungen umgewandelt werden und über den mechanischen Reiz weiter ins Mittelohr gelangen, wo sich die kleinsten Knochen des Körpers befinden – Hammer, Amboss und Steigbügel. Diese geben den rhythmischen Druck dann weiter an die mit Flüssigkeit gefüllte Hörschnecke im Innenohr, wo die Umwandlung des Schalls in einen elektrischen Reiz erfolgt. Der zuvor akustische Reiz wird nun als winziger Stromschlag ins Gehirn geleitet, wo er interpretiert wird. Eine Schallwelle wird folglich im Bruchteil einer Sekunde zu einem mechanischen Impuls, dann zu einem elektrischen und schließlich zu Sprache, Lärm oder Musik. Diese Grundvorstellung ist prinzipiell korrekt, allerdings sind noch einige Details ungeklärt. So ist bislang nur wenig darüber bekannt, wie der mechanische Reiz im Innenohr zu einem elektrischen wird. Das Gehirn ist nämlich nur in der Lage, den Schall als Nervenreiz zu verarbeiten. Nochmals: Beim Hören werden Schallwellen vom Außenohr auf das Trommelfell geleitet, das die kleinen Gehörknöchelchen im Mittelohr in Schwingung versetzt, die schließlich die Cochlea im Innenohr mechanisch reizen. In der Cochlea lenken die von den Schallwellen verursachten Schwingungen die Haarbündel der inneren Haarzellen aus, aktivieren deren Ionenkanäle und laden sie dadurch elektrisch auf. Diese elektrische Umladung der Zelle, d. h., das Rezeptorpotential, aktiviert die Synapsen an der Basis der Zelle, und je lauter der Schall, desto stärker ist auch das Rezeptorpotential. An der Synapse aktiviert das Rezeptorpotential die Kalziumkanäle, die Kalziumionen in die Zelle eindringen lassen, wobei Kalzium als Botenstoff wirkt, der die Freisetzung von Neurotransmittern aus den synaptischen Vesikeln auslöst. Diese Neurotransmitter aktivieren dann die Nervenfasern, wodurch die Schallinformationen als Nervenimpulse weiter zum Gehirn geleitet werden. Mit Hilfe elektrophysiologischer und bildgebender Verfahren untersuchten Özçete & Moser (2020) nun die Erhöhung der intrazellulären Kalzium-Konzentration und der Neurotransmitter-Freisetzung an den Synapsen der inneren Haarzellen. Dabei fanden sie heraus, dass verschiedene Synapsen einer Haarzelle auf das gleiche Rezeptorpotential unterschiedlich reagierten, d. h., die Synapsen unterschieden sich in der Erhöhung der intrazellulären Kalzium-Konzentration und in der Kalziumabhängigkeit der Neurotransmitter-Freisetzung. Es gibt vermutlich auch Synapsen-Subtypen innerhalb einer inneren Haarzelle, etwa Synapsen, die bei schon schwächeren Potenzialen aktiv sind, die dann Hörnervenfasern antreiben, die besonders empfindlich auf Schall reagieren, wobei angenommen wird, dass die Zusammenarbeit der Hörnervenfasern mit unterschiedlicher Schallempfindlichkeit wichtig für die Verarbeitung eines breiten Lautstärkebereichs ist. Eine solche Diversifizierung der Schallinformation könnte daher grundlegend für die Verarbeitung eines breiten Lautstärkebereichs sein.

    Hören muss daher gelernt werden, denn das Gehirn verarbeitet Informationen und bildet Synapsen, die sich nach der Geburt in der Hirnrinde entwickeln. Gesteuert wird diese Entwicklung vom Hören, wobei die dadurch ausgelöste Aktivität Synapsen entstehen lässt und sie aufrecht hält, während Inaktivität zu ihrem Abbau führt. Dabei geht es nicht nur um gesellschaftliche Isolation und Inaktivität wegen der eingeschränkten Kommunikationsfähigkeit, sondern Ergebnisse einer aktuellen Untersuchung lassen vermuten, dass eine erfolgreiche Hörtherapie Altersdemenz verlangsamen kann.

    Bekanntlich verändert und beeinflusst Gehörlosigkeit auch das menschliche Gehirn, wobei es bei Kindern es einen klaren Zusammenhang mit der frühen auditiven und sprachlichen Entwicklung und kognitiver Fähigkeiten gibt, doch auch bei Erwachsenen kann im höheren Alter das Hörvermögen Vorgänge im Gehirn mitbestimmen. Nach Ansicht von Experten ist Nicht-Hören der wichtigste bekannte und veränderbare Faktor, der das kognitive Altern beeinflusst. Nach Ansicht von ExpertInnen ist Lärm der größte Risikofaktor für Schwerhörigkeit. Man sollte unbedingt schon in jungen Jahren vermeiden, laute Konzerte zu hören oder laute Musik über Kopfhörer, woraus oft eine Schwerhörigkeit entsteht, weil auf die Dauer bestimmte Frequenzen ausfallen.

    Schleichender Hörverlust bedeutet nicht, dass für die Betroffenen alles insgesamt leiser klingt, sondern er äußert sich zunächst darin, dass sie bestimmt, meist hochfrequente Töne nicht mehr hören. So werden Pfeifen und Zischen nicht mehr wahrgenommen, Buchstaben wie „s“ und „f“ nicht mehr erkannt. Die Altersschwerhörigkeit hängt bei den meisten Menschen auch nicht mit irgendwelchen Traumata zusammen, wie etwa einem Schaden im Innenohr, sondern sie ist meist eine Folge der lebenslangen Lärmkulisse, von der Menschen umgeben sind. Für Menschen mit wachsendem Hörverlust werden bei Gesprächen die Nebengeräusche zunehmend störender, denn wenn man Straßenverkehr, Partylärm oder die Geräuschkulisse in Restaurants als immer unangenehmer empfindet, kann das mit einer Überforderung oder Ermüdung des Gehörs zu tun haben. Das Gehirn besitzt zwar die Fähigkeit, aus dem Kontext heraus schlecht Gehörtes auch nachträglich zu entschlüsseln, doch je weniger davon tatsächlich vom Ohr erfasst wird oder je müder das Gehirn ist, desto schwerer fällt die Entschlüsselung.


    Grundsätzliches zum Hören

    Beim Hören nimmt ein Geräusch den Weg über das äußere Ohr und den äußeren Gehörgang zum Trommelfell und gelangt über das Mittelohr zum Innenohr, wo es in Nervenimpulse übersetzt wird, die durch den Hörnerv zum Gehirn gelangen und dort verarbeitet werden. Dieser Weg vom Hörnerv bis zum primären Hörzentrum wird als zentrale Hörverarbeitung bezeichnet, wobei der akustische Reiz wird über verschiedene Kernregionen des Gehirns in das Hörzentrum weitergeleitet, doch erst in der zentralen Hörverarbeitung des Gehirns werden die vom Ohr gelieferten Signale in sinnvolle Informationen umgesetzt. Manchmal kann das Gehörte nicht richtig verarbeitet werden, auch wenn die Ohren in ihrer Funktion selbst absolut in Ordnung sind, d. h., alle beteiligten Strukturen sind organisch gesund. In diesem Fall funktioniert die zentrale Hörverarbeitung nicht optimal, sodass insgesamt zu leise gehört wird oder einzelne Tonhöhen unterschiedlich stark wahrgenommen werden. In diesem Fall werden bestimmte Geräusche anders wahrgenommen, als sie sich tatsächlich anhören, wobei etwa wichtige Informationen aus Stör- und Umgebungsgeräuschen nur schwer herausgehört werden können. So kann ein Sprecher oder eine Sprecherin in einer Gruppe oder auch die Stimme der Lehrerin oder des Lehrers nur ungenügend wahrgenommen oder der Sinn von Wörtern nicht verstanden, wenn ähnlich klingende Laute wie z.B. t und k von der Hörerin oder vom Hörer nicht unterschieden werden können. Ist also die Hörverarbeitung gestört, hören Menschen zu wenig, zu viel oder unausgewogen, was sich manchmal bei Kindern zeigt, die Schwierigkeiten beim Spracherwerb oder dem Erlernen des Lesens und Schreibens haben. Menschen mit einem Ungleichgewicht in der zentralen Hörverarbeitung müssen viel mehr Konzentration aufbringen, um wichtige Sprachinhalte akustisch zu verstehen und um Störgeräusche auszufiltern, wobei die ständige Anstrengung häufig zur Überforderung führt. Das Gehirn kann sogar selbst einen Höreindruck erzeugen, der in der Außenwelt gar nicht vorhanden ist, wobei die Folgen von Schwerhörigkeit über zu sensibles Hören (Hyperakusis) bis zu Ohrgeräuschen (Tinnitus) reichen. Eine wesentliche Voraussetzung für eine optimale Hörverarbeitung ist die Zusammenarbeit beider Gehirnhälften (Lateralität), denn liegt eine ungenügende Zusammenarbeit beider Gehirnhälften vor, ist kein dominantes Ohr ausgeprägt oder wechselt die Lateralität hin und her, dann wird Gehörtes verzögert oder nicht in der richtigen Reihenfolge wahrgenommen. Aus der Überanstrengung heraus gleiten die betroffenen Menschen in eine Konzentrationsschwäche und sind leicht ablenkbar, wobei die Aufmerksamkeit deshalb nachlässt, da es für die Betroffenen einfach zu anstrengend ist, ihre Konzentration länger aufrecht zu erhalten. Manche Menschen kompensieren ihre Überanstrengung durch Aktivität oder sogar durch aggressives Verhalten, auch körperliche Folgen wie Kopfschmerzen sind möglich. Die zentrale Hörverarbeitung beruht also auf Leistungen des Gehirns, sodass es möglich ist, die Hörverarbeitung durch Training zu verbessern, und sich die negativen Folgen verringern lassen.

    Hörsinn auch in der Stille aktiv

    In einer Studie konnte gezeigt werden, dass der Teil des Gehirns, der Geräusche verarbeitet, auch dann aktiv ist, wenn es gar nichts zu hören gibt. Man zeigte Testpersonen kurze Stummfilme, die zum Beispiel einen krähenden Hahn, einen heulenden Hund oder eine zerbrechende Vase zeigten. Gleichzeitig maß man die Aktivität im Hörzentrum des Gehirns, das bei allen Testpersonen aktiv war, obwohl es völlig still war, als die Filme gezeigt wurden, denn innerlich hörten die Probanden offensichtlich den Hahn krähen und den Hund Bellen. Die Muster im Gehirn waren sogar so unterschiedlich, dass man allein an Hand der Hirnsignale vorhersagen konnte, ob die Testperson ein Tier, ein Instrument oder eine andere Szene gesehen hatte.


    Sonia Kleindorfer, Leiterin der Konrad Lorenz Forschungsstelle der Uni Wien im Almtal, weist in einem Interview mit den OÖN vom 28. September 2019 darauf hin, dass Menschen und Singvögel erstaunlich ähnliche Gehirne besitzen: „Es gibt nur sieben Tiergruppen, die vokales Lernen beherrschen; eine Form von Kultur: Singvögel, Papageien, Kolibris, Wale, Elefanten, Fledermäuse und Menschen. Jede Generation lernt die Sprache neu. Menschen und Singvögel haben einen Bereich im Gehirn, der für Lautverarbeitung zuständig ist und einen anderen für Lautproduktion. Beide sind mit Neuronen verbunden. Im menschlichen Baby, das ja noch nicht spricht, wird der Lautverarbeitungsbereich zuerst einmal mit den Lauten der Bezugspersonen formatiert. Diese Informationsstelle wird später mit der Lautproduktion verknüpft. Das Gleiche gilt bei den Vögeln. Brütet man Eier still im Labor aus, können die Vögel später nicht singen. Was meine Gruppe entdeckt hat, ist, dass dieses Lernen sehr früh beginnt. Wir haben gesehen, dass Weibchen zu ihren Eiern singen, obwohl dies das Risiko, von Räubern entdeckt zu werden, erhöht. Wir haben Gelege ausgetauscht und konnten nachweisen, dass die Küken dann den Ruf der Ziehmutter produzieren. Das heißt, dass die Lautäußerung gelernt ist und nicht genetisch festgelegt. Dann haben wir anhand von Magnetresonanzuntersuchungen an den Eiern festgestellt, dass sich die Gehirne anders entwickeln, wenn sie keine elterlichen Rufe erfahren haben. Sie waren asymmetrisch, kleiner und hatten weniger Protein im Areal der Lautverarbeitung.“ Und weiter in Bezug auf den Menschen: „Wir wissen, dass menschliche Embryos sehr wohl eine Wahrnehmung haben für menschliche Sprache. Neugeborene zeigen eine Präferenz für die Sprache, mit der sie Erfahrung haben – gemessen an der Nuckelintensität. Hier tut sich meines Erachtens eine Möglichkeit auf, mit der Stimme der Eltern Frühgeborene zu fördern.“ Allerdings gibt es bei Singvögeln keinen Beweis, „dass es einen Zusammenhang gibt zwischen Kognition und Sprachfähigkeit. Aber wir wissen, dass eine reiche pränatale Erfahrung mit Akustik die Persönlichkeit beeinflusst. Solche Jungvögel sind neugieriger und zeigen vermehrtes Explorationsverhalten, ohne bei Problemlösungen besser zu sein. Es gibt keine Evidenz, dass ein Vogel- oder Menschenbaby gescheiter wird, wenn man ihm Mozart oder Schönberg vorspielt. Spielt man jedoch Wachteln im Ei rhythmische Töne vor, steigert das ihre Leistungsfähigkeit nach dem Schlüpfen, spielt man ihnen hingegen Lärm vor, vermindert das die Gehirnorganisation. Wir Menschen – als vokal lernende Art – sollten unsere akustische Landschaft besser gestalten und genauer untersuchen. Viele unserer Leiden könnten daher kommen, dass wir in akustischer Armut leben oder überreizt sind vom Geräuschpegel.“


    Hören im Schlaf

    Während des Schlafs lösen sensorische Reize bekanntlich nur selten eine Verhaltensreaktion oder eine bewusste Wahrnehmung aus, doch ist es nach wie vor unklar, ob der Schlaf dabei bestimmte Aspekte der sensorischen Verarbeitung hemmt. Hayat et al. (2022) haben Menschen mit Epilepsie im Wachzustand und im Schlaf auditive Reize wie Klickgeräusche, Worte oder Musik dargeboten und dabei neuronale Spikes aufgezeichnet. Auditive Stimuli induzierten dabei robuste und selektive Spiking- und Hoch-Gamma-Reaktionen (80-200 Hz) im lateralen Temporallappen, sowohl während des Non-REM- als auch des REM-Schlafs. Der Schlaf schwächte dabei die Antwortgrößen nur mäßig ab, wobei hauptsächlich die späten Antworten jenseits des frühen auditorischen Cortex und Synchronisation im Non-REM-Schlaf betroffen waren. Das bedeutet letztlich, dass die Reaktion auf Geräusche während des Schlafs weitgehend mit der Reaktion im Wachzustand übereinstimmte. Der entscheidenden Unterschied zum Wachzustand war die auditiv induzierte Alpha-Beta-Desynchronisation, die im Wachzustand vorherrschend ist, im Schlaf aber stark reduziert ist. Offenbar bleiben umfangreiche auditorische Reaktionen während des Schlafs bestehen, während die Alpha-Beta-Leistungsabnahme, die wahrscheinlich auf neuronale Rückkopplungsprozesse zurückzuführen ist, unzureichend ist. Diese Ergebnisse deuten darauf hin, dass Rückkopplungssignale für die bewusste sensorische Verarbeitung von entscheidender Bedeutung sind, konkret, dass die Neuronen in der primären Hörrinde zwar im Schlaf reagieren, aber das neuronale Top-down-Feedback aus höheren Hirnregionen, die dann beim wachen Menschen Aufmerksamkeit und Erwartung vermitteln, abnimmt.

    Hören unter Narkose

    Die neuronale Aktivität im sensorischen Cortex kombiniert bekanntlich Reizantworten und laufende Aktivität, aber es ist dabei unklar, ob diese Aktivität dieselbe zugrunde liegende Dynamik oder getrennte Prozesse widerspiegeln. Konkret wollte man also herausfinden, wie die Gehirne auf Geräusche reagieren, einerseits im wachen Zustand und andererseits unter dem Einfluss dreier Narkosemittel. In der vorliegenden Studie konnten Filipchuk et al. (2022) an Mäusen zeigen, dass die durch Geräusche im auditorischen Cortex und Thalamus – dieser ist ein mit der Großhirnrinde verknüpftes Zentrum im Zwischenhirn, das für die Reizweiterleitung eine wichtige Rolle spielt – evozierten neuronalen Assemblies im Wachzustand spezifisch für den Reiz sind und sich von jenen Assemblies unterscheiden, die bei der laufenden Aktivität beobachtet werden. Im Gegensatz dazu sind die evozierten Assemblies unter drei verschiedenen Anästhetika von den laufenden Assemblies im Cortex nicht zu unterscheiden, allerdings waren diese Verbände nicht spezifisch für die verschiedenen Töne, wie man es im Wachzustand beobachtet hatte. Stattdessen waren die Assemblies nun Teil der Daueraktivität, d. h., viele Neuronen verloren unter Anästhesie ihre Fähigkeit zur spezifischen Reaktion auf Töne. Unter Narkose greift das Gehirn offenbar auf jene Neuronenverbände zurück, die auch schon während der unspezifischen Daueraktivität aktiv sind. Das könnte auch erklären, warum Mäuse und wohl auch Menschen Geräusche unter Narkose nicht mehr so gut einordnen können wie im wachen Zustand.
    Der Thalamus zeigte aber auch unter Narkose noch sein typisch differenziertes Reaktionsmuster, es kommt also zu einem funktionalem Verbindungsverlust zwischen den beiden Hirnregionen, wobei der narkotisierte Cortex die von diesen Eingaben repräsentierten Unterschiede einfach zu ignorieren scheint. Diese unterschiedlichen Reaktionen von Hörrinde und Thalamus bestätigen also, dass der Cortex und seine Aktivitätsmuster den entscheidenden Unterschied zwischen Wachheit und Betäubungsschlaf ausmachen.


    Übrigens: Rechts hören Menschen ein wenig besser!

    Sacchinelli et al. (2017) ließen Probanden im Alter zwischen 19 und 28 Jahren zu einem Hörtest antreten, bei dem die Teilnehmer zur selben Zeit auf jedem Ohr unterschiedliche Wörter oder kurze Sätze hörten. Zunächst sollten sie sich jeweils nur auf die Signale auf einem Ohr konzentrieren und diese wiedergeben, bei weiteren Durchgängen mussten sie alle gehörten Begriffe nachzusprechen. Kinder überfordert eine solche Aufgabe, denn sie konnten gleichzeitig gehörte Informationen von beiden Ohren im Gehirn nicht zu einem sinnvollen Ganzen zusammenzuführen. Daher verlassen sich Kinder im Alltag vor allem auf ihr rechtes Ohr, denn was dort ankommt, wird von der linken Gehirnhälfte verarbeitet, die unter anderem für Sprache und Erinnerungsvermögen zuständig ist, und kann daher besser verstanden und gemerkt werden. Bei einem Test mit Erwachsenen zeigte sich, dass dieser Vorteil des rechten Ohres zunächst nicht der Fall zu sein scheint, denn über welches Ohr die Probanden Zahlenwörter oder andere Begriffe hörten, machte keinen Unterschied und sie konnten diese jeweils gleich gut wiedergeben. Das änderte sich jedoch, als man die Anzahl der Begriffe entscheidend erhöhte und damit die individuelle Merkspanne der Teilnehmer überschritt. Nun konnten die Teilnehmer mit dem rechten Ohr diese schwierige Hörsituation um acht Prozent besser bewältigen, wobei manche Probanden mit rechts um bis zu vierzig Prozent besser abschnitten als mit links. Offensichtlich verschwindet der bisher schon vermutete Vorteil des rechten Ohrs ab dem dreizehnten Lebensjahr doch nicht völlig, wobei der kognitive Anspruch der Höraufgabe aber entscheidend sein dürfte.


    Die individuelle Ohrform beeinflusst das Gehör

    Manche Ohren der Menschen sind klein, manche groß, manche eher hängend, andere wiederum spitz nach oben ragend, doch so unterschiedlich sie auch aussehen, so entscheidet ihre Form darüber, was Menschen hören. Die äußere Beschaffenheit des menschlichen Ohrs ist auch entscheidend für die Entscheidung im Gehirn, ob ein Ton von oben oder unten komme, denn Töne aus verschiedenen Richtungen treffen unterschiedlich auf die äußeren Bereiche der Ohren. Durch die individuelle und unregelmäßige Form reflektieren die menschlichen Ohrmuscheln den Schall in den Gehörgang, wobei das Gehirn mit der Zeit lernt, diesen individuellen Vorgang richtig zu interpretieren. Wird aber die Form der Ohrmuschel künstlich verändert, ist das Gehirn zunächst verwirrt und kann nicht mehr feststellen, ob die Töne von oben oder unten kommen. Menschen können daher nur mit ihren eigenen, individuell gestalteten Ohren gut hören, weil das Gehirn jeweils ihre Form gelernt hat und daher gut kennt. Die Ohrmuschel reflektiert durch ihre unregelmäßige Form den Schall in den Gehörgang, woraus ein kurzes Echo entsteht, das die Klangfarbe ändert, was schließlich in Form der Lage im Raum interpretiert wird (Trapeau & Schönwiesner,  2018).

    Die verschiedenen Formen in der Ohrmuschel mit den knorpeligen Vertiefungen, Ausstülpungen oder kleinen Wände dienen vorwiegend dazu herauszufinden, ob ein Geräusch von unten oder oben kommt. Links und rechts sind für Ohren kein Problem, denn dafür haben Lebewesen zwei Ohren, und aus den minimalen Zeitunterschieden, mit denen der Schall erst das eine und dann das andere Ohr erreicht, kann das Gehirn ableiten, wo sich die Quelle eines Geräuschs auf einer horizontalen Ebene befindet. Für die Unterscheidung zwischen oben und unten hilft dieser Mechanismus aber nicht weiter, sondern dafür ist die Form der Ohrmuschel zuständig. Bei Untersuchungen zeigte sich, dass es sogar eine optimale Ohrmuschel für den perfekten Raumklang gibt, denn bei manchen Menschen ist die Ohrform dergestalt, dass sich Schallquellen aus verschiedenen Richtungen noch verschiedener anhören, wobei ein unsymetrisches, großes Ohr dafür perfekt ist.

    Es gibt für die Unterscheidung oben-unten kleine Bereiche in der Hörrinde, in denen die Nervenzellen nur ganz wenig feuern, wenn ein Geräusch von oben kommt, und immer mehr feuern, je tiefer die Schallquelle liegt. Die verlässliche Information über die Lage der Schallquelle wird dabei in der Ohrmuschel erzeugt, denn dort verändert sich der Ton aufgrund der unregelmäßigen Knorpel-Strukturen, Erhöhungen und Vertiefungen. Es entsteht ein Echo, durch das dem Ton ein spezifischer Oberton aufgesetzt wird, der eine Art Code für die Höhe der Schallquelle darstellt. Verändert man etwa durch kleine Silikoneinsätze die Struktur der Ohrmuscheln, ist die Lokalisierfähigkeit gestört, doch nach einigen Wochen lernt das Gehirn, mit dem neuen Ohr umzugehen. Allerdings ist noch unklar, wie das Gehirn lernt, wieder die Höhe der Schallquelle korrekt zu interpretieren, wobei offenbar kein Abgleich über optische Eindrücke notwendig ist, allerdings kann man beobachten, dass die Menschen mit veränderten Ohrmuscheln während des Lernprozesses häufig den Kopf drehen.

    Warum hören Menschen trotz zweier Ohren kein Echo?

    Geräusche, Töne oder gesprochene Sprache werden vom linken und rechten Ohr normalerweise unterschiedlich wahrgenommen und erreichen das Trommelfell in der Regel auch zeitlich versetzt, denn das hilft zwar zu bestimmen, aus welcher Richtung Geräusche kommen, bedeutet aber auch, dass das Gehirn die Informationen beider Ohren zusammenführen muss, denn sonst würden Menschen ein Echo hören. Um das zu verhindern, liegt offenbar an der Weiterverarbeitung der Signale im Gehirn. Der Input vom rechten Ohr erreicht zuerst die linke Hirnhälfte und Input vom linken Ohr zuerst die rechte, wobei die beiden Hemisphären bei der Sprachverarbeitung unterschiedliche Aufgaben übernehmen: Die linke Seite ist für die Unterscheidung der Silben zuständig, die rechte erkennt die Sprachmelodie. Obwohl beide Hälften also die Informationen zeitlich verschoben erhalten und unterschiedliche Sprachmerkmale verarbeiten, integriert das Gehirn das Gehörte zu einem einzelnen Sprachlaut. Man fand jüngst Hinweise dafür (Preisig et al., 2021) , dass ein direkter Zusammenhang zwischen der Integration des Gehörten und der Synchronisierung durch Gamma-Wellen gibt. In einem Experiment mussten Probanden wiederholt eine Höraufgabe lösen: Sie bekamen auf dem rechten Ohr eine zweideutige Silbe (einen Sprachlaut zwischen ga und da) und auf dem linken Ohr unbemerkt ein Klicken eingespielt, das ein Fragment der Silben da oder ga enthielt. Davon abhängig hörten die Versuchspersonen entweder ga oder da. Bei jeder Wiederholung mussten die Versuchspersonen angeben, was sie gehört hatten. Während dieses Vorgangs verfolgte man die Aktivität in beiden Hirnhälften mit Hilfe funktioneller Magnetresonanztomographie. Im Verlauf der Experimente störte man das natürliche Aktivitätsmuster der Gamma-Wellen durch elektrische Stimulation der beiden Hirnhälften mit am Kopf befestigten Elektroden, wobei diese Manipulation die Fähigkeit der Teilnehmenden beeinflusste, die gehörte Silbe richtig zu identifizieren. Die fMRI-Analyse zeigte, dass dabei gleichzeitig auch Veränderungen in der Aktivität der Nervenverbindungen zwischen den beiden Hirnhälften auftraten, denn je nachdem, ob der Rhythmus der Gamma-Wellen mit Hilfe der elektrischen Stimulation in den beiden Hirnhälften synchron oder asynchron zueinander beeinflusst wurde, veränderte sich die Stärke der Verbindung, wobei diese Störung zudem mit einer Verschlechterung der Integration einherging. Die Synchronisation der Gamma-Wellen scheint also die verschiedenen Inputs der beiden Hirnhälften miteinander abzugleichen und so für einen eindeutigen akustischen Eindruck zu sorgen. Offenbar ist die durch Gamma-Wellen vermittelte Synchronisation zwischen verschiedenen Hirnarealen ein grundlegender Mechanismus für die neuronale Integration.

    Ausrichtung der menschlichen Ohren auf Geräusche

    Strauss et al. (2020) haben in Bezug auf menschliche Ohren herausgefunden, dass auch der Mensch wie viele Tiere seine Ohren auf interessante Geräusche hin ausrichtet, wobei diese unbewusst winzige Ohrbewegungen machen, die genau in die Richtung gehen, in die sie ihre Aufmerksamkeit lenken. Man wies in dieser Untersuchung nach, dass die Muskeln rund um das Ohr aktiv werden, sobald neuartige, auffällige oder aufgabenrelevante Reize wahrgenommen werden. Dabei spiegelt die elektrische Aktivität der Ohrmuskeln die Richtung wider, in die der Mensch seine Aufmerksamkeit beim Hören richtet, was wohl bedeutet, dass der Mensch höchstwahrscheinlich ein rudimentäres Orientierungssystem beibehalten hat, das die Bewegung seiner Ohrmuscheln zu kontrollieren versucht, und das als neurales Fossil im Gehirn seit etwa 25 Millionen Jahren fortbesteht. Man konnte in der Untersuchung die Steuersignale für die winzigen, im Allgemeinen nicht sichtbaren Ohrbewegungen mittels Oberflächen-Elektromyogrammen nachweisen, bei dem Sensoren, die auf die Haut geklebt werden, die elektrische Aktivität der Muskeln aufzeichnen, die die Ohrmuschel bewegen oder ihre Form verändern.
    Untersucht wurden dabei zwei Arten von Aufmerksamkeit: Zur Beurteilung der reflexiven Aufmerksamkeit, die automatisch durch unerwartete Geräusche auftritt, wurden die Teilnehmer durch neuartige Geräusche von verschiedenen seitlichen Positionen überrascht, während sie damit beschäftigt waren, einen eintönigen Text zu lesen. Um die zielorientierte Aufmerksamkeit zu testen, wie sie etwa beim aktiven Zuhören auftritt, sollten die Probanden eine Kurzgeschichte von einem seitlichen Sprecher anhören und eine konkurrierende Geschichte auf der gegenüberliegenden Seite ignorieren. Beide Versuchsanordnungen kamen zu dem Ergebnis, dass die Bewegungen der rudimentären Muskeln im menschlichen Ohr die Richtung der Geräusche anzeigen, auf die eine Person achtet. Um diese winzigen Ohrbewegungen näher zu charakterisieren, wurden zusätzlich spezielle, hochauflösende Videoaufzeichnungen der Versuchspersonen während der Experimente gemacht. Anschließend wurden die subtilen Ohrbewegungen per Computer in den Videos vergrößert und damit sichtbar gemacht. Je nach Art des Reizes gelang es auf diese Weise, unterschiedliche Aufwärtsbewegungen des Ohres sowie unterschiedlich starke Rückwärtsbewegungen der Seitenkante der Ohrmuschel zu beobachten.


    Übrigens können Schleiereulen auf ein oder zwei Grad genau ermitteln, aus welcher Richtung ein Geräusch kommt, also viel besser als Menschen. Das liegt an speziellen Strukturen in ihrem Gehirn, die sich zunutze machen, dass ein Geräusch die beiden Ohren etwas zeitversetzt erreicht, wenn die Eule nicht genau in Richtung der Quelle sieht. Ein Gitter aus Nerven mit zwei unterschiedlich langen Enden ermittelt hierzu, wie groß diese Differenz ist und gibt Aufschluss darüber, aus welcher Richtung das Geräusch kam.


    Pferde sind in Sachen Geräuschwahrnehmung den Menschen deutlich überlegen, denn sie können jedes Ohr unabhängig voneinander um bis zu 180 Grad drehen, sodass sie verschiedene Geräusche und deren Ursprung sehr genau orten können und dafür nicht einmal ihren Kopf drehen müssen. Damit das möglich ist, hat jedes Ohr 16 Muskeln. Darüber hinaus hören sie auch deshalb fast doppelt so gut wie Menschen, weil sie mehr Frequenzen wahrnehmen, und zwar Töne bis 33.500 Hertz (der Mensch nur bis etwa 20.000 Hertz). Pferde besitzen auch ein gutes Geräuschgedächtnis und unterscheiden Geräusche auch besser, sodass sie Menschen schon am Schritt erkennen können. Pferde lieben darüber hinaus besonders Vokale, und zwar je höher und länger ausgeprägt, desto besser. Die Ohrengröße ist übrigens nicht nur von der Körpergröße der Pferde abhängig, sondern auch von der Rasse, denn so haben Rassen, die aus kälteren Regionen stammen, kleinere Ohren, was diese vor Erfrierungen schützen soll. Aufgrund ihrer hohen Sensibilität reagieren Pferdeohren auf Wind sehr empfindlich, denn bei Wind nimmt ein Pferd noch mehr Geräusche als sonst wahr bzw. es kann diese nicht mehr so genau verorten. Pferde sind daher als Fluchttiere bei Wind immer äußerst angespannt. Pferde nutzen ihre Ohren auch um zu kommunizieren: Zurückgedrehte Ohren signalisierenetwa Wut oder Gefahr, bei seitlich ausgerichteten, leicht hängenden Ohren ist das Pferd entspannt, gelangweilt oder döst einfach nur. Wenn die Ohren sehr schnell nach vorne und hinten wechseln, ist das Pferd vermutlich gerade verunsichert, denn es weiß dann nicht so genau, was wichtig ist und worauf es reagieren soll. Wenn es sehr laut wird, legen Pferde manchmal die Ohren an, um so ihr Gehör zu schützen.


    Der Aktionstag „Welttag des Hörens„- „World Hearing Day“, „International Ear Care Day“ – findet jährlich am 3. März statt, mit dem die Weltgesundheitsorganisation gemeinsam mit nationalen Organisationen die Aufmerksamkeit auf die Prävention und Versorgung von Hörminderungen und auf die Bedeutung des Gehörs lenken möchte. Hintergrund ist, dass etwa fünf Prozent der Weltbevölkerung hochgradig hörgemindert und dadurch behindert sind, wobei dies allein ein Drittel der über 65-Jährigen, aber auch 32 Mio. Kinder betrifft.


    Hörverlust verändert auch andere kognitive Leistungen

    Bei einem Hörverlust verändert sich das Gehirn und organisiert sich neu, wobei andere Sinne wie das Sehen oder der Tastsinn in den Vordergrund treten und Aufgaben des Hörens übernehmen. Dieser Wandel tritt schon früh etwa drei Monate nach Beginn einer leichten Schwerhörigkeit ein, denn während bei einem hörenden Menschen die Hörrinde ausschließlich für die Verarbeitung von Höreindrücken zuständig ist, wird diese bei einem Hörverlust nachweislich auch von den übrigen Sinnen beansprucht. Dieser Effekt tritt in Folge der neuen Aufgabenverteilung im Gehirn aufgrund der fehlenden akustischen Signale durch die Hörminderung ein. Die frontalen und die präfrontalen Bereiche des Gehirns werden aktiver, wenn der auditorische Input abgeschwächt wird, sodass mehr Anstrengungen zum Zuhören notwendig sind, was anscheinend eine Veränderung der kortikalen Ressourcenallokation im Gehirn bewirkt, da das Zuhören immer aufwendiger wird.

    Beckmann et al. (2020) haben allerdings gezeigt, dass der plötzliche und vollständige Verlust einer sensorischen Modalität zu einer generellen Beeinträchtigung der Hippocampusfunktion führt, die monatelang anhält, d. h., es gibt eine allgemeine Abhängigkeit der Leistung des Hippocampus von sensorischer Informationen. Die Auswirkungen gehen dabei mit umfangreichen Veränderungen in der Expression von Neurotransmitter-Rezeptoren in Cortex und Hippocampus einher, was mit einer substantiellen adaptiven Reorganisation der cortikalen Funktion einhergeht. Allerdings ist unklar, ob auch ein allmählicher sensorischer Verlust die Funktion des Hippocampus beeinträchtigt. Dennoch könnte ein progressiver altersbedingter Hörverlust ein Risikofaktor für einen kognitiven Rückgang sein. In Untersuchungen an Mäusen haben Beckmann et al. (2020) gezeigt, dass Mäusen, die zwar mit einem intakten Hörvermögen geboren werden, jedoch durch einen angeborenen Gendefekt einen graduellen Hörverlust erleiden, Symptome zeigen, die dem der Altersschwerhörigkeit beim Menschen ähnelt. Man analysierte dabei die Dichte der für die Gedächtnisbildung relevanten Botenstoffrezeptoren im Gehirn der Tiere und verglich die Ergebnisse mit den Gehirnen von gesunden Mäusen. Es zeigte sich, dass sich mit dem Fortschreiten der Schwerhörigkeit auch die Effekte im Gehirn verstärken, wobei die schwerhörigen Mäuse zunehmende Einschränkungen bei ihrer Gedächtnisleistung aufwiesen. Es könnte daher einen Zusammenhang zwischen kognitivem Verfall und altersbedingtem Hörverlust bei Menschen geben, indem auf der Ebene der sensorischen Informationsverarbeitung verhindert wird, dass der Hippocampus effektiv arbeitet. Vor allem war die synaptische Plastizität des Hippocampus stark beeinträchtigt, und die Mäuse zeigten signifikante Defizite im räumlichen Gedächtnis.


    Hintergrundgeräusche: Jeden Augenblick erreichen den Menschen unzählige Informationen, von denen nur ein kleiner Teil aktiv verarbeitet wird. Bisher war man davon ausgegangen, dass unwichtige Informationen aus dem Hintergrund auch nur schwach verarbeitet werden, wenn die Aufmerksamkeitsanforderungen hoch und diese Informationen irrelevant sind und keine erkennbare Spur im Langzeitgedächtnis hinterlassen. Hutmacher & Kuhbandner (2019) haben das nun für Geräusche untersucht. Den Probanden wurden gleichzeitig ein schneller visueller Wortstrom und ein auditiver Strom von Alltagsgeräuschen (ein Glas wird mit Wasser gefüllt, ein Kühlschrank brummt, die Waschmaschine läuft) präsentiert (auf einem Bildschirm wurden für jeweils 250 Millisekunden kurze Wörter präsentiert, wobei wenn ein Wort zweimal hintereinander vorkam, sollte eine Taste gedrückt werden), mit der Anweisung, sich um den visuellen Strom zu kümmern und nur die Wortwiederholungen zu erkennen bzw. die Ablenkung durch die irrelevante Geräusche zu vermeiden. Es wurde aber nicht erwähnt, dass ihre Erinnerungen an die Geräusche später überprüft werden würden. Die Ergebnisse zeigten, dass offenbar mehr vermeintlich unwichtige Sinneseindrücke gemerkt werden, denn die Trefferquote beim anschließenden Test lag bei immerhin rund 57 Prozent und beim Test einen Tag später noch bei rund 56 Prozent. Das Ergebnis zeigt, dass Menschen nicht nur Sinneseindrücke speichern, die die Aufmerksamkeit aktiv auswählt, sondern dass mehr im Gedächtnis hängen bleibt, als man gemeinhin annehmen würde. Zudem waren in dem Experiment die Erinnerungen auch noch sehr detailliert, denn die für das Experiment verwendeten Geräusche unterschieden sich nur in Details.

    Bekanntlich können Geräusche und Töne auf ähnlichen Frequenzen vom Gehirn nur schlecht differenziert werden. Christensen et al. (2019) haben bei Mäusen untersucht, wie ihr Gehirn zwischen wichtigen und weniger wichtigen Tönen unterscheidet, und fanden dabei heraus, dass ein konstantes Geräusch das Hören verbessert, wobei jedoch nicht jede Art von Hintergrundgeräusch diesen Effekt besitzt. Vor allem weißes Rauschen, also ein gleich bleibender Geräuschton, führt dazu, dass das Gehirn Töne präziser wahrnehmen kann. Da hilft – wie mittels Optogenetik gemessen wurde – nicht eine erhöhte Aktivität der Nervenzellen im auditorischen Cortex, sondern das Gegenteil, d. h., das weiße Rauschen unterdrückte diese neuronale Aktivitäten, sodass es bei zwei getrennten Tönen zu weniger Überschneidungen zwischen den verschiedenen Neuronenpopulationen kommt. Daher führt die allgemeine Reduktion der neuronalen Aktivität zu einer deutlicheren Tondarstellung. Diese Effekte des weißen Rauschens werden schon länger erforscht, wobei man auch herausfand, dass sich Menschen mit ADHS besser konzentrieren können, wenn sie weißes Rauschen hören.

    Literatur

    Beckmann, Daniela, Feldmann, Mirko, Shchyglo, Olena & Manahan-Vaughan, Denise (2020). Hippocampal Synaptic Plasticity, Spatial Memory, and Neurotransmitter Receptor Expression Are Profoundly Altered by Gradual Loss of Hearing Ability. Cerebral Cortex, doi:10.1093/cercor/bhaa061.
    Campbell, J & Sharma, A. (2014). Cross-modal re-organization in adults with early stage hearing loss. PLoS ONE, doi:10.1371/journal.pone.0090594.
    Campbell, J. & Sharma, A. (2013). Compensatory changes in cortical resource allocation in adults with hearing loss. Frontiers Systems Neuroscience, 7, doi:10.3389/fnsys.2013.00071.
    Christensen, R. K., Lindén, H., Nakamura, M. & Barkat, T. R. (2019). White noise background improves tone discrimination by suppressing cortical tuning curves. Cell Reports 29, 1-13.
    Filipchuk, Anton, Schwenkgrub, Joanna, Destexhe, Alain & Bathellier, Brice (2022). Awake perception is associated with dedicated neuronal assemblies in the cerebral cortex. Nature Neuroscience, 25, 1327-1338.
    Hutmacher, Fabian & Kuhbandner, Christof (2019). Detailed long-term memory for unattended, irrelevant, and incidentally encoded auditory information. Journal of Experimental Psychology, doi:10.1037%2Fxge0000650.
    Hayat, Hanna, Marmelshtein, Amit, Krom, Aaron J., Sela, Yaniv, Tankus, Ariel, Strauss, Ido, Fahoum, Firas, Fried, Itzhak & Nir, Yuval (2022). Reduced neural feedback signaling despite robust neuron and gamma auditory responses during human sleep. Nature Neuroscience, 25, 935-943. Pauen, S, & Vonderlin, E, (2007). Entwicklungsdiagnostik in den ersten drei Lebensjahren. Deutsches Institut für Wirtschaftsforschung.
    Özçete, Ö. D. & Moser, T. (2020). A sensory cell diversifies its output by varying Ca2+ influx-release coupling among presynaptic active zones for wide range intensity coding. The EMBO Journal, doi:10.15252/embj.2020106010.
    Preisig, B. C., Riecke, L., Sjerps, M., Kösem, A., Kop, B. R., Bramson, B., Hagoort, P., & Hervais-Adelman A. (2021). Selective modulation of interhemispheric connectivity by transcranial alternating current stimulation influences binaural integration. PNAS, doi0.1073/pnas.2015488118.
    Sacchinelli, D, M., Weaver, A, J. & Wilson, M, (2017). Does the right ear advantage persist in mature auditory systems when cognitive demand for processing increases? Acoustical Society of America, 174th Meeting 2017.
    Stangl, W. (2021, 16. April). Das Hören ist eine komplizierte Sache. lerntipp.net.news.
    https:// news.lerntipp.net/das-hoeren-ist-eine-komplizierte-sache.
    Stangl, W. (2022, 11. Juli). Das Gehirn reagiert im Schlaf auf auditorische Stimuli ähnlich wie im Wachzustand. Stangl notiert …
    https:// notiert.stangl-taller.at/grundlagenforschung/das-gehirn-reagiert-im-schlaf-auf-auditorische-stimuli-aehnlich-wie-im-wachzustand/
    Strauss, Daniel J., Corona-Strauss, Farah I., Schroeer, Andreas, Flotho, Philipp, Hannemann, Ronny, Hackley, Steven A., Groh, Jennifer M, Shinn-Cunningham, Barbara G., Verhulst, Sarah, Shera, Christopher & Corneil, Brian D. (2020). Vestigial auriculomotor activity indicates the direction of auditory attention in humans. eLife, doi10.7554/eLife.54536.
    Trapeau, R. & Schönwiesner, M. (2018). The encoding of sound source elevation in the human auditory cortex. J Neurosci, doi: 10.1523/JNEUROSCI.2530-17.2018.
    https://www.benaudira.de/hoeren/ (20-12-21)
    https://www.pferde.de/magazin/pferdeohren-7-fakten-die-du-gehoert-haben-solltest/ (22-01-08)

     

     


    Impressum ::: Datenschutzerklärung ::: Nachricht ::: © Werner Stangl :::

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    Inhaltsverzechnis