Interventionen bei Hörverlust
Die Bemühungen, die Belastung durch Hörverlust zu verringern, gewinnen an Dynamik, aber es ist nach wie vor eine Herausforderung, Lösungen zu finden, die in Gebieten mit eingeschränkter Gesundheitsversorgung zugänglich sind. Glücklicherweise gibt es einige vielversprechende Präventivmaßnahmen wie Impfungen gegen Masern und Röteln sowie Behandlungen für Ohrinfektionen.
Darüber hinaus können die Gebärdensprache und das Lippenlesen sinnvolle Möglichkeiten zur Kommunikation ohne Ton bieten. Dies könnte die Integration in die örtliche Gehörlosengemeinschaft einschließen und könnte eine wunderbare Lösung sein, die keine Technologien wie Hörgeräte und Cochlea-Implantate erfordert. Hier konzentrieren wir uns jedoch auf letztere und untersuchen ihr Potenzial und ihre Grenzen bei der Wiederherstellung des Zugangs zu Lauten.
Was sind die Unterschiede zwischen Hörgeräten und Cochlea-Implantaten?
Hörgeräte sind kleine Geräte, die im oder hinter dem Ohr getragen werden. Sie werden in der Regel für Menschen mit leichtem bis mittlerem Hörverlust verwendet und bewirken, dass Töne lauter werden. Cochlea-Implantate hingegen sind Geräte, die den Hörnerv im spiralförmigen Innenohr, der so genannten Cochlea, direkt stimulieren. In der Cochlea sind winzige Haarzellen damit beschäftigt, Schallschwingungen in elektrische Signale für das Gehirn umzuwandeln. Wenn diese Haarzellen geschädigt sind, oft durch Lärmbelastung oder Alterung, kann das Gehirn wichtige Schallinformationen nicht mehr empfangen, was zu Hörverlust führt. Hier kommen Cochlea-Implantate ins Spiel – sie werden für Menschen mit schwerem bis hochgradigem Hörverlust eingesetzt, denen Hörgeräte nicht helfen. Diese Geräte umgehen die geschädigten Haarzellen vollständig und ermöglichen es den Betroffenen, sich wieder mit der Welt der Klänge zu verbinden!
Mit anderen Worten: Hörgeräte verstärken Töne, während Cochlea-Implantate den Hörnerv direkt stimulieren, um ein Gefühl für Töne zu vermitteln. Dazu müssen Cochlea-Implantate chirurgisch eingepflanzt werden. Im Allgemeinen sind Hörgeräte weiter verbreitet, da sie für eine breitere Palette von Personen geeignet sind und keine Operation erfordern.
Die Entwicklung der Hörgeräte: von der Trompete zum digitalen Gerät
Die frühesten Modelle von Hörgeräten stammen aus dem 17. Jahrhundert und bestanden aus einfachen Geräten wie Ohrtrompeten und Sprechschläuchen. Die Idee hinter diesen Geräten ist, dass es einfacher ist, Schallwellen mit einer Trichterform aufzufangen, so wie wenn man die Hände um die Ohren legt.
Seit den Anfängen der Hörgeräte haben wir einen langen Weg zurückgelegt. Hörgeräte sind heute mit einer elektrischen Komponente ausgestattet. Anstatt den Schall einfach nur in das Ohr zu leiten, nimmt ein Mikrofon den Schall auf, ein Verstärker erhöht die Lautstärke, und ein Lautsprecher gibt den verstärkten Schall an das Ohr ab. Eine weitere große Veränderung ist, dass die heutigen Hörgeräte nicht mehr analog, sondern digital arbeiten. Das bedeutet, dass digitale Hörgeräte nicht mehr alle Geräusche gleichermaßen verstärken (wie beim Aufdrehen eines Radios), sondern Geräusche in Zahlen umwandeln, was eine fortschrittlichere Verarbeitung ermöglicht (z. B. die Konzentration auf die Verstärkung bestimmter Geräusche, die Sie deutlicher hören möchten). Außerdem haben moderne Hörgeräte eine längere Batterielebensdauer und ein komfortableres und tragbareres Design. Sie sind auch mit einer Bluetooth-Verbindung ausgestattet. So können Sie direkt über Ihre Hörgeräte telefonieren, Musik hören oder fernsehen.
Auch wenn Hörgeräte das Hörerlebnis verbessern können, bieten sie nicht immer die Unterstützung, die unser Gehirn braucht, um Sprache unter schwierigen Bedingungen (z. B. in einer lauten Umgebung) zu verstehen. Wie genau interpretiert das Gehirn also Sprache? Darauf wollen wir als Nächstes eingehen!
Kann unser Gehirn auch die Lautstärke aufdrehen?
Unser Gehirn ist eine außerordentlich komplexe Entschlüsselungsmaschine. Kurz gesagt: Bei der Sprachverarbeitung wandelt das Gehirn die vom Hörnerv empfangenen Schallwellen in elektrische Signale um. Diese Signale werden dann in der Hörrinde analysiert, wo das Gehirn Wörter und Sätze von Hintergrundgeräuschen unterscheidet. Um die Bedeutung des Gehörten zu verstehen, nutzt das Gehirn den Kontext (Informationen, die über die Sinne aus der Umgebung kommen) und das Weltwissen (Interpretation im Lichte früherer Erfahrungen). Wenn wir Sprache hören, sagen wir auch aktiv voraus, was als Nächstes gesagt werden wird. Wenn zum Beispiel jemand sagt: „Es ist so warm draußen, ich würde gerne ein…“, kann der Zuhörer vorhersagen, dass das nächste Wort des Sprechers „Eis“ sein wird. So kann man Gesprächen besser folgen und schnell antworten (siehe auch https://www.mpi-talkling.mpi.nl/?p=2122&lang=de).
Menschen mit einer Hörbehinderung erhalten verzerrte auditive Informationen, was bedeutet, dass sie sich mehr anstrengen müssen, um zu verstehen, was gesagt wird, vor allem in lauter Umgebung. Es könnte helfen, sich mehr auf diese Vorhersagen zu verlassen, um dem Spiel einen Schritt voraus zu sein. Die Frage ist nun, ob künftige Hörgeräte Sprache vorhersagen können, so wie es Menschen tun, um hörgeschädigten Nutzern weiter zu helfen.
Hörgeräte der Zukunft
Künstliche Intelligenz (KI) hat die Hörtechnologie bereits revolutioniert und verspricht in den kommenden Jahren weitere bedeutende Verbesserungen. In gewissem Maße sind KI-Hörgeräte so konzipiert, dass sie ähnlich wie unser Gehirn arbeiten und Klangmuster und Kontext analysieren, um Sprache vorherzusagen und zu verbessern. Sie nutzen ausgeklügelte Algorithmen, um sich in Echtzeit anzupassen, sich auf wichtige Klänge zu konzentrieren und Hintergrundgeräusche zu reduzieren, genau wie unser Gehirn, wenn es uns hilft, Gespräche zu verstehen. Im Gegensatz zu herkömmlichen digitalen Hörgeräten, die über voreingestellte Modi für verschiedene Umgebungen verfügen (z. B. „Zuhause“ oder „Restaurant“), können sich KI-Hörgeräte flexibler an bestimmte Situationen anpassen. Sie können zum Beispiel erkennen, wenn jemand durch eine Maske spricht, und den Klang entsprechend anpassen oder sich auf die Stimmen konzentrieren, die man am häufigsten hört, wie die eines Partners, enger Freunde oder Familienmitglieder.
Künftige Hörgeräte könnten sogar noch fortschrittlichere Technologien wie neuronale Schnittstellen und Augmented Reality enthalten. Stellen Sie sich eine nicht-invasive Gehirn-Computer-Schnittstelle vor, die sich mit der natürlichen Hörverarbeitung Ihres Gehirns synchronisiert und die Echtzeitanpassung an verschiedene Umgebungen durch eine kontinuierliche Feedbackschleife verbessert. Augmented Reality könnte eine weitere Ebene der Unterstützung hinzufügen, indem sie auditive 3D-Karten für ein besseres räumliches Bewusstsein erstellt und visuelle Hinweise wie Untertitel durch spezielle Brillen liefert. Fortgeschrittene KI-Algorithmen wären in der Lage, Sprachmuster und Umgebungsgeräusche vorherzusagen und zu antizipieren, indem sie Sensoren nutzen, um den Kontext zu verstehen und die Einstellungen automatisch anzupassen. Das maschinelle Lernen würde personalisierte Klangprofile entwickeln, die auf Ihren täglichen Routinen und Vorlieben basieren.
Es gibt auch potenzielle Nachteile zu bedenken. Fehler in den KI-Vorhersagen, z. B. die Fehlinterpretation von Sprache oder Umgebungsgeräuschen, könnten zu großer Verwirrung führen. Während sich unser Gehirn über Millionen von Jahren entwickelt hat, um mit komplexen Situationen umzugehen, verlässt sich die KI auf ihre Programmierung und Daten, was bedeutet, dass sie Schwierigkeiten haben kann, mit unerwarteten Situationen umzugehen. Auch technische Störungen können eine Herausforderung darstellen, wenn ein Nutzer von ihr abhängig ist. Mit der Weiterentwicklung von KI und Spitzentechnologien sehen solide Lösungen für die Zukunft jedenfalls sehr vielversprechend aus. Diese Technologien können kulturelle und gemeinschaftsbasierte Strategien, wie Gebärdensprache oder Lippenlesen, ergänzen, um vielfältige, maßgeschneiderte Optionen zu bieten.
This blog post was inspired by the Cabaret of Dangerous Ideas show ‘Do you know what comes next?’ by Muzna Shehzad and Naomi Nota at the Edinburgh Fringe Festival on August 7th at 1:40PM in The Stand Comedy Club. To read more about their show, see also the following blog post. For more information on the research project „Predicting language under difficult conditions: Effects of cognitive load, noise, and hearing impairment,“ see also the Economic and Social Research Council Grant proposal (Reference ES/X001148/1).
Referenzen
- Wilson, B. S., & Tucci, D. L. (2021). Addressing the global burden of hearing loss. The Lancet, 397(10278), 945–947. https://doi.org/10.1016/S0140-6736(21)00522-5
- Killion, M. C. (1997). Hearing Aids: Past, Present, Future: Moving Toward Normal Conversations in Noise. British Journal of Audiology, 31(3), 141–148. https://doi.org/10.3109/03005364000000016
- Hearing Therapy. (n.d.). The history of hearing aids. Retrieved November 21, 2024, from https://hearingtherapy.co.uk/the-history-of-hearing-aids/