Erkenntnisse, Ausblicke und eine Geburtstagsfeier – Das achte Oticon Symposium
Für viele ist das Oticon Symposium längst zu einem festen Termin im Kalender geworden. Verwunderlich ist das nicht, fährt der Hersteller doch regelmäßig ein spannendes Programm auf, gespickt mit interessanten Vorträgen.
2019 fiel das Event zudem mit dem 50. Geburtstag der Hamburger Niederlassung zusammen. Rückblick auf einen Tag mit vorwärtsgewandten Themen. (Teil 1)
Torben Lindø blickt erfreut in den großen Saal. Über 300 Gäste, so viele wie noch nie, begrüßt der Geschäftsführer der Oticon GmbH heute im Hamburger Curio Haus zum achten Oticon Symposium. „Ich kann es kaum fassen“, sagt er mit Blick auf die so zahlreich angereisten Gäste und bedankt sich für das „Interesse an der Zukunft“. Denn wie immer auf dem Oticon Symposium geht es um „Zukunft, Mensch, Audiologie“.
Doch bevor sich der Blick gen Zukunft richtet, wirft Torben Lindø einen Blick zurück in die Vergangenheit. „Ohne Zweifel war das Jahr 1969 ein besonderes “, sagt er. „Die erste Mondlandung, Elvis Presley war in den Charts und der Summer of 69 wird noch heute besungen. Auch Oticon Deutschland wurde 1969 gegründet. Und wie Steffi Graf feiern wir in diesem Jahr unseren 50. Geburtstag – zwar ohne Wimbledon-Sieg, aber mit vielen Assen im Ärmel.“
Anschließend kommt er auf das Motto des Symposiums zu sprechen. So sei man mit Entwicklungen wie etwa BrainHearing™ schon ein Stück weit in der Zukunft angekommen. Aber die Ambition, weiterhin innovativ zu sein, werde man bei Oticon freilich nicht ablegen. Und im Zentrum dieser Ambition steht der Mensch. Schließlich haben Innovationen aus dem Hause Oticon stets das Ziel, das Leben der Menschen zu verändern, zu verbessern und zu erleichtern – und zwar mit audiologischer Exzellenz. Wohin das künftig führen könnte, darüber werden heute einige der Vorträge Aufschluss geben.
Die Moderation des Symposiums übernimmt wie gewohnt Horst Warncke. Und gleich der erste Redner, den der Leiter der Audiologie der Oticon GmbH ankündigt, widmet sich in seinem Vortrag einem thematischen Dauerbrenner der Veranstaltung: „Kognitiv gesteuerte Hörsysteme“. Damit spricht Prof. Dr. Torsten Dau, der an der Technischen Universität Dänemark den Fachbereich Hörsysteme, das Centre for Applied Hearing Research (CAHR) und das Centre of Excellence for Hearing and Speech Sciences (CHeSS) leitet, über eben jenes Thema, das der Leiter des Oticon Forschungszentrums Eriksholm, Uwe Andreas Hermann, auf dem Symposium 2015 aufgemacht hatte..
Kognitiv gesteuerte Hörsysteme
„Viele Menschen haben Probleme mit der Sprachkommunikation in komplexen akustischen Situationen“, eröffnet Prof. Dr. Torsten Dau. Das hätte auch „die fantastische Technologie, die wir heute haben“, bisher nicht vollends lösen können.
Diese Herausforderung zu bewältigen, daran arbeitet Torsten Dau mit seinen Kollegen an der technischen Universität Dänemark sowie im Verbund mit Kollegen internationaler Einrichtungen. Finanziert werde die Forschung, berichtet Dau, oftmals von der Hörgeräteindustrie.
Einleitend beschreibt er, dass vor allem jüngere Normalhörende in der Lage sind, selektiv hören zu können. Sie verfügen über eine Art „natürliche Lärmreduktion“.
Schwerhörige hingegen verfügen nicht mehr in vollem Umfang über diese natürliche Rauschreduktion. Daher werde versucht, diese mithilfe von Hörsystemen, Cochlea-Implantaten und anderen Hörlösungen wiederherzustellen. Die Nachahmung instantaner Kompression, über die man mit einem intakten Gehör im Innenohr verfügt, könne hierfür eine Möglichkeit sein. Der Nachteil hierbei sei, dass durch die Kompression „alle möglichen Nebeneffekte“ erzeugt würden. Und die wolle man nicht haben.
Eine andere Möglichkeit könnte darin bestehen, kognitive Defizite zu messen, entsprechend zu kompensieren und zusätzlich die kognitiven Funktionen an sich zu trainieren. Oder man setzt auf Big Data und maschinelles Lernen, sammelt einfach viele Daten und misst, welche Einstellungen bevorzugt werden, um danach die Hörsysteme einstellen. Mit Audiologie und den Prozessen im Ohr habe das dann allerdings weniger zu tun, so Dau.
Ein weiterer Weg könnte der sein, Schwerhörigen lediglich den Schall zu liefern, der für sie relevant ist. Nur, wie soll das gehen?
Das Eingangssignal der Hörsysteme ist stets die Summe aller akustischen Quellen des jeweiligen Szenarios. Und die Algorithmen eines Hörsystems wissen nicht, was der Nutzer hören möchte. Es wäre also „mindestens sehr interessant, wenn Hörsysteme kognitiv gesteuert werden könnten“, stellt Tosten Dau fest. Dafür müsste man allerdings nicht nur in der Lage sein, akustische Quellen trennen zu können. Man müsste auch den Hörwunsch des Nutzers kennen, um ihm das gewünschte Zielsignal verstärkt liefern zu können. Realisieren lassen könnte sich das, sagt Torsten Dau, in einer sogenannten „Feedback Loop“.
Einige Erkenntnisse, die für die Umsetzung dieses Vorhabens von Nöten sind, wurden bereits gewonnen. So hatten amerikanische Forscher in der Fachzeitschrift „Science“ einen Artikel veröffentlicht, in dem sie beschreiben, wie das menschliche Gehirn auf akustische Signale eine Antwort gibt, die sich aus dem EEG herauslesen lässt. Man kann also anhand des EEGs erkennen, auf was für ein akustisches Signal sich ein Proband konzentriert. Selbst wenn man dem Probanden zwei Signale gleichzeitig anbietet, und er sich auf eines der beiden konzentriert, sieht die entsprechende Repräsentation des Signals im EEG aus wie bei einem isoliert dargebotenen Signal. „Das Gehirn gewichtet also je nach Aufmerksamkeit das relevante Signal“, fasst Torsten Dau zusammen.
Bleibt die Frage, ob man diese Fähigkeit mit modernen Hörsystemen ausnutzen kann. Im Rahmen des von der Europäischen Union geförderten Projekts „Cognitive control of a hearing aid“ beschäftigten sich Torsten Dau und internationale Kollegen, darunter Thomas Lunner vom Forschungszentrum Eriksholm, damit. Die Idee war, Hörsysteme als Brain-Computer-Interfaces zu nutzen und EEG-Signale auszuwerten und zu entschlüsseln, um daraus schließen zu können, was das Zielsignal des Nutzers ist.
Anfangs sind die Forscher skeptisch. Sie präsentieren einem normalhörenden Probanden, der eine EEG-Kappe mit vielen Elektroden auf dem Kopf trägt, im Labor verschiedene akustische Szenarien und sehen in 80 bis 90 Prozent der Fälle im EEG die Rekonstruktion dieser Szenarien. Selbst bei Szenarien mit verschiedenen Sprechern oder bei der Simulation einer halligen Umgebung funktioniert es relativ stabil. „Das heißt, die Entschlüsselung des Hirns funktioniert grundsätzlich auch im Nachhall und mit mehreren Sprechern“, resümiert Torsten Dau. Allerdings dauerte es recht lang, bis die Antwort des Hirns entschlüsselt war.
Würde das auch bei Schwerhörigen klappen? In weiteren Versuchen testeten die Forscher das dann auch mit hörgeminderten Probanden, denen sie die Signale mit Verstärkung zum Ausgleich der Hörminderung präsentierten. Zudem stellten sie den Probanden Fragen zum Inhalt des präsentierten Signals.
Und tatsächlich gab es bei den Versuchen „keine Unterschiede zwischen Normal- und Schwerhörenden“, berichtet Torsten Dau. Die Szenarien wurden allerdings, merkt er an, bei relativ gutem SNR präsentiert. Präsentierte man den schwerhörigen Probanden ein Szenario mit zwei Sprechern, sei es für sie jedoch deutlich anstrengender gewesen. Das EEG der Probanden konnte dennoch dekodiert werden, und zwar ähnlich stabil wie bei Normalhörenden. „Das war im Vorfeld nicht zu erwarten“, berichtet Dau. Allerdings müsse man einräumen, dass die Entschlüsselung etwa 25 Sekunden braucht. „Für eine Echtzeitanwendung ist das natürlich schwierig“, sagt Dau. Aber das Projekt war auch nur eine Vorstudie, ein Proof of Concept, wie er betont. Und die habe erstmals gezeigt, dass man ein Hörsystem per Intention steuern kann. Die Entwicklung jedenfalls werde weitergehen. Aktuell forsche man, auch auf Initiative von Oticon, daran, diese Herausforderung mit Elektroden am bzw. im Ohr zu nehmen statt mit einer EEG-Kappe auf dem Kopf.
Das gehirngesteuerte System sei im Übrigen, so Torsten Dau, nur eine Möglichkeit, etwas kognitiv zu steuern. Auch per Pupillometrie sei es möglich. „Das ist vielleicht weniger elegant, aber schneller“, sagt er.
„Psychologische und neurobiologische Einflüsse auf unser Hörerleben“
Auf Prof. Dr. Torsten Dau folgt an diesem Vormittag im Hamburger Curio Haus Prof. Dr. Jonas Obleser, Psychologe, Statistiker und Neurowissenschaftler an der Universität zu Lübeck, wo er auch den Lehrstuhl für Physiologische Psychologie innehat. Er widmet sich in seinem Vortrag dem Thema „Psychologische und neurobiologische Einflüsse auf unser Hörerleben“. Seine aktuellen Forschungsinteressen liegen bei neuronalen Schwingungen in Empfindung, Wahrnehmung und Kognition sowie exekutiven Funktionen wie Aufmerksamkeit und Gedächtnis. Zudem untersucht er, wie sich diese Prozesse beim menschlichen Zuhörer neural verbinden.
Bei komplexen sinnesphysiologischen Vorgängen wie dem Hören müsse man das Gehirn als Ganzes denken, statt die bekannten einzelnen beteiligten Areale zu betrachten, eröffnet Jonas Obleser. Ist doch die gesamte Persönlichkeit des Menschen samt seiner individuellen Eigenschaften mit dem Hören verwachsen. Und so fragt er sich, wie das Zuhören im neuronalen Netzwerk des Gehirns repräsentiert sein könnte. Anders formuliert: Wie funktioniert eigentlich das Zuhören?
Unbestritten ist, dass mit zunehmendem Alter das Gehör in seiner Leistung nachlässt. Das erstaunliche Ergebnis seiner Forschung sei nun aber, dass es zwischen dem Alter eines Menschen und der Fähigkeit zuzuhören keinen Zusammenhang gibt. Es müssten also auch andere Determinanten des Hörerfolgs existieren.
Erklärt werden könnte das damit, dass der Mensch im Ganzen nicht stabil sei, sondern täglich, ja stündlich andere Zustände und Befindlichkeiten durchlebe, die neurobiologische Konsequenzen hätten. Das Leistungsvermögen schwanke den Tag über stark – und damit auch die Fähigkeit, zuzuhören. Es wird also vom situativen Befinden beeinflusst. Dabei spielen Faktoren wie Stimmung und Fitness eine Rolle, aber auch Charakterzüge. Es braucht also ein neurologisch-mechanistisches Grundlagenmodell des Zuhörens, um die Zusammenhänge besser verstehen zu können, erklärt Obleser.
Ein wichtiges Werkzeug hierfür ist das EEG. Dessen Präzision in Echtzeit hat den Vorteil, genau zu den angebotenen akustischen Signalen zu passen und exakt die bioelektrischen Aktivitäten der Nervenzellen und die Sauerstoffsättigung des Gehirns im Sekundentakt messen zu können. Mithilfe des MRT könne man zudem „die Anatomie der Traits“, also der Charakterzüge, genau betrachten. Mit diesen beiden Verfahren könne man dem Gehirn bei seiner Arbeit zuschauen, so Obleser.
Auch auf die räumliche Konfiguration komplexer neuronaler Netzwerke im Gehirn kommt er zu sprechen. Die sind, sagt er, nicht etwa statisch, sondern flexibel und können sich augenblicklich akustischen Anforderungen entsprechend verändern.
Die Frage sei nun, ob sich die relevanten Netzwerke des Gehirns (z.B. Hören, Aufmerksamkeit, Gedächtnis) bei schwierigen Zuhörsituationen verstärkt integrieren und dabei miteinander kommunizieren, oder ob dann die Segregation zunimmt, die dadurch gekennzeichnet ist, dass verschiedene Hirnfunktionen in unterschiedlichen Bereichen und Strukturen des Gehirns ausgelagert und verankert werden.
Im MRT zeigte Jonas Oblesers Team, was im Gehirn passiert, simuliert man den Cocktail-Party-Effekt, und der Proband soll berichten, was eine bestimmte Person unter den Gästen gesagt hat. So bilden die Netzwerke im Hirn beim Lösen dieser Aufgabe neue Allianzen.
Gibt die Neubildung dieser Allianzen auch Aufschluss darüber, wie gut die jeweilige Person mit der Hörsituation zurechtkommt? Und tatsächlich, so Jonas Obleser, sage dieser „Rekonfigurationsprozess“ vorher, wie der Hörerfolg des Probanden in Kürze sein werde. Die Geschwindigkeit, in der diese neuen Allianzen gebildet werden, sei hierbei von Proband zu Proband verschieden – und ein Maß dafür, wie der Hörerfolg ausfalle.
Die neurobiologische Konfiguration eines Netzwerks sei im Prinzip auch ein „Trait“, das die Probanden voneinander unterscheide. Für ihn als Psychologe sei von Interesse, nicht nur die Unterschiede in der individuellen Leistungsfähigkeit herauszufinden, sondern auch hinsichtlich der individuellen Bedürfnisse der Probanden, die ein Spiegelbild der Persönlichkeit eines Menschen seien. Darunter würden die Psychologen ein Set von fünf definierten Eigenschaften verstehen. Das ließe sich gut mit einem Fragebogen erfassen und in einem Koordinatensystem darstellen, zum Beispiel bei der Frage, wie introvertiert oder extravertiert (Soziabilität) beziehungsweise wie stabil oder instabil ein Mensch mental und emotional ist (Neurotizismus).
Für die Hörforschung sei dieses Koordinatensystem von Interesse, weil die Persönlichkeit weit weniger stabil ist als man bisher glaubte. Der Psychologe Hans-Jürgen Eysenck (1916-1997), auf den das Konzept von Extra- und Intraversion zurückgeht, glaubte, dass alles auf unverrückbare hirnbiologische Fakten zurückzuführen sei, zum Beispiel die unterschiedlichen Erregungspotenziale bei extra- und introvertierten Personen.
Daraus leitete er 1984 die These ab, dass Extravertierte sich bei einem höheren Hintergrundrauschen wohler fühlen würden als Introvertierte. Die Hörforschung untersuchte nun, ob man aus der Lärmempfindlichkeit einer Person ableiten könne, wie extra- bzw. introvertiert sie ist. Und tatsächlich habe sich, bei aller Skepsis gegenüber Eysenck, bestätigt, dass gesellige Menschen weniger lärmempfindlich sind als zurückhaltende, wenn auch bisher nur mit einer Wahrscheinlichkeit von 55 Prozent. Bei nervösen und psychisch labilen Menschen sei der Zusammenhang größer. Sie seien mit 60prozentiger Wahrscheinlichkeit lärmempfindlich. Dann berichtete Prof. Obleser über eine Studie, die zurzeit mit Nutzern von Hörsystemen durchgeführt wird. Dabei wurden die Probanden von hinten mit Störschall beschallt, der in einer voll besetzten Cafeteria aufgenommen worden ist. Die Hörsysteme wurden bei der Dynamikkompression und der Störschallunterdrückung jeweils auf zwei verschiedene Stufen fixiert. Hier zeigte sich, dass sich die extravertierten Probanden mit der höheren Kompressionsstufe benachteiligt fühlten.
Sie wünschten sich einen höheren Störschallpegel. Die introvertierten und die psychisch labilen Probanden bevorzugten dagegen eine höhere Kompression. Derzeit beschäftige man sich in Lübeck mit den objektiven und subjektiven Maßen des Hörempfindens im Zusammenhang mit den Eigenschaften der Persönlichkeit. Wenngleich noch längst nicht alle 500 Probanden im Test waren, deute sich jetzt schon mit nur 30 Probanden der Zusammenhang zwischen Neurotizismus und Lärmempfindlichkeit an. Der Nutzen dieser Forschungsarbeiten liege unter anderem darin, dass zum Beispiel Hörakustiker oder HNO-Ärzte mehr über den Zusammenhang von Persönlichkeits- und Verhaltensmerkmalen ihrer Kunden einerseits und deren Lärmempfindlichkeit andererseits erführen und sich besser darauf einstellen könnten.
Lesen Sie im nächsten Heft Teil unserer Berichterstattung über das achte Oticon Symposium.