Besser hören dank automatischer Spracherkennung?
Oldenburg. Automatische Spracherkennung, wie sie im Alltag zum Beispiel bei Sprachassistenzsystemen wie Alexa oder Siri zum Einsatz kommt, könnte in Zukunft Menschen mit Höreinschränkungen zugutekommen. Forschende der Universität Oldenburg haben jetzt einen Beitrag dazu geleistet, diese Technologie perspektivisch dafür zu nutzen, dass Hörgeräte selbstständig die ideale Programmierung für verschiedene Geräuschkulissen einstellen. Darüber berichten Jana Roßbach, Prof. Dr. Birger Kollmeier und Prof. Dr. Bernd T. Meyer vom Oldenburger Exzellenzcluster Hearing4all in der Fachzeitschrift „Journal of the Acoustical Society of America“.
Wer heute ein Hörgerät trägt, kann zwischen verschiedenen Einstellungen wählen, abhängig davon, ob er zum Beispiel ein Gespräch führen oder Musik hören möchte. Die überschaubare Anzahl an voreingestellten Programmen kann jedoch die Realität mit ihren vielfältigen Geräuschkulissen nicht abbilden. Ständig das Hörgerät manuell an die Umgebung anzupassen, ist ebenfalls nicht alltagstauglich.
An dieser Stelle könnte künftig automatische Spracherkennung zum Einsatz kommen, die mit Verfahren der Künstlichen Intelligenz (KI) arbeitet. Um in jeder Situation die ideale Einstellung für den jeweiligen Hörgeräteträger vorzunehmen, müsste die Software lernen, genauso wie die Person zu „hören“ – mit all ihren spezifischen Einschränkungen.
Dass das möglich ist, zeigten die Oldenburger Forschenden mit einem Versuch, bei dem sie Mensch und Maschine vor die gleiche Aufgabe stellten. Dazu ermittelten sie von 20 Testpersonen mit Hörschädigungen zunächst den individuellen Hörstatus. Die Spracherkennungssoftware trainierten sie derweil mit Audioaufnahmen von Testsätzen und brachten ihr bei, diese in geschriebener Form zu wiederholen. Damit der Computer im Test den gleichen Schwierigkeiten ausgesetzt war wie die Person mit Höreinschränkung, spielten die Forschenden die Testgeräusche mit einem zusätzlichen Rauschen ab, das die individuelle Einschränkung des Menschen simulierte.
Im nun folgenden Test mussten Probandinnen und Probanden sowie die jeweils auf deren Höreigenschaften trainierte KI eingespielte Sätze verstehen und wiedergeben. Das Ergebnis: Wie viele Wörter verstanden wurden, stimmte im Durchschnitt zwischens Mensch und seinem Maschinen-Pendant in hohem Maße überein. Zur Überraschung der Forschenden galt das in allen acht unterschiedlichen Hör-Szenarien, in denen verschiedene Nebengeräusche zum Einsatz kamen, wie sie auch im Alltag häufig das Sprachverstehen erschweren.
Noch stehen sie bei ihren Untersuchungen zum Einsatz von Spracherkennungssoftware in Hörgeräten am Anfang, betonen die Forschenden. „In weiteren Untersuchungen wollen wir jetzt offene Fragen klären und zum Beispiel eine Möglichkeit schaffen, dass die Spracherkennungssoftware selbst erkennt, ob sie mit ihrer Prognose falsch oder richtig liegt“, erklärt die Hörtechnikerin und Audiologin Jana Roßbach.
Originalveröffentlichung: Jana Roßbach, Birger Kollmeier, Bernd T. Meyer: „A model of speech recognition for hearing-impaired listeners based on deep learning”, The Journal of the Acoustical Society of America (2022),
Quelle Pressemeldung von Universität Oldenburg