Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...
←
→
Transkription von Seiteninhalten
Wenn Ihr Browser die Seite nicht korrekt rendert, bitte, lesen Sie den Inhalt der Seite unten
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen Kirsten C. Wagener1,2, Michael Schulte1, Markus Meis1,2 1Hörzentrum Oldenburg GmbH, Exzellenzcluster H4All 2HörTech gGmbH Schlüsselwörter: Hörgeräte, Kommunikation, Alltag Einleitung In der modernen Kommunikationsgesellschaft erfolgen die Unterhaltungen in immer komplexeren sich dynamisch verändernden akustischen Situationen. Für Hörgeschädigte kann dies auf der einen Seite bedeutende Einschränkungen in der Kommunikationsfähigkeit und somit der Lebensqualität zur Folge haben. Auf der anderen Seite versuchen aktuelle Hörgeräte, den Anforderungen der komplexen Kommunikationssituationen gerecht zu werden und so den Hörgeschädigten eine Erleichterung in der Kommunikation und der sozialen Partizipation zu bieten. Die Methodik des Ecological Momentary Assessment (EMA, Shiffman et al, 2008) in der Hörversorgung, d.h. die zeitnahe Bewertung von Hörfähigkeiten im Alltag über in Smartphone integrierte Fragebogen-Apps (die z.B. auch gekoppelt akustische Parameter der bewerteten Hörsituation auswerten können) ermöglicht, im Alltag den „Individuellen Nutzen der Hörgeräteversorgung“ zu untersuchen (von Gablenz et al, 2019). Die Vielzahl der sich dynamisch verändernden akustischen Situationen sind nicht für die Hörgeschädigten eine Herausforderung in der Kommunikation, sondern ebenfalls eine Herausforderung für Hörhilfen, die optimaler Weise in jeder individuellen Hörsituation die beste Versorgung der Hörminderung realisieren soll. Im vorliegenden Beitrag wird vorgestellt, wie sich verschiedene Aspekte dieser komplexen Kommunikation im Labor nachvollziehen lassen können. Dabei werden wechselnde Gesprächspartner, wechselnde Aufmerksamkeit, geteilte Aufmerksamkeit und die Bedeutung von visuellen Cues in der Kommunikation betrachtet. Wechselnde Gesprächspartner – wechselnde Aufmerksamkeit Eine Gesprächssituation mit wechselnden Gesprächspartnern und damit wechselnder Aufmerksamkeit des Zuhörers wurde durch den Oldenburger Satztest mit konkurrierenden Sprechern im Labor realisiert (Heeren et al, 2019). Abb. 1 links verdeutlicht den verwendeten Task: Aus drei verschiedenen Richtungen werden Sätze des Oldenburger Satztest (Wagener et al, 1999) mit verschiedenen SprecherInnen dargeboten. Als Triggerwort dient das im Test vorkommende Wort „Kerstin“: Sobald das Wort präsentiert wurde, sollen für die nachfolgenden Sätze aus derselben Präsentationsrichtung jeweils das letzte Wort pro Satz in Form eines normalen Sprachverständlichkeitstests wiederholt werden, bis das Wort „Kerstin“ aus einer anderen Richtung präsentiert wird – ab dann muss aus der neuen Richtung die Sprache verstanden werden. Damit wird die Gesprächssituation simuliert, dass die Zuhörerin Kerstin im Gespräch mit drei Leuten immer demjenigen zuhört, der sie direkt angesprochen hat. Zur Analyse der individuellen Sprachverständlichkeit in dieser komplexen Kommunikationssituation werden drei verschiedene Messungen durchgeführt und analysiert: 1) Lokalisation des Wortes „Kerstin“, 2) Sprachverständlichkeit fester Zielsprecher: Das letzte Wort pro Satz muss für eine feste Darbietungsrichtung (0° vorne) wiederholt werden, 3) Kombination aus 1) und 2): Sprachverständlichkeit bei wechselnden Zielsprechern: Wiederholung des jeweils letzten Wortes der Sätze aus der Richtung, von der zuletzt „Kerstin“ dargeboten wurde. Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 1
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Abbildung 1: Sprachverständlichkeitstest mit konkurrieren Sprechern. Links: Visualisierung der Hörsituation, rechts: Ergebnisse von 22 Normalhörenden (Boxplots), aus Heeren et al, 2019. In Abb. 1 rechts sind die Ergebnisse als Boxplots von 22 jungen Normalhörenden zu sehen. Es zeigt sich, dass die geteilte Aufmerksamkeit in Messung 3 Einfluss auf Lokalisation und Sprachverständlichkeit hat. Die Schwierigkeit des Tasks ist über die Feuerrate und den Überlapp der Sätze regulierbar, somit ist eine Messung bei hohen Signal-Rausch-Verhältnissen (SNR) möglich. Durch die verschiedenen Darbietungsrichtungen sind auch Richtungseffekte auswertbar, so dass dieses Verfahren als neues Benchmark-Messverfahren für die Evaluation von Hörhilfen geeignet ist (Heeren et al, 2019). Wechselnde Gesprächspartner – geteilte Aufmerksamkeit Hörsituationen mit wechselnden Gesprächspartnern und geteilter Aufmerksamkeit des Zuhörers kommen z.B. bei größeren Feiern vor, bei denen zum einen einer Rede von einem weiter entfernten Sprecher zugehört wird aber auch gleichzeitig den dazu abgegeben Kommentaren des Tischnachbarn gegenüber Beachtung geschenkt wird. Eine solche Hörsituation ist besonders für stark Hörgeschädigte problematisch. Zusätzliche Hilfsmittel wie z.B. externe Mikrofone können in dieser Hörsituation die Sprache des entfernten Redners verstärkt in die Hörhilfen des Zuhörers streamen. Doch kann der Hörgeschädigte dann noch die Kommentare des Tischnachbarn verstehen? Um diese komplexe Hörsituation im Labor abzubilden, wurde ein Sprachverständlichkeits-Messparadigma im Dual task entwickelt (Wagener et al, 2018). Für den primären Task müssen von fortlaufenden Sätzen des Oldenburger Satztests mit weiblicher Sprecherin (Wagener et al, 2014) jeweils der verstandene Name auf einem Tablet ausgewählt werden. Als Auswahl stehen dort die zehn im Test vorkommenden Namen. Der sekundäre Task ist eine klassische Sprachverständlichkeitsmessung bei festen SNR mit dem Göttinger Satztest (Kollmeier und Wesselkamp, 1997): Die dargebotenen Sätze des männlichen Sprechers müssen dem Versuchsleiter wiederholt werden. Primärer und sekundärer Task werden gleichzeitig in einem diffusen Restaurant-Störgeräusch dargeboten. Abb. 2 (aus Wagener et al, 2018) zeigt Ergebnisse für 15 stark hörgeschädigte Probanden versorgt mit Hörgeräten und externen Mikrofonen (RM), die sich in der Mikrofoncharakteristik der Hörgerätemikrofone (omnidirektional oder direktional) unterscheiden. Der primäre Task wurde entweder aus dem Nahfeld oder dem Fernfeld präsentiert und der sekundäre Task dementsprechend aus dem jeweilig anderen. Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 2
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Abbildung 2: Ergebnisse des Dual Task Sprachverständlichkeitstests von 15 versorgten Hörgeschädigten mit externem Mikrofon (Boxplots). Das Setup ist immer bezeichnet als zuerst der Lautsprecher, der für den primären Task genutzt wird, gefolgt von der Darbietung des sekundären Tasks. Hörgeräte-Konditionen (HA Cond): Omni-RM: Omnidirektionale Hörgerätemikrofone und externes Mikrofon, Dir+RM: Direktionale Hörgerätemikrofone und externes Mikrofon. Aus Wagener et al, 2018 (dort Figure 7) Neben der Dual Task Präsentation in Nah- und Fernfeld ist auch die Präsentation aus verschiedenen Richtungen möglich, was eine Art „Abendbrot-Situation“ nachbildet, bei der als schwierige Hörsituation alle Gesprächspartner durcheinander reden. Dabei stellt sich die Frage, was ist die beste Richtcharakteristik der Hörhilfen-Mikrofone in einer solchen Situation? Sollen sie sich adaptieren und wenn ja, wie? Dabei ist zunächst interessant zu untersuchen, wie sich der normalhörende Zuhörer in einer solchen Situation adaptiert/bewegt. Realistisches Bewegungsverhalten im Labor Hendrikse et al (2019) haben in virtuellen audiovisuellen Tascar-Szenarien realistische Hörsituationen nachgebildet und somit das Bewegungs- und Blickrichtungsverhalten in Hinblick auf die Konsequenzen für Hörhilfen untersucht. So wurden mit Head-Tracking-Messungen von 43 normalhörenden Probanden (Altersbereich 30-34 Jahre: 22, Altersbereich 60-77: 21) die Kopf- und Blick-Trajektorien in einer Cafeteria-Situation untersucht (Abb. 3). In einer Kondition hatte der Proband die Aufgabe, nur zuzuhören, in einer anderen Kondition wurde die Alltagssituation „Essen und Zuhören“ simuliert, indem der Proband als Dual Task zusätzlich eine Montage-Aufgabe mit dem Pegboard-Test durchführen sollte. In der „Nur Hören“ Kondition zeigt, sich, dass die Blickrichtung dem Zielsprecher folgt (Abb. 4, links), die visuelle Aufmerksamkeit also auf dem Target liegt. In der Dual Task Kondition „Hören und Pegboard“ zeigt sich, dass die Blickrichtung unabhängig vom Zielsprecher ist, da die visuelle Aufmerksamkeit auf das Pegboard gerichtet ist (Abb. 4, rechts). Abbildung 4: Trajektorien der Blickrichtung von 43 normalhörenden Probanden im Tascar-Szenario Cafeteria. Links: Kondition „Nur Hören“, rechts: Kondition „Dual Task Hören und Pegboard“. Aus Hendrikse et al, 2019 (dort Figure 6 und 7) Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 3
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Das bedeutet, dass in einer solchen Dual Task Situation eine feste Direktionalität der Hörhilfen mit sehr enger Richtcharakteristik nicht hilfreich ist, weil die Blickrichtung nicht dem Zielsprecher folgt. Visuelle Cues zur Steuerung der Aufmerksamkeit Nicht nur die visuelle Aufmerksamkeit beeinflusst die Kommunikationsbedingungen mit Hörhilfen z.B. durch Fehlausrichtung von Richtcharakteristiken, sondern visuelle Cues können auch die Aufmerksamkeit steuern und so die Kommunikation beeinflussen. Um dies zu untersuchen, verwendeten Hendrikse et al (2018) den Coordinate Response Measure Task CRM (Schepers et al, 2017) in virtueller audiovisueller Simulation mit vier möglichen Zielsprechern (animierte Videos) in vier verschiedenen Konditionen: 1) „Nur Audio“ ohne Video, 2) „Audio und Blickrichtung aller Sprecher auf den Probanden“, 3) „Audio und Blickrichtung aller sonstigen Sprecher auf den aktuellen Zielsprecher“, 4) „Audio und zufällige Blickrichtung aller Sprecher“. Abb. 5 zeigt die Ergebnisse für 14 normalhörende Probanden für den Performanztask ‚Richtung+Farbe+Zahl korrekt‘ (Hendrikse et al, 2018). Die höchste Performanz wurde in Kondition „Audio und Blickrichtung aller sonstigen Sprecher auf den aktuellen Zielsprecher“ gefunden, da die Probanden in dieser Kondition durch die visuellen Cues Zusatzinformationen haben, welchem Sprecher zugehört werden soll. Außerdem zeigte sich, dass die Probanden nicht wissen, wohin sie die Aufmerksamkeit richten sollen, wenn sie nicht lokalisieren können und somit der Verstehenstask nicht richtig bearbeitet werden konnte. Hendrikse et al (2018) konnten somit zeigen, dass die Aufmerksamkeitssteuerung durch visuelle Cues die Sprachverständlichkeit verbessert und ebenso die Höranstrengung verringert: Subjektive Bewertungen der Höranstrengung waren für alle videoanimierten Sprecher schlechter als reale Videoaufnahmen bis auf in der Kondition „Blickrichtung aller sonstigen Sprecher auf den aktuellen Zielsprecher“. Visuelle Cues zur Kommunikationsunterstützung Besonders hochgradig Hörgeschädigte benötigen das Lippenlesen zur Unterstützung des Verstehens von Sprache. Daher wurden auf Basis des Oldenburger Satztest-Sprachmaterials mit weiblicher Sprecherin (Wagener et al, 2014) folgende audiovisuellen Messverfahren entwickelt: Audiovisueller OLSA (Llorach et al, 2019) und Audiovisueller ACALES (Ibelings et al, 2019). Dafür wurden Videoaufnahmen durchgeführt mit der Originalsprecherin des weiblichen OLSA. Als Audiomaterial in den audiovisuellen Tests wurde jeweils das originale Audiomaterial des Oldenburger Satztests verwendet, so dass die Konditionen 1) „nur Audio“ und 2) „audiovisuell“ verglichen werden konnten. Der audiovisuelle OLSA zeigte einen vergleichbaren Trainingseffekt wie in der „nur Audio“ Version, die Schwelle für 80% Sprachverständlichkeit ist in der audiovisuellen Kondition signifikant niedriger als in der „nur Audio“ Kondition (Abb. 5, links). Auch beim audiovisuellen ACALES führt die Hinzunahme des Videomaterials zu signifikant niedrigerer Höranstrengung als in der „nur Audio“ Version (Abb. 5, rechts). Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 4
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Abbildung 5: Links: 80% Sprachverständlichkeitsschwellen für28 junge Normalhörende (Boxplots, aus Llorach et al, 2019), rechts: ACALES Höranstrengungsfunktionen für 15 junge Normalhörende (aus Ibelings et al, 2019) Zusammenfassung Die alltägliche Kommunikation findet in für Mensch und Technik herausfordernden, dynamischen und akustisch komplexen Situationen statt. Es gibt dabei Situationen, bei den die individuelle Aufmerksamkeit zwischen Gesprächspartnern wechselt oder bei denen die Aufmerksamkeit geteilt wird. Solche Situationen können im Labor durch Sprachverständlichkeitstests mit konkurrierenden Sprechern oder durch Dual Task Sprachverständlichkeitsmessungen abgebildet werden. Durch die Analyse vom Bewegungsverhalten in virtuell simulierten Alltagssituationen wurde gezeigt, dass Aufmerksamkeit durch visuelle Cues beeinflusst werden. Visuelle Cues verbessern die Sprachverständlichkeit und verringern die Höranstrengung auch bei Normalhörenden. Literatur Hendrikse MME, Llorach G, Hohmann V, Grimm G (2019) Movement and gaze behavior in virtual audiovisual listening environments resembling everyday life. Submitted to Trends in Hearing Hendrikse MME, Llorach G, Grimm g, Hohmann V (2018) Influence of visual cues on head and eye movements during listening tasks in multi-talker audiovisual environments with animated characters. Speech Communication https://doi.org/10.1016/j.specom.2018.05.008 Heeren J, Nüsse T, Latzel M, Holube I, Hohmann V, Schulte M (2019) Concurrent OLSA: A paradigm to measure shared attention effects on speech perception in multi-talker situations. 22. DGA Jahrestagung Heidelberg Ibelings S, Holube I, Schulte M, Krüger M (2019) Audiovisuelle Erweiterung des subjektiven Höranstrengungsmessverfahrens ACALES. 22. DGA Jahrestagung Heidelberg Kollmeier B, Wesselkamp M (1997) Development and evaluation of a German sentence test for objective and subjective speech intelligibility assessment. J. Acoust. Soc. Am. 102(4), 2412-2421 Llorach G, Kirschner F, Grimm G, Zokoll M, Wagener KC, Hohmann V (2019) Development and evaluation of video recordings for the OLSA matrix sentence test. In preparation Schepers IM, Beck AK, Bräuer S, Schwabe K, Abdallat M, Sandmann P, Dengler R, Rieger JW, Krauss JK (2017) Human centromedian-parafascicular complex signals sensory cues for goal-oriented behavior selection. Neuroimage 152: 390-399 Shiffman S, Stone AA, Hufford MR (2008) Ecological momentary assessment. Annu Rev Clin Psychol. 4: 1-32 Von Gablenz P, Kowalk U, Bitzer J, Meis M, Holube I (2019) Individueller Nutzen der Hörgeräteversorgung: Zeitnahe Bewertung von Hörfähigkeiten im Alltag. 22. DGA Jahrestagung Heidelberg Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 5
22. Jahrestagung der Deutschen Gesellschaft für Audiologie Wagener KC, Vormann M, Latzel M, Mülder HE (2018) Effect of Hearing Aid Directionality and Remote Microphone on Speech Intelligibility in Complex Listening Situations. Trends in Hearing 22: 1-12. DOI: 10.1177/2331216518804945 Wagener KC, Hochmuth S, Ahrlich M, Zokoll MA, Kollmeier B (2014) Der weibliche Oldenburger Satztest, 17. Jahrestagung der Deutschen Gesellschaft für Audiologie, CD-Rom, 4 pages, Oldenburg Wagener K, Brand T, Kühnel V, Kollmeier B (1999) Entwicklung und Evaluation eines Satztests für die deutsche Sprache I-III: Design, Optimierung und Evaluation des Oldenburger Satztests, Zeitschrift für Audiologie, 38(1,2,3): 4-15, 44-56, 86-95 Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen 6
Sie können auch lesen