Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...

Die Seite wird erstellt Penelope Link
 
WEITER LESEN
Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

Hören mit Hörgeräten in komplexen dynamischen
Kommunikationssituationen
Kirsten C. Wagener1,2, Michael Schulte1, Markus Meis1,2
1Hörzentrum   Oldenburg GmbH, Exzellenzcluster H4All
2HörTech   gGmbH
Schlüsselwörter: Hörgeräte, Kommunikation, Alltag
Einleitung
  In der modernen Kommunikationsgesellschaft erfolgen die Unterhaltungen in immer komplexeren
sich dynamisch verändernden akustischen Situationen. Für Hörgeschädigte kann dies auf der einen
Seite bedeutende Einschränkungen in der Kommunikationsfähigkeit und somit der Lebensqualität zur
Folge haben. Auf der anderen Seite versuchen aktuelle Hörgeräte, den Anforderungen der komplexen
Kommunikationssituationen gerecht zu werden und so den Hörgeschädigten eine Erleichterung in der
Kommunikation und der sozialen Partizipation zu bieten.
  Die Methodik des Ecological Momentary Assessment (EMA, Shiffman et al, 2008) in der
Hörversorgung, d.h. die zeitnahe Bewertung von Hörfähigkeiten im Alltag über in Smartphone
integrierte Fragebogen-Apps (die z.B. auch gekoppelt akustische Parameter der bewerteten
Hörsituation auswerten können) ermöglicht, im Alltag den „Individuellen Nutzen der
Hörgeräteversorgung“ zu untersuchen (von Gablenz et al, 2019). Die Vielzahl der sich dynamisch
verändernden akustischen Situationen sind nicht für die Hörgeschädigten eine Herausforderung in der
Kommunikation, sondern ebenfalls eine Herausforderung für Hörhilfen, die optimaler Weise in jeder
individuellen Hörsituation die beste Versorgung der Hörminderung realisieren soll.
 Im vorliegenden Beitrag wird vorgestellt, wie sich verschiedene Aspekte dieser komplexen
Kommunikation im Labor nachvollziehen lassen können. Dabei werden wechselnde Gesprächspartner,
wechselnde Aufmerksamkeit, geteilte Aufmerksamkeit und die Bedeutung von visuellen Cues in der
Kommunikation betrachtet.
Wechselnde Gesprächspartner – wechselnde Aufmerksamkeit
  Eine Gesprächssituation mit wechselnden Gesprächspartnern und damit wechselnder
Aufmerksamkeit des Zuhörers wurde durch den Oldenburger Satztest mit konkurrierenden Sprechern
im Labor realisiert (Heeren et al, 2019). Abb. 1 links verdeutlicht den verwendeten Task: Aus drei
verschiedenen Richtungen werden Sätze des Oldenburger Satztest (Wagener et al, 1999) mit
verschiedenen SprecherInnen dargeboten. Als Triggerwort dient das im Test vorkommende Wort
„Kerstin“: Sobald das Wort präsentiert wurde, sollen für die nachfolgenden Sätze aus derselben
Präsentationsrichtung jeweils das letzte Wort pro Satz in Form eines normalen
Sprachverständlichkeitstests wiederholt werden, bis das Wort „Kerstin“ aus einer anderen Richtung
präsentiert wird – ab dann muss aus der neuen Richtung die Sprache verstanden werden. Damit wird
die Gesprächssituation simuliert, dass die Zuhörerin Kerstin im Gespräch mit drei Leuten immer
demjenigen zuhört, der sie direkt angesprochen hat. Zur Analyse der individuellen
Sprachverständlichkeit in dieser komplexen Kommunikationssituation werden drei verschiedene
Messungen durchgeführt und analysiert: 1) Lokalisation des Wortes „Kerstin“, 2)
Sprachverständlichkeit fester Zielsprecher: Das letzte Wort pro Satz muss für eine feste
Darbietungsrichtung (0° vorne) wiederholt werden, 3) Kombination aus 1) und 2):
Sprachverständlichkeit bei wechselnden Zielsprechern: Wiederholung des jeweils letzten Wortes der
Sätze aus der Richtung, von der zuletzt „Kerstin“ dargeboten wurde.

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                               1
Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

 Abbildung 1: Sprachverständlichkeitstest mit konkurrieren Sprechern. Links: Visualisierung der
Hörsituation, rechts: Ergebnisse von 22 Normalhörenden (Boxplots), aus Heeren et al, 2019.

  In Abb. 1 rechts sind die Ergebnisse als Boxplots von 22 jungen Normalhörenden zu sehen. Es zeigt
sich, dass die geteilte Aufmerksamkeit in Messung 3 Einfluss auf Lokalisation und
Sprachverständlichkeit hat. Die Schwierigkeit des Tasks ist über die Feuerrate und den Überlapp der
Sätze regulierbar, somit ist eine Messung bei hohen Signal-Rausch-Verhältnissen (SNR) möglich.
Durch die verschiedenen Darbietungsrichtungen sind auch Richtungseffekte auswertbar, so dass dieses
Verfahren als neues Benchmark-Messverfahren für die Evaluation von Hörhilfen geeignet ist (Heeren
et al, 2019).
Wechselnde Gesprächspartner – geteilte Aufmerksamkeit
  Hörsituationen mit wechselnden Gesprächspartnern und geteilter Aufmerksamkeit des Zuhörers
kommen z.B. bei größeren Feiern vor, bei denen zum einen einer Rede von einem weiter entfernten
Sprecher zugehört wird aber auch gleichzeitig den dazu abgegeben Kommentaren des Tischnachbarn
gegenüber Beachtung geschenkt wird. Eine solche Hörsituation ist besonders für stark Hörgeschädigte
problematisch. Zusätzliche Hilfsmittel wie z.B. externe Mikrofone können in dieser Hörsituation die
Sprache des entfernten Redners verstärkt in die Hörhilfen des Zuhörers streamen. Doch kann der
Hörgeschädigte dann noch die Kommentare des Tischnachbarn verstehen? Um diese komplexe
Hörsituation im Labor abzubilden, wurde ein Sprachverständlichkeits-Messparadigma im Dual task
entwickelt (Wagener et al, 2018). Für den primären Task müssen von fortlaufenden Sätzen des
Oldenburger Satztests mit weiblicher Sprecherin (Wagener et al, 2014) jeweils der verstandene Name
auf einem Tablet ausgewählt werden. Als Auswahl stehen dort die zehn im Test vorkommenden
Namen. Der sekundäre Task ist eine klassische Sprachverständlichkeitsmessung bei festen SNR mit
dem Göttinger Satztest (Kollmeier und Wesselkamp, 1997): Die dargebotenen Sätze des männlichen
Sprechers müssen dem Versuchsleiter wiederholt werden. Primärer und sekundärer Task werden
gleichzeitig in einem diffusen Restaurant-Störgeräusch dargeboten. Abb. 2 (aus Wagener et al, 2018)
zeigt Ergebnisse für 15 stark hörgeschädigte Probanden versorgt mit Hörgeräten und externen
Mikrofonen (RM), die sich in der Mikrofoncharakteristik der Hörgerätemikrofone (omnidirektional
oder direktional) unterscheiden. Der primäre Task wurde entweder aus dem Nahfeld oder dem
Fernfeld präsentiert und der sekundäre Task dementsprechend aus dem jeweilig anderen.

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                              2
Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

  Abbildung 2: Ergebnisse des Dual Task Sprachverständlichkeitstests von 15 versorgten
Hörgeschädigten mit externem Mikrofon (Boxplots). Das Setup ist immer bezeichnet als zuerst der
Lautsprecher, der für den primären Task genutzt wird, gefolgt von der Darbietung des sekundären
Tasks. Hörgeräte-Konditionen (HA Cond): Omni-RM: Omnidirektionale Hörgerätemikrofone und
externes Mikrofon, Dir+RM: Direktionale Hörgerätemikrofone und externes Mikrofon. Aus Wagener
et al, 2018 (dort Figure 7)

  Neben der Dual Task Präsentation in Nah- und Fernfeld ist auch die Präsentation aus verschiedenen
Richtungen möglich, was eine Art „Abendbrot-Situation“ nachbildet, bei der als schwierige
Hörsituation alle Gesprächspartner durcheinander reden. Dabei stellt sich die Frage, was ist die beste
Richtcharakteristik der Hörhilfen-Mikrofone in einer solchen Situation? Sollen sie sich adaptieren und
wenn ja, wie? Dabei ist zunächst interessant zu untersuchen, wie sich der normalhörende Zuhörer in
einer solchen Situation adaptiert/bewegt.
Realistisches Bewegungsverhalten im Labor
  Hendrikse et al (2019) haben in virtuellen audiovisuellen Tascar-Szenarien realistische
Hörsituationen nachgebildet und somit das Bewegungs- und Blickrichtungsverhalten in Hinblick auf
die Konsequenzen für Hörhilfen untersucht. So wurden mit Head-Tracking-Messungen von 43
normalhörenden Probanden (Altersbereich 30-34 Jahre: 22, Altersbereich 60-77: 21) die Kopf- und
Blick-Trajektorien in einer Cafeteria-Situation untersucht (Abb. 3). In einer Kondition hatte der
Proband die Aufgabe, nur zuzuhören, in einer anderen Kondition wurde die Alltagssituation „Essen
und Zuhören“ simuliert, indem der Proband als Dual Task zusätzlich eine Montage-Aufgabe mit dem
Pegboard-Test durchführen sollte. In der „Nur Hören“ Kondition zeigt, sich, dass die Blickrichtung
dem Zielsprecher folgt (Abb. 4, links), die visuelle Aufmerksamkeit also auf dem Target liegt. In der
Dual Task Kondition „Hören und Pegboard“ zeigt sich, dass die Blickrichtung unabhängig vom
Zielsprecher ist, da die visuelle Aufmerksamkeit auf das Pegboard gerichtet ist (Abb. 4, rechts).

 Abbildung 4: Trajektorien der Blickrichtung von 43 normalhörenden Probanden im Tascar-Szenario
Cafeteria. Links: Kondition „Nur Hören“, rechts: Kondition „Dual Task Hören und Pegboard“. Aus
Hendrikse et al, 2019 (dort Figure 6 und 7)

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                                 3
Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen - Deutsche Gesellschaft für ...
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

  Das bedeutet, dass in einer solchen Dual Task Situation eine feste Direktionalität der Hörhilfen mit
sehr enger Richtcharakteristik nicht hilfreich ist, weil die Blickrichtung nicht dem Zielsprecher folgt.
Visuelle Cues zur Steuerung der Aufmerksamkeit
  Nicht nur die visuelle Aufmerksamkeit beeinflusst die Kommunikationsbedingungen mit Hörhilfen
z.B. durch Fehlausrichtung von Richtcharakteristiken, sondern visuelle Cues können auch die
Aufmerksamkeit steuern und so die Kommunikation beeinflussen. Um dies zu untersuchen,
verwendeten Hendrikse et al (2018) den Coordinate Response Measure Task CRM (Schepers et al,
2017) in virtueller audiovisueller Simulation mit vier möglichen Zielsprechern (animierte Videos) in
vier verschiedenen Konditionen: 1) „Nur Audio“ ohne Video, 2) „Audio und Blickrichtung aller
Sprecher auf den Probanden“, 3) „Audio und Blickrichtung aller sonstigen Sprecher auf den aktuellen
Zielsprecher“, 4) „Audio und zufällige Blickrichtung aller Sprecher“. Abb. 5 zeigt die Ergebnisse für
14 normalhörende Probanden für den Performanztask ‚Richtung+Farbe+Zahl korrekt‘ (Hendrikse et
al, 2018). Die höchste Performanz wurde in Kondition „Audio und Blickrichtung aller sonstigen
Sprecher auf den aktuellen Zielsprecher“ gefunden, da die Probanden in dieser Kondition durch die
visuellen Cues Zusatzinformationen haben, welchem Sprecher zugehört werden soll. Außerdem zeigte
sich, dass die Probanden nicht wissen, wohin sie die Aufmerksamkeit richten sollen, wenn sie nicht
lokalisieren können und somit der Verstehenstask nicht richtig bearbeitet werden konnte. Hendrikse et
al (2018) konnten somit zeigen, dass die Aufmerksamkeitssteuerung durch visuelle Cues die
Sprachverständlichkeit verbessert und ebenso die Höranstrengung verringert: Subjektive Bewertungen
der Höranstrengung waren für alle videoanimierten Sprecher schlechter als reale Videoaufnahmen bis
auf in der Kondition „Blickrichtung aller sonstigen Sprecher auf den aktuellen Zielsprecher“.
Visuelle Cues zur Kommunikationsunterstützung
  Besonders hochgradig Hörgeschädigte benötigen das Lippenlesen zur Unterstützung des Verstehens
von Sprache. Daher wurden auf Basis des Oldenburger Satztest-Sprachmaterials mit weiblicher
Sprecherin (Wagener et al, 2014) folgende audiovisuellen Messverfahren entwickelt: Audiovisueller
OLSA (Llorach et al, 2019) und Audiovisueller ACALES (Ibelings et al, 2019). Dafür wurden
Videoaufnahmen durchgeführt mit der Originalsprecherin des weiblichen OLSA. Als Audiomaterial in
den audiovisuellen Tests wurde jeweils das originale Audiomaterial des Oldenburger Satztests
verwendet, so dass die Konditionen 1) „nur Audio“ und 2) „audiovisuell“ verglichen werden konnten.
Der audiovisuelle OLSA zeigte einen vergleichbaren Trainingseffekt wie in der „nur Audio“ Version,
die Schwelle für 80% Sprachverständlichkeit ist in der audiovisuellen Kondition signifikant niedriger
als in der „nur Audio“ Kondition (Abb. 5, links). Auch beim audiovisuellen ACALES führt die
Hinzunahme des Videomaterials zu signifikant niedrigerer Höranstrengung als in der „nur Audio“
Version (Abb. 5, rechts).

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                                    4
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

  Abbildung 5: Links: 80% Sprachverständlichkeitsschwellen für28 junge Normalhörende (Boxplots,
aus Llorach et al, 2019), rechts: ACALES Höranstrengungsfunktionen für 15 junge Normalhörende
(aus Ibelings et al, 2019)
Zusammenfassung
 Die alltägliche Kommunikation findet in für Mensch und Technik herausfordernden, dynamischen
und akustisch komplexen Situationen statt. Es gibt dabei Situationen, bei den die individuelle
Aufmerksamkeit zwischen Gesprächspartnern wechselt oder bei denen die Aufmerksamkeit geteilt
wird. Solche Situationen können im Labor durch Sprachverständlichkeitstests mit konkurrierenden
Sprechern oder durch Dual Task Sprachverständlichkeitsmessungen abgebildet werden. Durch die
Analyse vom Bewegungsverhalten in virtuell simulierten Alltagssituationen wurde gezeigt, dass
Aufmerksamkeit durch visuelle Cues beeinflusst werden. Visuelle Cues verbessern die
Sprachverständlichkeit und verringern die Höranstrengung auch bei Normalhörenden.
Literatur
Hendrikse MME, Llorach G, Hohmann V, Grimm G (2019) Movement and gaze behavior in virtual audiovisual
 listening environments resembling everyday life. Submitted to Trends in Hearing
Hendrikse MME, Llorach G, Grimm g, Hohmann V (2018) Influence of visual cues on head and eye movements
 during listening tasks in multi-talker audiovisual environments with animated characters. Speech
 Communication https://doi.org/10.1016/j.specom.2018.05.008
Heeren J, Nüsse T, Latzel M, Holube I, Hohmann V, Schulte M (2019) Concurrent OLSA: A paradigm to
 measure shared attention effects on speech perception in multi-talker situations. 22. DGA Jahrestagung
 Heidelberg
Ibelings S, Holube I, Schulte M, Krüger M (2019) Audiovisuelle Erweiterung des subjektiven
  Höranstrengungsmessverfahrens ACALES. 22. DGA Jahrestagung Heidelberg
Kollmeier B, Wesselkamp M (1997) Development and evaluation of a German sentence test for objective and
 subjective speech intelligibility assessment. J. Acoust. Soc. Am. 102(4), 2412-2421
Llorach G, Kirschner F, Grimm G, Zokoll M, Wagener KC, Hohmann V (2019) Development and evaluation of
 video recordings for the OLSA matrix sentence test. In preparation
Schepers IM, Beck AK, Bräuer S, Schwabe K, Abdallat M, Sandmann P, Dengler R, Rieger JW, Krauss JK
 (2017) Human centromedian-parafascicular complex signals sensory cues for goal-oriented behavior selection.
 Neuroimage 152: 390-399
Shiffman S, Stone AA, Hufford MR (2008) Ecological momentary assessment. Annu Rev Clin Psychol. 4: 1-32
Von Gablenz P, Kowalk U, Bitzer J, Meis M, Holube I (2019) Individueller Nutzen der Hörgeräteversorgung:
 Zeitnahe Bewertung von Hörfähigkeiten im Alltag. 22. DGA Jahrestagung Heidelberg

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                                    5
22. Jahrestagung der Deutschen Gesellschaft für Audiologie

Wagener KC, Vormann M, Latzel M, Mülder HE (2018) Effect of Hearing Aid Directionality and Remote
 Microphone on Speech Intelligibility in Complex Listening Situations. Trends in Hearing 22: 1-12. DOI:
 10.1177/2331216518804945
Wagener KC, Hochmuth S, Ahrlich M, Zokoll MA, Kollmeier B (2014) Der weibliche Oldenburger Satztest, 17.
 Jahrestagung der Deutschen Gesellschaft für Audiologie, CD-Rom, 4 pages, Oldenburg
Wagener K, Brand T, Kühnel V, Kollmeier B (1999) Entwicklung und Evaluation eines Satztests für die
 deutsche Sprache I-III: Design, Optimierung und Evaluation des Oldenburger Satztests, Zeitschrift für
 Audiologie, 38(1,2,3): 4-15, 44-56, 86-95

Hören mit Hörgeräten in komplexen dynamischen Kommunikationssituationen                                   6
Sie können auch lesen