Das unterschätzte Problem der Latenz (Zeitversatz)

Latenz heißt Verzögerung. Es ist die Zeit, die z.B. ein gesprochenes Wort braucht, um über technische Wege ins Ohr der Empfänger zu kommen. Digitale Geräte haben aus Systemgründen immer eine deutliche Latenz, während analoge Geräte praktisch keinerlei wahrnehmbare Latenz aufweisen.

Die Latenzen in der gesamten Hörkette verursachen zwei Problemkreise:

  • Technisch verursachter Hall und Echo
  • Problematik beim für Schwerhörige wichtigen Mundabsehen/Mimik/Gestik

Problematik technisch verursachten Halls und Echos

Wenn ein Tonsignal ein- oder mehrfach kurz hintereinander wiederholt wird, aber nicht deutlich vom Originalton unterschieden werden kann, wird dies Hall genannt. Können die Wiederholungen deutlich vom Originalton unterschieden werden, wird es Echo genannt. Die Grenze, ab wann jemand einen Schalleindruck zum ersten Mal als Echo wahrnimmt, liegt je nach Sprache/Musik irgendwo zwischen 20 und 50ms Zeitunterschied, davor wird der Schalleindruck als Hall empfunden. Hall und Echo verändern den Klang durch Interferenzen und die Sprachverständlichkeit reduziert sich dadurch.

Heutzutage ist eine offene Versorgung bei Hörgeräten der Standard. Dabei ist das Ohr nicht mehr schalldicht verschlossen, sondern im Ohrkanal hält ein kleines Silikon-Hütchen den Lautsprecher bzw. den Schallschlauch fest. Ein Teil des normalen Luftschalles macht sich ohne Beteiligung des Hörsystems, am dünnen Silikon-Hütchen vorbei, auf den Weg direkt ins Ohr. Ebenfalls ist heutzutage die Mischstellung bei Hörgeräten Standard: Mikrofone und T-Spule bzw. Streaming-Geräte (TV-Streamer, Funkmikrofon, Telefonadapter) sind immer gleichzeitig eingeschaltet. Es gibt also mindestens diese unterschiedlichen Hör-Wege:

  • Schall, der über eine analoge oder digitale Höranlage ins Hörgerät/CI kommt
  • Schall, der direkt ins Mikrofon von Hörgerät/CI kommt
  • Schall, der am Hörgerät vorbei direkt ins Ohr geht (betrifft nur Hörgeräte bei offener Versorgung/ Versorgung von nur einem Ohr)

Diese Schallkomponenten kommen jeweils zu unterschiedlichen Zeiten im Ohr an. Im Gegensatz zu analogen Übertragungswegen haben aber digitale eine deutlich wahrnehmbare Latenz. Dabei hört man den Primärschall mit einer gewissen Verzögerung mehrfach, also als Hall oder sogar Echo. Dies aber sollte die Höranlage ja eigentlich verhindern.

Die Mischung dieser drei Komponenten ist an jedem Hör-Platz, für jedes individuelle Hörsystem und genutzter Höranlagen- und Empfangstechnik jeweils unterschiedlich. Deswegen lässt sich daran auch prinzipiell nichts durch Einstellungen an der Mikrofonanlage bzw. einer DSP (Digital Sound Processing) verbessern.

Das Problem tritt allerdings bei korrekter Versorgung nicht auf: Versorgung mit Ohrpassstück, keine Mischstellung der Hörsysteme und latenzfreie analoge Höranlage.

Problematik Mundabsehen/Mimik/Gestik

Schwerhörige Menschen können sich grundsätzlich nicht mehr auf die gehörte Sprache verlassen, sie müssen:

  • gehörte Geräusche unterscheiden in Sprache oder Störschall: War das ffff ein Buchstabe oder das Rauschen eines Luftzugs?
  • Manche unterschiedliche Laute hören sich für sie gleich oder ähnlich an: war es ein B oder P, ein B oder M, ein K oder G, ein F oder SCH u.s.w. ?
  • Manche Laute können sie garnicht mehr hören, z.B. tz oder sch: wurde Fritz oder frisch gesagt?

Um dieses sogenannte Hörpuzzle zu lösen, werden zusätzliche Informationsquellen benötigt. Das sind in erster Linie Mundabsehen, Mimik und Gestik. Wenn der Ton aber später als das Gesehene eintrifft, müssen diese beiden Informationsquellen erst im Gehirn synchronisiert werden, erst danach kann das Hörpuzzle beginnen. Je weiter Bild und Ton auseinanderlaufen, desto anstrengender und länger dauert dieser Synchronisationsvorgang. Ab einer gewissen Latenz gelingt das gar nicht mehr, man hört den falschen (vorherigen) Buchstaben zum gesehenden aktuellen Mundbild. Das Gehirn versucht dann, dazwischen einen Mittelweg zu finden, wobei das Gesehene bevorzugt wird. Man versteht dann einen ganz anderen Laut: McGurk-Effekt. Z.B. Gesehen wird GaGa, gehört wird BaBa, verstanden wird DaDa. (siehe youtube-Videos Stichwort McGurk Effekt)

Maximal zulässige Latenz

Wie groß darf die Latenz sein, bevor die Synchronisation zu anstrengend wird? Es gibt Normvorschriften für den Dolmetsch-Bereich. Dolmetschende müssen ja sehr gut verstehen können. Deshalb sind sie für Zweifelsfälle auch auf das Mundabsehen angewiesen. Wissenschaftliche Untersuchungen haben ergeben, dass der Stress ab 12 ms Latenz enorm ansteigt. Die ISO-Norm 20108 schreibt deshalb 12ms als maximale Latenz fest, die EU-Kommission für ihre Dolmetscherinnen und Dolmetscher sogar nur 10ms.

Ein weiterer Hinweis kommt aus dem Musikbereich: Bei Studio-Aufnahmen sind die Musiker heutzutage in unterschiedlichen Studioräumen. Damit sie sich aber gegenseitig hören können, haben sie „einen Knopf im Ohr“, das InEar-Monitoring. Die Latenz dieses Systems soll aber 5ms nicht übersteigen, maximal jedoch 10ms betragen, ansonsten geraten die Musiker aus dem Takt. Auch bei Life-Konzerten wird dieses InEar-Monitoring genutzt. Also auch hier die absolute Grenze von 10ms. Daher arbeiten sie grundsätzlich nur mit analogen InEar-Monitoring Systemen.

Diese maximal zumutbare Latenz von 10-12ms wird allerdings schon von den meisten Hörsystemen „aufgefressen“. Da bleibt für eine latenzbehaftete Höranlage nichts mehr übrig, sie muss latenzfrei arbeiten.

Schwerhörigenseelsorge

Ca. 16 Millionen Menschen in Deutschland sind schwerhörig, also rund jede 5. Person. Das reicht von leichtgradig schwerhörig über eine mittelgradige Schwerhörigkeit bis hin zur völligen Ertaubung. Allen diesen Menschen gemeinsam ist, dass sie fast ausschließlich lautsprachlich kommunizieren. Die Gebärdensprache gehörloser Menschen ist ihnen fremd.

Wir haben viele Antworten für Sie gesammelt und stellen Ihnen diese Informationen auf unserer Website zur Verfügung.