Musik in den Ohren

Sicher kennen Sie das: Sie hören Musik und empfinden Emotionen wie Freude, Genuss oder Aufregung. Musik berührt und bewegt uns. Sie beruhigt uns, macht uns glücklich oder ängstlich. Vielleicht kennen auch Sie Musik, die bei Ihnen eine besondere Stimmung auslöst, weil sie mit einem emotional bedeutsamen Ereignis ihres Lebens verknüpft ist.

Musikforscher und Psychologen behaupten, die Gefühle und der soziale Kontakt beim Musikhören und Musikmachen haben Folgen für unsere Gesundheit. Denn über positive Emotionen hilft uns die Musik, uns zu regenerieren und stärkt unsere Gesundheit.

Haben Sie sich einmal gefragt, was Musik in uns aktiviert? Wodurch ruft sie Gefühle hervor? Den Signalweg, den der Schall durch das Ohr und Innenohr nimmt, kann die Wissenschaft bis zum Hörnerv gut verfolgen. Elektrische Signale werden an das Gehirn weitergeleitet und in Töne verwandelt. Hirnforscher und Psychologen meinen, Musik ist ein globales Phänomen des Gehirns. Sobald Musik erklingt, sucht das Gehirn in dem akustischen Signal nach emotionaler Bedeutung.

Der schwedische Musikforscher Patrik Juslin von der Universität Uppsala behauptet, dass Musik, insbesondere ihr rhythmischer Anteil, direkt in den Hirnstamm, den ältesten Teil unseres Denkorgans einströmt (auch Reptiliengehirn genannt). Der Hirnstamm reagiert unbewusst, automatisch und schnell auf Töne. Dort arbeiten von der Evolution fest verdrahtete Schaltkreise. Fällt beispielsweise ein Schuss, schaltet der Körper auf Alarmstufe rot. Schnelle, laute, kreischende Töne treiben den Herzschlag in die Höhe, langsame Rhythmen und tiefe Töne wirken beruhigend. Mit akustischen Effekten wird Filmen Ruhe und Tempo, Spannung und Unterhaltung eingehaucht. Der Hörsinn warnt uns vor unangenehmen Situationen. Verzerrt klingende Musik löst Ängste und Trauer in uns aus.

Einen universalen Gänsehaut-Klangeffekt, der bei allen gleichermaßen wirkt, gibt es nicht. Die Hörumgebung spielt eine wesentliche Rolle. Schauen wir im Kino einen der neuesten Filme an, lauschen wir im Konzertsaal einem brillanten Solisten oder Orchester, sitzen wir im Wohnzimmer oder fahren in unserem Fahrzeug und genießen unsere Lieblingsmusik. Offensichtlich ist, dass eine Fahrzeugkabine akustisch weit entfernt von einem Konzertsaal berühmter Konzerthäuser ist.

Um ein möglichst natürliches/emotionales Hörerlebnis zu schaffen wird heutzutage in der Raumakustik Simulation und Auralisation eingesetzt, die Hörbarmachung eines Soundsystems und Raumes unter Berücksichtigung seiner geometrischen und akustischen Eigenschaften. Die Auralisation kann Personen hören lassen, wie Soundsysteme in bestimmten Räumlichkeiten klingen werden. Im Folgenden stellen wir Ihnen die Auralisation einer Fahrzeugkabine vor.

Wie schützt Auralisation vor unzutreffenden Erwartungen an den Klang?

Was versteht man unter Auralisation?
Der Begriff Auralisation leitet sich aus dem lateinischen Wort „Auris = dt. „Ohr“ = aurikular ab. Als Auralisation wird ein Verfahren zur künstlichen Hörbarmachung einer akustischen Situation bezeichnet (Wikipedia).

Die Auralisation erlaubt den Akustikern in der Planungsphase genaue Rückschlüsse über den Klang eines Soundsystems und Raumes zu ziehen und diese durch ein subjektives Anhören zu beurteilen. Personen können hören, wie das Soundsystem in der Fahrzeugkabine klingt, noch bevor der erste Prototyp gebaut wird.

Warum ist Auralisation wichtig?
Die Auralisation umfasst Erkenntnisse der Psychoakustik. Bei der Auralisation geht es um die Beurteilung von Schall und die Messung subjektiver Wahrnehmung. Es existiert keine allgemein gültige Definition von Klangqualität. Vor allem nicht in Bezug auf eine Metrik basierend auf Zahlen, die verschiedene Systeme leicht vergleichbar und beurteilbar macht. Die Beurteilung der Klangqualität beruht auf subjektiven Methoden mittels Hörversuchen. Denn das menschliche Ohr funktioniert viel subtiler, es nimmt feinste Unterschiede wahr. Deshalb muss die akustische Qualität als Hörerlebnis wiedergegeben werden.

Jeder Ton, Lärm, Musik, jedes Signal, das erzeugt, übertragen, ausgestrahlt und wahrgenommen wird, kann präziser verglichen oder interpretiert werden, indem es hörbar gemacht wird, anstelle über Frequenzlevel oder mathematische Daten zu diskutieren,  behauptet Dr. rer. Nat. Universitätsprofessor M. Vorländer.

Wie funktioniert die Auralisation einer Fahrzeugkabine? Welche Elemente sind von Bedeutung?
Durch die Auralisation einer Fahrzeugkabine wird die akustische Qualität eines in der Entwicklung befindlichen Fahrzeugs als Hörerlebnis bewertet.

Das Ziel der Akustiker ist es, eine Entwicklungsumgebung zur Verfügung zu stellen, die es erlaubt, mit dem Verfahren der Auralisation gezielt auf die Gestaltung des Klangs in der Fahrzeugkabine Einfluss zu nehmen. Dazu ist ein sogenannter akustischer Fingerprint der Fahrzeugkabine notwendig. Mit Hilfe der multiphysikalischen Simulation wird zunächst eine virtuelle Produktentwicklungsumgebung geschaffen. Dabei werden Methoden und Werkzeuge der numerischen Akustik verwendet, um die bestmögliche Position der Lautsprecher und komplizierter Schallfelder sowie die Abstrahlung von schwingenden Strukturen in der Fahrzeugkabine zu berechnen. 

Diese Simulation liefert erste Ergebnisse über die Akustik in einer geplanten Fahrzeugkabine. Die Ergebnisse basieren ausschließlich auf numerischen Berechnungen.

Abbildung: Multiphysikalische Simulation einer Fahrzeugkabine: Das Schallfeld einer beliebigen Fahrzeugkabine kann mit Hilfe der multiphysikalischen Simulation für unterschiedliche Frequenzen berechnet werden.

Das berechnete Frequenzspektrum eines Platzes in der Fahrzeugkabine ist eine abstrakte Größe. Es ist durch die reine multiphysikalische Simulation nicht möglich, aufgrund des berechneten Spektrums umfassend auf die akustische Klangqualität auf einem bestimmten Platz zu schließen. Die räumlichen Attribute der Soundreproduktion sind in der multiphysikalischen Simulation noch nicht ausreichend berücksichtigt.

An dieser Stelle kommt die Auralisation zum Einsatz. Es geht um die Hörbarmachung der spezifischen Raumeigenschaften. Die Auralisation schützt die Entwicklungsingenieure und Akustikexperten vor unzutreffenden Erwartungen an den Klang. Bei der Auralisation steht die Qualität der Soundsystemkomponenten und der raumakustischen Gegebenheiten auf dem Prüfstand. Sie ermöglicht es, digitale Prototypen von Audiosystemen zu hören und deren Produktqualität zu beurteilen. Der Prognosegesichtspunkt steht im Vordergrund.

Diese Hörbarmachung hat einen Einfluss auf die benötigten Simulationsmodelle. Das multiphysikalische Simulationsmodell ist mit der Auralisation zu verbinden.

Ausgangspunkt für die virtuelle Hörumgebung ist die Simulation der binauralen (binaural = mit beiden Ohren) Raumimpulsantwort (Binaural Room Impulse Response = BRIR) eines in einer Fahrzeugkabine abstrahlenden Lautsprechers. Die BRIR wird aus einem multiphysikalischen, vibro-elektroakustischen CAE-basierten Simulationsmodell des Lautsprechers (Wandler und Gehäuse), der Fahrzeugkabine sowie eines Modells für binaurales Hören erzeugt.

1.  Ermittlung der binauralen Raumimpulsantwort

a) Die Raumimpulsantwort (Room Impulse Response = RIR)
Raumimpulsantworten dienen dazu, grundsätzliche Aussagen über das Zeitverhalten eines Lautsprechers bzw. Soundsystems zu machen. In einem ersten Schritt wird die Raumimpulsantwort, die Lautsprecher, Gehäuse und Hörraum enthält, simuliert, und zwar an den Positionen im Fahrzeug, an denen Personen sitzen und sich deren Ohren befinden. Dadurch werden die verschiedenen Sitzpositionen im gesamten Simulationsmodell berücksichtigt. 

Menschen nehmen normalerweise den Frequenzbereich von 20 Hz bis 20 kHz wahr. Da kein numerisches Schema existiert, das angewendet werden kann, um den gesamten hörbaren Frequenzbereich abzudecken, wird ein Hybridmodell verwendet. Das Hybridmodell basiert auf finiten Elementen sowie Raytracing. Die finiten Elemente berechnen die Tiefen und Mitten während Raytracing den hohen Frequenzbereich im gesamten Simulationsmodell ermittelt. Dadurch können die RIR für alle Kanäle des Soundsystems berechnet werden.

b) Die binaurale Impulsantwort
Im zweiten Schritt wird das binaurale Modell, basierend auf einer analytischen, kopfbezogenen Übertragungsfunktion (Head-Related Transfer Function = HRTF) hinzugefügt. Auf diese Weise wird die BRIR erzeugt.

Zur Erläuterung der binauralen Impulsantwort möchten wir an dieser Stelle das menschliche Hören beleuchten:
Menschen sind in der Lage, Schall zu orten. Menschen haben gelernt, mit ihrem Kopf und ihren zwei Ohren, Signale, die unser Trommelfell erreichen, auszuwerten. Kommt ein Signal oder ein Geräusch zum Beispiel von links, legt die Schallwelle zum linken Ohr einen kürzeren Weg zurück als zum rechten Ohr. Die beiden Ohrsignale werden aufgrund unserer Anatomie (Kopf, Hals, Schultern und Ohren) auf unterschiedliche Art und Weise gebeugt und reflektiert.

Das bedeutet für die Ermittlung der binauralen Impulsantwort:  

  • Für ein realistisches virtuelles Hörerlebnis müssen alle wichtigen psychoakustischen Eigenschaften berücksichtigt werden.
  • Raumimpulsantworten können nicht direkt an den Ohren genutzt werden.
  • Räumliche Effekte und die Lokalisierung von Klang basieren auf binauralem Hören. Diese Effekte sind nicht in den Raumimpulsantworten enthalten.
  • An den beiden Ohren treffen Klangereignisse mit Zeit- und Pegelunterschieden ein, verursacht durch die relative Position zur Schallquelle sowie durch Reflexion und Beugung unseres Kopfes und Körpers. Diese richtungsabhängigen Unterschiede, die als interaurale Zeitdifferenz (Interaural Time Dfference = ITD) und interaurale Pegeldifferenz (Interaural Level Difference = ILD) bezeichnet werden, sorgen für signifikante Änderungen an der Wahrnehmung von einfallenden Schallwellen.

Absatz
Diese binauralen Effekte, verursacht durch die Beugung der einfallenden Schallwellen auf den Kopf und Körper, beeinflussen den Schalldruck am Ohr. Sie lassen sich durch eine kopfbezogene Übertragungsfunktion (HRTF) beschreiben. HRTFs beschreiben die Beziehung des Schalldrucks am Trommelfell- oder Gehörgangs-Eingang zu einer einfallenden ebenen Welle ohne Reflexions- und Beugungseffekte, d. h. ohne Kopf oder Körper.

MVOID verwendet ein analytisches Modell für die Beschreibung der HRTFs. Das Modell erlaubt die Ableitung von Zeit- und Pegelunterschieden einfallender Schallwellen und damit die Ermittlung der  HRTFs des linken und des rechten Ohrs. Anzumerken ist, dass es sich um ein vollständiges 3-D-Modell handelt und somit HRTFs mit Horizontalwinkel (Azimut) und Vertikalwinkel (Elevation) für ankommende Schallwellen variieren.

Durch die Ermittlung der kopfbezogenen Übertragungsfunktionen ist es möglich, die binauralen Impulsantworten für das linke und rechte Ohr zu berechnen, indem die kopfbezogenen Übertragungsfunktionen auf die simulierten Raumimpulsantworten aus dem multiphysikalischen Simulationsmodell angewendet werden. 

Obwohl typischerweise binaurale Audioanwendungen ein Mikrofon in der Mitte des Kopfes verwenden, um eine einzelne Raumimpulsantwort abzuleiten, verwendet MVOID zwei Raumimpulsantworten aus dem Simulationsmodell, die dem Gehörgang-Eingangspunkt des linken und des rechten Ohres entsprechen. Die interaurale Zeitdifferenz (ITD) beruht demzufolge direkt auf dem Simulationsmodell. Dies führt zu einer verbesserten Genauigkeit und einem natürlicheren Hörerlebnis.

Ein weiterer Vorteil des analytischen HRTF-Modells ist, dass der Schallweg durch den Gehörgang nicht inbegriffen ist. Während der Zeit der Wiedergabe über Kopfhörer wird der Klangweg durch die eigene Gehörgangphysiologie des Hörers hinzugefügt. Das HRTF-Modell berechnet den Klang am Gehörgangeingang. Dies kommt somit der Verwendung eines Wandlers in einem Kopfhörer nahe und liefert realitätsnahe Ergebnisse.

2. Auralisation und Echtzeitverarbeitung – Kopplung mit dem multiphysikalischen Simulationsmodell

Die Echtzeitverarbeitung ist von entscheidender Bedeutung, um die Voraussetzungen für die akustische Virtuelle Realität zu schaffen. Um dies zu ermöglichen, werden die HRTF-Filter im diskreten Zeitbereich implementiert.

Die binauralen Impulsantworten werden mit akustischen Testdateien (Sounddateien, die Musik, Sprache oder Geräusche enthalten) vereint (im Sinne der mathematischen Operation der Faltung). Dieses finale Signal wird an die Kopfhörer gesendet und damit die binaurale, realitätsnahe Hör-Erfahrung geschaffen.  

Die nachfolgende Abbildung zeigt den Signalfluss der Auralisationsumgebung mittels MVOID® VRtool:
Absatz

Zunächst werden Testsignale an eine Routing-Matrix gesendet, die Stereosignale an die individuellen Kanäle des Soundsystems weiterleitet. Ein Premium-Soundsystem verfügt heutzutage über 24 und mehr Kanäle. Jeder Kanal durchläuft eine Tonabstimmung (Tuning) mittels eines Moduls mit Signalverarbeitungsfähigkeiten bevor das daraus resultierende Signal in die Simulationsdaten einfließt. Diese Tonabstimmung wird in die Auralisationsumgebung integriert, um die Verbesserung der Klangqualität für jeden Kanal in Echtzeit sicherzustellen. Die Simulationsdaten (die RIRs) werden mit den HRTFs zusammengeführt und final an den Kopfhörer für ein realitätsnahes Hörerlebnis ausgesendet.

Alle Bausteine der MVOID-Auralisation sind für die Echtzeitverarbeitung entwickelt. Jegliche Änderung eines beliebigen Parameters, wie beispielsweise Tuningparameter, erzeugen unmittelbar eine visuelle Reaktion auf dem Monitor (Graphik zeigt Frequenz- oder Impulsantwort) und hörbare Reaktion über den Kopfhörer.

Fazit: MVOIDs virtuelle Auralisation erzeugt verlässliche hörbare Prognosen

MVOID hat eine akustische VR-Entwicklungsumgebung für das Hören von Audiosystemen entwickelt, die rein auf computergenerierten Modellen basieren und eröffnet damit die Möglichkeit, Soundsysteme mittels subjektiven Hörtests an virtuellen Produkten zu evaluieren. Die Genauigkeit der Methode wurde durch Hörversuche auf der Grundlage von A/B-Vergleichen zwischen Auralisation und realem Fahrzeug validiert.

Die Performance von Soundsystemen kann damit in der Konzeptphase hörbar verbessert werden, was in einer kürzeren Entwicklungszeit mündet bei gleichzeitiger Reduzierung von Kosten und Steigerung der Engineering-Effizienz.

Absatz

Bildnachweis:
Ohr mit Schall, Fotolia: psdesign1 #46803420
142 Internat. AES + AES 2017 Automotive Audio: AES Audio Engineering Society Inc. 
NAFEMS Weltkongress: NAFEMS NPO Company
Foto AS, Multiphysik. Simulation Fahrzeugkabine, Auralisationsprozess: MVOID Technologies GmbH