Kopfhörer-Surround-Sound!? Was höre ich da?

14 min

khs.jpg

Vor kurzem erschien eine Newsmeldung zu Overwatch, in der über räumlichen Kinosound dank Dolby Atmos berichtet wurde, und das auch… mit was? … mit Kopfhörern??? Was für spezielle Headsets braucht man denn dafür?

So oder so ähnlich klangen einige positiv bewertete Kommentare unter dem Bericht. Um diese häufig gestellten Fragen zu beantworten und um generell etwas über Tonortung und Sound in Spielen zu informieren, dienen die folgenden Absätze, die wohl schnell beginnen sollten, bevor es in den Kommentaren Clickbaitingvorwürfe wegen Fragezeichen in der Überschrift gibt.

Wofür braucht man überhaupt Ton?

Zum Töpfern… ups, falsches Thema. Viele Mobiletitel kann man getrost ohne Soundausgabe spielen und das R2D2-Gepiepe aus Steinzeit-Computerspielen ist auch nicht viel mehr als zweckmäßig. Trotzdem wird wohl kein Triple-A-Titel mehr ohne Audiowiedergabe veröffentlicht werden, denn die Synchronisation, der Soundtrack, aber auch satte Motorengeräusche und nostalgisches Lichtschwertsummen tragen alle samt zur Atmosphäre und Immersion eines Spieles bei.

Aber druckvolle Explosionen und hollywoodreifes Knarren-Bang-Bang reichen nicht aus, falls der Ton nicht überzeugend wiedergegeben wird. (Und damit meine ich nicht schlechte Audioqualität durch die eigene Hardware). Doch dazu gleich mehr.

overwatch.jpg
Overwatch: Das erste Spiel mit richtigem Sound, zum Anfassen real???

Wie soll denn der Ton beim Gehör ankommen?

Hat man einen einzelnen Lautsprecher, bzw. einen halben Kopfhörer und nur ein Ohr, so wird bei der Wiedergabe eines Monosignal (also einem Audiokanal) diese Körperöffnung vollkommen glücklich damit. Das hauptsächlich wahrnehmbare sind nun Lautstärke- und Frequenzunterschiede. Nicht schlecht, aber Dolby-Dingsbums und mehrere Speaker bringen jetzt keinen Mehrwert und können einem am Ohrläppchen lecken.

Erst mit einem zweiten Lauscher wird die Ohrform und Signalverarbeitung des Gehirns interessant. Da beide Ohren eines Menschen koordiniert zueinanderstehen, können die unterschiedlichen Ankunftszeiten, Lautstärken und Frequenzen eines bestimmten Geräusches an den Ohren erkannt, und Information wie weit rechts, links oder vorne, hinten dieser Laut stattfand, gewonnen werden. Zusätzlich dient die Form der Ohrmuschel zur Kanalisierung von Ton der von oben oder unten kommt, um daraufhin insgesamt fast perfekte 3D-Positionsinformationen zu ergattern.

Noch mehr ins Detail möchte ich hier aber nicht gehen, nur so viel: Für höhere und niedrigere Schallfrequenzen gibt es nochmals verschiedene Herangehensweisen und sehr kurze oder extrem große Wellenlängen machen den Sound nicht mehr ortbar – deshalb besteht auch kaum ein Unterschied darin, wo man einen Subwoofer platziert.

Zu guter Letzt kann man hören (ebenso in Overwatch), »ob sich ein Gegner direkt in der Nähe befindet«. Natürlich verrät die Lautstärke die grobe Distanz, aber ein Feind kann ja auch unterschiedlich laut brüllen. So werden zusätzlich weit entfernte Klänge im hochfrequenten Bereich etwas gedämpft und Schallreflexionen, inklusive weiterer Effekte, geben Auskunft über die Entfernung.

Damit ist man in der Lage sich auf ein bestimmtes Geräusch zu konzentrieren, auch wenn anderer Lärm in der Umgebung herrscht. Besonders bei Musikstücken ist die wahrnehmbare örtliche Differenzierung einzelner Klänge erwünscht, was neben der reinen Audio-Hardware für einen intensiven Klanggenuss sorgen kann.

Wie viele Lautsprecher benötigt man idealerweise?

An feste Positionen ist das Gehör nicht festgelegt, verschiebt man die Position einer Box um Zentimeter werden auch dessen Sounds leicht anders verarbeitet (ob man den Unterschied bewusst merkt ist jedoch eine andere Frage). Nichtsdestotrotz bieten mehr Speaker ein kompletteres Surround-Erlebnis, andererseits sollte man nicht übertreiben, denn die eigenen Wohnzimmerwände und das Mobiliar, sowie das Platzieren der Boxen werden den Ton eher beeinflussen als ein dreißigster Lautsprecher.

Generell sollte man nach einem Kinofilm in sauber abgemischtem 7.1 plus ein paar zusätzlichen Decken- und Bodenboxen alles gehört haben und eben in Kombination mit guter Audioqualität eine beeindruckende Immersion erhalten haben. Denn selbst das Schätzen der Entfernung bleibt möglich, da die oben genannten Effekte größtenteils beim Aufnehmen des Tons erhalten bleiben oder wenigstens dementsprechend klanglich bearbeitet wurden. Kinofilm Dolby Atmos ist allgemein mit Zusatzbearbeitungsaufwand verbunden, aber da Spielesound ebenfalls verarbeitet werden muss (oder zumindest sollte), werde ich dann dort mehr dazu erzählen. Geduld. Wichtig ist jetzt erstmal, dass keine extra Lautsprecher, die noch näher und ferner platziert werden müssen, benötigt werden.

ow.jpg
Atmos in Overwatch: »Seht ihr meine Haare? Endlich wird meine wummige Anlage ausgereizt!«

Gibt es denn keinen Trick, um weitere Boxen zu sparen?

Keine Eile und bitte nur eine Frage auf einmal, aber gutes Stichwort. Besonders im Fernseherbereich können zwei Speaker verwendet werden, um ein Surround-Set zu virtualisieren. Indem entsprechende Klänge an den Wänden reflektieren, entsteht die Illusion als ständen dort weitere Boxen. Natürlich müssen diese zuerst für eine passende Raumgröße konfiguriert werden, meist werden dafür soger extra Mikrofone zur Messung nötig. Zudem sollte der Hörer hier einen dicken Geldbeutel besitzen, ganz im Gegensatz zu verhältnismäßig preiswerten Kopfhörermodellen.

Es ist wohl nun an der Zeit etwas über binaurale Aufnahmen zu erzählen. Hierbei wird ein Kunstkopf mit Ohren verwendet (oder auch nur Ohren im Kopfabstand). In dem Gehörgang befindet sich dann jeweils ein Mikrofon, deren aufzeichnende Geräusche durch die Gummilauscher gefiltert werden. (Alternativ platziert man zwei kleine Mikrofonen in den Lauschern eines menschlichen Schädels.) Damit kann man nun Geräusche an einem beliebigen Ort aufnehmen, so wie es zwei Ohren dort hören würden.

Am bekanntesten ist diese Technik vermutlich in Verwendung von sogenannten ASMR-Videos, ein Trend von vor ein paar Jahren bei dem man in diese beiden Mikros flüstert oder irgendwelche labbrigen Dinge sanft aneinander reibt. (Ich verarsche euch hier nicht, das gibt es wirklich und es soll für Entspannung sorgen!)

Wohl sehr verbreitet sind ebenfalls sogenannte binaurale Beats, welche keinen Plastikschädel verwenden, sondern durch leicht unterschiedliche Frequenzen zwischen den Ohren für eine akustische Täuschung sorgen. Dieser Hokuspokus soll wieder für Erholung sorgen, darüber hinaus gibt es verschiedene »Stücke«, die zusätzlich besseren Schlaf, erweiterte Sinneswahrnehmung und sexuelle Stimulierung (Ohr-gasmus) versprechen.

Für all dies benötigt man jetzt nur noch zwei Lautsprecher, je einer sollte ein Ohr alleinig erreichen und möglichst nahe am Ohr liegen. Die bequemste Lösung wäre dann wohl ein Kopfhörer. Dadurch gelangt der Ton im Optimalfall ohne hinzukommende Positionseindrücke direkt weiter ins Innere des Hörorgans und wird dort zu einem räumlichen Geräusch interpretiert und es hört sich an, als wäre man am Ort der Aufzeichnung.

Das hört sich zu gut an, wo ist der Haken dabei?

Da sich Ohrformen und Kopfproportionen von Mensch zu Mensch unterscheiden, beziehungsweise die Maße des Mannequinkopfes stark von denen des eigenen abweichen, können die Aufnahmen in bestimmten Situationen leicht unnatürlich und nicht immer exakt lokalisierbar klingen. Um mehrere Personengruppen anzusprechen müsste man also theoretisch die gleiche Szene nochmals für verschiedene Ohren erfassen. Als wäre eine Aufnahme nicht schon problematisch genug…

mutant.jpg
Als Mutant mit stark abweichenden Proportionen wird man so seine Probleme haben.

Eine binaural Aufzeichnung ist nämlich in einem Film sehr nutzlos, falls man keinen übertriebenen Bearbeitungsaufwand verkraften kann. Alle Töne müssten direkt am Set entstehen um den korrekten Hall zu erreichen und eine Änderung der Sprache wäre nicht mehr machbar. Noch dazu erreicht man damit auf einem 5.1/7.1-Set keinen vernünftigen Surround-Sound mehr.

Idealerweise sollte also Sound für möglichst viele Ausgabekanäle optimiert sein, sich andererseits vielleicht auch irgendwie auf Kopfhörern simulieren lassen, so als würde er aus unterschiedlichen Richtungen kommen … aber ist so etwas überhaupt möglich?

Gibt es denn nicht extra Surround-Kopfhörer?

Das Problem mit Kopfhörern, die zwei Schallwandler besitzen, ist, dass normales Stereoaudio sehr künstlich klingt. Ein Ton, egal wie laut, der beispielshalber von rechts kommt wird nur in der rechten Muschel wiedergegeben. Oftmals findet man hier die Bezeichnung Super-Stereo. Diese komplette Trennung wird sich im ersten Moment nämlich auch interessant anhören, nach der Zeit jedoch schnell ermüdend und nervig klingen. Ganz anders mit Stereo-Lautsprechern, hier ergibt sich ein natürlicheres Bild, da wie schon erwähnt ein leicht verzögerter und abgeschwächter Laut am linken Ohr ankommt. Viele portable Player und Musikprogramme bieten daher einen Effekt namens Crossfeed, welcher versucht dieses Phänomen zu reproduzieren, indem Klänge des jeweils anderen Kanals leicht mit eingeblendet werden.

Des Weiteren wirkt Gesprochenes, was generell mittig stattfindet und dadurch aus beiden Seiten gleichmäßig laut ertönt, als würden die Stimmen im Kopfinneren entstehen. Damit die Leute nicht in die Klapsmühle rennen, haben sich Headsethersteller etwas Cleveres einfallen lassen: Surround-Headsets. Bevor ihr zum nächsten Elektrowarengeschäft stürmt, sollte man wissen, dass es zwei Sorten gibt. Erstere unterscheiden sich vom Aufbau im Vergleich zu normalen Headsets nicht, müssen aber zwingend über den USB-Anschluss verbunden werden. Darin befindet sich, wie bei vielen anderen Modellen üblich, eine eigene Soundkarte. Diese kann in dem Fall nun einen Raumklang erzeugen, indem bis zu acht vom Betriebssystem gesendete Tonkanäle so simuliert werden, als würden diese von echten Lautsprechern stammen (die Verarbeitungsarbeit muss übrigens trotzdem noch die CPU erledigen). Jenen Effekt erreicht man auch mit klinkensteckergebundenen Kopfhörern, da dies viele PC-Soundkarten beherrschen; Dolby Headphone bei Asus-Karten, SBX Pro Studio bei Creative-Modellen, 7.1-Mode bei Sennheisers GSX-Serie und unbekanntere Technologien von diversen anderen Herstellern, und das selbst bei manch Onboardchips neuerer Mainboards. Doch verzweifelt nicht, solltet ihr keine dieser Karten besitzen hiermit kann man jeden Kopfhörer-Surround auf allen Soundkarten erreichen!

Etwas seltener (und übertrieben gesagt umso bekloppter) ist die Herangehensweise mehrere Wandler pro Muschel zu verbauen, um damit »echten« 5.1/7.1-Sound zu erreichen, doch das ist nur Werbe-Wischiwaschi. Einerseits ist der Abstand der Membrane zu gering zum Ohr, als dass dieses vernünftig zwischen vorne und hinten differenzieren könnte. Andererseits erreicht ein Ton aus den rechten Speakern ohne weitere Trickserei wieder nicht das linke Ohr und umgekehrt, weshalb diese Modelle eben auch keinen »echten« 5.1/7.1-Surround liefern. Wenn man ohnehin also virtualisieren muss, warum dann nicht gleich nur zwei vernünftige Wandler verwenden? Denn am vernichtesten ist das Argument der schwachen dynamischen Treiber – da dort die vier-, bzw. fünffache Menge Lautsprecher verbaut werden, sollte man sich über deren mangelnde Qualität nicht wundern. Glücklicherweise sind sie praktisch ausgestorben.

Wenigstens die oberste Methode sorgt nun dafür, dass Surround-Filme und -Spiele auch auf Kopfhörern wirken, ohne dass extra Aufnahmen benötigt werden, nur Höheninformationen beherrscht diese Technik nicht. Auf der anderen Seite sind fast alle Spiele auf 8 Ausgabekanäle beschränkt, meistens sogar noch auf 5 oder 6.

Wie genau funktioniert virtueller Kopfhörer-Surround?

Anstatt wie bei binauralen Aufnahmen direkt das Material zu erfassen, will man lieber nur den Response der Ohren auf verschieden platzierte Impulse haben. Den Impuls nennt man Dirac Delta Funktion, in der digitalen Welt ist das eine Audiodatei mit einer einzelnen »1« neben sonst nur »0«en. Spielt man diese nun an einer bestimmten Position im Raum zu unserem »Kopf mit Mikrofonen«, so erhält man die gewünschte Head-Related Impulse Response (HRIR). Eine Audiodatei kann man nun damit falten und es entsteht der Eindruck, als würde dieser Sound aus der Richtung unseres ursprünglichen Impulses kommen. Mehrere HRIRs können schließlich für jede Position aufgenommen werden, an der unsere virtuellen Lautsprecher stehen sollen. Dies ist im Prinzip ein akkuraterer Crossfeed, den man auch noch mit mehr als Zweikanaleingaben verwenden kann.

Der einzige Unterschied zu dem Kopfhörer-Surround vieler Soundkarten ist, dass höchstwahrscheinlich keine Faltung verwendet wird. Stattdessen werden Funktionen verwendet, die solche Impulsantworten imitieren und zu den Durchschnittsohren passen, sowie ergänzende Umgebungseffekte simulieren. Nichtsdestotrotz können die Virtualisierungen wie Boxen behandelt werden, die um Ohren gestellt wurden. Spielt man Impulse durch sie, entstehen Antworten dieser Surround-Methoden, welche man dann beispielsweise mit dem Falter des Equalizer APO verwenden kann und Windows Audio somit klingt, als würde es mit einem dieser Kopfhörer-Surround-Virtualisierungen verarbeitet werden. Mein kleines Programm namens HeSuVi bietet HRIRs von vielen bekannten Technologien und kontrolliert Equalizer APO über seine grafische Benutzeroberfläche, während Equalizer APO die eigentliche Verarbeitung einleitet.

Toll, doch wie entsteht eigentlich Sound in einem Spiel?

Bei einem so interaktiven Medium ist klar, dass keine große Audiodatei einfach über die Dauer des gesamten Spieles wiedergegeben werden kann, alleine schon da ein und dasselbe Game verschieden lange gespielt werden kann. Dennoch können der Soundtrack und Hintergrundgeräusche einer bestimmten Umgebung ohne zusätzliche Ortszuweisung wiedergegeben werden. Besonders in Point’n’Click-Adventures ist es egal, wo eine Spielfigur steht, der Ton wird und kann einfach unverarbeitet mittig ausgegeben werden und es stört niemanden, da die Charaktere sowieso nacheinander reden werden. (Nichtsdestotrotz, The Whispered World liebe ich unter anderem wegen der korrekten Positionierung bei richtig konfiguriertem OpenAL.)

Spätestens bei aktuellen 3D-Spielen genügt diese statische Soundkulisse alleine jedoch nicht. Einem bestimmten Objekt im Raum (welches seine Position natürlich auch ändern kann) wird ein Audioclip zugewiesen, dieser kann für eine einfache Wiedergabe, einen Loop oder eine Mischung aus beidem dienen. Jener Clip ist dann über einen definierten Radius zu hören, wobei er langsam abschwächt, je weiter man sich vom Quellobjekt entfernt. Zusammen mit den restlichen Geräuschen wird von der Spiele-Engine nun alles den passenden Audiokanälen zugeordnet. Durch das zuordnen eines Kanals wird der Ton in gewisser Weiße auch wieder beschnitten, aber nun hat man schon den kompletten Ton eines aktuellen Titels. Vor nicht allzu langer Zeit war das noch anders, komplexer, … besser.

Doch alleine durch Software entsteht noch kein Geräusch, folglich benötigt man noch eine Soundkarte, diese kann die digitalen Signale nochmals nachbearbeiten (Tonhöhenänderung, Equalization, Stimmunterdrückung oder eben Raumklangsimulation; wie schon erwähnt aber meist trotzdem in Software über sogenannte Audio Precessing Objects) bevor schließlich vom DAC die finale, analoge Übertragung zu den einzelnen Lautsprechern erfolgt. Dies ist wichtig, da Schall in Form von Druckunterschieden in der Luft das Gehör (machmal auch den Magen) in Schwingung versetzt. Deshalb durchlaufen die elektrischen Signale im Schallwandler eine entsprechende mechanische Schwingung des Lautsprechermembrans (wobei ordentliche Vollspektrumboxen dieses Signal meist nochmals in differenzierte Frequenzbereiche filtern, um verschieden große Membrane anzutreiben.)

crysis2.jpg
Crysis 2: Starker Sound neben netter Optik?

Moment, hat sich Gaming-Audio verschlechtert?

Zu Zeiten von Windows XP waren Soundkarten noch etwas wichtiger als heute, sie boten mit Creatives EAX oder dem anfangs sogar noch deutlich besseren Aureal A3D in Zusammenarbeit mit DirectSound3D zusätzlich hardwaremäßige Unterstützung für PC-Spiele. Damit wurde der CPU Arbeit abgenommen und diese Funktionen ermöglichen weitere Tondetails direkt in der Engine des Videogames. Audioberechnung in Spielen – wie oben beschrieben – ist lange nicht vollständig, um möglichst glaubhaft zu klingen müssen Geräusche noch von Objekten beeinflusst werden, jene verändern, also dämpfen und reflektieren. Ob eine Wand zwischen Tonquelle und Spieler liegt, sollte also klanglich hörbar sein. So boten viele damalige Titel Optionen für Hall und weitere Effekte um die Umgebung richtig zu spüren. In heutigen Einstellungsmenüs, die meist nur noch aus Gesamtlautstärke und Musikregler bestehen, sucht man nach solchen Optionen vergeblich.

Doch warum so etwas liegen lassen? Ertönt eine erneute Frage, wobei die Antwort in einem Wort steckt: Vista. Und die Fackeln und Heugabeln gegen Microsoft werden erneut mit Gebrüll erhoben.

Damals wurde die Implementierung der Tonhandhabung des OS im Gegensatz zu XP verändert, da der Treiber früher sehr tief ins System eingegriffen hat und leicht einen BSOD verursachen konnte (außerdem hatte der Audio-Stack weitere Probleme, dass eine fast komplette Überarbeitung sinvoll war). Selbst wenn es später noch manchmal möglich war mit ALchemy jene EAX-Funktionen laufen zu lassen, haben sich die Spieleentwickler davon abgewendet. Microsoft hat zwar hardwarebeschleunigtes Audio zurückgebracht, dies jedoch nur als Stromsparfeature für UWP-Apps. Hasta la Vista, realistischer Klang.

Eine langjährige Spielereihe, wie zum Beispiel Bioshock, bietet sich gut für einen Vergleich mit damals an (hier EAX 3.0). Nimmt man das erste Bioshock, so findet man oben genannte Effekte im Optionsmenü, sowie die Möglichkeit sein Speaker-Setup festzulegen. Aus diesem Grung ergibt sich im Spiel selbst ein beeindruckendes Klangbild; der entfernte Hall eines wütenden Big Daddys aus einem der engen Gänge; Lecks in der Decke aus denen Wasser neben uns auf den harten Boden plätschert; sowie das dumpfe Lachen eines Splicers, der hinter der nächsten Tür lauert.

Im Vergleich mit Bioshock Infinite lassen sich auch hier Musik, Stimmen und Umgebungsgeräusche einzeln regulieren, andererseits Fehlen weitere Effekte. Ebenso legt das Betriebssystem die Anzahl Lautsprecher fest, maximal ist hier aber gerade einmal 5.0 möglich und komischerweise werden ein paar Geräusche aus dem mittleren Kanal gefiltert. Im laufenden Spiel macht sich dann geräuschliche Ernüchterung breit, besonders beim Schleichen in der zweiten Burial at Sea-Episode werden Macken schnell hörbar. Läuft diesmal ein Splicer ein ganzes Stockwerk über Elizabeth, hört man das so klar als gäbe es keine Decke und mit den ohnehin fehlenden Höheninformationen dreht man sich unnötigerweise verwirrt umher, in der Angst entdeckt zu werden. Generell betrifft dies alle Wände und sonstigen Objekte… schade.

Es ist aber nicht so, als würde ohne Hardwarebeschleunigung einfach der Prozessor abrauchen. Eine Soundkarte wie die Sound Blaster Live! von 1998 hatte 2 Millionen Transistoren, für einen Pentium II mit 7,5 Millionen machte die Unterstützung daher schon Sinn. Ein Ryzen 7 aus 2017 hat jedoch 4,8 Milliarden Transistoren und trotzdem nutzen die meisten Games die Power nur für Grafikblender. Selbst wenn viele moderne Spiele darunter leiden, gibt es einige Ausnahmen. Allen Voran Crysis 2 und 3 bestechen optisch, keine Frage, darüber hinaus imponiert jedoch auch ihre atmosphärische Geräuschkulisse. Nicht nur rattert das Gewehr zufriedenstellend mächtig beim Feuern, sondern auch nach dem erledigen der Gegner kann man genießen, wie die letzten Patronenhülsen klirrend zu Boden fallen und das Ende des Schusslärms noch einen kurzen Augenblick von den riesigen Häuserfassaden wiederhallt.

Zeigt denn Overwatch, dass Ton wieder wichtiger wird?

Es ist sehr toll, dass es eine neue Technik in den Gamingbereich verschlägt. Um Dolby Atmos nun endlich zu erklären sei gesagt, dass neben der 7.1-Tonbasis weitere bewegliche Tonspuren verfügbar werden. Für Filme im eigenen Heimkino (und Star Wars: Battlefront) bedeutet das, dass diese Spuren nun mit Bewegungsmustern verseht werden und der Audio-Receiver (die Soundkarte für TV-Boxen) diesen Ton nun dynamisch an die im eigenen Setup verfügbaren Lautsprecher verteilt und verschiebt.

Also wird im Grunde ähnliches erledigt wie bei Spielen, wenn den bewegenden Objekten ihre Lautsprecher zuweisen werden. Das Problem mit der Kopfhörerwiedergabe war nur, dass Spiele zuerst maximal 7.1-Sound ausgeben und anhand dessen kann daraufhin erst die Soundkarte den Raumklang simulieren. Wenn aber Overwatch mit Dolby Atmos viele individuelle Tonquellen erlaubt, können diese dann im Game selbst auf eine Kopfhörerausgabe optimiert abgemischt werden. Damit wird wie bei echten binauralen Aufnahmen ermöglicht, dass man horizontale Unterschiede hört und Abstände schätzbar werden (den Aufwand machen sich Spieleentwickler nämlich nicht). So sollte es auch problemlos möglich sein, mit einer Option für diverse HRTF-Profile verschiedene Ohrtypen abzudecken.

Naja, wen interessiert’s?

Man könnte denken dies sei der erste Schritt in diese Richtung, aber an einem ähnlichen Punkt waren wir (erneut) schon einmal, damals hatte es nur niemanden interessiert!

dirt2.jpg
Erstes DirectX-11-Game (Doppelklick für DX9-Vergleichsbild): Aber hat es nicht noch etwas beeindruckenderes zu bieten?

Wir schreiben das Jahr 2009, Codemasters‘ Rallyraser Colin McRae DiRT 2 – das erste Spiel mit DirectX 11 – wird gespannt erwartet, wobei die Verbesserungen durch die neue Schnittstelle echt winzig waren. (Um den nicht vorhandenen Unterschied zu sehen einfach doppelt auf das Bild oben klicken und getrollt werden:). Gleichzeitig ist es nämlich das erste Spiel mit Rapture3D, dies basiert auf OpenAL und ermöglicht unteranderem Geräusche per Kopfhörer räumlich exakt zu platzieren, ohne vorher auf die üblichen 7 Positionen beschränkt zu sein. Obwohl in Daniels Test auf GameStar.de der gute Motorensound gelobt wird, bleibt der binaurale Kopfhörerklang Matsch egal. Kein Wunder, eine entsprechende Menüeinstellung ist nicht vorhanden, stattdessen hilft ein Blick in die ReadMe-Datei der DVD. Nur hier wird auf das mitinstallierte Tool »Rapture3D Speaker Layout« hingewiesen, worin man schließlich Surround für Kopfhörer und gar zwischen ein paar HRTF-Profile wählen kann.

Das Ergebnis rechtfertigt aber den Aufwand, besonders in der Cockpitperspektive hört man jeden noch so kleinen Stein einzeln an räumlich unterschiedlich Stellen gegen die raue Karosserie prasseln, Pützen spritzen hart gegen den nun feuchten Unterboden und gegnerische Fahrzeuge sind unmissverständlich zu lokalisieren. Weitere Teile der Reihe wurden damit auch ausgestattet, aber nie großartig beworben. Seit DiRT Rally wurde aber auch dies plötzlich wieder aufgegeben. Man!

Für Minecraft, Unreal Tournament 3 und ein paar weitere Spiele gibt es Tweaks zum binauralen Klang, sowie ein – in beschränkterem Umfang – beachtlich intensives Umgebungsgefühl im kleinen 2D-Indiehorror Neverending Nightmares. Große Blockbusterproduktionen blieben jedoch aus. Und das obwohl AMD seit 2013 in entsprechenden Karten Co-Prozessoren für »TrueAudio« verbaut (mittlerweise sogar den »Next«-Nachfolger) und selbst nVidia hat inzwischen nachgelegt (nur eben nicht OpenSource). Darüber ist, wie mit Soundkarten, eine hardwaremäßige Bechleunigung des Spielesounds möglich. Selbst Microsoft hat in Windows 10 mit Spatial Sound endlich wieder HRTF, es wird aber meines Wissens nur in diesem ominösen Playerunknown's Battlegrounds verwendet.

Beachtlicher Weise unterstützen manche Voice-Chat-Programme eine binaurale Positionierung der Gesprächspartner und in wenigen Multiplayertiteln wie Counter-Strike: Source können sich die Sprecher sogar mit ihren Avataren zusammen bewegen.

Das war es also?

Auch wenn der große Ansturm auf Overwatchs Dolby Atmos ausblieb gibt ein aktueller Trend neue Hoffnung. Um in ein Spiel richtig einzutauchen, ist Virtual Reality gerade ein beachtliches Thema und für das einschneidende Feeling ist auch guter virtueller Klang nötig. Viele VR-Gameplayvideos lassen hören, dass die Existenz von Kopfhörerbesitzer endlich akzeptiert und die Wichtigkeit des Tons neben Soundtrack und Synchronisation erkannt wurde.