Binaural, was ist das?

electric guillaume

keine Information
Ich habe mir jetzt mal den binauralen Mix von JMJs Oxymore angehört.
Erwartet hatte ich so etwas wie Dolby Atmos Surround für den Kopfhörer, aber wahrgenommen habe ich "nur" einen sehr gut gemachten, detaillierten Stereomix.
Wo liegt denn der Unterschied zu Stereo?
 
Hier wird das menschliche Hörempfinden simuliert und im Wesentlichen das aufgenommen was das menschliche Ohr hört. Die Trommelfelle werden durch Mikros ersetzt. Z.B. mittels Kunstkopf oder entsprechenden In-Ear-Mikros.

Hier habe ich z.B. mal ein wenig Gezwitscher mit dem Soundman OKM aufgenommen. Das Video ist total schlecht, aber auch vollkommen unwichtig. Am besten wirken binaurale Aufnahmen wenn man die Augen schließt und wirklich auch "aktiv" hört.



Unwahrscheinlich, dass man das mit einem "guten" Stereomix hin bekommt. Das ist ziemlich komplex würde ich sagen. Aber es gibt auch jede Menge Tools um das zu simulieren. Habe ich aber nie getestet und stelle ich mir immer noch sehr schwierig vor.
 
Danke schon mal für die Erklärung und das Video. Das kann ich mir gerade nicht in Ruhe ansehen/hören, werde ich aber heute Abend nachholen.

Dass für die Aufnahmen eine spezielle Mikrofonierung verwendet wird leuchtet mir ein.
Aber das was mein Kopfhörer wiedergibt bzw wiedergeben kann ist doch stereo, ein Signal für den linken Kanal und eines für den rechten.
Und die Membranen sitzen immer auf der gleichen Stelle am Ohr. Was ist bei binaural da jetzt anders als bei stereo?
 
Was ist bei binaural da jetzt anders als bei stereo?
Die Trommelfelle werden durch Mikros ersetzt. Z.B. mittels Kunstkopf oder entsprechenden In-Ear-Mikros.

Siehe auch den Artikel bei Wikipedia (da kann man des Öfteren solche Sachen schnell nachlesen):

Auf Edgar Froeses 1974er Album Aqua gibt es auch binaurale Aufnahmen mit dem Kunstkopf des Herrn Brunschen, zu hören in den beiden Titeln "NGC 891" und "Upland".
 
Stimmt, aber binaurale Aufnahmen sollen vor allen Dingen das widerspiegeln, was ein Mensch mit seinen Ohren tatsächlich wahrnimmt. Du kannst bei einer Aufnahme mit Kunstkopf Dinge im Raum erklingen und hin- und herwandern lassen (oder einfach Leute herumlaufen und reden lassen) und am Ende soll es über Kopfhörer optimalerweise so klingen, als wäre der Hörer mittendrin gewesen.
 
Binaural-Sound ist hier im Forum schon einige Male behandelt worden. Größtes Manko ist der Unterschied unser individuellen Anatomie, also die Form der Pina (Außenohr), Kopf und Schultern, so wie die Tatsache, dass wir beim Richtungshören unmerklich unseren Kopf bewegen, um so die bekannten Muster von Phasenauslöschungen zu hören, die entstehen, wenn man ein Geräusch zb von hinten hört. (eine Katze zB macht das mit ihren Ohren einzeln)
Diese Phasenauslöschungen kann man als Filter darstellen (Hrtf) und sind bei normaler binauraler Wiedergabe starr. Erst mit einem Kopfhörer mit Headtracker und einem Satz passender Hrtf, die sich dann in Echtzeit verändern (je nach Kopfbewegung) kann man "echtes" Richtungshören überzeugend simulieren. Ansonsten hat man es öfter mit sogenannter Vorne-Hinten-Vertauschung zu tun...
Im OKM-Beispiel oben hört man vereinfacht gesagt durch fremde Ohren (Anatomie).

Es gibt Tonmeister die ähnlich detaillierte Stereomischungen anfertigen, auch unter der Berücksichtigung von Laufzeit und Abschattung durch den Kopf.
Super viel dazu finden man dazu noch (hoffentlich lange) auf den Seiten von Eberhard Sengpiel
Edit: Leider sind viele Abhandlungen dort nicht mehr verfügbar.
 
Danke. Also um einen echten 3d Eindruck über Kopfhörer zu erhalten bräuchte ich auch ein spezielles Kopfhörersystem.

Nun man kann Filter anfertigen, die eine Art Durchschnittsohr abbilden. Damit macht man dann Binaural-Mixes und wenn diese Filter zu dir passen kannst du schon einiges hören, nicht nur r und l sondern auch oben und unten, dann allerdings starr. Wer überzeugend hinten von vorne unterscheiden möchte braucht, dynamische Hrtf und Headtracker...
 
Ok, dann habe ich scheinbar eine Kopf- Ohrform die das nicht vernünftig auflöst.
Auch bei anderen Gelegenheiten wo etwas mit "binaural" gelabelt war konnte ich unter Kopfhörern nichts hören, was über einen guten Stereomix hinausgegangen wäre.
Und auch der Udo Super 6, den die Forensuche bei dem Begriff Binaural hauptsächlich rausschmeißt ist in meinen Augen ein sehr guter Stereosynthesizer, aber beim Antesten im Laden habe ich nicht herausgefunden warum der mit dem Schlagwort binaural beworben wird.
 
Ok, dann habe ich scheinbar eine Kopf- Ohrform die das nicht vernünftig auflöst.

Hast du mal das Frisör-Beispiel mit Kopfhörern gehört?
Ich bin mir sicher, dass das mit JEDER Ohrform funktioniert.
Wenn trotzdem nicht, ist dein Kopfhörer oder Abspielgerät kaputt und liefert kein Stereo-Signal.
 
man nimmt einen ton unter 1,5 khz. pannt den ton einmal links und einmal rechts. dabei sollen sich beide frequenzen mximal 30 hz unterschieden.

dadurch entsteht eine schwebung.

nennt man auch akustisches lsd. das geht mit jedem guten kopfhörer.

 
Auch bei anderen Gelegenheiten wo etwas mit "binaural" gelabelt war konnte ich unter Kopfhörern nichts hören, was über einen guten Stereomix hinausgegangen wäre.
Stereo-Musik Mixes haben meistens
1.) anderes Ausgangsmaterial und
2.) andere technisch Anforderungen
als reines Kunstkopf/Binaural-Audio.

Beide Rahmenbedingungen kann man schön an dem Barbershop-Beispiel mit seiner extemen Seitenlokalisierung (gleich am Anfang die knarrende Tür) darstellen. Diese extreme Seitenlokalisierung entsteht durch eine Laufzeit und Phasendifferenz zwischen linkem und rechtem Ohr/Mikro.

1.) Ein Musik-Mix besteht nun üblicherweise aus lauter einzelnen Mono-Signal. Die für binaurale Darstellung nötige Phasendifferenz lässt sich mit einem Monosignal erstmal nicht erzielen. Man muss/müsste es mit eine speziellen Phasenverschub-Plugin/Effektgerät in ein binaurales Signal erweitern. Das blöde ist, dass das allein ziemlich aus dem Mix fällt, wenn man es nur mit einem einzigen Signal oder wenigen Signalen der Mehrspuraufnahme macht. Wenn man es mit mehreren Signalen macht, dann müssen die unterschiedlichen Phasen/Laufzeit-Differenzen zu einander passen.
Außerdem passen alle Reverbs nicht mehr zu dieser Raumerweiterung. Ein normaler digitaler Reverb sieht als jeweils äußerste Raumgrenze die Ebene der Kopfhörer-Membranen. Die Phasenverschieber sehen die äußere Grenze theoretisch unendlich weit außerhalb der Ebene der Kopfhörermembranen. Damit man jetzt einen Hall/Raumeffekt mit binauraler Wirkung hat (also mit Raumgrenzen außerhalb der Kopfhörermembran-Ebene), muss das Gerät jede Erstreflektion ebenfalls mit Phasenverschub auf die andere Seite leiten, und der Phasenverschub muss auch zur eingestellten Raumgröße passen.
Das macht insgesamt eine "echte" binaurale multitrack basierte Mischung wirklich sehr sehr aufwändig.

2.) ein mit Phasenverschub für Binauralität arbeitendes Stereosignal ist nicht monokompatibel. Signale außerhalb der Kopfhörermembran-Ebenen werden mono leiser und meist dünner. Wenn also irgendjemand eine Platte in "binaural" mischt, dann wird er tunlichst darauf achten, dass sein mix trotz allem immer noch irgendwie so leidlich monokompatibel ist. Von Hörspielproduktionen weiß ich, dass die diese Außenseiten-Signale gerne etwas zu laut mischen, damit sie Mono dann nicht all zu leise sind (Hörspielmischungen sind aber so, das die wichtigen Dinge trotz aller Binauralität im Zentrum des Hörfeldes passieren).
 
Zuletzt bearbeitet:
Kann man eigentlich einen Sound panner, der mit Phasenverschiebung arbeitet (ich les hier Verschub, das ist wohl österreichisch?), als binaural bezeichnen statt als stereo?
Anhang anzeigen binaural.ogg

Ihr hört die Akkorde der Durtonleiter über C4. Grundton geht von links nach rechts, Terz von ganz nah nach ganz fern also unhörbar, Quinte von rechts nach links.

Dass keine Pegeldifferenz (EDIT: die statisch den ganzen Einzelklang betrifft) beteiligt ist, hört ihr daran, dass euer Spiel am Balanceregler die Wichtungsverhältnisse der Akkordkomponenten nur im zweiten Beispiel ohne Hall beeinflusst:
Anhang anzeigen stereo.ogg
(Kopfhörer oder Monitore im Stereodreieck? Sollte eigentlich egal sein, geht beides, glaub ich, aber ersteres ist im Zweifel vergleichbarer.)

Rechts und links, nah und fern krieg ich schon recht gut hin. Vorne hinten von einem noch nicht, aber ich frage mich, wie viel Aufwand mir das wert ist.
Das ginge nur mit Phasendifferenzierung hoch- und tieffrequenter Klanganteile, soweit habe ich gelesen in Literatur über den Zusammenhang zwischen Klangwarnehmung und Ohrmuschelformung, die ich leider nicht zitieren kann, da ich sie gerade nicht finde. Kann auch irgendne Fernsehreportage gewesen sein, und auf einer noch zu beweisende Hypothese beruhen.
 
Zuletzt bearbeitet:
@fanwander , Danke für Deine Ausführungen. Das erklärt möglicherweise warum ich den JMJ Mix als nicht so räumlich empfinde.
Ich war vor ein paar Wochen auf einem Ayreon Konzert in den Niederlanden und da wurde das ein oder andere Keyboard- oder Gitarrensolo als 3d Signal durchs Publikum geschickt. Das war schon beeindruckend räumlich und hat meine Erwartungshaltung diesbezüglich vermutlich zu hoch geschraubt.
 
Auf Edgar Froeses 1974er Album Aqua gibt es auch binaurale Aufnahmen mit dem Kunstkopf des Herrn Brunschen, zu hören in den beiden Titeln "NGC 891" und "Upland".
Auf fast allen meinen Alben in den letzten 10 Jahren sind auch binaurale Kunstkopfaufnahmen mit drauf.
Das ist doch nix besonderes mehr.
Ich nutze das allerdings weniger zur naturgetreuen Wiedergabe von Klängen, sondern mehr für surreale Soundeffekte.
 
Wo liegt denn der Unterschied zu Stereo?

technisch ist das stereo, also sozusagen das gleiche.

"binaural" ist aber im regelfall ein downmix von etwas höherer ordnung, egal ob nun objekt-, matrix- oder kanalbasierte aufnahmen.

beim heruntersummieren auf stereo oder mono werden einfach die richtungen, aus der der schall beim original kommt (oder kommen soll), mit einem set aus filtern nachgebildet. das verfahren ist im prinzip identisch mit dem, wie eine 2.1 soundbar eine atmos aufnahme wiedergibt.

sichere kennst du "binauralfilter" auch als plug-in. das ist das gleiche prinzip, nur rückwärts, da sind die schallquellen zwingend punktschallquellen und die position wird von dir bewusst künstlich gesetzt.


das album von JMJ ist sicher kein gutes beispiel für das, was damit wirklich geht wenn man es ausreizt. :)

bei irgendwelchem mikrophoniertem ambisonics testmaterial mit hört man den "unterschied" vermutlich am besten.

das oben angesprochene thema "kunstkopfaufnahmen" ist wieder ein bischen eine andere baustelle. da war ja das material schon immer stereo und von daher kann man auch keinen binauralen downmix mehr davon machen.
 
Zuletzt bearbeitet:
Kann man eigentlich einen Sound panner, der mit Phasenverschiebung arbeitet (ich les hier Verschub, das ist wohl österreichisch?), als binaural bezeichnen statt als stereo?

würde ich persönlich nicht tun, das verfahren rein auf die verzögerungszeiten zu begrenzen kann zwar ganz nett sein, hört sich aber dramatisch anders an, angefangen damit, dass die hinteren 180 grad mit den vorderen identisch sind.

klar, du willst vermutlich nur die vorderen 60 grad haben, aber auch da fehlt dir der frequenzfilter schnell. :)

distanz ist in der tat sehr einfach herzustellen, ein modulierbares delay und ein simpler interpolationsfilter funktionieren schon so halbwegs für den effekt.

Am besten wirken binaurale Aufnahmen wenn man die Augen schließt und wirklich auch "aktiv" hört.

vor allem hört man richtung im grunde genommen wirklich nur, wenn sich schallquellen und/oder mikrophon bewegen.

eine bloße kunstkunstaufnahme vom blätterrauschen im wald unterscheidet sich nur unwesentlich von AB mikrophonie. interessant wird das erst, wenn ein zwitschender vogel vorbeifliegt - oder ein düsenjäger.

oder wenn das ganze in einem nicht schallarmen raum stattfindet.
 
Zuletzt bearbeitet:
würde ich persönlich nicht tun, das verfahren rein auf die verzögerungszeiten zu begrenzen kann zwar ganz nett sein, hört sich aber dramatisch anders an, angefangen damit, dass die hinteren 180 grad mit den vorderen identisch sind.
Eigentlich sollte jede Reflexion ihre eigene spezifische (na gut, zufällig verteilte, man will sich ned totdefinieren) Phasendifferenz plus richtungsindifferentes Delay ontop haben, ganz zu schweigen vom Frequenzfilter. Dann ist nix mehr mit schnell und einfach. Wobei es gut wäre, haste recht, entfernteren Quellen ein zusätzliches phasenindifferentes Delay für alle Reflektionen angedeihen zu lassen.

Wenn du mit stationärem Stereopaar Monitoren statt mit Kopfhörern abhörst, hast du allerdings de fakto nen Unterschied zwischen vorn und hinten, wenn du sie nicht gerade irgendwo auf die Ohrengerade stellst. Die reale Raumsituation ist entscheidend, wenn es darum geht, dem Gehör einen anderen Raumeindruck vorzugaukeln. Kopfhörer sind dagegen eine "Standard minimal blanket", da musste dann halt alles selber machen. Ein Mittel ist der Kunstkopf, der allerdings nur zur Aufnahme realer Klangquellen dienen kann. Bei ITB musst du diese Effekte nachbilden.

Worauf ich aber hinaus will ist: Stereo im groben Sinne braucht fürs Panning einfachste Mittel. Pegeldifferenz reicht schon, es zählt allein dass es für linkes und rechtes Ohr unterschiedliche Signale gibt. Stereo im feineren Sinne, synonym "binaural", zielt für meinen Begriff davon auf die Modellierung des Raums und die eigene Position darin in Pegel, Phase und Frequenz pro Kanal ab.
 
Zuletzt bearbeitet:
Eigentlich sollte jede Reflexion

reflektionen sind erst mal nicht im spiel.

die filter reproduzieren zunächst einmal einfach das gleich, was auch bei realen schall passiert, nämlich dass es einen laufzeitunterschied zwischen rechten, und linken ohr gibt.

das ist das schöne bei FIR/IR, die man dazu im regelfall benutzt: dass sie verzögerung, phase, und amplitude je nach frequenz und das alle ohne viel aufwand gleichzeitig bieten.

vor allem bietet faltung die wundervolle möglicheit mit dem zeug zu arbeiten, ohne dass man großartig etwas selbst berechnen müsste.

ihre eigene spezifische (na gut, zufällig verteilte, man will sich ned totdefinieren) Phasendifferenz plus richtungsindifferentes Delay ontop haben, ganz zu schweigen vom Frequenzfilter. Dann ist nix mehr mit schnell und einfach. Wobei es gut wäre, haste recht, entfernteren Quellen ein zusätzliches phasenindifferentes Delay für alle Reflektionen angedeihen zu lassen.

bei der kunstkopfaufnahme ist alles schon enthalten und kann auch nicht mehr geändert werden. bei ambisonics kann nur noch die amplitude und die richtung geändert werden. (bzw. oder)

willst du alles künstlich erzeugen, würde man bei herkömmlichen DSP (also nicht bei deinem projekt) winkel/soundfield und entfernung komplett voneinander trennen.

das signal durchläuft dann beide filter seriell, wobei die reihenfolge fast egal ist.

Wenn du mit stationärem Stereopaar Monitoren statt mit Kopfhörern abhörst, hast du allerdings de fakto nen Unterschied zwischen vorn und hinten, wenn du sie nicht gerade irgendwo auf die Ohrengerade stellst.

die laufzeitdifferenz ist zwar minimal unterschiedlich zwischen vorne und hinten, aber das hört man echt nicht als ortbare richtung.

die frequenzfilterung ist das, was man hört, und wo man dann merkt, das sich da offenbar etwas bewegt. :)

Die reale Raumsituation ist entscheidend, wenn es darum geht, dem Gehör einen anderen Raumeindruck vorzugaukeln.

lass doch den hall mal weg. der ist nur ein sonderfall.

so mancher hallalgorithmus enthält heute schon seine eigenen richtungsfilter für die reflektionen, und solche kann man dann garnicht mehr verwenden um das material erneut zu positionieren. vor allem gewöhnt man sich so an den sound, dass man dann so wie der OP hier bei JMJs 3D-scheiß keinen unterschied mehr hört. :)

Worauf ich aber hinaus will ist: Stereo im groben Sinne braucht fürs Panning einfachste Mittel.

das verfahren hinter deiner idee, die kanäle eines geräuschs für eine stereo mischung nur mit verzögerung zu beglücken kann für alles mögliche genutzt werden, unter anderem zum demaskieren, aber wenn du das mal unterm kopfhörer mit einem binauralfilter VST oder einer kinoproduktion mit atmos vergleichst, wirst du merken, dass verzögerung nicht mal ansatzweise bei der lokalisation von ereignissen hilft.

Pegeldifferenz reicht schon, es zählt allein dass es für linkes und rechtes Ohr unterschiedliche Signale gibt.

die frage ist halt ob es für das gehirn reicht ein (nur) zwischen rechts und links verzögertes signal zu haben.

ich nenne so etwas einen "haas panner" und mische ganz normales stereo zeug damit.

und zum testen natürlich immer nur kopfhörer. alle anderen abhörsituationen sind reine glückssache.


p.s.: nimm das als kleines demo.

Anhang anzeigen 110-CongruentXP.mp3

das kühlaggreat bei 0:45 und danach die pads haben im orginal 10 kanäle für 10 lautsprecher im kreis.

die "binaurale" version mit 2 kanälen kann sich dann auch otto normalhörer mit dem walkman antun. das ist dabei der sinn der übung.
 
Zuletzt bearbeitet:
mit Logic kann man ( nach dem letzten großen und kostenlosen Update ;-) ) in Surround mixen und gleichzeitig über eine Matrix diese Surround Mischung auf Binaural codiert ausgeben. Wenn man dann noch AirPod Pro 2 nutzt, erkennt das System die Kopfbewegung und die Schallquellen bleiben an ihrer Stelle, was die Immersion und Lokalisation noch besser umsetzt, ähnlich wie die beim sehen , werden Objekte durch die Bewegung des Kopfes plastischer.. es gibt auf Apple Music schon ein paar gute Tracks, die auf diesem Wiedergabe Prinzip aufbauen ,
 
Zuletzt bearbeitet:
Vorne hinten von einem noch nicht
Vorn / hinten Simulation funktioniert über Frequenzbeschränkung des Signals, die der Dämpfung durch den Schädelknochen entspricht. Im Dickreither stehen die Werte nicht, aber ich hab schon mal irgendwo schon mal die entsprechenden Daten gesehen. Wenn ich es noch finde, ergänze ich es hier.
 
die frage ist halt ob es für das gehirn reicht ein (nur) zwischen rechts und links verzögertes signal zu haben.
Nein. Um evtl. ein Missverständnis zu klären: Verzögerung allein benutze ich auch nicht, da ist auch Pegelabsenkung (der ersten Reflexionen) auf dem Lee-, also dem ggf. schallabgewandten Ohr, mit dabei, vom starker bis zu keiner Absenkung über der Zeit bei zunehmend diffuseren Phasendifferenzen, relativ zum Luvohr, und auch klarerweise nur wenn das Klangereignis scharf von der Seite kommt. Phasendifferenzen zwischen hohen und tiefen Klanganteilen ist das, was ich noch nicht habe. Meine ich aber auch geschrieben zu haben.

lass doch den hall mal weg. der ist nur ein sonderfall.
Ich halte es für einen Irrtum, bei Überlegungen zum binauralen Raumeindruck den Hall erst mal ausklammern zu können. Das kann sich der Binauralexperimentalist allenfalls erlauben, solange es um den Klang selber geht also noch gar nicht um Raum. Hall ist fundamental in der Natur, da zu sagen, dass es ein Sonderfall sei, nun ja.

Klang ohne Raum gibt es nicht, kein Wunder, dass sich mein zweites Beispiel unecht anhört (nein, ich meine nicht das Möchtegern-Klavier). Selbst der schalltote Raum oder das Freifeld, wie es angelsächsischen/internationalen wohl heißt, sorgt der Kopf selber als zentrale räumliche Begrenzung und sorgt über die Anatomie des Schädels und der Ohren für passable Ortbarkeit im Sinne der halben Miete.
 
Nein. Um evtl. ein Missverständnis zu klären: Verzögerung allein benutze ich auch nicht

auch mit absenkung der amplitude erreicht man nicht mal ansatzweise den höreindruck, dass eine schallquelle von außerhalb der beiden stereolautsprecher käme, zentral ist immer die frequenzfilterung.

lediglich innherlab des stereodreiecks schient ein ereignis immer von dort zu kommen, wo es zuerst erscheint. das funktioniert ja bekanntermaßensogar dann, wenn das signal, was zuerst kommt, leiser ist als das andere. (insofern ergibt beides gleichzeitig, pannen und das leisere verzögern, keinen sinn.)

Ich halte es für einen Irrtum, bei Überlegungen zum binauralen Raumeindruck den Hall erst mal ausklammern zu können.

warum?

für raumhall gelten exakt die gleichen spielregeln wie für den virtuellen direktschall auch; die richtung und der abstand bestimmten den klang.

hast du also erst einmal ein setup, mit dem du immersive audio zu einem stereo file downmixen kannst, braucht du nur noch einen hall algorithmus, der das audio inclusive der position und des abstands ausgibt.

dann durchläuft dieser beim downmix den gleichen filter wie der rest der produktion auch.

Hall ist fundamental in der Natur, da zu sagen, dass es ein Sonderfall sei, nun ja.

wo in der natur gibt es denn raumhall?

räume werden von menschen gebaut.

wald und gebirge sind der sonderfall - der normalfall ist die wüste und die wiese.

Klang ohne Raum gibt es nicht

auch hier komme ich nicht umhin nach dem "warum" zu fragen. :)

sorgt der Kopf selber als zentrale räumliche Begrenzung und sorgt über die Anatomie des Schädels und der Ohren für passable Ortbarkeit im Sinne der halben Miete.

ohrmuschel und schädel und das zeugs haben mit hall effekten eher weniger zu tun. du magst argumentieren, dass da auch reflexionen mit im spiel sind, aber für die ortung braucht man erst mal keinen raum um einen herum.

auf der straße kann man eine heruntergefallen münze jedenfalls viel besser orten als im badezimmer. probiers einfach mal aus. :)

Richtig guter und informativer Artikel!

wir haben das interveiw hier ja schon mal zerrissen, es stehen zwar auch richtige dinge, aber einige sachen daran sind eher für die rubrik humor geeignet.

da macht jemand erstmals in 2022 eine surroundmischung und hält das für total innovativ, mischt die in surround, und will dann davon eine surround version mit nuendo gerendert haben. wtf?

dann beschwert er sich darüber, dass er die funktionsweise von dolby codecs nicht verändern kann. ja junge, dann mach doch deinen eigenen, wo ist das problem. es hat niemand behauptet, das atmos für musik gemacht worden wäre, also miss es nicht daran.

recht hat er unter anderem damit, dass generell viel mist gemacht wird, den niemand hören will, und dass es nicht so einfach ist solche prinzipien musikalisch sinnvoll einzusetzen.
 
Zuletzt bearbeitet:
da macht jemand erstmals in 2022 eine surroundmischung und hält das für total innovativ, mischt die in surround, und will dann davon eine surround version mit nuendo gerendert haben. wtf?

dann beschwert er sich darüber, dass er die funktionsweise von dolby codecs nicht verändern kann. ja junge, dann mach doch deinen eigenen, wo ist das problem. es hat niemand behauptet, das atmos für musik gemacht worden wäre, also miss es nicht daran.

recht hat er unter anderem damit, dass generell viel mist gemacht wird, den niemand hören will, und dass es nicht so einfach ist, solche prinzipien sinnvoll einzusetzen.
Ich fand es erfrischend und gut zu lesen wie er über seinen Prozess berichtet ohne Werbetexte nachzusprechen. Für mich waren dabei auch eine Reihe von guten Infos zum Stand der Technik (22). Den "WTF Satz" verstehe ich nicht...
 


Neueste Beiträge

News

Zurück
Oben