Binaural, was ist das?

der normalfall ist die wüste und die wiese.
Der Satz "Hall ist fundamental in der Natur" sollte halt lauten: "Erstreflektion ist fundamental in der Natur". Auch in der Wüste und auf der Wiese hast Du vom Boden Erstreflektionen, und auch das Fehlen anderer Erstreflektionen ist ein Hinweis für das Gehör. Stell dich an den Rand eines Radweges: rechts Wiese, links Asphalt. Stelle ein Radio vor dich auf die Grenze und nimm das mit einem Kunstkopf auf. Hör es Dir zu Hause an und Du wirst sagen können auf welcher Seite die Wiese war.
 
Hall und Raumhall in einen Topf zu werfen, bitte sehr, aber ohne mich. Nur weil Hall und Raum beides irgendwas menschengemachtes suggeriert vom Wort her, muss es sich nicht zwangsläufig auf einen äußerlich begrenzten menschengemachten Container für den Aufenthalt von Menschen beziehen. Man könnte auch sagen, dass Reflektionen in der Natur fundamental sind. Klaub Worte bitte bei dir zu Hause, @einseinsnull.

Warum Erst- aber nicht Zweit-, Dritt- und nt-Reflexionen fundamental in der Natur sein sollen, erschließt sich mir auch nicht. Viele Völker kennen etwa Bergechos von jeher.
Umso eher erschließt sich mir (danke, @einseinsnull), dass man eine fallende Münze im Badezimmer nicht besser orten kann, eher schlechter, da der Klang von glatten, harten Oberflächen zurückgeworfen wird. Frequenzdämpfung findet da kaum statt. Unnatürliche Räume verwirren den Ortungssinn halt, das ändert aber nix daran, das simples pegeldistinktives Stereo nicht zu einem überzeugenden Raumeindruck führt.

Umso froher bin ich, dass in meinen Reflexionen jeweils auch ein kleiner EQ verbaut ist zur Frequenzfilterung. Jawoll, jaha, hättste nicht gedacht, wie? Hört mans nicht? Will jemand ein Beispiel ohne Frequenzfilterung zum Vergleich, kann ich damit gerne dienen. Aber kann hier auch egal sein, Thema ist grundsätzlich, gell.
 
Ich fand es erfrischend und gut zu lesen wie er über seinen Prozess berichtet ohne Werbetexte nachzusprechen.

ich empfand es genau umgekehrt. er hat im prinzip nichts zu den themen mischtechnik, musikalische und kompositorische nutzung der technik o.ä. gesagt, sondern stattdessen eine lange reihe reihe von produktnamen und brands aneinandergereiht, die er dabei benutzt hat.

ansonsten beschränkte sich der bericht auf "bei 3D darf man im gegensatz zu stereo alles zumatschen und dadurch hat man insgesamt mehr freiheit" (um sich dann zu wundern, dass der downmix nicht so gut funktioniert^^)

was ebenfalls fehlt ist das reasoning: was war sein ziel dabei und warum hat er es so versucht?

wie oben gesagt, er benutzt objektbasierte formate, wohlwissend, dass das nicht ideal für musik ist, und beschwert sich dann darüber, dass es so ist wie es ist. dann wird der downmnix "anders gemischt" wie die dolby version (das ist nicht der sinn der übung!) und dann klingt es nicht gut.

die überschrift "bislang aufwendigste produktion" hätte einem eine vorwarnung sein können. :)

ist aber vermutlich alles nicht seine schuld, denn wie will man diese blöden interviewfragen sonst beantworten ohne sich unbeliebt zu machen.
 
Hall und Raumhall in einen Topf zu werfen, bitte sehr, aber ohne mich.

hall findet immer in räumen statt und die überwiegend mehrheit von hall effekten simuliert solche räume - z.b. auch das von JMJ in der produktion benutze plug-in.

Man könnte auch sagen, dass Reflektionen in der Natur fundamental sind.

klar kann man das sagen, man kann es aber auch für falsch halten und es nicht sagen.

Warum Erst- aber nicht Zweit-, Dritt- und nt-Reflexionen fundamental in der Natur sein sollen, erschließt sich mir auch nicht.

weil reflektionen eines übergangs von einem zu einem anderen stoff bedürfen. keine wand = keine reflektion.

dennoch benutzt man für soiunds in der wüste den gleichen binauralfilter wie für sounds im schwimmbad.

Viele Völker kennen etwa Bergechos von jeher.

und die präsenz von bergen ist eben die ausnahme. :)

was es realtiv viel in der natur gibt ist fussboden. der hilft auch in der tat bei der ortung von schallquellen.

Umso eher erschließt sich mir (danke, @einseinsnull), dass man eine fallende Münze im Badezimmer nicht besser orten kann, eher schlechter, da der Klang von glatten, harten Oberflächen zurückgeworfen wird.

im extremfall werden die reflektionen lauter als der direktschall - oder du hast gar keinen direktschall weil die kloschüssel dazwischen ist.

Frequenzdämpfung findet da kaum statt. Unnatürliche Räume verwirren den Ortungssinn halt, das ändert aber nix daran, das simples pegeldistinktives Stereo nicht zu einem überzeugenden Raumeindruck führt.

du redest permanent vo raumeindruck, räumen und hall und übersiehst dabei, dass die wesentlichen klangformenden elemente, die man für die richtungsortung braucht, die ohrmuschel und der gehörgang sind.

das vorhandensein von reflektionen im ausgansmaterial können binauralfilter unterstützen (trommel links vorne mit echo rechts hinten kann aufgrund des konrtrast zwischen beidem die ortung verbessern), aber richtung und abstand haben mit raumhall erst mal nix zu tun.

das behaupten nur leute, die 3D hall plug-ins verkaufen wollen.

Jawoll, jaha, hättste nicht gedacht, wie? Hört mans nicht?

ne, hört man nicht. kann an den filtern liegen, kann aber auch am testmaterial liegen. breitbandig und harte anschläge hilft viel.

und natürlich - meine gute alte hauptbotschaft noch mal anzubringen - der kontrast zwischen verschiedenen richtungen.

Stelle ein Radio vor dich auf die Grenze und nimm das mit einem Kunstkopf auf. Hör es Dir zu Hause an und Du wirst sagen können auf welcher Seite die Wiese war.

das ist ungefähr das, was ich versucht habe ihm zu erklären.

im nachhinein zu argumentieren, dass "kein raumhall" aber auch eine form von raumhall darstellen würde, finde ich allerdings ziemlich idiotisch. :)

und man sollte wohl auch den dämpfungsfaktor einer wildblumenwiese nicht unterschätzen. das wort reflektion hielte da wirklich für angebracht und diese -80db sind wohl mehr störsignal als dass sie bei der ortung helfen würden.
 
Zuletzt bearbeitet:
Gut dann hört mans nicht, vielleicht meinen wir auch wieder mal unterschiedliche Dinge, da ich so fixiert auf meine Reflexionen bin ...

Bei der Richtungsortung durch die behauptete Frequenzfilterung auch daran gedacht, dass es den Knochenschall gibt? Das heißt, wenn der Schädel auf der einen Seite Schall schluckt, bedeutet das ja nicht unbedingt, dass diese Frequenzen weg sind, sie werden nur auf anderem Wege, nämlich über den Knochen ans Leeohr* übertragen.

*) Luv und Lee – hab mal so keck diese Begriffe aus der Gebirgsgeografie auf die Psychoakustik übertragen. Wind sei angenommen Klang im uHz-Bereich mit ein paar tausend Dezibel. Und in meinem Garten steht ein Einhorn und schreibt auf einer alten "Erika" diesen Post.
 
Gut dann hört mans nicht, vielleicht meinen wir auch wieder mal unterschiedliche Dinge, da ich so fixiert auf meine Reflexionen bin ...

mir erschien es die ganze zeit so als ob du die sache mit dem laufzeitunterschied und die benutzung oder berücksichtigung von wie auch immer geartetetn reflektionen "als effekt" irgendwie durcheinanderbringst, deswegen bin ich da so energisch.

schau dir mal ein HRIR faltungssample und/oder eine HRIR transferfunktion von "schräg vorne" in einem wellenformeditor an, dann wirst du merken, dass es sich dabei nicht wirklich um ein "delay" zwischen den kanälen handelt, was man daraus nun irgendwie extrahieren könnte um die eine hälfte des effekts schon mal so zu reproduzieren. *)

Bei der Richtungsortung durch die behauptete Frequenzfilterung auch daran gedacht, dass es den Knochenschall gibt? Das heißt, wenn der Schädel auf der einen Seite Schall schluckt, bedeutet das ja nicht unbedingt, dass diese Frequenzen weg sind, sie werden nur auf anderem Wege, nämlich über den Knochen ans Leeohr* übertragen.


richtig ist, das wenn man rechts taub ist und sich das linke ohr zuhält, man von der violine im nebenzimmer links von einem immer noch was hört. aber eben nur wirklich sehr, sehr wenig.

das stichwort lautet hier also "relevanz".

bevor man über so etwas nachdenkt oder es gar in der praxis nachbaut, muss man also erst mal klären, wie gewichtig dieser faktor ist - im vergleich zu anderen faktoren.

bislang kümmert sich niemand über deine knochen frage, weil es erst mal wichtigeres gibt.


zum beispiel ist ein herkömmlicher kunstkopf schon mal generell nicht ausreichend um sich durch faltung solchen filtern anzunähern, sondern du brauchst dazu eben auch "schultern" (jedenfalls für alles unter 180 grad) und perücken.

1697138688710.png

der nächste wichtige faktor ist die frage nach der anzahl der verschiedenen positionen, die man misst (bei dir: "verschiedene eq einstellungen)
ich persönlich nehme die nur noch linear interpolierten werte von 24 positionen vertikal, wie sie in 90% aller softare vorhanden ist, nicht mehr wahr. auch nicht bei 100 hertz modulation. kein grund also, sich mehr zu wünschen.

hingegen höre ich zwischen FIR filtern und dem soundhack FFT plug-in sofort einen unterschied (das ist dann das thema "phase gehört auch dazu")

auch die lautsprecher und wandlerqualität kann man leicht überschätzen. viel wichtiger als verzerrugunsgrad oder der frequenzgang ist es statt spikes besser sweeps oder gleiche chirps zu verwenden. das thema rauschabstand ist dann direkt auch keines mehr.

letztlich ist ein halbwegs gut isolierter schalltoter raum natürlich voraussetzung.

einer der größten faktoren bei dem spiel ist dann auch schon die tatsache, dass sowohl die (zur lebenszeit erlernte) wahrnehmung als auch die form der ohren sehr individuell ist, also eh jeder die dinge wieder anders hört.

alsl logische konsequenz daraus macht man verschiedne sets von filtern mit verschiedenen köpfen, und für leute, die in der analen phase steckengeblieben sind kann man auch noch zusätzliche filter benutzen, die aus den stadnard transferfunktionen neue macht, die speziell zu deinen ohren passen.

wenn das alles individuell ist, bedeutet das, dass du beim erstellen von modellen oder bei der art und weise, wie du deinen binauralen downmix machst, eh nichts daran ändern kannst.

im endeffekt kommst du mit diesem ganzen audio mess zeugs also meist durch testreihen viel weiter als wie mit einer verkomplizierung des modells bis hin zu philosopischen fragen der teilchenphysik einer idealen praxis näher.

ist dir natürlich nicht kompliziert genug, schon klar. :)


so, achtung, ***trommelwirbel***, jetzt kommt das mit dem sternchen:

*)
wenn du bei der neuerfindung des rades die herkömmlichen verfahrensweisen ablehnst und nicht benutzen willst, wie bist du eigentlich zu deinen obigen EQ einstellungen gekommen?

die frage drängt sich geradezu auf.

ernsthaft, selbst nahmhafte hersteller wie rode müssen die filter in ihrer software drei mal nachbessern, weil sie dabei was falsch gemacht haben (wenn angelo dafür jedes mal einen euro bekommen würde...), und ihr meint das rad neu erfinden zu können ohne das zwischendurch mal gegen die sogenannten konventionen da draußen vergleichen zu wollen?

misstrauisch und mit selbstermächtigung ausgestattet bin ich ja auch. jarre hat ja recht, dass z.b. apple nur müll erzählt. aber so ganz ohne kontext, quellen und lehrer? wo soll das hinführen?

1697139669380.png
 
Zuletzt bearbeitet:
ist dir natürlich nicht kompliziert genug, schon klar.
Oh, das ist hervorragend kompliziert. Ich überlese es und erfreue mich an deiner elaborierten Rhetorik. An sachlichem Verständnis soll es mir mangeln, wenn es das tut.

Leider, wo es an Konsens fehlt, verstehen sich zwei nun mal nicht. Oder mehrere. Also bitte ich um etwas Geduld. Wenn ich bereit und willig zum Hinterfragen und Revidieren meines von mir aus fehlerhaften Status quo bin, werde ich auf dein Posting zurückkommen, allerdings in meinem "Nachhall selbst programmiert" Thread. In dieer Tiefe ist es hier offtopic.

Mein Raumklangsystem, das ich schon als binaural oder auf Binauralität abzielend beschreibe, ist jedenfalls ein Kompromiss zwischen drei Seiten, sozusagen der Schwerpunkt eines Dreiecks:
  • das, was mein Code mitbringt von außerhalb dieses Systems zuzüglich neuer Konzepte, die mir mit ersterem vereinbar scheinen und leicht zu programmieren sind ohne weitere Abhängigkeiten, die ich mitschleppen müsste.
  • wie ich Raumklang verstehe nach der Lektüre von populärwissenschaftlicher Literatur über Akustik und Psychoakustik Sowie Einlassungen von dir und andere in diesem Forum, soweit sie an bekanntem Wissen anknüpfen können. Ich kann als jemand, der in Lohn und Brot auf unmusikalischem Gebiet steht, nicht einfach so ein weiteres Hochschulstudium beginnen um wissenschaftliche Literatur jenseits meiner Profession zu verstehen. Da dilettier ich lieber vor mich hin, such mir Anerkennung oder Abreibung im Netz, und steh dazu.
  • mein selbstkritischer Höreindruck. Dass obiges Beispiel #1 binaural(er), raumklanglicher ist im Vergleich zu Beispiel #2, das normales pegeldestinktives Stereo ist, stößt hoffentlich auf Zustimmung? Wenn nicht, tja, leide ich halt, still in mich hinein. Mitleidsbekundungen bitte als PN.
Die Beispiele, abschließend noch mal wiederholt, sollen der Untermauerung meiner Behauptung in Bezug auf die Frage dieses Themas dienen:
Binaurales Panoramadesign ist psychoakustisch orientiert in den Dimensionen Pegel, Phase und Resonanzspektrum pro Reflektion und Kanal; rein pegeldestinktives Panning ist maximal "stereo" zu nennen, bloß Rechtfertigung der Industrie für arme Leute, damit sie Lautsprecher im Bundle kaufen.

Um das Scrollen zu ersparen, hier noch mal
Anhang anzeigen 190190
Ihr hört die Akkorde der Durtonleiter über C4. Grundton geht von links nach rechts, Terz von ganz nah nach ganz fern also unhörbar, Quinte von rechts nach links.

Dass keine Pegeldifferenz (EDIT: die statisch den ganzen Einzelklang betrifft) beteiligt ist, hört ihr daran, dass euer Spiel am Balanceregler die Wichtungsverhältnisse der Akkordkomponenten nur im zweiten Beispiel ohne Hall beeinflusst:
Anhang anzeigen 190215
(Kopfhörer oder Monitore im Stereodreieck? Sollte eigentlich egal sein, geht beides, glaub ich, aber ersteres ist im Zweifel vergleichbarer.)

Rechts und links, nah und fern krieg ich schon recht gut hin. Vorne hinten von einem noch nicht, aber ich frage mich, wie viel Aufwand mir das wert ist.
 
Zuletzt bearbeitet:
allerdings in meinem "Nachhall selbst programmiert" Thread. In dieer Tiefe ist es hier offtopic.

ja, das würde ich empfehlen.

du wirst dich daran erinnern (oder es dort nachlesen können) dass ich das thema ortung/verschiedene richtungen dort bereits angesprochen habe. innerhalb von hallgeräten ist das fast schon normal heute.

  • Ich kann als jemand, der in Lohn und Brot auf unmusikalischem Gebiet steht, nicht einfach so ein weiteres Hochschulstudium beginnen um wissenschaftliche Literatur jenseits meiner Profession zu verstehen.

ich verstehe das argument, aber das musst du auch nicht wirklich. das meiste kannst du irgendwo abschreiben und es langt, das zeug abstrakt zu verstehen.

dass dein programm keine herkömmlichen audiosignale verabeitet ist dabei auch kein problem. das meiste dsp zeugs lässt sich einfach übertragen.

  • Da dilettier ich lieber vor mich hin

das ist so lange in ordnung wie man sich man dadurch nicht mehr arbeit macht, als es "normal" zu machen. :)

  • mein selbstkritischer Höreindruck. Dass obiges Beispiel #1 binaural(er), raumklanglicher ist im Vergleich zu Beispiel #2, das normales pegeldestinktives Stereo ist, stößt hoffentlich auf Zustimmung? Wenn nicht, tja, leide ich halt, still in mich hinein. Mitleidsbekundungen bitte als PN.

wenn es um den begriff geht, nach dem im ausgansposting gefragt wurde, dann bewegt sich "binaural" dort in abgrenzung zu dem format, in dem die produktion vorher war, und welches nicht aus nur 2 diskreten kanälen besteht.

deswegen gehören dein stereo effekt oder bernies kunstkopf da dann nicht dazu, weil das zeug ja schon immer mono oder stereo war.

unabhängig davon wie man das dann nennt kann man aber natürlich auch in der 2-2-2-welt mehr mit phantomschallquellen machen als nur "balance" und "pan", das ist schon klar.

Binaurales Panoramadesign ist psychoakustisch orientiert in den Dimensionen Pegel, Phase und Resonanzspektrum pro Reflektion und Kanal; rein pegeldestinktives Panning ist maximal "stereo" zu nennen, bloß Rechtfertigung der Industrie für arme Leute, damit sie Lautsprecher im Bundle kaufen.

damit sind wir dann wieder bei unseren schwestern jeannie, michaela und jarre.

das lautsprecher setup XY ist durchaus ganz hervorragend dazu geeignet, das format XY abzuspielen, und dabei um längen besser als jede stereo version davon.

man sollte halt nur nicht so wie jarre musik in 7.1 mischen und sich dann wundern, wenn es in stereo nachher kacke klingt.

man hat es dann nämlich schon "anders" abgehlört wie man es produziert hat (weil man objektorientiert nicht ideal abhören kann - außer in einer kugel mit 100 lautsprechern. es klingt zwar gut im studio, aber nicht identisch wie nach dem downmix bzw. der konvertierung zu irgendeinem anderenformat. alleine schon die tatsache, dass beim downmix die geometrie exakt und symetrisch ist - und sich der zuhöhrer nicht im raum bewegt, ist ein riesenproblem.)

selbst bei objekt-orientiertem produktionsverfahren würde ich (aus meiner pseudowissenschaftliche sicht) immer ein gleichförmiges setup empfehlen - und wenn es nur ein viereck ist.

warum ich 10 kanäle im kreis benutze und auf 3D verzichte und warum prologic mit center und steering nicht für musik funktioniert hatte ich auch schon mal irgendwo ausgeführt.

nur uniforme und "dichte" setups kommen ohne decoder/filter aus, weil die richtung aus der der schall kommt dort ja "echt" ist. und vor allem ist es dann einfacher zu programmieren und auch einfacher, sich das alles vorzustellen.


oh, jetzt hast du vergessen die EQ-frage zu beantworten. aber vermutlich wurde die antwort von einem einhorn gefressen...
 


Neueste Beiträge

News

Zurück
Oben