Modellierung von Hallfahne und binaurale Positionierung von Klangquellen in derselben Stereo-Raumimpulsantwort

den von vor monaten meinte ich, was sonst.

Mit Diffusion werden also Zufallsdaten erzeugt, die im Durchschitt dem Ohr glauben machen, es hätte es mit unvorhersehbaren, natürlichen, analogen Signalen zu tun. Kurz: Diffusion und "ehrliche Modellierung", ist das nicht ein Widerspruch?

nein das ist kein widerspruch, das verfahren ist eine abkürzung, die dich mit eine hallfahne beglücken kann, die halbwegs klingt.

leider war ich erheblich ungenau und muss erst einmal etwas korrigieren: gemeint hatte ich eigentlich den sustain genannten teil des modells und nicht die diffusion.

wenn man das ganze unter der überschrift "modellierung" betrachtet ist es in der tat eine art von zufallisierung. aber darum ging es mir nicht, es geht einfach nur darum, dass es vor allem zu quantifizierung führt, denn der sustain besteht aus feedback loops, mit deren hilfe du hundertausende von pseudo-echos bekommst, ohne sie einzeln berechnen zu müssen.

und es ist deswegen vollkommen legitim, einfach alle reflektionen nach ihrer order "irgendwie zusammenzumatschen und das dann zu loopen" weil ja ein viereckiger raum im real life auch nicht den ästhetisch idealen sound für eine sopranstimme produziert - sondern eher der 37-eckige.

"hallfahne" darf daher abstrakt bzw. frei erfunden sein. :)


klar, ich dachte mir wenn ich mich hier schon als dein lehrer aufspiele dann schulde ich dir auch das feedback darüber, dass du jetzt dein ziel erreicht hast.
 
Zuletzt bearbeitet:
Letztens an meinem Schubert'schen Wasserstück weitergearbeitet, sprich, verhallt, die Hallfahne ist an meinen Vermutungen über die Akustik einer Kirche orientiert:



Die Verteilung der virtuellen Stimmen im Panorama ist jetzt im Hall allein mit frequenzunabhängigen Phasenunterschieden gelöst. Dazu habe ich mein Programm die Stimmen getrennt generieren lassen, die Audiodateien getrennt verhallt und in Audacity wieder zusammengemixt (Halleffekt muss ich noch im Hauptprogramm integrieren, daher so umständlich).

Getestet mit meinen Yamaha-Monitoren (quatsch, normale unkalibrierte Boxen an der Stereoanlage), mit Kopfhörern, sowie mit Creative T20 Aktivlautsprechern, drapiert links und rechts am Kopfende meines Bettes. Allein über letzteren kommt das Xylophon nicht eindeutig von links, sondern eher von der Mitte bis rechts. Kann es daran liegen, dass das Boxenpaar Master/Slave-verschaltet ist? Die linke kriegt ihr Signal von der rechten, via Kabel. Aber dagegen spricht, dass mir Laufzeitstörungen sonst nicht auffallen.
 
Ich suche noch mal Bestätigung oder Widerspruch bei Leuten mit Ahnung:

Delay ist wenn das Eingangssignal kopiert und mit geringerem Pegel verzögert angewendet wird, Reverb ist wenn an jedem Reflexionspunkt (RP) das Summensignal vom jeweils letzte RP delayed wird. Korrekt verstanden?

Finden unverkettete Delays, nur jeweils mit unterschiedlichen Delayzeiten und Pegeln programmiert und mit dem gleichen Eingangssignal verschaltet, in heutigen Produktionen überhaupt praktische Anwendung, und wird die Summe dann gesammelt in ein Reverb geschickt?

Nun könnte man Eingangs- und Summensignal an jedem Reflektionspunkt zu jeweils beliebigen, natürlicher- aber nicht notwendigerweise sich zu ersterem verschiebenden Anteilen mischen, um eine Kombination von Delay und Reverb zu erhalten. Der Gedanke erscheint mir derart naheliegend, dass ich mit dieser Erkenntnis sicher bedauerlicherweise wieder mal nicht der erste bin und ich jetzt lese: jo, Hallgeräte/Plugins haben meist ne Einstellung namens ... (Vermutung aus dem Blauen) ... "Feedback share" oder so.
 
Zuletzt bearbeitet:
Delay ist wenn das Eingangssignal kopiert und mit geringerem Pegel verzögert angewendet wird

oder mit gleichem oder höheren pegel...

Reverb ist wenn an jedem Reflexionspunkt (RP) das Summensignal vom jeweils letzte RP delayed wird.

reverb ist nicht technisch definiert, aber zweifelsfrei immer die simulation eines raumhalles (ggf. auch eines raumes, den es so nicht geben kann.)

sollte es auf (wie auch immer gearteten) einzelnen verzögerungen (delays) aufgebaut sein, ist es in der tat typisch, dass man dann ganze ketten oder graphen von verzögerungen hat, die sich (unter anderem) mit jedem "weitergeben" abschwächen - ganz einfach weil das in der natur auch so ist, schon alleine wegen der entfernung (i.e. der absorption durch die luft)

bei raytracing macht man das superexakt, bei den meisten anderen verfahren macht man es "einfach irgendwie, so dass es gut klingt", quasi-ideal geht es nur mit faltung.

Finden unverkettete Delays, nur jeweils mit unterschiedlichen Delayzeiten und Pegeln programmiert und mit dem gleichen Eingangssignal verschaltet, in heutigen Produktionen überhaupt praktische Anwendung,

rein theoretisch kann man eine art raumhall auch mit nur lauter parallelen delays basteln, es ist aber weder üblich noch besonders toll, weil man dann viel, viel mehr davon braucht.

das quantum evolution z.b. benutzt schwingende filter dafür.

es gibt aber andere denkbare anwendungen für parallele delays, z.b. solche "rückwärts reverbs" für echtzeit bekommt man ganz prima mit nichts weiter als in der lautstärke ansteigenden delays hin, wobei die zeiten nach hinten hin immer kürzer werden.

gebräuchlicher sind feedback loops an der ein oder anderen stelle, denn auch wiederkehrende zeitabstände können durchaus dem original aus der physik entsprechen.

und wird die Summe dann gesammelt in ein Reverb geschickt?

diesen zweiten teil der frage verstehe ich nicht. :)

Nun könnte man Eingangs- und Summensignal an jedem Reflektionspunkt zu jeweils beliebigen, natürlicher- aber nicht notwendigerweise sich zu ersterem verschiebenden Anteilen mischen, um eine Kombination von Delay und Reverb zu erhalten. Der Gedanke erscheint mir derart naheliegend, dass ich mit dieser Erkenntnis sicher bedauerlicherweise wieder mal nicht der erste bin und ich jetzt lese: jo, Hallgeräte/Plugins haben meist ne Einstellung namens ... (Vermutung aus dem Blauen) ... "Feedback share" oder so.

falls du das prinzip erst- und zweitreflektionen (wichtig für das gehirn um die raumgröße zu konstruieren) vs. diffusor ("hallfahne") gegeneinander mischen meinst, das machen viele hallgeräte so, von lexicon PCM bis waves truverb plug-in.

du kannst da einfach für beides getrennt die lautstärke einstellen.

ich habe das bis "drittreflektionen" druchprobiert, da hört es aber auf sinn zu machen.

hautpanwendungszweck ist (meines erachtens), dass das eine wie das andere einfach nicht für jedes material gleich gut funktioniert. das klassische "drum room" preset z.b. besteht meist nur aus den ersten reflektionen, bei voices hingegen kommt eine volle fahne oft ganz gut.


diese + - + -, + + - - diffusor geschichte aus meinen obigen max beispiel ist die allereinfachste variante einer -> hadamard matrix, wie man sie auch in "reinen" feedback delay network basierten hall algos einsetzt.

(beachte aber, dass eine solche matrix eigentlich einen tapping buffer braucht. mit delays in ganzen sample schritten, so wie das in deiner textbasierten sprache gemacht wird, bekommt man die phasen nicht so schnell schön durcheinander durch bloßen umdrehen.
das verzögern in ganzen sampleschritten ist außerdem spektrums-genau, wohingegen bei tapping buffern interpoliert wird, was im schnitt eine art 3db lowpass zwischen nyquist und nyquist/2 bedeutet, oder mit anderen worten: jedes delaylein im diffusor ist auch ganz automatisch wieder ein bischen anders frequenzgefiltert.)


ab wann viele echos bereits ein "hall" sind, und ob man daher in einem diffusor bereits "hall" wieder in "echos" schickt, damit sollen sich die philosophen herumärgern.
 
Zuletzt bearbeitet:
Finden unverkettete Delays, nur jeweils mit unterschiedlichen Delayzeiten und Pegeln programmiert und mit dem gleichen Eingangssignal verschaltet, in heutigen Produktionen überhaupt praktische Anwendung, und wird die Summe dann gesammelt in ein Reverb geschickt?
ich kann mich irren, aber wäre Walhalla Supermassive nicht ein typisches Beispiel dafür?
 
Von woanders hierher verlagert:
wenn du bei der neuerfindung des rades die herkömmlichen verfahrensweisen ablehnst und nicht benutzen willst, wie bist du eigentlich zu deinen obigen EQ einstellungen gekommen?
Im Wesentlichen etwas physikalisches Verständnis von Oberflächen und Schall, sowie durch Vergleiche und Experimente. Hohe Frequenzen werden von rauen Oberflächen absorbiert. Ob sie wirklich absorbiert werden oder nicht vielmehr durch Diffusion zur Seite verdrängt, so dass sich die Schwingungen auf die Teilchen treten, tot interferieren, keine Ahnung, jedenfalls dumpfen Hallfahnen in üblichen Raumkonstellationen aus. Hier habe ich übertrieben, unterstelle, dass spätere Reflektionen stärker dämpfen als frühere.

Da ich mir keinen bestimmten realen Raum zum Vorbild nehme, die Carnegie Hall oder so, brauche ich selber auch nichts messen. Vielleicht könnte ein Akustiker sagen, dass es jedenfalls ein Raum ohne Schallschlucker an den Wänden ist, wie der Unterrichtsraum bei meinem ehemaligen Klavierlehrer, vielleicht etwas größer.

Ich empfehle Dilettanten wie mich immer, das Rad neu zu erfinden. Baut man immer nur vorgefertigtes zusammen oder nach, könnte das auf Dauer langweilig werden. Also, wo steht ihr? Geht dort los, ohne ewig Werkzeuge zu suchen, um euch den Weg angenehmer zu gestalten.
Setzt euch nicht in euren SUV und fahrt zum Waldspaziergang. (Gut, Stadtpflanzen kommen so nie in den Wald, hm.)
Ich benutze natürlich Fremdsoftware, klar. Allerdings nur solche, bei deren Entwicklung nicht speziell an Musiker gedacht wurde.
 
hello again :)

Von woanders hierher verlagert:

Im Wesentlichen etwas physikalisches Verständnis von Oberflächen und Schall, sowie durch Vergleiche und Experimente. Hohe Frequenzen werden von rauen Oberflächen absorbiert. Ob sie wirklich absorbiert werden oder nicht vielmehr durch Diffusion zur Seite verdrängt, so dass sich die Schwingungen auf die Teilchen treten, tot interferieren, keine Ahnung, jedenfalls dumpfen Hallfahnen in üblichen Raumkonstellationen aus. Hier habe ich übertrieben, unterstelle, dass spätere Reflektionen stärker dämpfen als frühere.

dann ergibt das aber in dem zusammenhang um den es "drüben" ging keinen sinn.

bei 2D/3D audio geht es um die ortung von schallquellen, und die ist wie schon gesagt immer gleich und nur von der richtung abhängig.

und eine alternative methode zu FIR transferfunktionen, die man mit einem kunstkopf aufgenommen hat ist mir nicht bekannt (wobei man so etwas inzwischen natürlich theoretisch auch am computer simulieren kann)

zentral ist immer ein vollständiger filter, der das original format so weit wie möglich klaggetreu zum stereo master rendert. das gilt so so ähnlich für alle verfahren inclusive ambisonics.

und erst wenn man die filter funktionierend am start hat, kann man dann stück für ausprobieren wie man sein material damit mischen will, und wie und warum quellen mit reflektionen 60 grad weiter links jetzt besser oder schlechter zu orten sind.

Ich empfehle Dilettanten wie mich immer, das Rad neu zu erfinden. Baut man immer nur vorgefertigtes zusammen oder nach, könnte das auf Dauer langweilig werden.

du versuchst halt ein rad ohne speichen zu bauen und fängst dann erst mal mit einem viereckigen rahmen an, was du damit begründest, dass fussbälle ja schließlich auch viereckig seien, und warum dann nicht auch räder.

1697301059397.png

okay, räder ohne speichen gibt es. aber viereckig? da muss man dann doch aufpassen, ob das überhaupt noch ein rad wird.
 
du versuchst halt ein rad ohne speichen zu bauen und fängst dann erst mal mit einem viereckigen rahmen an, was du damit begründest, dass fussbälle ja schließlich auch viereckig seien, und warum dann nicht auch räder.
Deine Meinung kannst du behalten, die nehm ich dir gewiss nicht. Und einen Zusammenhang sehe ich genauso wenig wie du, deshalb poste ich es hier.
Ein Zusammenhang zur Ortung wäre gegeben, wenn das EQing und Phasendifferenz aufeinander abgestimmt wären in dem Sinne, dass die einen Bänder etwas später kommen als die anderen, dann hätte man bei guter Abstimmung sowas wie vorn und hinten. Da dem nicht so ist, spielt Frequenzdämpfung keine Rolle, die Ortung betreffend.
Und die Phase ist an der Stelle eh nicht ganz richtig. Streng genommen meinte ich andernorts keinen Phasenwinkel, sondern Verzögerung in wellenlängenunabhängiger Zeit.
 
Zuletzt bearbeitet:
Deine Meinung kannst du behalten, die nehm ich dir gewiss nicht. Und einen Zusammenhang sehe ich genauso wenig wie du, deshalb poste ich es hier.
Ein Zusammenhang zur Ortung wäre gegeben, wenn das EQing und Phasendifferenz aufeinander abgestimmt wären in dem Sinne, dass die einen Bänder etwas später kommen als die anderen, dann hätte man bei guter Abstimmung sowas wie vorn und hinten. Da dem nicht so ist, spielt Frequenzdämpfung keine Rolle, die Ortung betreffend.
Und die Phase ist an der Stelle eh nicht ganz richtig. Streng genommen meinte ich andernorts keinen Phasenwinkel, sondern Verzögerung in wellenlängenunabhängiger Zeit.

was bedeutet das alles? ich kann dir beim besten wille nicht mehr folgen und habe den faden jetzt endgültig verloren.

mir ist nicht mal mehr klar ob du ursprünglich eine frage hattest oder ein statement abgeben wolltest, geschweige denn um was es inzwischen geht.

auf jedenfall ist das echt anstrengend.:P


(wenn es drüben gar kein zusammenhang zum drübigen thema "was ist binaural" gab, warum haben wir dann dort darüber diskutiert? ... )
 
Wenn Du die Diskussion on-Topic halten möchtest, lass besser die Finger von solchen Einwürfen, sonst kommt noch jemand auf die Idee, Dir vorzuschlagen, Du mögest doch auch gleich abwägen, ob Deine Unterkunft Fenster braucht, da in Europa durch Vogelschlag an Glas täglich mehr Vögel sterben als in Deutschland an Windrädern in einem Jahr (Quelle).
Nochmal kurz OT, Tipps um Fenster für Vögel sicher zu machen: https://www.nabu.de/tiere-und-pflanzen/voegel/helfen/01079.html
 
Der Zusammenhang zur Ortbarkeit und Binauralität drüben war gegeben durch die Komponente der Verzögerung.

Dort hast du mich so verstanden, dass Verzögerung das einzige wäre, was bei der Ortung den Ausschlag gibt. Es gibt aber in der Tat noch Pegel und Frequenz als weitere Dimensionen, die besonders in Bezug auf die erste(n) Reflektion(en) wichtig sind, will man Geräusche ortbar machen. Aber eben auch die Verzögerungsdifferenzen. Schallerergnisse von der Seite kommen an den Ohren zu unterschiedlichen Zeiten an, soweit sollte dir das nicht neu sein, soweit du sicher in der Lage bist, über den Tellerrand deiner Filter zu blicken. Aber dieser Effekt verliert sich mit den späteren Reflektionen.

Zudem habe ich in Literatur zu Psychoakustik gelesen, dass die verschiedenen Gesichtspartien und Partien der Ohrmuschel die Frequenzen unterschiedlich stark dämpfen und dass daran das Gehirn Geräusche von hinten und von vorne unterscheiden kann. Soweit klar?

Drüben habe ich geschrieben, dass ich das bisher nicht berücksichtigt habe. EQ betreibe ich Reflektion für Reflektion für beide Ohren, die addieren sich ergo.
Deswegen habe ich auf deine Frage zu den EQ-Werten der Hallfahne hier geantwortet, weil weder deine Frage noch meine Antwort mit dem ursprünglichen Thema Binauralität etwas zu tun haben.

Wenn du jetzt verwirrt warst oder bist, was jetzt womit wie zu tun hat, dann liegt die Schuld bei uns beiden zugleich.
 
Okay, setzen wir meinetwegen früher an, und bitte unterlasst Albernheiten:
und eine alternative methode zu FIR transferfunktionen, die man mit einem kunstkopf aufgenommen hat ist mir nicht bekannt (wobei man so etwas inzwischen natürlich theoretisch auch am computer simulieren kann)

zentral ist immer ein vollständiger filter, der das original format so weit wie möglich klaggetreu zum stereo master rendert. das gilt so so ähnlich für alle verfahren inclusive ambisonics.

und erst wenn man die filter funktionierend am start hat, kann man dann stück für ausprobieren wie man sein material damit mischen will, und wie und warum quellen mit reflektionen 60 grad weiter links jetzt besser oder schlechter zu orten sind.
ambisonics et al. sind patentbewehrte Verfahren, oder? Markennamen deuten daraufhin, dass ich rechtliche Diffizilitäten heraufbeschwöre, wenn ich diese Verfahren zu dicht nachahme. Habe nämlich nicht in teuren Patentdatenbanken gegraben und entsprechende Lizenzen erworben.

Ich habe meinen eigenen Weg durch den Nebel gesucht und, davon bin ich durchaus überzeugt, gefunden. Soll ich noch mal eine grafische Abbildung einer Stereoimpulsantwort posten, oder nen paar Pistolenschüsse aus dem schalltoten Raum aus dem Internet runterladen, um sie mit der Impulsantwort des modellierten Raums konvolvieren, so dass sie aus verschiedenen Richtungen und Distanzen erklingt. Meinst du, dann mit mir vernünftig diskutieren zu können?
 
Okay, setzen wir meinetwegen früher an, und bitte unterlasst Albernheiten:

nein.

ambisonics et al. sind patentbewehrte Verfahren, oder?

nein.

und selbst wenn, könntest du es trotzdem benutzen wie du lustig bist (wenn du es nicht gerade in einer kommerzielle hardware implementierst.)


ambisonics... ist toll wenn man die richtung oder die breite eines ereignisses nachträglich verändern will, hat aber auch diverse nachteile:

- die konvertierung von und zu allen anderen formaten ist stark verlustbehaftet

- es macht im prinzip nur sinn für akustische aufnahmen; synthese ist mit kontinuierlichen soundfields kaum möglich, weil man dazu extrem um die ecke denken müsste.

- will man es richtig gut machen, sind es letztlich ungefähr genausoviele audiokanäle dazu notwendig wie bei kanalbasierten verfahren, die aber einfacher in der anwendung sind.

Meinst du, dann mit mir vernünftig diskutieren zu können?

deine ursprüngliche frage war die, ob man einen panner, der durch phasenverschiebung arbeitet, auch als binaural bezeichnen könnte.

aus der phasenverschiebung wurde dann erst ein delay, dann ein raumhall, dann reflektionen ohne raum, und schließlich hattest du einen equalizer dafür benutzt.

im hiesigen (ergo nicht-drübigen) thread hast du mich dann mit diesem gedicht hier konfrontiert...

Ein Zusammenhang zur Ortung wäre gegeben, wenn das EQing und Phasendifferenz aufeinander abgestimmt wären in dem Sinne, dass die einen Bänder etwas später kommen als die anderen, dann hätte man bei guter Abstimmung sowas wie vorn und hinten. Da dem nicht so ist, spielt Frequenzdämpfung keine Rolle, die Ortung betreffend.
Und die Phase ist an der Stelle eh nicht ganz richtig. Streng genommen meinte ich andernorts keinen Phasenwinkel, sondern Verzögerung in wellenlängenunabhängiger Zeit.

... und so gerne ich prosa lese, aber dazu brauche ich wirklich mal so ein google übersetzungsdings und mpsste bei jedem zweiten wort zurückfragen, was damit gemeint sein soll.


die ürsprüngliche frage wie man das nennen würde habe ich mit "nein" beantwortet, da "binaural" (im drübigen zusammenhang) bedeutet, dass es sich um einen downmix von etwas von höherer ordnung/anderen format handelt.

die erste zusatzfrage, ob sich die herstellung von ortungsmöglichkeit von virtuellen schallquellen gegenüber virtuellen reflektionen unterscheidet, habe ich auch mit "nein" beantwortet, da eine reflektion auch nur eine virtuelle schallquelle in diesem sinne ist und man daher exakt das gleiche verfahren verwenden kann und muss.

der von dir richtig angenommene sachverhalt, dass reflektionen den richtungeindruck verbessern können basiert ja auf dem kontrast zwischen beiden richtungen, da man nur eine richtung schlichtweg nicht hören kann.

das ist sozusagen grundtechnik beim mischen/ bei der synthese von 2D/3D audio, dass man eigentlich immer entweder ein echo braucht - oder die position der vituellen schallquelle hin und wieder mal moduliert werden muss - um richtung rauszuhören. ohne kontrast keine ortung.


den rest von story ich nix verstehen. von "abgestimmten EQs mit bändern, die später kommen, und die man nur aufeinander abstimmen muss um vorne und hinten zu erhalten" oder irgendwelchen wellenunabhängigen phasendifferenzen ich nie nix gehört.

um solche probleme zu lösen (falls sie denn real existieren) empfiehlt sich immer nicht krampfhaft zu versuchen möglichst viele fremdworte aneinanderzureihen bzw. wenn, dann halbwegs so wie üblich.

versuche doch mal so einen satz wie "ich habe ein monosignal von einem rauschen, dass ich, während ich balance damit mache, gleichzeitig noch mithilfe eines 3db shelving filters die frequenzen 200 und 500 hertz ein wenig absenke, es klingt aber komisch, was kann ich tun?", dann lässt sich das evtl. auch beantworten.
 
Zudem habe ich in Literatur zu Psychoakustik gelesen, dass die verschiedenen Gesichtspartien und Partien der Ohrmuschel die Frequenzen unterschiedlich stark dämpfen und dass daran das Gehirn Geräusche von hinten und von vorne unterscheiden kann.
Es ist vor allem die Auswirklung der Vorne-Hinten-Asymmetrie der Ohrmuscheln auf den Frequenzgang. Gesichtspartien oder Frisur spielen eine deutlich untergeordnete Rolle. Man kann sogar soweit gehen zu sagen, die Evolution hat das Ohr extra vorne-hinten-asymmetrisch gemacht, weil es sehr wichtig ist zu wissen, ob das Mammut von hinten oder von vorne aus dem Dickicht auf einen zuläuft.
 
irgendwelchen wellenunabhängigen phasendifferenzen
Touché. Habe ich schon geschrieben, ist falsch formuliert. Was ich meinte, ist Verzögerung der Erst- und aller Folgereflektionen um wenige Hundertstelsekunden, unabhängig von der Grundfrequenz des verzögerten Klangs/Geräuschs. Was die Erstreflektionen betrifft, gibt es hier in der Tat Differenzen zwischen links und rechts. (Oder Luv- und Leeohr relativ zur virtuellen Schallquelle.) Spätere Reflektionen wie die ersten zu modellieren kann mathematisch sinnvoll sein, wenn du meinst, mach ich aber anders, weil sich der Aufwand nicht lohnt. Für die Ohren ist das eh konfus, weil die Abstände zwischen Reflektionen immer kleiner und zum Schluss gar nimmer aufgelöst werden.

Phasenverschiebung ist nicht gemeint. Mein Fehler, bitte rausstreichen. Phase wird ja nicht in Sekunden gemessen, sondern in Radiant und ist bei Umgerechnung in Zeiteinheiten abhängig von der Frequenz des verzögerten Tons.

Während es mir in dem Thread über Binauralität um eben diese Verzögerung ging, hattest du nach meinem Verständnis mit der Frage nach den EQ-Werten einen Nebenschauplatz eröffnet, der mit der Frage nach der Binauralität an sich zwar zu tun haben kann (Ortung im 360°-Panorama einschließlich vorn und hinten), aber ich bin mit meiner Technik nicht so weit. Daher habe ich das hier weitergeführt.

Aber ich schreibe mir die Finger wund. Du willst anscheinend nicht mehr verstehen, auch obiges wird dir Fachchinesisch sein und verdenken kann ichs dir kaum. Hatte meine Chance und habs vergeigt, tja. Spendier mir ein Hochschulstudium in Wellenphysik, Tontechnik und Max4Live und was auch immer und ich werde die richtigen Formulierungen verwenden, bestimmt.
 
Was die Erstreflektionen betrifft, gibt es hier in der Tat Differenzen zwischen links und rechts.

das ist immer so.

immer wenn das ergebnis ein stereo downmix sein soll, ganz egal wo wir herkommen (matrix, kanäle, ambi...), haben die transferfunktionen immer 2 kanäle; einmal für rechts und einmal für links.

allerdings nicht nur bei deinen "reflektionen" sondern auch für den direktschall der virtuellen quelle.

es dreht sich immer nur alles um richtung, egal was in dem päckchen sonst drin ist.

metaphorische interpretationen gehören später ins kreativ-anwenden des codes, nicht in den verfahren-ausdenken-prozess.

Aber ich schreibe mir die Finger wund. Du willst anscheinend nicht mehr verstehen, auch obiges wird dir Fachchinesisch sein

den einen satz, den ich verstanden habe, habe ich zitiert. :)

immerhin fast 10%...
 
Es ist vor allem die Auswirklung der Vorne-Hinten-Asymmetrie der Ohrmuscheln auf den Frequenzgang. Gesichtspartien oder Frisur spielen eine deutlich untergeordnete Rolle. Man kann sogar soweit gehen zu sagen, die Evolution hat das Ohr extra vorne-hinten-asymmetrisch gemacht, weil es sehr wichtig ist zu wissen, ob das Mammut von hinten oder von vorne aus dem Dickicht auf einen zuläuft.

die natur ist eine ganz schöne sau, dass sie uns vorne besser orten lässt als hinten - wo wir doch vorne auch die augen dafür gehabt hätten.

ich schließe daraus, dass wir schon immer mammuts eher gejagt haben als vor ihnen davonzulaufen.
 
den einen satz, den ich verstanden habe, habe ich zitiert.
Muss ich mir merken. Echt ne Glanzleistung von dir. Kriegste auch 'n Bienchen.

Wer verstehen will, muss zuhören/aufmerksam lesen, auch zwischen den Zeilen.
Wer aber verstanden werden will – mein Part – muss versuchen, die Sprache des anderen zu reden. Selbst wenn Sender und Empfänger die gleiche Sprache im politisch-territorialen Sinne sprechen, ist damit über die anderen Ebenen (Dialekt, Regiolekt, Soziolekt, ... DSL / Fachjargon) noch nichts gesagt. Wenn es nicht passt, entstehen Verständnislücken und Widersprüche, zum Beispiel meine ich mit Erstreflektion den Direktschall, wohl, weil ich nach einer philosophischen Versenkung befunden habe, dass der Direktschall nicht wahrnehmbar ist, sondern das Trommelfell durch die erste Reflektion erregt wird, oder vielmehr dies die erste Reflektion selber ist :roll: . Deine Geduld ist bestimmt längst ausgereizt und meine jetzt auch.

Abschließend hier noch was zum Hören, indes keine Musik. Beginnt mit viel Stille, jeweils eine Minute zwischen fünf Trommelschlägen.

Den Galeerentrommler Pomodoro hab ich schon woanders gepostet, dort unverhallt. Habe ihn zweimal gerendet, einmal mit A4@440Hz und einmal mit A4@425Hz, und derart gemixt, dass die Ohren unterschiedliche Referenzfrequenzen kriegen. Ob das wie Binaural Beats wirkt, müsst ihr beurteilen. Für mich kann ich nur feststellen, dass bestimmte Trommelschläge über Kopfhörer eher von hinten kommen. Das ist Zufall, nicht berechnet.
 
Zuletzt bearbeitet:
Als absoluter Laie finde ich es großartig das du nicht die Analogie des rechteckigen Rads verstehst, der Thread hier aber mit Abstand schon über 3 Jahre geht und außer einander vorbeireden nix rumgekommen ist. Vor allem nicht was eigentlich im titel steht:
Nachhall, selbstprogrammiert, bitte um feedback
 
Wer aber verstanden werden will – mein Part – muss versuchen, die Sprache des anderen zu reden. Selbst wenn Sender und Empfänger die gleiche Sprache im politisch-territorialen Sinne sprechen, ist damit über die anderen Ebenen (Dialekt, Regiolekt, Soziolekt, ... DSL / Fachjargon) noch nichts gesagt. Wenn es nicht passt, entstehen Verständnislücken und Widersprüche, zum Beispiel meine ich mit Erstreflektion den Direktschall, wohl, weil ich nach einer philosophischen Versenkung befunden habe, dass der Direktschall nicht wahrnehmbar ist, sondern das Trommelfell durch die erste Reflektion erregt wird, oder vielmehr dies die erste Reflektion selber ist :roll:

Aber wie kommst du darauf den Direktschall als Erstreflektion zu bezeichnen?
Das ist - verzeih mir die Wortwahl - kompletter Blödsinn.

Deine philosophische Versenkung in allen Ehren aber da ist man sich in Fachkreisen ziemlich einig, daß mit den Erstreflektionen definitiv nicht der Direktschall gemeint ist.
In einem normalen Raum kommt der Direktschall zuerst beim Zuhörer an den Ohrmuscheln an, danach kommen die Erstreflektionen und als letztes setzt der Nachhall ein.
Sicher gibts da auch Ausnahmen, bspw bei einem gewinkelten Gang bei dem sich Schallquelle und Schallempfänger an den gegengesetzten Enden befinden, da kommt beim Empfänger natürlich kein Direktsignal mehr an.

Zumindest kann man daraus einen prima Radio Eriwan Witz basteln...

Frage an Radio Eriwan:​
Stimmt es, das Direktschall und Erstreflektionen das Gleiche sind?​
Antwort von Radio Eriwan:​
Im Prinzip ja, aber statt Direktschall müsste es richtigerweise Äpfel heißen, und mit Erstreflektionen sind eigentlich Birnen gemeint und sie sind außerdem auch nicht das Gleiche, sondern Äpfel und Birnen sind eben nicht das Gleiche.​
Wenn du willst, daß man dich versteht, dann musst du schon mit den allgemein anerkannten Begrifflichkeiten arbeiten.
Wenn du statt dessen ein fröhliches Begriffe tauschen machst, dann versteht keiner, was du sagen willst.

Loriot - Birne Helene
 
Direktschall und die erste Reflektion – bemerke den Singular – in einen Topf zu werfen war gut möglich ein Denkfehler.
So ganz überzeugt bin ich zwar nicht, wenn ich die Sache vom Ohr oder Mikro aus denke, gehorche aber der fachkompetenten Mehrheit.

Aber wäre das nicht zumindest naheliegend? In der Impulsantwort eines Raums oder Raummodells ist der Direktschall schließlich einfach Peak #1, die erste Reflektion Peak #2 und so weiter. Analog ist diese Diskussion wie ob man Teiltöne sagen könne (engl. partials) versus Grund- und Obertöne (fundamental, overtone). Im Prinzip ist es einerlei, ob man mit 0 oder 1 zu zählen beginnt und wie man #0 nennt, als sei es was besonderes. Ob der Grundton wie IR-Peak #1 was besonderes ist, könnte aber bei Interesse anderswo diskutiert werden, gehört hier nicht her.

Sarkasmus: Man muss nur der Mehrheit gehorchen, schön mitschwimmen, nicht reflektieren (also gedanklich), keineswegs hinterfragen oder andere Wege versuchen, um sich in der Öffentlichkeit nicht zum Deppen zu machen, gell. Sarkasmus zuende.

Im Ernst: Ein Fachgebiet ist auf etablierte Begriffe angewiesen. Wenn ich sie nicht richtig verwenden kann oder will oder andere vorschlage, ohne mit fachlich überzeugenden Begründungen aufzuwarten ... wirds schwierig hier, seh es ein und fachkompetente Leute wenden sich ihren Dingen zu.
 
Im Prinzip ist es einerlei, ob man mit 0 oder 1 zu zählen beginn
das hat mich in der Informatik/IT-Welt schon so oft genervt (Arrayindizes sind natürlich 0-basiert, aber der blöde Webservice oder was auch immer will die Seitennummer auf Basis 1 etc.) - ist also eine sehr wichtige Konvention, auf die man sich unbedingt vorher! einigen sollte. :mrgreen:
 
Konvention? Es hatte in älteren C-Versionen, ich glaub C nach K&R('69) eine syntaktisch begründete Bewandtnis, d.h. der Compiler schrieb da das eine ins andere um: array[n] => *(array + n * sizeof(int)) /* nach int array[n+m]; */

Vielleicht wurde Peak #0 deshalb Direktschall getauft, weil das Signal an der Stelle notwendig identisch sein musste mit dem ungefilterten Signal? Nur ne Vermutung, wisst ihr bestimmt besser.
 
Zuletzt bearbeitet:
Es hatte in älteren C-Versionen, ich glaub C nach K&R('69) eine syntaktisch begründete Bewandtnis
Klar, aber letztlich haben die Leute, die ihre Koordinaten oder was auch immer auf Basis 1 haben wollen, auch immer sehr wichtige Gründe dafür … aber das ist Offtopic.

Beim Schall würde ich Direktschall auch immer von der ersten Reflektion trennen - denn was reflektiert denn beim Direktschall: die Schallwelle am Trommelfell? 🤔 Das Ohr dürfte in den meisten Fällen schon in Gänze als Empfänger gelten.
 


Neueste Beiträge

News

Zurück
Oben