Modellierung von Hallfahne und binaurale Positionierung von Klangquellen in derselben Stereo-Raumimpulsantwort

D

D1g1t4l D3t0x3r

Offline bis Juli '24. Erreichbar via PN.

(Bild wird nur in Vorschau direkt angezeigt. Hab das Nicht-gefunden-Symbol also denn mit nem Link unterlegt.)

Das ist einfach mal ein Beispiel für eine Impulsantwort eines hypothetischen Raums, mit der ich probeweise meinen frisch selbst programmierten Code zur Reverb-Berechnung auf beliebige Wave-Daten gefüttert habe. Die Beschriftung der y-Achse ist derzeit noch falsch, werde ich noch korrigieren zu -100 bis 0dB. Die x-Achse repräsentiert die Nachhallzeit, hier T_55 = 0.7s.

Hier ein Klangbeispiel: ... ich weiß, kein Klavier, aber ist ein anderes Thema, darum soll es hier nicht gehen. Wenn mir jemand ein Stück auf nem echtem Instrumentarium bereitstellt, aufgenommen in furztrockener Akustik, nehm ich halt das als Klangmaterial.

Vor allem interessiert mich:
  • Was für einen Raum verbindet ihr mit dieser Nachhallcharakteristik?
  • Gibt es evtl. Impulsantwortdaten berühmter Säle zum freien Download? Könnte mir fast vorstellen, dass das nicht so einfach ist, rein rechtlich (fällt womöglich unter geistiges Eigentum der Architekten?) und technisch ...
  • Anregungen willkommen: Welche Änderungen soll ich probieren? Abstände und Level kann ich beliebig variieren, möglichst aber ungefähr kontinuierlich über t, weil weniger Aufwand für mich bei der Definition.
  • Etwaige sachliche Kritik. Außer daran, dass ich auch hier "zu Fuß gehe" anstatt mir irgendein tolles fertiges Gerät zu kaufen. So würde ich nicht so viel lernen.
 
Zuletzt bearbeitet:
Danke für den Tipp.

Jetzt stellt sich mir Noob natürlich die Frage (nicht an euch, nur fürs Protokoll, studieren und tüfteln tu ich gerne selbst ...), wie ich diese Waveforms auf mein Format reduziere.

Denn alles, was in meiner Art und Weise des Musikmachens auf natürlichen Verläufen basiert, möchte ich in Bézierkurven gießen, genauer gesagt in Kontrollpolygonkoordinaten - eine beliebig kurze Zeichenfolge, pro Polygongrad/Paar nur eine Handvoll Bytes.

Vorteil: Alles, was sich semantisch zusammenhängend in einer Textzeile unterbringen lässt, lässt sich einfach mit einem Texteditor bearbeiten und damit auch einfach versionieren, also mit einem Versionskontrollsystem wie Git verwalten. So lässt sich später die Evolution meiner Art des Musikmachens detailliert nachvollziehen.
Nachteil: Echtzeitproduktion unmöglich, aber darauf pfeif ich, lieber verwend ich meinen Computer als Oberschenkelheizung und bin vorfreudig gespannt, wie sich Klangvorstellung und Realität unterscheiden - und sich durchs natürliche (Wahnsinn, heute muss man das extra betonen) Lernen allmählich angleichen.

Da gibt es viele Dinge, für die ich quasi denselben Code verwende:
  • A/(D)S/R, wobei diese Phasen unterschiedlich auf die Notenlänge reagieren relativ zu ihrer x-Bezugszeit, mit deren Angabe sie beginnen. Attack z.B. gar nicht, Attack ist fix.
  • Modulationshüllkurven, Veränderung der Stärke von Frequenz- und Amplitudenmodulation.
  • Waveshaping, d.h. Veränderung des Frequenzspektrums bei Beibehaltung der Gesammtsumme,
  • Instrumentalmechanische Unregelmäßigkeiten, also Abweichungen vom natürlichen harmonischen Obertonabstand, der normal dem Betrag der Grundtonfrequenz entpricht.
  • Frequenzvariation pro Teilton
  • Morphs, also Amplitudenänderungsverläufe, gebunden an die Ordnungszahl eines Teiltons oder ihre Teiler. Eine Oboe z.B. entwickelt ja nur gerade Obertöne 2, 4, usw.
  • Resonanz also frequenzabhängige Amplitudenverstärkungen/-dämpfungen,
  • takt- bzw. phrasenorientierte Steuerung beliebiger Artikulationsparameter, woran die Veränderung der obigen Kurven wiederum gekopelt ist
  • Dynamik und Agogik.

Ich definiere für die Raumakustik also zwei Kurven:
  • Verlauf der Echoamplituden
  • Anzahl und Abstände (Delays) der Echos, technisch die phasenversetzte, zunehmend gedämpfte Wiederholung des Klangs. Alles zwischen zwei Echos wird ausgenullt, v.a. um den Rechenaufwand zu reduzieren in Anbetracht der Vermutung, dass unsere Ohren eh wenig Wert darauf legen (Psychoakustik hab ich bisher aber ausgeblendet, Irrtum möglich). Hierüber realisierbar ist auch das Delay des Direktschalls, leicht unterschiedlich für linken und rechten Kanal, Echo #0, womit Tiefenstaffelung und genauere Richtungsposition von Klangquellen auf der virtuellen Bühne ermöglicht wird.
Gar nicht berücksichtige ich dagegen wegen tausendfach höheren Rechenaufwands, dass Flächen, die die Klänge im Raum zurückwerfen, unterschiedliche Frequenzen unterschiedlich verstärken oder dämpfen. Wenn ich eben von Echoamplituden geschrieben habe, meine ich damit simple Säulen und kehre unter den Teppich, dass sich hinter diesen Säulen quasi von der Seite betrachtete Frequenzspektren verbergen. Andererseits kann ich mir gut vorstellen, dass es auch die teuersten Reverb-Geräte nicht machen, ich es mir damit nicht zu leicht mache im Vergleich mit anderen.

Aber irgendwo muss ich auch die Kirche im Dorf lassen. Ständig muss ich abwägen, wo der Rechenaufwand am ehesten lohnt, braucht ja Strom (Umweltressourcen, auch nachwachsende, z.B. Windräder belasten Anwohner und Vogelpopulation) und Zeit/Geduld.

Die Reduktion wird klanglich für gute Ohren negative Auswirkungen haben. Aber gute Ohren hab ich eh nicht und meine Musik muss klanglich eh nicht besser sein als die derjenigen, die damit ihr Auskommen verdienen bzw. hoffentlich bald wieder, wenn die Coronakatastrophe überstanden ist.
 
Zuletzt bearbeitet:
Gibt es evtl. Impulsantwortdaten berühmter Säle zum freien Download? Könnte mir fast vorstellen, dass das nicht so einfach ist, rein rechtlich (fällt womöglich unter geistiges Eigentum der Architekten?) und technisch ...
Das Problem ist weniger das geistige Eigentum der Architekten, sondern die Rechte derjenigen, die die Impulsantwortaufnahmen erstellt haben.

Aber irgendwo muss ich auch die Kirche im Dorf lassen. Ständig muss ich abwägen, wo der Rechenaufwand am ehesten lohnt, braucht ja Strom (Umweltressourcen, auch nachwachsende, z.B. Windräder belasten Anwohner und Vogelpopulation)
Wenn Du die Diskussion on-Topic halten möchtest, lass besser die Finger von solchen Einwürfen, sonst kommt noch jemand auf die Idee, Dir vorzuschlagen, Du mögest doch auch gleich abwägen, ob Deine Unterkunft Fenster braucht, da in Europa durch Vogelschlag an Glas täglich mehr Vögel sterben als in Deutschland an Windrädern in einem Jahr (Quelle).
 
Das Problem ist weniger das geistige Eigentum der Architekten, sondern die Rechte derjenigen, die die Impulsantwortaufnahmen erstellt haben.
Ja, stimmt. So eine Impulsantwort ist ja ziemlich aufwendig zu erstellen, wenn ich mir die Beschreibungen auf der Seite so durchlese, die Fotos ansehe, zumal wenn man die Ausbildung in physikalischer Akustik als Investition mit einbezieht. Dürfte ja so auch bei allen Freifeldaufnahmen gelten. Andererseits könnte ein listiger Angeklagter vor dem Kadi durchaus argumentieren, ein platzender Luftballon, Vogelgezwitscher usw. würde die nötige Schöpfungshöhe nicht erreichen. Ohne Präzedenzurteile kann man daher nur spekulieren, Nichtjuristen wie wir selbst dann, wenn es welche geben sollte.

Gut, zurück zum Thema: die Samples einer beliebigen Impulsantwort von der Website kann ich schon mal in dB umrechnen (EDIT: ne, schon mal falsch, erst zum Schluss), von ihnen den Betrag nehmen, und, wenn sie eine relative Schwelle unterschreiten, wegnullen. Diese relative Schwelle anzusetzen ist die Crux: "relativ" meint bezogen auf den Sample davor, die Differenz also, und das Ausnullen jeweils beschränken auf die Anzahl minderwertiger Samples, nach denen es es wieder einen größeren Ausschlag in Gegenrichtung gibt. Algorithmisch nicht trivial.
 
Zuletzt bearbeitet:
Eine existierende Impulsantwort rechnerisch zu vereinfachen, ist alles andere als einfach. Filtere ich zu stark, kommen nur noch Cluster nahestehender Echos zum Vorschein. Filtere ich zu schwach, habe ich zu viele Echos, als dass ich Lust hätte auf ein Stück Audio mal eben noch ein bisschen Hall zu pappen. Ohne spezialisierte Hardware und maschinennahe Algorithmen bedeutet das ja alles Rechenzeit respektive Energie- und Geduldverbauch. Ergo muss ich die Rechnung vereinfachen.

Also zäum ich zur Abwechselung mal wieder das Pferd von vorne auf und kümmere mich um die Realisierung eines akustischen Raummodells, späterhin umzurechnen in Bezug auf eine bestimmte Stimme, jeweils ihre Position zum virtuellen Zuhörer berücksichtigend.

Ich bin es also wieder mal mit neuen, nicht allzu frischen, dafür mehrfach wiedergedachten Greenhorn-Gedanken, jetzt zum Thema Nachhall, Tiefenstaffelung und Raumposition/Richtung, die ich noch nicht in Software implementiert habe, sondern erst mal als Gedanken vorstellen möchte. Völliger Bullshit? Quentchen Wahrheit dran? Genial? Unverständlich? Schnee von gestern?

Am wenigsten hilft mir der Hinweis weiter, generell mehr zu lesen zur Raumakustik. Das versteht sich von selbst. Idealerweise gibt es aber schon Ressourcen, um folgende Annahmen zu falsifizieren oder zu verifizieren. Ich versuche also lieber, effizient zu lesen als viel. Und dabei könntet ihr mir vielleicht helfen, indem ihr eure ggf. vorhandenen Erfahrungen mit meinen Annahmen abgleicht und vielleicht passende Suchbegriffe für weitere Recherchen für mich habt.

Bis dato realisier ich die Raumposition simpel via Stereopanning und Volume. Zu simpel, hört sich billig an, unabhängig von der Klangqualität. Da brauch ich gar nicht anfangen mit Phasenunterschied, das machte den Braten auch nicht mehr fett. Hier also meine von einem konkreten Raum abstrahierten Annahmen, wie das in der Natur geschehen könnte und was ich machen könnte, um für ein natürlicheres Hörerlebnis zu sorgen, was Tiefenstaffelung und Panorama betrifft:
  1. Das Nahfeld, also Direktschall und erste Echos, unterscheidet sich je nach der Position des virtuellen Zuhörers im Raum zwischen linkem und rechten Ohr. Entsprechend sollte ich die Möglichkeit vorsehen, unterschiedliche Hallinformationen für Nahfeld-links und Nahfeld-rechts zu definieren.
  2. Das Fernfeld, also der Nachhall im engeren Sinne nicht.
  3. Stimmen von zentral vorne haben den Hall, der sich aus dem Durchschnitt von Nahfeld-links und Nahfeld-rechts ergibt.
  4. Ferne der Klangquelle relativ zum virtuellen Zuhörer: Realisiert mit der graduellen Dämpfung des Direktschalls, der folgenden Echos anteilig abnehmend in Abhängigkeit ihrer zunehmend Delays. Dass diese Anteilsschlüssel linear interpoliert werden können, bezweifele ich, hängt ja viel vom tatsächlichen Raum ab. Lieber sehe ich eine Fernekurve vor, um später einfacher experimentieren zu können, ein linearer Anstieg ist ja auch so abgedeckt, nur eben eine einzige Möglichkeit unter unendlich vielen. Ein linearer Anstieg würde sich auch über den Nachhall erstrecken.
    • n Ferne bedeute: Gewichtete Mittelung der Fernekurve mit Konstant-1, dem Gegenpol sozusagen, dessen Gewicht jeweils 1-n ist
    • Nahfeld ist 0,0 Ferne für beide Ohren wenn von vorn bzw. für das zugewandte Ohr wenn von der Seite, also eine Fernekurve von konstant 1, was einer Dämpfung von 0 entspricht für Direktschall und alle Echos, die eigentlich definierte Fernekurve wird also gar nicht berücksichtigt.
    • Maximale Entfernung einer Klangquelle ganz links bedeutet 0,5 Ferne für das linke, 1,0 Ferne für das rechte Ohr. 1,0 Ferne bedeutet volle Dämpfung des Direktschalls lt. Fernekurve, 0,5 Ferne entsprechend ein halbgedämpfter, auf der logarithmischen Skala wahrscheinlich. Eine Ferne im Bereich von 0,0-0,5 ist für das dem Klang zugewandte Ohr, bzw. 0,5 bis 1,0 Ferne für das abgewandte Ohr vorgesehen, je nach relativer Entfernung zwischen Klangquelle und Zuhörer.
  5. Ich brauch also keinen extra Phasenunterschied, das erschlag ich über den Hall. Die Hallfahne hat keinen Phasenunterschied, die frühen Echos werden nur abnehmend stark gedämpft. Denn selbst bei einer Klangquelle von ganz einer Seite geht der Schall ja auch zum Teil durch den Schädelknochen (Knochenschall), weniger durchs Gehirn, zum Glück. -100dB Direktschall für das abgewandte Ohr sind unwahrscheinlich. Kann ich ja dann einfach ausprobieren, denn ich verwende den selben Code und die gleiche Syntax für Bèzierkurven für die unterschiedlichsten Dinge, er hat sich bewährt und Kurvendefinition ist für mich mittlerweile ein No-brainer. Die bekannte Nachhallzeit T-60 ist etwa vielleicht auch für Dritte ersichtlich in meiner Defaultkurve ungefähr bei 0,65×700ms. EDIT: Oops. Das ist T-40, ich rechne ja umgekehrt 0%dB = -100dBFS bis 100%dB = 0dBFS. Hach herrje, wenn man mir etwas vorwerfen kann, gehört mangelnde Sorgfalt auf den letzten Meter mit dazu.
  6. Spektral orientierte Dämpfungen sind wie weiter oben gesagt nicht drin, sorry an wen auch immer. Wenn es nach bestem Bemühen immer noch sch... nach Toilette klingt, nach Kachelwänden, kann ich es also noch immer darauf schieben, in die Berge fahren und den Mond anheulen (echter Nachhall, krass!).
Ach, schade, dass es nur Gedanken sind. Aber ich schätze den Implementierungsaufwand groß genug ein, dass ich ziemlich frustiert wäre, wenn mir andere schon vorher gesagt haben könnten, dass das gequirlter Quark ist, und idealerweise auch begründet, warum. Ich tanze tatsächlich auf anderen Hochzeiten sicherer als auf dieser. Dass ich reine Behauptungen, dass sei gequirlter Quark, dennoch nicht sonderlich ernstnehme, sollte klar sein. Solche kommen, des bin ich mir gewiss.

So wichtig ist mir Nachhall nun auch wieder nicht. Schwierige Kompositionen, alles was über exemplarische Schnipsel hinausgeht, stelle ich hier im Forum weiterhin ohne ein, glaube ich, mithin um zu signalisieren, dass sich derlei Kosmetik selbstkritisch betrachtet eh nicht lohnt, solange ich mit dem eigentlichen Klangmaterial noch Probleme hab, wie Dur und Moll verwechseln etc.
 
Zuletzt bearbeitet:
Dass ich reine Behauptungen, dass sei gequirlter Quark, dennoch nicht sonderlich ernstnehme, sollte klar sein. Solche kommen, des bin ich mir gewiss.

klar kommen die, das ist auch unvermeidlich.

du willst einen hall programmieren oder vielleicht auch doch nicht und natürlich gibt es wieder urheberrechtsprobleme - diesmal mit dem architekten - und dann kommt noch ein soundbeispiel ohne hall, was man kommentieren soll.

dann rechnest du impulsantworten in dezibel um (dürfte bei deconvolution recht sinnfrei sein) und willst den abstand der quelle zum hörer durch "dämpfung" erreichen (macht man eigentlich durch verzögerung)

etwas sinnvolles dazu beitragen kann man da beim besten willen nicht.


ich hätte höchstens ein tip in sachen "lesetip".

nämlich sich als allererstes mal ein einfacheres - idealerweise frei verfügbares - hall modell zu nehmen (wie griesinger oder schröder), das korrekt zu implementieren und dann damit herumzuexperimentieren. weil man nur, wenn man auch was hört, sicher sagen kann welche abstraktion eines raummodells halbwegs "gute" ergebnisse ergibt und welche nicht.

das wäre für mich schritt 1.

einen lexicon style hall algo dann von stereo nach echt-stereo umzubauen ist schon relativ kompliziert. noch komplizierter wird es, den algoritmus so zu gestalten, dass die klangquelle frei panbar ist. wobei ja böse zungen behaupten, dass es ausreicht, dass predelay anzupassen, aber ich habe da eine anderen höreindruck davon.

deine idee, deconvolution noch besser CPU zu optimieren wie lake technology das können, ist schritt 18 - und den werden wir beide nicht mehr erleben.
 
Zuletzt bearbeitet:
sei dir darüber bewusst...


https://mixingundmastering.files.wordpress.com/2016/05/schallreflexion.jpg?w=584


1605460921593.png

... und dann baue dir

a.) verzögerung

b.) absorbtion der luft

c.) absorbtion der wände, falls gewünscht

d.) diffusor/decay time... ist zugegebermaßen nicht ganz einfach selbst herzuleiten, das klaut man sich dann woanders.
 
und willst den abstand der quelle zum hörer durch "dämpfung" erreichen (macht man eigentlich durch verzögerung)

etwas sinnvolles dazu beitragen kann man da beim besten willen nicht.
Da hat der TE aber recht.
Mit steigendem Abstand der Quelle zum Hörer werden hohe Frequenzen abgedämpft.

Die Verzögerung ist zwischen Quelle und Hörer ist im Grunde unerheblich für den Höreindruck, da interessieren eher die Verzögerungen beim Hörer zwischen Direktsignal und Early Reflections.
 
Da hat der TE aber recht.
Mit steigendem Abstand der Quelle zum Hörer werden hohe Frequenzen abgedämpft.
Soweit ich mich erinnere, wird mit der Höhendämpfung in Hallgeräten eher das Wandmaterial des Raumes modelliert: Stark reflektierendes Wandmaterial wird mit wenig Höhendämpfung modelliert, wenig reflektierendes Wandmaterial mit starker Höhendämpfung.
 
Idealerweise sollte man eine solche Höhendämpfung zum simulieren von Entfernung natürlich nicht im Hall sondern schon vorher auf dem Quellsignal machen.
 
Ich empfehle die Lektüre diese Übersichtsartikels:

V. Välimäki, J. Parker, L. Savioja, J. O. Smith and J. S. Abel. Fifty Years
of Artificial Reverberation. IEEE Trans. on Audio, Speech and Language
Processing, Vol. 20, No. 5, pp. 1421–1448, July 2012.


Bei IRs nimmt man entweder dicke und viele CPUs und faltet direkt in der time domain oder man faltet via FFT in der frequency domain. Das mit Ausdünnen der IR etc. erscheint mir ein Holzweg zu sein. Hier kann man einen Blick in die Numerical Recipies werfen. Faltung brauchen einige Zweige der Wissenschaft und nicht nur die Musik-Industrie.

Neuland wäre sicher die Verbindung von AI/machine learning und Hall. Und das nicht nur zur Bestimmung von Parametern.
 
Da hat der TE aber recht.
Mit steigendem Abstand der Quelle zum Hörer werden hohe Frequenzen abgedämpft.

der herr TE will aber durch dämpfung die distanz simulieren, und das geht nicht.

Idealerweise sollte man eine solche Höhendämpfung zum simulieren von Entfernung natürlich nicht im Hall sondern schon vorher auf dem Quellsignal machen.

vor dem hall kannst du nichts machen, was erst noch verhallt werden wird.

Soweit ich mich erinnere, wird mit der Höhendämpfung in Hallgeräten eher das Wandmaterial des Raumes modelliert

zumindesten ist bei einem sehr kleinen raum die air absorbtion irrelevant im verhältnis zu den wänden.

aber wenn du es ganz anal betreiben willst berechnest du beides korrekt. und für jedes parallel signal einzeln, also z.b. auch erst und zweitreflektionen oder sowas in der art mit je einem eigneen absorbtionsfilter.

so drei kilometer weg kommen in einem konzertsaal mit 175 meter länger schneller zusammen als man denkt. :)
 
Zuletzt bearbeitet:
Ich zitiere dich nochmal kurz:
und willst den abstand der quelle zum hörer durch "dämpfung" erreichen (macht man eigentlich durch verzögerung)
Der Abstand der Quelle zum Hörer ist hierbei irrelevant, da das Schallereignis für der Hörer erst beginnt, wenn es bei ihm ankommt.
Ich schätze mal das du die Verzögerung hier mittels Predelay einstellen würdest.
Das Predelay ist aber nicht gleichzusetzen mit dem Abstand der Quelle zum Hörer.
Das Predelay steht für die Differenz aus der Laufzeit der Early Reflections minus der Laufzeit des Direktsignals.
Mittels Predelay simuliert man eher wie weit jene Reflektionsfläche entfernt ist, die für Early Reflections verantwortlich ist.

Wenn du unbedingt die Laufzeit des Quellsignals zum Hörer simulieren willst, müsstest du das Direktsignal schon vor dem Reverb verzögern.
In dem Fall machst das am besten mit nem Delay im Channel des Quellsignals (zb mit dem Track Delay im Mixer Kanalzug), aber eingebaut in einen Halleffekt bringt dir das nix. (Sofern du den Hall auch als Send FX nutzen willst)


Was die Dämpfung angeht...
Wenn ich ein Signal im Mix nach vorne ziehen oder nach hinten stellen will, dann ist auf jeden Fall ein High Shelf dein Freund.
Will ich das Signal im Mix näher dran haben, dann heb ich mit dem EQ die Höhen an, soll das Signal weiter nach hinten, dann senke ich ab.
Aber auch hier gilt, im Reverb eingebaut hat das zumindest für diesen Zweck nix zu suchen, das macht man schon vorher direkt auf dem Kanal.
Das Ohr will hier auf jeden Fall das Direktsignal schon bedämpft/verstärkt haben um was damit anfangen zu können.
Was Dämfung im Reverb angeht, so hat Kollege @serge ja weiter oben schon die richtige Erklärung geliefert.
 
Der Abstand der Quelle zum Hörer ist hierbei irrelevant

praktisch alles in einem hallalgorithmus besteht aus verzögerungszeiten, die jeweils equivalenz zu entsprechenden räumlichen distanzen haben. das ist das kerngeschäft.

Ich schätze mal das du die Verzögerung hier mittels Predelay einstellen würdest.

manchmal kann kann man diese zeiten explizit einstellen, manchmal kann man nur die geometrischen parameter einstellen, manchmal nur die raumcharakteristik. das ist aber keine frage des schätzens, das kann man ja nachschauen bzw. sich so bauen wie man will. :)

Wenn du unbedingt die Laufzeit des Quellsignals zum Hörer simulieren willst, müsstest du das Direktsignal schon vor dem Reverb verzögern.

das predelay hat damit nichts zu tun und ist in der tat eine etwas merkwürdige sache, die eben genau nicht die natur nachbildet.

vergegenwärtige dir mal, was passiert, wenn du 2 signale hast: einmal den direktschall und einmal eine reflektion. der direktschall legt 10 meter weg zurück und die erste reflektion von der seitenwand legt 14 meter zurück.

nehmen wir an, die wände hätten einen absorbtionsfaktor von 0, wie ein spiegel. muss die reflektion nun anders gefiltert werden als der direktschall? ja, muss sie, weil der weg länger ist.

Aber auch hier gilt, im Reverb eingebaut hat das zumindest für diesen Zweck nix zu suchen, das macht man schon vorher direkt auf dem Kanal.

ich kenne zwar auch hall algos, bei denen die air absorbtion nicht explizit berechnet wird sondern schlichtweg durch die diffusion entsteht, aber ich kenne definitiv kein mischpult in dem ein absorbtionsfilter schon eingebaut wäre.

vom grundsatz her ist der direktschall auch nur eine der angenommenen reflektionen und kann daher genauso berechnet werden.

mit AUXen ist dann nix mehr, das ist richtig. :)

Das Ohr will hier auf jeden Fall das Direktsignal schon bedämpft/verstärkt haben um was damit anfangen zu können.

das ohr kann mit filterung alleine gar nichts anfangen.

erst die kombination aus filterung, abschwächung und verzögerung - und das nur in kontrast zu anderen schallereignissen - lässt den eindruck von distanz entstehen. (wenn man glück hat, denn manchmal wundert man sich auch darüber, wie sich ein korrekt berechnetes signal anhört)

innerhalb eines hall algos kommen dann noch die ggf. hunderte von reflektionen hinzu, die sich auch alle ändern, wenn sich die position von schallquelle und/oder hörer in einem raum verändern.

um absorbtion korrekt nachzubilden würde ich auch keinen x-beliebigen eq nehmen... es gibt da wie gesagt sehr unterschiedliche weg das zu erreichen... aber das führt jetzt zu weit.




schau dir mal das bild von der angeblichen "impulsantwort" des TE an (die nur aus echos besteht) dann wirst du meinen erkläransatzversuch vielleicht nachvollziehen können.
 
Zuletzt bearbeitet:
Ich glaub du siehst grad den Wald vor lauter Bäumen nicht. :)
Deswegen sag ichs nochmal:
Die vollen Laufzeiten von Direktsignal und Early Reflections sind irrelevant fürs Ohr.
Das Schallereignis beginnt für den Hörer erst wenn das Direktsignal am Ohr ankommt.
Da ist die Laufzeit des DS zwischen Quelle und Hörer schon längst Geschichte und die ER haben in dem Moment auch schon einen Zeil ihres Weges zurückgelegt.
Wir nehmen da nur den zeitlichen Abstand zwischen Direktsignal und ER wahr.
Das entscheidende Element ist hier das Direktsignal, bei dessen Eintreffen die Wahrnehmung erst beginnt.
Dieser Moment ist sozusagen der Referenzpunkt ab dem das Ohr seine "Messung" beginnt.
Und in der Praxis bezieht man das Direktsignal im Mixer ja immer aus der jeweiligen Spur und da wird am trockenen Signal normalerweise nix verzögert.

das predelay hat damit nichts zu tun und ist in der tat eine etwas merkwürdige sache, die eben genau nicht die natur nachbildet.

vergegenwärtige dir mal, was passiert, wenn du 2 signale hast: einmal den direktschall und einmal eine reflektion. der direktschall legt 10 meter weg zurück und die erste reflektion von der seitenwand legt 14 meter zurück.

nehmen wir an, die wände hätten einen absorbtionsfaktor von 0, wie ein spiegel. muss die reflektion nun anders gefiltert werden als der direktschall? ja, muss sie, weil der weg länger ist.
Natürlich kannst du das im Reverb nochmal zusätzlich filtern um die restlichen 4 m Differenz noch irgendwie zu simulieren, aber das hat keine Auswirkung auf das Direktsignal, das passiert nur am Raumsignal.

das ohr kann mit filterung alleine gar nichts anfangen.

erst die kombination aus filterung, abschwächung und verzögerung - und das nur in kontrast zu anderen schallereignissen - lässt den eindruck von distanz entstehen. (wenn man glück hat, denn manchmal wundert man sich auch darüber, wie sich ein korrekt berechnetes signal anhört)
Da hast du natürlich recht, das Zusammenspiel mehrerer Faktoren, führt hier zum vollen Endergebnis.
Beispielsweise das Laustärkeverhältnis zwischen Direktschall und Raumschall spielt hier die entscheidende Rolle.
Bei hohem Direktschall Anteil rückt die Quelle näher und bei steigendem Raumanteil weiter weg. Aber dafür gibts ja schließlich den Dry Wet bzw Send Regler.

innerhalb eines hall algos kommen dann noch die ggf. hunderte von reflektionen hinzu, die sich auch alle ändern, wenn sich die position von schallquelle und/oder hörer in einem raum verändern.
Du hast ja nicht unrecht, aber Gegenstand der Betrachtung war hier doch die Laufzeit des DS, was danach passiert ist ja nochmal eine andere Geschichte.
Fakt ist, wenn du einen Hall im Mixer einschleiftst, dann wird das Dry bzw Direktsignal nicht verzögert ausgegeben, das marschiert normalerweise schnurstracks hindurch.
Die Verzögerungen gibts erst für die ER (in Form des Predelays) und danach dann in Form des jeweilige Hall Algos für die Late Reflections, also insgesamt nur für das Wet Signal.
Das Dry Signal bleibt in jedem Hall den ich kenne unangetastet, Wenn ich da im Hall den Dry/Wet Regler auf Dry stelle, dann kommt da das exakt gleiche Signal völlig unverzögert raus wie das Quellsignal.

schau dir mal das bild von der angeblichen "impulsantwort" des TE an (die nur aus echos besteht) dann wirst du meinen erkläransatzversuch vielleicht nachvollziehen können.
Zugegeben, was der TE hier tatsächlich vor hat und wie genau er das umsetzen will, entzieht sich aktuell noch meiner Vorstellungskraft. :D
Ich raffs auch nicht so richtig, was er da genau machen will.
Meine Vermutung:
Scheinbar sucht er nach einer Methode Impulsantworten zu vereinfachen und mittels Textdatei beschreibbar zu machen.
Der Inhalt der Textdatei enthält dann sozusagen nur Steuerdaten die dann die eigentlichen Prozesse manipulieren.
Evtl ja eine Art Resynthese?
Kein Ahnung, aber ich bin auch kein Programmierer.
Das ist alles etwas wirr noch, da sollte er evtl ein paar mehr Infos geben.
 
Ich hab mich ja zu Zeiten des seligen Keys-Recording-Workshops (Heft 1/95 S.92) mit dem Thema auch einfach ein bisschen experimentell beschäftigt. Damals hab ich zwei Delays (Korg SDD-3000 - leider weg, seufz) und einen extrem simplen Mono(!)-Hall (Yamaha R1000 - das grottigste was die jemals produziert haben) genommen und Mischpultkanäle als Effekt Rückführung benutzt (dadurch hatte ich EQs im Quellsignal und in den Rückführungen und zudem die Möglichkeit von Kreuzfeedback zwischen den ER und dem Diffushall). Es ist SEHR interessant, was für völlig eindeutige Raumpositionierungen mit diesen wenigen Mitteln vornehmen kann.
Ich habe dabei mit zwei Basis-Regeln gearbeitet:
  • je näher die Schallquelle am Hörer ist, desto größer ist die Verzögerungszeit beim Delay der Erstreflektion.
  • je weiter weg eine Schallquelle ist, um so eingeengter (oben und unten!) ist der Frequenzbereich von Original und Reflektionssignal. Das mag in der Realität weniger extrem ausfallen, aber für den künstlich zu erzeugenden Höreindruck "Positioniere diese Stimme weitere hinten" ist das wirklich wichtig.
  • wenn man mit sauber berechneten Reflektionszeiten links und rechts arbeitet, so darf die pegelmäßige L/R-Positionierung relativ grob sein.

Ich kann nur jedem empfehlen diese Experimente mal selbst zu machen.
 
Die vollen Laufzeiten von Direktsignal und Early Reflections sind irrelevant fürs Ohr.

deine meinung dzau in allen ehren.

aber einige andere leute hingegen meinen, dass die erstreflektionen am relevantesten für den raumeindruck sind.

hat auch nichts mit der frage zu tun, ob man verzögerung durch verzögerung simuliert oder durch frequenzfilter.

flowdy geht davon aus, dass ein hall aus echos besteht. und wenn man es mal modellhaft betrachtet, dann ist das auch gar nicht verkehrt. im kern ist das genau das, was die mehrheit der hallalgorithmen machen.

Wir nehmen da nur den zeitlichen Abstand zwischen Direktsignal und ER wahr.

zuzüglich der absorbtion der wände und der luft.

Das entscheidende Element ist hier das Direktsignal, bei dessen Eintreffen die Wahrnehmung erst beginnt.

ich denke du übersiehst, dass ein direktsignal nicht zwangläufig vorhanden sein muss. :)

Natürlich kannst du das im Reverb nochmal zusätzlich filtern um die restlichen 4 m Differenz noch irgendwie zu simulieren, aber das hat keine Auswirkung auf das Direktsignal, das passiert nur am Raumsignal.

der absorbtionsfilter hat immer nur auswirkungen auf das signal, auf dass man ihn anwendet, das ist richtig.

Aber dafür gibts ja schließlich den Dry Wet bzw Send Regler.

oder es gibt vielleicht auch keinen. macht bei der simulation echter räume durch faltung auch absolut sinn, dass direktsignal mit zu erstellen, und dem user vorzuenthalten, es lauter oder leiser zu machen.

Du hast ja nicht unrecht, aber Gegenstand der Betrachtung war hier doch die Laufzeit des DS, was danach passiert ist ja nochmal eine andere Geschichte.

ich habe mich nur lustig darüber gemacht, dass flowdy die zeitliche verschiebung einer reflektion durch "dämpfung" erreichen wollte. wenn du das auch so siehst wie er, dann haben wir da ein problem und müssen das jetzt unbedingt ausdiskutieren.

Fakt ist, wenn du einen Hall im Mixer einschleiftst, dann wird das Dry bzw Direktsignal nicht verzögert ausgegeben, das marschiert normalerweise schnurstracks hindurch.

ich weiß nicht ob das fakt ist. es fängt bei digitalen geräten schon mit der wandlung an, die da zwangsläufig latenzen erzeugt.

Die Verzögerungen gibts erst für die ER (in Form des Predelays) und danach dann in Form des jeweilige Hall Algos für die Late Reflections, also insgesamt nur für das Wet Signal.

es geht mir um was anderes, wenn ich das so sage.

du meintest ja man könne doch - so wie in den sechziger jahren mal - "tiefenstaffelung durch shelving filter" herstellen, und dann das gefilterte signal verhallen.

es macht aber eigentlich keinen sinn, da du jetzt gar keine genaue kontrolle darüber hast, wie der absorbtionsfilter aussieht.

nimm an du wärst der allertollste und würdest auf zuruf hin sofort mit deinem mischpult eine distanz einer schallquelle von 200 metern herstellen können. und dann verhallst du das mit dem "drumroom" preset.

macht das sinn? ergibt das jetzt einen nachbildung eines natürlichen raumes? natürlich nicht.

deswegen ist es naheliegend, das gleich in den hallalgorithmus mit einzubauen bzw. das wenigstens zu beachten, dass das eine und das andere zusammenpassen müssen, wenn man mit modellen experimentiert.


ob man den frequenzfilter der luft absorbtion bei 14 metern schon für die reflektionen braucht wenn nachher ein vinylmaster draus wird ist eine andere frage.

aber die absenkung der amplitude insgesamt ist essentiell.

denk mal, wenn eine snaredrum aus 1 meter ausfgenommen wird und 80 db hatte, dann hat die reflektion dieses ereignisses von der virtuellen rückwand in 50 meter entfernung 72 db weniger. diese größenordnung musst du schon irgendwo auch beachten, wenn du einen raum nachbildest.
 
Die vollen Laufzeiten von Direktsignal und Early Reflections sind irrelevant fürs Ohr.
deine meinung dzau in allen ehren.

aber einige andere leute hingegen meinen, dass die erstreflektionen am relevantesten für den raumeindruck sind.
Das hat nichts mit Meinungen zu tun
Ich seh schon, du verwechselst hier massiv etwas.
Natürlich sind die ER ausschlaggebend, aber eben nur die Differenz aus DS Laufzeit minus ER Laufzeit.
Ich kann mich da nur wiederholen - für den Hörer beginnt das Schallereignis erst, nachdem das Direktsignal bei ihm ankommt und nicht schon wenn es der Quelle entfleucht.
Alles was ab Eintreffen des DS zählt, ist dann noch die restliche Laufzeit der ER aber die Laufzeit davor ist für den Höreindruck irrelevant, weil du die gar nicht wahrnehmen kannst.
(Wie auch, der Schall ist ja noch gar nicht angekommen.)
Das Schlüsselwort ist und bleibt hier Laufzeit Differenz.

Wenn ein Hallgerät so wie du dir das vorstellst mit den vollen Laufzeiten rechnen würde, dann könntest du ein solches Effektgerät nur als Insert nutzen, weil die Verzögerung ja auch auf das trockene Signal mit aufgerechnet werden müsste.
Ein solcher Halleffekt ist mir bisher allerdings noch nicht begegnet. Kennst du denn einen Hall der so ausgelegt ist?

Wir nehmen da nur den zeitlichen Abstand zwischen Direktsignal und ER wahr.
zuzüglich der absorbtion der wände und der luft.
Für den Gesamteindruck magst du recht haben, aber für eine isolierte Betrachtung der Laufzeit ist das erstmal untergeordnet.
Ich gehe soweit mit dir konform, daß die Dämpfung durch die die Luft natürlich mit dem Moment beginnt, an dem das Signal die Quelle verlässt.
Auch möchte ich anmerken, daß die Dämpfung der hohen Frequenzen durch Luft und die Abnahme des Schalldruckpegel durch Entfernung zwei Paar unterschiedliche Schuhe sind.
Die Dämpfung durch die Wände wäre davon auch nochmal getrennt zu betrachten.

Das entscheidende Element ist hier das Direktsignal, bei dessen Eintreffen die Wahrnehmung erst beginnt.
ich denke du übersiehst, dass ein direktsignal nicht zwangläufig vorhanden sein muss.
Hä?
Wovon redst du denn jetzt?
Davon daß man den Direktsschall soweit dämpfen kann, bis man nur noch den Raumschall übrig hat?
Das machst mit dem Dry/Wet im Hall bei Einsatz als Insert FX.
Beim Einsatz als Send FX erreichst du das indem der Send Pre-Fader abgegiffen wird. Da ziehst du dann einfach den Kanalfader runter.

Aber was hat das bitte jetzt mit unserer Betrachtung der Laufzeiten zu tun?
Ja vielleicht eine Sache, nämlich daß dir dann die Referenz durch das Direktsignal fehlt und damit das DS inclusive dem Predelay für die Wahrnehmung bedeutungslos wird.
Genaugenommen fungiert dann die ER als neues Direktsignal, aber das sind schon wieder Nebenkriegsschauplätze die du hier aufmachst.

Du hast ja nicht unrecht, aber Gegenstand der Betrachtung war hier doch die Laufzeit des DS, was danach passiert ist ja nochmal eine andere Geschichte.
ich habe mich nur lustig darüber gemacht, dass flowdy die zeitliche verschiebung einer reflektion durch "dämpfung" erreichen wollte. wenn du das auch so siehst wie er, dann haben wir da ein problem und müssen das jetzt unbedingt ausdiskutieren.
Ja wiegesagt, ich weiß auch nicht wirklich, was er da so richtig will.
Bei wiederholtem Lesen der Posts von @flowdy beschleicht mich nun aber der Eindruck, daß er sich da so ne Art Eimerketten Hall zusammenschraubt.
Wenn man jetzt also die Aussage leicht abwandelt, nämlich zu:
"...daß flowdy das Siganl nach jeder zeitlichen Verschiebung in den einzelnen Delaystufen seiner Eimerkette mit einer Dämpfung des Pegels versieht.",
dann macht die Aussage plötzlich wieder Sinn.
Aber solang er da nicht weiter ins Detail geht, ist das nur Scrabble spielen oder "Rate mal mit Rosenthal", was wir hier machen.

Fakt ist, wenn du einen Hall im Mixer einschleiftst, dann wird das Dry bzw Direktsignal nicht verzögert ausgegeben, das marschiert normalerweise schnurstracks hindurch.
ich weiß nicht ob das fakt ist. es fängt bei digitalen geräten schon mit der wandlung an, die da zwangsläufig latenzen erzeugt
Och menno, bitte nicht noch einen Nebenkriegsschauplatz eröffnen, noch dazu einen der überhaupt nichts zur Sache tut.
Evtl. Gerätelatenzen blenden wir hier mal aus, nimm einfach an wir nutzen den Latenzausgleich in der DAW und alles ist fein.
Bitte nicht alles in einen Topf werfen.

Die Verzögerungen gibts erst für die ER (in Form des Predelays) und danach dann in Form des jeweilige Hall Algos für die Late Reflections, also insgesamt nur für das Wet Signal.
es geht mir um was anderes, wenn ich das so sage.

du meintest ja man könne doch - so wie in den sechziger jahren mal - "tiefenstaffelung durch shelving filter" herstellen, und dann das gefilterte signal verhallen.
Das machte man nicht nur in den 50ern, heute funktioniert der Trick noch genauso.
Klar gibts dafür mittlerweile auch Plugins die das komplett übernehmen und in ihrer Funktionalität weit über einen Highshelf hinausgehen.
Beispielsweise Proximity von Tokyo Dawn Labs
Aber soweit will @flowdy doch gar nicht gehen.
Er schreibt ja recht eindeutig, daß er auf eine spektrale Auswertung verzichten will, was mich zu der Erkenntniss gebracht hat, daß sein Modell im Grunde nur eine Art Eimerketten Hall darstellen kann.
Spektral orientierte Dämpfungen sind wie weiter oben gesagt nicht drin, sorry an wen auch immer. Wenn es nach bestem Bemühen immer noch sch... nach Toilette klingt, nach Kachelwänden, kann ich es also noch immer darauf schieben, in die Berge fahren und den Mond anheulen (echter Nachhall, krass!).
Seine Version einer "Implulsantwort" wenn man das so nennen möchte, wäre dann nix weiter als die Aneinanderreihung der jeweilgen Delayzeit + der jeweiligen Dämpfungsstärke für jeden Schritt seiner Eimerkette in Form einer Tabelle.
Das wäre dann eher das Equivalent zu nem steinzeitlichen Donnerkeil, was er da machen will.
@flowdy: interpretiere ich das richtig so, oder liege ich daneben?



es macht aber eigentlich keinen sinn, da du jetzt gar keine genaue kontrolle darüber hast, wie der absorbtionsfilter aussieht.

nimm an du wärst der allertollste und würdest auf zuruf hin sofort mit deinem mischpult eine distanz einer schallquelle von 200 metern herstellen können. und dann verhallst du das mit dem "drumroom" preset.

macht das sinn? ergibt das jetzt einen nachbildung eines natürlichen raumes? natürlich nicht.

deswegen ist es naheliegend, das gleich in den hallalgorithmus mit einzubauen bzw. das wenigstens zu beachten, dass das eine und das andere zusammenpassen müssen, wenn man mit modellen experimentiert.
Und wieder alles in einen Topf und umrühren...
Ich glaub das ist hier tatsächlich das Problem, du wirfst alles in einen Topf, ohne dir die einzelnen Bestandteile richtig anzuschauen.


ob man den frequenzfilter der luft absorbtion bei 14 metern schon für die reflektionen braucht wenn nachher ein vinylmaster draus wird ist eine andere frage.

aber die absenkung der amplitude insgesamt ist essentiell.
Soweit so richtig.
Ich zitiere hier erklärend mal Sengpiel:
Dämpfung der Luft bei hohen Frequenzen (Dissipation) ist eine andere Tatsache.
Bitte nicht mit der normalen Dämpfung (Abnahme) des Schalls mit der Entfernung verwechseln.

denk mal, wenn eine snaredrum aus 1 meter ausfgenommen wird und 80 db hatte, dann hat die reflektion dieses ereignisses von der virtuellen rückwand in 50 meter entfernung 72 db weniger. diese größenordnung musst du schon irgendwo auch beachten, wenn du einen raum nachbildest.
Wie kommst du denn bitte auf 72dB Absenkung?
Erläutere mir mal bitte deinen Rechenweg, der dich zu diesem Ergebnis geführt hat?

Ok, sei es drum - nehmen wir mal dein Beispiel.

Die Hörposition liegt in 1m Entfernung von der Quelle und wird Billard-mäßig über eine 50 m entfernte Bande gespielt.
Das ergibt nach Pythagoras einen Weg von 100,02m (gerundet 100m)
Jetzt berechnen wir die Pegeldifferenz zwischen Direktschall und reflektiertem Schall.
Wir messen an der Hörposition in 1m Entfernung von der Quelle 80dB für den Direktschall.
Das ist unsere Ausgangsbasis und jetzt kommt das reziproke 1/r Abstandsgesetz ins Spiel.
Man kann dank des 1/r Gesetzes feststellen, daß eine Verdopplung des Abstands einer Pegelsenkung (Dämpfung) um -6dB entspricht.
Haben wir bei 1m also 80dB, dann sinds bei 2m nur noch 74dB, bei 4m noch 68dB, bei 8m noch 62dB, bei 16m noch 56dB, bei 32m noch 50dB, bei 64m noch 44dB, bei 128m noch 36dB etc, etc, etc.
So sieht das dann aus, wenn man das berechnen will:
20log(r1/r2)
r1=1m, r2=100m
20log(1/100)=-40
Wir reden hier also nicht von 72dB Absenkung, sondern von einer Absenkung um 40dB für das reflektierte Signal.
Wo hast du die 72dB her?
Ausgewürfelt?
 
Das hat nichts mit Meinungen zu tun
Ich seh schon, du verwechselst hier massiv etwas.

natürlich ist das eine meinung.

nicht, dass ich flowdy wirklich verstehen würde (oder er sich selbst), aber ich versuche es wenigstens: er will die dinge nicht so machen, wie sie üblich sind, sondern er will was neues erfinden.

ich selbst mache das allerdings auch oft so und habe selbstredend auch schon diverse hall geschichten so implementiert, dass man sie nur noch als "Insert" verwenden kann weil die positionierung der schallquelle teil der software ist.

und es gibt auch eine ganze reiihe von hallgeräten, die das auch vor 30 jahren schon so gemacht haben. viele halle haben nämlich - zumindesten als option - genau das, was du außerhalb machen willst: einen tiefpass, einen panorarama regler und einen "wet" regler.

Natürlich sind die ER ausschlaggebend, aber eben nur die Differenz aus DS Laufzeit minus ER Laufzeit.

was sonst? jede verzögerung bezieht sich auf ein orginal. ein wert auf eine zeitachse, deren anfang man nicht kennt, ist wertlos. :)


Ich kann mich da nur wiederholen - für den Hörer beginnt das Schallereignis erst

die spur in deinem mischpult ist aber nicht der hörer, sondern das ist die virtuelle schallquelle.

Alles was ab Eintreffen des DS zählt, ist dann noch die restliche Laufzeit der ER aber die Laufzeit davor ist für den Höreindruck irrelevant, weil du die gar nicht wahrnehmen kannst.
(Wie auch, der Schall ist ja noch gar nicht angekommen.)

nein, aber die anderen schallereignisse, die nicht so weit weg enstanden sind sondern näher bei dir. entfernung ist immer relativ.

Wenn ein Hallgerät so wie du dir das vorstellst mit den vollen Laufzeiten rechnen würde, dann könntest du ein solches Effektgerät nur als Insert nutzen

na und?

Ein solcher Halleffekt ist mir bisher allerdings noch nicht begegnet. Kennst du denn einen Hall der so ausgelegt ist?

mache ich seit 20 jahren so.

und vor allem macht man das bei IR so. oder kennst du ein altiverb sample, in dem nur der hall aber nicht aber nicht die quelle drinsteckt? das kannst du gar nicht aufnehmen. :)

wie schon gesagt, unter umständen hast du ja gar kein direktsignal. stell mal unsere snaredrum ins seitliche kirchenschiff - und schon ist das direktsignal im nirvana.

wo beginnt jetzt deiner meinung nach sinnvollerweise die IR?

meiner meinung nach würde man die aufnahme in dem moment beginnen, wo das schalleregnis beginnt. (sinnvollerweise in 1 meter abstand dazu.)

lässt du es erst dann beginnen, wenn du es hörst, hast zum einen das problem, dass du nciht genau weißt, wann das ist, und zum anderen stimmt dann diese IR im verhältnis zu der einen anderen aufbaus nicht mehr.

Wovon redst du denn jetzt?
Davon daß man den Direktsschall soweit dämpfen kann, bis man nur noch den Raumschall übrig hat?

nein, einfach nur davon, dass schall nicht um die ecke kommt.

wenn du im wohnzimmer bist, hast du keinen direktschall von der trompete im schlafzimmer mehr.

es gibt sogar eine notationsanweisung "von hinter der bühne" oder "aus dem orchestergraben" bei der man das schon vor 400 jahren im real life so bewusst hergestellt hat - im kontext von musik.

beides lässt sich mit raytracing, mit faltung oder sogar halbwegs mit "reflections" nachbilden. dass das ereignis dann ein wenig verzögert wird ist nicht zu vermieden bzw. sogar ausdrücklich gewünscht.

Aber was hat das bitte jetzt mit unserer Betrachtung der Laufzeiten zu tun?

vermutlich sind wir schon längst woanders. :)

du hattest oben flowdy darin recht gegeben, dass man verzögerung nachbildet indem man absorbtion nachbildet. das fand ich "interessant" genug um darauf zu antworten. denn verzögerung erreicht man durch verzögerung.

Evtl. Gerätelatenzen blenden wir hier mal aus

es ist ja nicht nur die latenz. bei einem klassischen hall, den man klassisch anwendet, bedeutet die getrennte regelbarkeit von original und effekt mittel dry/wet oder aux, dass du an dieser stelle mit der modellierung der realität aufhörst.

deswegen hört man bei einem lexicon sofort raus, dass es keine akustische aufnahme ist - bei einer IR hingegen nicht.

Er schreibt ja recht eindeutig, daß er auf eine spektrale Auswertung verzichten will, was mich zu der Erkenntniss gebracht hat, daß sein Modell im Grunde nur eine Art Eimerketten Hall darstellen kann.

ja den teil habe ich auch nicht verstanden.

mein tip an ihn wäre aber genau das zu machen - jedenfalls für große räume ist das ein recht einfacher trick, um zu guten ergebnissen zu kommen.

Ich glaub das ist hier tatsächlich das Problem, du wirfst alles in einen Topf, ohne dir die einzelnen Bestandteile richtig anzuschauen.

die einzelnen bestandteile einschlägiger ansätze hatte ich oben erwähnt:

... und dann baue dir

a.) verzögerung

b.) absorbtion der luft

c.) absorbtion der wände, falls gewünscht

d.) diffusor/decay time

klar kannst du b.) auch weglassen, macht lexicon auch so.

wer das aber mal mit einem 200 meter großen raum probiert hat und das ergebnis nicht mag, dem sei empfohlen einfach mal die air absorbtion zwischen die allpässe zu packen - wenigstens für die 2. und 3. reflektionen.

wobei mein rat an flowdy (wo ist der eigentlich?) vor allem wäre wenigstens erst mal mit a.) zu beginnen bevor man sich mit raketentechnik oder der juristischen absicherung des projekt beschäftigt.

Wo hast du die 72dB her?
Ausgewürfelt?

nein, *10 mit *10 hoch 2 verwechselt.

-72 wären es dann bei 1000 metern im verhältnis zu 1 meter. (also nach der 5. kirchenwand)

ändert aber nicht wirklich was an meiner aussage: von einer einzelnen kirchenwand mitten in der wüste kommen von einer snaredrum, die vor dir steht, maximal noch ein flüstern zurück und die luft dämpft die höhen eines breitbandigen schallereignisses in 200 meter entfernung schon so erheblich ab, dass sich ein bloßes echo einfach nicht mehr ansatzweise so anhören wird wie die natur.

ergo kann es relevant sein, die absorbtion der luft mitzuberechnen.

dass das in klassischen halls teiweise aus versehen erreicht wird, weil allpässe die phase verschmieren und dass das für einen schönen höreindruck bei gesang auch reichen kann die hallfahlen mit einen eq zu filtern sehe ich eher als problem an^^


p.s.: es ist immer das gleiche. erst mache ich 100 quotes und dann wundere ich mich, wenn ich damit quote tag chaos verursache. habs jetzt im dirtten anlauf hinbekommen.
 
Zuletzt bearbeitet:
nicht, dass ich flowdy wirklich verstehen würde (oder er sich selbst), aber ich versuche es wenigstens: er will die dinge nicht so machen, wie sie üblich sind, sondern er will was neues erfinden.
Ich denke halt erst etwas nach, bevor ich lese, stelle Hypothesen auf. Schauen, Staunen, Ahnen, Annehmen, Überprüfen, Verstehen - das ist der Dreisatz der Erkenntnis, der lustigerweise aus sechs Schritten zu bestehen scheint. Und "missbrauche" andere, von denen ich meine, dass sie mehr von den Dingen verstehen als ich, als persönliche Bibliothekare und Richtungsgeber in Sachen loser Literaturrecherche. In der Beziehung ist der Thread sehr ergiebig für mich, schon mal vielen Dank.

Dass ich programmiere, um meine Hypothesen experimentell zu überprüfen bzw. zu widerlegen, ist Kür, die ich mir nicht nehmen lasse. Nur sollte ich es vermeiden, diesen Code dann als Nonplusultra hinzustellen, wenn sich meine Ohren wieder mal als sehr voreingenommen und leichtgläubig gezeigt haben. Aber da kann man ja leicht Leute finden offline, für kurze Tests (*prust* leicht ...).

Seine Version einer "Implulsantwort" wenn man das so nennen möchte, wäre dann nix weiter als die Aneinanderreihung der jeweilgen Delayzeit + der jeweiligen Dämpfungsstärke für jeden Schritt seiner Eimerkette in Form einer Tabelle.
Das wäre dann eher das Equivalent zu nem steinzeitlichen Donnerkeil, was er da machen will.
@flowdy: interpretiere ich das richtig so, oder liege ich daneben
Ja. Das ist mir so vorgeschwebt. Wobei mein Hall ruhig künstlich klingen darf, ihr benutzt wohl Hallgeräte, die schon in preiswerter Lage mehr zu leisten vermögen. Mein Modell soll ganz einfach sein, entsprechend leicht zu implementieren und der Code leicht von mir später und von anderen verständlich.

Wichtig ist es mir insoweit nur, experimentell festzustellen, ob man Stereopanning und Tiefenstaffelung durch Nachhallhacks realisieren könnte, damit der Sound in räumlicher Hinsicht nicht ganz so klingt wie sich eine Mama-Papa-Ich-Wachszeichnung gegen ein Familienfoto ausnehmen würde. Viele Klangbeispiele, die hier gepostet werden, klingen etwas flach mit 08/15-Hall, als hätte man das routinemäßig draufgegeben. Verstehen wir uns nicht miss, elektronische Tanzmusik muss orts- und richtungsunabhängig sein, das ist keine Kritik. Nur bin ich halt nicht die Zielgruppe. Ich brauche Zeug zum Aktivzuhören.

Ob man sagen kann: DS ab Position Mitte-Mitte-links im Halbkreis um den Zuhörer irgendsowas wie -34dB aufs klangabgewandte Ohr (leeward ear, analog zu luv und lee bzw. engl. windward/leeward, cool oder? Duden, bitte eintragen! ;-) ist natürlich auch nur provisorisch bezeichnet), Echos #n abnehmend stark gedämpft bis #N-1 wo -0dB herrschen, denn die letzte Welle müsste doch jedem Quadratzentimeter der Wand schon Hallo und Tschüss gesagt, allein vom Zuhörerkopf auf ihrer Reise womöglich gar nix mitbekommen haben, und wenn, nicht so, dass es ins Gewicht fallen würde. Wobei ich mit Dämpfung hier den zusätzlichen Dämpfungsdifferenzbetrag zwischen soundward und leeward ear meine. Die absolut(er)e Dämpfung sei ja schon in der Hallinformation für die linke und rechte Kopfseite enthalten.
 
Und "missbrauche" andere, von denen ich meine, dass sie mehr von den Dingen verstehen als ich, als persönliche Bibliothekare und Richtungsgeber in Sachen loser Literaturrecherche.

das ist völlig legitim, und wie du merkst, funktioniert es auch ohne dass wir dich verstehen. :D

Wichtig ist es mir insoweit nur, experimentell festzustellen, ob man Stereopanning und Tiefenstaffelung durch Nachhallhacks realisieren könnte, damit der Sound in räumlicher Hinsicht nicht ganz so klingt wie sich eine Mama-Papa-Ich-Wachszeichnung gegen ein Familienfoto ausnehmen würde.

was auch immer das bedeutet, aber wenns dir spass macht dann ist alles gut.

Die absolut(er)e Dämpfung sei ja schon in der Hallinformation für die linke und rechte Kopfseite enthalten.

beim einen ist es die absolute dämpfung, beim anderen die absolute dröhnung, die da irgendwo zwischen den ohren ihre wirkung entfaltet.
 
das ist völlig legitim, und wie du merkst, funktioniert es auch ohne dass wir dich verstehen.
Ich überlege, ob mich diese Wir/Du-Rhetorik empören sollte. Allerdings wurden Vertreter unkonventioneller Herangehensweisen wie ich schon zu allen Zeiten belächelt, verlacht und ausgegrenzt, als Eigenbrötler eben. Wir können froh sein über unseren Mut, uns zuweilen doch der Welt zu zeigen, mal den einen oder anderen Brosamen zusätzlichen, konventionellen Wissens zu kosten, und entweder auszuspucken oder zu verdauen, d.h. in unsere Weltbilder zu integrieren, wenn sie uns einleuchten. Wir sind keine Nürnberger Trichter, wir denken, probieren, machen uns Annahmen und prüfen sie. Learning by debugging.
Wir unterscheiden uns von der Wissenschaft nur durch das legere Verhältnis zum vorbereitenden Literaturstudium. Hier habe ich nach Literatur gefragt, während ich zugegeben schon mal ein einfaches Modell kodifiziert habe, lediglich um meine Annahmen nicht zu vergessen. Getestet hab ich es noch nicht, und wahrscheinlich werde ich enttäuscht sein. Eigenbrötler sind zum Glück enttäuschungsresilient. Die Enttäuschung sehen sie nicht als Qual, sondern als eine Erleichterung. Das hat etwas vom Gehen. Annehmen ist das vorschreitende, Prüfen das stehende Bein.

Wie arbeitet "ihr" denn so, normalerweise? Was für Hall-Plugins oder -Geräte ihr nutzt, welche Einstellungsmöglichkeiten diese anbieten, das interessiert mich jetzt nicht so. Sondern was liegt an IN, was liegt an OUT? Hierüber hab ich auch nur Vermutungen, orientiert an losen bisherigen Recherchen: Idealerweise hat jede Stimme (Klangquelle) ihre eigene Hallfahne, eingestellt anhand der Vorstellung des Musikers von einem virtuellen Raum und der gedachten Position der Quelle in diesem, und dennoch technisch unabhängig von diesem. Das heißt, er kann die Stimme von links nach mitte-rechts verlegen, ohne dass er die Hallfahne ändert, mit dem Effekt, dass sich auch der Raum mitverkehrt. Der Raum wird sozusagen zerschlagen und seine Scherben auf die Klangquellen geklebt.
Das könnte der Grund sein, warum synthetische Musik trotz Stereo auf mich flach wirkt, nur fülliger als meine noch naivere provisorische Panning/Volume-Herangehensweise ganz ohne Raum, im Unterschied zu mechanischer Instrumentalmusik.

Das widerspricht meinem Wiedewiedewitt. Für mich ist der virtuelle Zuhörer hinsichtlich seiner zentralen Position identisch mit dem Dirigenten eines Orchesters stationärer Klangquellen im gemeinsamen Raum. Der gemeinsame Raum hat eine Form, aus der sich die Raumakustik ergibt, und aus der sich folglich die Hallfahnen der einzelnen Klangquellen in Abhängigkeit von deren jeweiligen Positionen ableiten sollten. - Zumindest, wenn Musik nicht nur als Klang veröffentlicht werden soll, sondern auch in adäquater Quelltextform. Im Text sollte sich der Raum einleitend als ein vom Orchester unabhängiges Etwas wiederfinden, die Ableitung der Hallfahnen geschieht erst bei Verarbeitung des Textes.
 
Noch was hier zu:
mein tip an ihn wäre aber genau das zu machen - jedenfalls für große räume ist das ein recht einfacher trick, um zu guten ergebnissen zu kommen.
Also erst mich mit Verzögerungen beschäftigen oder erst mit spektraler Dämpfung? Du widersprichst dir da selbst.

Verzögerung implementiere ich als Kurve (wo ich übrigens einzelne Knoten als scharf definieren kann, also rechnerisch mit unendlich viel Gewicht/Tiefe, während die anderen weich sind), in der jeder Auflösungspunkt aussagt, wie viel später Echo #n nach #n-1 ankommt, relativ zur ganzen Nachhallzeit. Die ersten Reflektionen sind ausschlaggebender als der Diffusschall. Wenn das kompliziert zu berechnen ist, dann werde ich das wohl irgendwann einsehen. Natürlich unter der Voraussetzung, dass meine Ohren meinen Verstand überzeugen, nicht umgekehrt.

Meine Ohren sagen zum Beispiel zum Klangbeispiel mit dem Mozartschem Rondo, das ich eingangs gepostet hab: Mozart im voll umkachelten Badesalon. Meine Schwester, war einst weiter in der Musik als ich noch heute bin, sogar mal in einem Vorspiel vor einer Hochschul-Jury und ihr Lehrer hatte von ihr eine hohe Meinung, hat sich das auch einmal angehört und sieht sich beim Hören in einem kleinen Musikschulsaal. Mein Verstand sagt mir, dass zwar diese beiden Klangeindrücke recht weit auseinander liegen, stark hintergrundskonnotiert sind, aber im Grunde schon mal irgendeinen räumlichen Klangeindruck geben, von daher schon mal ein Anfang sind.

Was die spektrale Dämpfung betrifft: Ja, es ist so, dass hohe Frequenzen stärker gedämpft werden, vor allem auch sehr abhängig vom reflektierenden Material. Das weiß ich, erscheint mir auch logisch. Kann ich aber noch nicht umsetzen mit meinen Mitteln.
Zudem sind nicht Raumakustiker landauf, land ab der Meinung, dass ideale Konzerträume nicht mit Leder ausgekleidet sein sollten und ganz allgemein die Formanten der Instrumente, welche auch immer dies seien, nicht gerade mit den Eigenfrequenzen des Raums in Konflikt stehen sollten? Konzerträume sollten also frequenzneutral sein, von der fernsten Zuschauerposition auch noch das Klanggeschehen ähnlich dem der bühnennächsten Zuschauerposition abbilden.
Und da fehlende spektrale Dämpfung der Inbegriff von Frequenzneutralität ist, da stört mich meine noch mangelnde Kompetenz diesbezüglich weniger als mein Unvermögen, bestimmte Abkürzungen wie ER aufzulösen.
 
Zuletzt bearbeitet:
ich widerspreche mir nie selbst, aber du erkennst dialektik wohl auch nur mit dem teleskop. :D

nein, du kannst schon diese 4-punkte liste ernst nehmen, und dabei die reihenfolge beachten.

wenn ich mir schon die mühe mache dann erzähle ich dir bestimmt keinen unsinn, sondern das, was ich tatsächlich für richtig/sinnvoll erachte.

Ich überlege, ob mich diese Wir/Du-Rhetorik empören sollte.

du bist sehr speziell und willst auch so wahrgenommen werden, nun beschwer dich nicht wenn du bekommst was du willst.

Allerdings wurden Vertreter unkonventioneller Herangehensweisen

bist du dir sicher, dass du überhaupt "herangehensweisen" benutzt?

deine ausgangsfragen lauteten "was für einen raum verbindet ihr mit dieser charakteristik?" und "welche änderungen soll ich probieren?", wobei du dann in bezug auf die letzere frage rückfragen, was du denn überhaupt machst, nicht beantwortest.

Wir unterscheiden uns von der Wissenschaft nur durch das legere Verhältnis zum vorbereitenden Literaturstudium.

du unterscheidest dich also von der wissenschaft durch dein verhältnis zum literaturstudium. was auch immer das bedeuten soll.

Hier habe ich nach Literatur gefragt

ach so, literaturstudium, nicht literaturstudium. :D

Wie arbeitet "ihr" denn so, normalerweise?

dieses "ihr", das musst du mir schon lassen, endet natürlich spätestens an der stelle, wo ich den kollegen @Thomasch darauf hingewiesen habe, dass die art und weise wie man/er "normalerweise" einen hall benutzt für dich (bzw. generell zum erfinden neuer methoden) irrelevant ist.

Sondern was liegt an IN, was liegt an OUT?

die frage erscheint mir auf allen ebenen völlig absurd, insbesondere fehlt mir wieder der kontext, da ich dir wohl zurecht unterstelle, dass du weißt, dass das signal, was am eingang anliegt, nicht vom algorithmus anhängig ist.

Das heißt, er kann die Stimme von links nach mitte-rechts verlegen, ohne dass er die Hallfahne ändert, mit dem Effekt, dass sich auch der Raum mitverkehrt. Der Raum wird sozusagen zerschlagen und seine Scherben auf die Klangquellen geklebt.

ich bin durchaus in der lage in metaphern zu denken und zu kommunizieren, aber in einer diskussion um technik oder physik macht es irgendwie keinen sinn. was wird zerschlagen?

schritt 1 ist sich festzulegen ob man die natur nachbilden oder ob man einen zufälligen spezialeffekt erfinden will. was davon willst du?

um die natur halbwegs nachzubilden - wenn faltung nicht in frage kommt - bietet sich das sog. echt-stereo reverb modell an, also eines mit 4 kanälen.

alternativ dazu machst du einfach mehrere parallele instanzen des gleichen halls auf, wenn du die reflektionszeiten an die panorama position des eingangssignals knüpfen willst. der algorithmus selbst hat dann einen panoramaregler, der automatisch auch die eingestellten zeiten für die ersten reflektionen mitverändert.

das ist eine uralte technik aber witzigerweise bei nur wenigen plug-ins zu finden - von hardware ganz zu schweigen. das gute alte Silverspike RoomMachine 844 dürfte noch zu bekommen sein, da kannst du das mal ausprobieren, das macht das zwar nur für eine art predelay, aber der effekt ist schon beachtlich.

sofern du das mit einem klassischen hall algorithmus der marke lexicon machst, kannst du dir auch einen hall mit 20 eingängen und 2 ausgängen basteln, bei dem nur die reflektionen auf die position reagieren, und die diffusion für alle gleich ist.

natürlich hört das ganze auf zu funktionieren, wenn die virtuelle schallquelle sehr breit ist.

Zumindest, wenn Musik nicht nur als Klang veröffentlicht werden soll, sondern auch in adäquater Quelltextform.

keine ahnung wo du jetzt wieder bist.
 
Zuletzt bearbeitet:
Und da fehlende spektrale Dämpfung der Inbegriff von Frequenzneutralität ist, da stört mich meine noch mangelnde Kompetenz

das kann man notfalls woanders abschreiben. ich habe meinen absorbtion filter einstmals auch irgendwo geklaut, für meine zwecke modifiziert und adaptiert.

im kern ist es ein lowpass mit 6db, der mit dem abgeschwächten originalsignal gemischt wird.

die wichtigste kompetenz ist ebensolche methodik anzuwenden. wenn ich was nicht weiß, wen frage ich? wie frage ich? oder bin ich eher der büchertyp? oder kaufe ich die konkurrenz auf und habe dann deren code?

die fachlichen details kann man alle klauen, leihen, kaufen, im zweifelsfall kann man das meiste davon googlen oder es kommt einfach von alleine mit der zeit.

und wie oben schon erwähnt sind die absorbtion der wand und die absorbtion der luft zwei unterschiedliche dinge. letzteres ist ein bischen mein steckenpferd und hat auch bei thomas schon für verwirrung gesorgt, und man braucht es hauptsächlich für gaaaanz große räume oder für freifeld modelle ("wald", "hochhäuser")
 
Zuletzt bearbeitet:
schritt 1 ist sich festzulegen ob man die natur nachbilden oder ob man einen zufälligen spezialeffekt erfinden will. was davon willst du?
Kurz: Ich "will" ersteres, muss aber einsehen, dass es vernünftiger wäre, erst mal letzteres zu tun, Zerschlagen von Illusionen, sich enttäuschen im positiven Sinne. Ich glaube, ich muss mich selbst davon überzeugen, dass meine Annahmen falsch sind. Und natürlich den von @swissdoc verlinkten Artikel lesen.

Danke für deine Ausführungen. Ich weiß jetzt, dass ich nichts weiß.

Aber auch unabhängig von Ambitionen, Nachhall selbst zu programmieren, interessiert mich die Wellenkunde zunehmend. Lese hierzu das Buch "Kleine Wellenkunde für Dilettanten", v. Gavin Pretor-Pinney, 2010. Schon der Titel weist darauf hin, dass das Buch hier einen sehr dankbaren Leser mitten aus der Zielgruppe gefunden hat.

In dem Buch geht es auch um Wellenbrechungen. Wellen brechen sich, wenn das eine Medium dichter oder weniger dicht als das andere ist. Ist nicht eigentlich der Schädel zwischen den Ohren ein sehr viel dichteres Medium als Luft (s.o. den erwähnten Knochenschall)? Eine Schallquelle, die ganz auf einer Seite verortet ist, müsste also Direktschall - Schall, der noch keine Raumgrenze berührt hat - via Wellenbrechungen ans Lee-Ohr schicken, weshalb die Verzögerung zwischen DS_Luv und DS_Lee vielleicht nur ein paar Dutzend Abtastungspunkte lang, und damit zu vernachlässigen insoweit die Leveldifferenz des Direktschalls zwischen Luv- und Lee-Ohr wichtiger wäre.
Aber auch diese meine Vermutung wird sich wohl als falsch erweisen. Denn Wissenschafter haben diese Dinge unter Garantie schon am Kunstkopf gemessen.
 
Zuletzt bearbeitet:
Danke für deine Ausführungen. Ich weiß jetzt, dass ich nichts weiß.

wobei ich absolut bei dir bin, dass man nicht alles so machen muss wie aus dem lehrbuch. denn dann wirds ja nichts neues. mache ich auch nicht.

die geometrie eines raumes mit allpassfiltern für erstreflektionen nachzubilden und damit herumzuspielen ist aber eine unerlässliche übung, um sich der materie anzunähern. denn von philosophie alleine kommst du nicht zu ausführbarem code, der macht, was du willst.
 


News

Zurück
Oben