Nachhall, selbstprogrammiert: Bitte um Feedback

einseinsnull
einseinsnull
[nur noch musik]
den von vor monaten meinte ich, was sonst.

Mit Diffusion werden also Zufallsdaten erzeugt, die im Durchschitt dem Ohr glauben machen, es hätte es mit unvorhersehbaren, natürlichen, analogen Signalen zu tun. Kurz: Diffusion und "ehrliche Modellierung", ist das nicht ein Widerspruch?

nein das ist kein widerspruch, das verfahren ist eine abkürzung, die dich mit eine hallfahne beglücken kann, die halbwegs klingt.

leider war ich erheblich ungenau und muss erst einmal etwas korrigieren: gemeint hatte ich eigentlich den sustain genannten teil des modells und nicht die diffusion.

wenn man das ganze unter der überschrift "modellierung" betrachtet ist es in der tat eine art von zufallisierung. aber darum ging es mir nicht, es geht einfach nur darum, dass es vor allem zu quantifizierung führt, denn der sustain besteht aus feedback loops, mit deren hilfe du hundertausende von pseudo-echos bekommst, ohne sie einzeln berechnen zu müssen.

und es ist deswegen vollkommen legitim, einfach alle reflektionen nach ihrer order "irgendwie zusammenzumatschen und das dann zu loopen" weil ja ein viereckiger raum im real life auch nicht den ästhetisch idealen sound für eine sopranstimme produziert - sondern eher der 37-eckige.

"hallfahne" darf daher abstrakt bzw. frei erfunden sein. :)


klar, ich dachte mir wenn ich mich hier schon als dein lehrer aufspiele dann schulde ich dir auch das feedback darüber, dass du jetzt dein ziel erreicht hast.
 
Zuletzt bearbeitet:
Neusiker
Neusiker
Tschingderassabummschepper
Letztens an meinem Schubert'schen Wasserstück weitergearbeitet, sprich, verhallt, die Hallfahne ist an meinen Vermutungen über die Akustik einer Kirche orientiert:


play: https://neusik.de/2021-06-12/echterer-hall/fs_auf-dem-wasser-zu-singen.ogg

Die Verteilung der virtuellen Stimmen im Panorama ist jetzt im Hall allein mit frequenzunabhängigen Phasenunterschieden gelöst. Dazu habe ich mein Programm die Stimmen getrennt generieren lassen, die Audiodateien getrennt verhallt und in Audacity wieder zusammengemixt (Halleffekt muss ich noch im Hauptprogramm integrieren, daher so umständlich).

Getestet mit meinen Yamaha-Monitoren (quatsch, normale unkalibrierte Boxen an der Stereoanlage), mit Kopfhörern, sowie mit Creative T20 Aktivlautsprechern, drapiert links und rechts am Kopfende meines Bettes. Allein über letzteren kommt das Xylophon nicht eindeutig von links, sondern eher von der Mitte bis rechts. Kann es daran liegen, dass das Boxenpaar Master/Slave-verschaltet ist? Die linke kriegt ihr Signal von der rechten, via Kabel. Aber dagegen spricht, dass mir Laufzeitstörungen sonst nicht auffallen.
 
einseinsnull
einseinsnull
[nur noch musik]
du musst natürlich deine ohren dann auch master/slave verschalten, dann passt das.
 
 


Neueste Beiträge

News

Oben