Sound visualisieren?

Kennt jemand Tools, Effekte, Synths oder Plug-ins, mit denen sich Sound visualisieren lässt? Und zwar so, dass die Elemente des Videos “auf den Sound hin arbeiten”.

Schwer mit Worten zu erklären, daher hier Video ein als Beispiel:



Die Optik “reagiert” nicht einfach auf Töne oder Frequenzen wie die meisten Visualiser, sondern kündigt sie an.

Ich habe schon alle möglichen NI Reaktor-Ensembles durchsucht und konnte paar Sachen finden, aber nichts, was annähernd hübsch aussieht. Freue mich daher über jeden Tipp & Hinweis.
 
ich sehe kein Video. Extra den Adblocker abgeschaltet, und immer noch kein Video. :dunno:
 
Das macht wohl sowas, da gab es ja letztens Alles im Sale. Konnte ich bloß noch nicht selber ausprobieren, weil es Windows 10 vorraussetzt, ist bei mir also erst was für den nächsten Rechner.


Das Teil scheint mir auch eher auf Sound zu "reagieren". Ich vermute, am Ende müsste es ein Synth sein, der aber auch Visuals kann, sonst kann sich die Optik ja nie nach den Modulationen "richten".
 
mit denen sich Sound visualisieren lässt?

…äh? - ich verstehe das Beispiel nicht…

…es gibt bspw. für Oszilloskope tolle Software, mit denen sich tatsächlich eine graphische Darstellung aus sound generieren läßt - hier habe ich für den Geburtstag von scanlines.xyz ein Video-Experiment gemacht: der Schriftzug wird komplett auf einem (echten, alten) Oszilloskope dragestellt und animiert




…man könnte damit auch abstrakte Graphiken u.ä. machen und z.B. direkt aus einem Eurorack-Modular bspw. geometrische Graphiken ausgeben lassen…

…aber: ich kriege die Brücke zu Deinem Beispiel nicht hin, deshalb bin ich wahrscheinlich in der falschen Richtung unterwegs…
 
Ist ein Tiktok Post.
Dann scheint mein Browser ja einen guten Geschmack zu haben, wenn er Tiktok per default ausblendet. :mrgreen:

Das Teil scheint mir auch eher auf Sound zu "reagieren".
Wenn man will, dass eine automatische Visualisierung "auf Ereignisse hin" arbeitet, muss sie entweder offline (sprich: mit vorheriger Analyse des gesamten Materials) oder mit ausreichend "lookahead" arbeiten. Echtzeit wäre nur mit Heuristiken a la "alle 8 oder 16 Takte kommt vermutlich ein Break/Höhepunkt" und/oder Machine Learning (KI) zu arbeiten.
 
Zuletzt bearbeitet:
Dann scheint mein Browser ja einen guten Geschmack zu haben, wenn er Tiktok per default ausblendet. :mrgreen:


Wenn man will, dass eine automatische Visualisierung "auf Ereignisse hin" arbeitet, muss sie entweder offline (sprich: mit vorherigen Analyse des gesamten Materiels) oder mit ausreichend "lookahead" arbeiten. Echtzeit wäre nur mit Heuristiken a la "alle 8 oder 16 Takte kommt vermutlich ein Break/Höhepunkt" und/oder Machine Learning (KI) arbeiten.

Ja, genau, es müsste den Sound vorher analysieren oder die Grafiken beim Erzeugen des Sounds gleich mit erzeugen. Solche Tools suche ich.
 
…und

 
musst du wohl mit Handarbeit machen und nicht in einer DAW sondern mit nem Video Schnittprogramm. Das kann schonmal viel arbeit machen, besonders in der Lernkurve. Da gibt's einige Plugins für gängige Videoprogramme (adobe, sony vegas ect.) von BorisFX, RedGiant u.s.w, damit kann man schon ganz coole sachen mit machen. irgendsowas was automatisch auf die Musik reagiert z.b. pump effekte auf die Bassdrum o.ä. wie die Video Player vom Schlage Winamp das auf billige weise können, habe ich der Kollektion der oben genannten Video Plugins aber leider noch nicht gefunden. War ich selbst schon auf die Suche nach. Es lief dann leider immer alles darauf hinaus das man selbst hand anlegen muss.
 
Ich hab diese Plugins. Kannst mir ja mal einen Beispiel geben anhand zwei oder drei kurze Video Clips und beschreib wie das aussehen soll. ich guck dann nach was ich an VFX in der liste finde und füg das dann zusammen. kein Ding ;-)
 
…und


Das sind alles Visualiser im klassischen Sinne... sie "reagieren" auf den Sound. Gute Selektion an Software, aber nicht das, was ich suche
 
auf dem handy konnte ich das vorhin abspielen... ich hab da aber nichts erkannt was wirklich im voraus etwas gemacht hat. Das wäre ja auch merkwürdig für Zuschauer. Die Plings und Plongs saßen doch zeitlich genau auf dem Soundereignis.

Viele professionellere Visualizer können auf Midi reagieren.. vielleicht meinst du das.

Ich erinner mich auch an uralte iPhone Apps dann konnte man mit solchen Spiralendingern Sound machen .. sprich mit physikalischen Parametern spielen die die Kugeln dann in Bewegung gesetzt haben.. bei jeder Kollision gab es dann ein Soundevent...

mir war das immer zu generisch und ambientös .. aber vielleicht kannst du in der Richtung mal forschen
 
Zuletzt bearbeitet:
sonst möchte ich noch Kaiber.ai empfehlen.. das ist zwar nicht Echtzeit aber es lassen sich tolle Sachen damit machen .. noch sind sie nicht ausgelutscht

so in dieser Art


 
sonst möchte ich noch Kaiber.ai empfehlen.. das ist zwar nicht Echtzeit aber es lassen sich tolle Sachen damit machen .. noch sind sie nicht ausgelutscht

so in dieser Art




Definitiv geil! Aber jo, das sind dann 120€ im Jahr für eine limitierte Zahl an Credits und jede Menge Zeit kostet's auch noch. Das dürfte den Effekt leider wieder relativieren.
 
…ja, es gibt da nochwas - habe ich mal für die ambioSonics-Sessions eingesetzt - relativ günstig - aber wie hieß das Dingens noch?? - mal nacher nachsehen…
 
wie hieß das Dingens noch?


...Eyephedrine - das war es - damit hoffe ich mal getroffen zu haben...sonst kapier ich es wohl echt nicht...


...möglicherweise interessant - allerdings deutlich mehr Bastelei - ist Magic:

 
Vermutlich ist das ein eigenes Programm/App? Erinnert mich an Bloom oder Trope für IOS, aber eben anders.
 


News

Zurück
Oben