Sound visualisieren?

Ich würde sowas in vvvv machen (vvvv.org). Ist erst mal kompliziert und hat ne steile Lernkurve, dafür geht damit alles und ich meine wirklich alles. Muss man aber anfangs sehr viel Zeit rein investieren. Für private bzw. nicht kommerzielle Zwecke übrigens kostenlos. Habe damit auch beruflich einige komplexe Projekte realisiert.
 
ach sowas simples. das geht doch bestimmt auch mit VST plugins. Ich erinnere mich von damals das bei NI reaktor sowas ähnliches bei war. Was das neuste jetzt so Reaktor, weiss ich allerdings nicht. aber frag den dochmal wie das gemacht wurd vielleicht bekommst antwort. würde ich machen ;-)

Reaktor war auch meine erste Anlaufstelle. Da gibt's schon Sachen, aber nichts annähernd Hübsches.
 
Critter & Guitari hat einen Video Synthesizer entwickelt der auf Quelloffener Firmware läuft: https://www.critterandguitari.com/eyesy

Aber generell kann man einfach unter dem Namen "Video Synthesizer" einiges finden was auch vielleicht etwas billiger ist.

Edit: Falscher link, jetzt korrekt
Edit 2: Das ist faszinierend:
 
Zuletzt bearbeitet:
ich würde auch noch touchdesigner ins spiel bringen… dass in diese video das der threadersteller gepostet hat, nicht auf klangereignisse reagiert wird, sondern diese angekündigt werden, sehe ich auch nicht so… möchte aber zu bedenken geben, dass der effekt der “ankündigung“ auch dadurch erreicht werden kann, indem ich das video ein paar millisekunden vor die soundspur lege…
 
das geht (aus gruenden der kausalitaet) nur 'offline' bzw. nachtraeglich. oder eben wie hier dadurch, dass die musikerzeugung
und "visualisierung" zusammenhaengen. so wie hier wohl eine (2d)physiksimulation, wo dann bestimmte ereignisse sounds ausloesen.
mit unity gemacht?

in echttzeit hat man wohl am einfachsten einen fx-menschen mit videomixer, dem man dann zuzwinkern kann, wenn gleich
der hoehepunkt des noise-solos kommt, so dass der auch rechtzeitig die pyrotechnik zuenden kann.

in der (edm)praxis wirds wohl eher ein playback mit timecode sein.
 
Vielleicht liegt es einfach daran, dass Licht schneller als Schall ist...
Es ist ganz einfach: die Video-Animation liegt als Datei auf dem Speichermedium vor. Die Video-Software weiß also, was kommt und kann sich "vorbereiten"; wenn da bisschen Mustererkennung integriert ist, dann geht da relativ viel. Bei Echtzeit-Animation anhand von Live produziertem Audiomaterial über einen Audioeingang am Video-Synthesizer fällt diese Vorschaumöglichkeit weg.
 
Critter & Guitari hat einen Video Synthesizer entwickelt der auf Quelloffener Firmware läuft: https://www.critterandguitari.com/eyesy

Aber generell kann man einfach unter dem Namen "Video Synthesizer" einiges finden was auch vielleicht etwas billiger ist.

Edit: Falscher link, jetzt korrekt
Edit 2: Das ist faszinierend:


Von noisio.de wird wohl auch sowas ähnliches als Bausatz kommen:
 
Ich würde sowas in vvvv machen (vvvv.org). Ist erst mal kompliziert und hat ne steile Lernkurve, dafür geht damit alles und ich meine wirklich alles. Muss man aber anfangs sehr viel Zeit rein investieren. Für private bzw. nicht kommerzielle Zwecke übrigens kostenlos. Habe damit auch beruflich einige komplexe Projekte realisiert.
Scheint nur auf Windows bzw. .NET zu laufen, oder? Das schränkt es leider schon sehr ein für mich. Aber ein cooler Ansatz.
 
Gibt es noch andere Beispiele ? Das sieht mir eher aus wie etwas speziell so programmiertes, dass Video gemeinsam mit Audio generiert wird.
Bzw. ist das ein Beispiel, wo auch die Musik so angelegt ist, dass es funktioniert.

edit: ich will sagen, dass es so aussieht, als wären die Pendel berechnet und als würde immer dann ein Ton ausgelöst werden, wenn das Pendel an der richtigen Stelle ist.
Da ist ja auch kein festes Tempo, könnte also durchaus so sein.

Ich sehe aber schon auch Möglichkeiten, wie man das machen könnte.
Man könnte z.b. das mit den Pendeln so lösen, dass die Töne auf verschiedenen Spuren laufen und zeitlich abgestimmt sind mit temposynchronen LFOs, die wiederum die Pendel steuern. Also so, dass der Pendelvorgang mit den Notenlängen irgendwie gesynct ist.
After Effects sollte dafür die Möglichkeiten bieten, gerade auch mit so geometrischen Figuren.
In FL Studio kann man mit dem integrierten Visualizer ähnlich weit kommen.
Dort lassen sich auch Envelopes, LFOs und alle möglichen Automationen sowohl für Musik als aich für Visualisierung nutzen.

Also z.B. könnte man eine Tonfolge manuell oder auch automatisiert in eine Automationskurve umwandeln, aus der man dann eine solche Pendelbewegung oder was auch immer generieren lässt.

Oder für After Effects oder auch in einem 3D Programm wäre es so, man hat eine Animation und zieht manuell die Keyframes auf den jeweils nächsten Ton, so dass beim Tonwechsel immer ein bestimmter Punkt in der Animation erreicht wird.
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: oli
Sofern es nicht live sein muss: Für "vorausschauende" Effekte könnte man auch das Musikstück rückwärts abspielen und animieren lassen, diese Kombination aus Bild und Ton zeichnet man auf und dreht sie am Ende wieder um, so dass die Musik vorwärts spielt.
 
diese Kombination aus Bild und Ton zeichnet man auf und dreht sie am Ende wieder um, so dass die Musik vorwärts spielt.

…hast Du das tatsächlich mal versucht? - wie war das Ergebnis?…

…es ist auf jeden Fall eine witzige Idee - vielleicht versuche ich sowas in den kommenden Tagen (eher Wochen) tatsächlich mal…
 
Gibt es eventuell Neuigkeiten zu dem Thema?


sonst möchte ich noch Kaiber.ai empfehlen..

Sieht interessant aus. Leider muss man aber für jedes rendering zahlen, ob man zufrieden ist oder nicht. Bisher habe ich nur Demos gesehen, die er ruhig sind. Kann kaiber.ai auch Augenschmerzen für Techno Tracks erzeugen, also ein wildes hin und her, mit Strobo-Effekten z.B.? Ein Vorteil für mich wäre, dass ich nicht wirklich in die Materie einsteigen muss, da ich Musik machen möchte und nicht abschweifen will.

@verstaerker Bevor ich mich bei Kaiber anmelde. Kann man da auch mit Paypal zahlen, oder nur Kreditkarte? Ich habe keine Kreditkarte und will auch keine. :cool:
 
Zuletzt bearbeitet:
Gibt es eventuell Neuigkeiten zu dem Thema?




Sieht interessant aus. Leider muss man aber für jedes rendering zahlen, ob man zufrieden ist oder nicht. Bisher habe ich nur Demos gesehen, die er ruhig sind. Kann kaiber.ai auch Augenschmerzen für Techno Tracks erzeugen, also ein wildes hin und her, mit Strobo-Effekten z.B.? Ein Vorteil für mich wäre, dass ich nicht wirklich in die Materie einsteigen muss, da ich Musik machen möchte und nicht abschweifen will.

@verstaerker Bevor ich mich bei Kaiber anmelde. Kann man da auch mit Paypal zahlen, oder nur Kreditkarte? Ich habe keine Kreditkarte und will auch keine. :cool:
klar das kann viel schneller und wilder

zu deiner Bezahlfrage kann ich dir nicht helfen… wie man heutzutage ohne Kreditkarte hinkommt weiß ich nicht
 
Kennt jemand Tools, Effekte, Synths oder Plug-ins, mit denen sich Sound visualisieren lässt? Und zwar so, dass die Elemente des Videos “auf den Sound hin arbeiten”.

Schwer mit Worten zu erklären, daher hier Video ein als Beispiel:



Die Optik “reagiert” nicht einfach auf Töne oder Frequenzen wie die meisten Visualiser, sondern kündigt sie an.

Ich habe schon alle möglichen NI Reaktor-Ensembles durchsucht und konnte paar Sachen finden, aber nichts, was annähernd hübsch aussieht. Freue mich daher über jeden Tipp & Hinweis.


Hi, wir haben diese Videos von Lucid Rhythms auch hier ein wenig besprochen in diesem Thread.
Bisher konnte ich noch nicht sicher herausbekommen, wie diese gemacht worden sind.


Aber Project JDM macht Videos, die nach ähnlichen Prinzipien funktionieren.
Nach seiner Aussage in einem Kommentar nutzt Project JDM die Software Matlab. Die wird wohl in erster Linie im universitären Mathe-/Physik-Kontext genutzt.

 
Es gibt auch sehr einfache Dinge, wo Bildelemente als eine Art Presets reagieren - zB Imaginando VS oder sowas. Das ist alles simpler und einfacher aber ohne Abos. Gibts als App und als normale Software. Und nach oben dann natürlich die bekannten Tools, die aber meist eine live-Bedienung "gebrauchen" könnten.
 
Ich habe kaiber.ai getestet, der Output ist wirklich cool. Auch Imaginando VS sieht sehr gut aus und ist mit 29€ überschaubar. Wenn man beides kombiniert, kann da brauchbares Material entstehen. Mir ist wichtig, dass ich nicht in ein neues Thema abschweife, da ich Musik machen möchte und keine Videobearbeitung. Da scheinen mir die beiden Tools für meine Zwecke geeignet. Nur das Abo bei Kaiber ist lästig, da ich bestimmt nicht jeden Monat etwas machen werde. Mal schauen, was aus dem Thema wird. :)
 
es gibt natürlich auch krassere Sachen wie Modul8, Arkaos, Resolume (das finde ich sehr gut und ist auch recht gut zu bedienen)
Das kostet alles was, da gehst du dann in den Pro Bereich - aber die sind alle cool. Das ist das was die Leute nutzen die damit wirklich arbeiten.
 
Gibts eigentlich diesbezüglich was interessantes ausserhalb von Rechnern ?
Ne Hardware, wo man seine Audiomasterspur rein routet und dann optische Presets darauf reagieren ?
Würde irgendwie inspirierend sein beim rumschrauben.
 


News

Zurück
Oben