Modularsignal wird zur VideoAnimation - Wie gehe ich da vor?

4

436ukawezkgwzä

Guest
Ich möchte mit meinem zukünftigen Modular auch visuelle signale entweder hervorbingen oder steuern.
(Weiss dass das kein neues konzept ist...)

Ideal: Musik und Visuals entstehen gleichzeitig und in wechselwirkung / Vernetzt oder interaktiv (Was für ein altes wort... ist wohl out...)

Ich hab überhaupt keine ahnung wie ich da vorgehn muss - wo ich da anfangen muss.
Es gibt doch bestimmt programme # früher gab´s mal MAX MSP oder Cicling 74 / JItter oder so... und Processing...
Ist das der weg? - Die frage ist dann wieder, wie ich in den rechner reinkomme, wenn ich nur CV/gate habe - Also CV to MIdi converter...!?

Für einen informations anstupser wäre ich sehr dankbar...

(Aber ich merk schon - beim schreiben vergeht mir schon die lust - ist mir alles zu kompliziert - ich brauche was unmittelbares!
Kann mich erinneren, das AtomicHeart oder so... "einfach" den Videoausgang seiner MPC 3000 auf leinwand projiziert hat - sowas find ich gut...)
 
Also...bei unserem Elektroprojekt arbeiten wir in letzer Zeit öfter mal mit zwei
Video/Bildkünstlern.
Die haben auch so kleine Kistchen mit Poties und Fadern und weiss ich was, sehen allesamt
aus wie irgendwelche Selbstbau-Synths...beim letzten Mal haben wir die CV-Ausgänge meiner
Akai Force mit den Videomodulen verbunden, und die Force hat also irgendwie die Bilder bearbeitet (mit Drumsignalen per Gate, oder tonal gespieltes per CV). Das lässt sich also alles prima verbinden, ich hab da nur keine Ahnung von^^

Eventuell kann @trbsnd was dazu sagen, wenn er mal hier rein schaut?
Das ist nämlich einer der beiden.
 
Mit modularer Video Hardware (gibt es bei schneidersladen)
wird es sehr schnell sehr teuer.

Ich mache meine Modularvideos zum Teil hiermit

damit kann man nachbearbeiten, aber auch Live Videos machen.
Ist kostengünstig und auch modular aufgebaut. Es gibt einige
Lernvideos in der Tube.
 
Mit modularer Video Hardware (gibt es bei schneidersladen)
wird es sehr schnell sehr teuer.
Kommt bekannt vor ;-)
Die module habe ich geshen - aber so wie ich da verstadnen habe manipulieren oder modulieren diese - Einen "Erzeuger" der quasi CV spricht habe ich nicht geshen/gefunden...
 
Ich mache meine Modularvideos zum Teil hiermit
Danke, aber das meine ich nicht - da es "nur" auf irgendwas reagiert...
Ich muss wieder um worte ringen, kann sein, dass ich mich wieder nicht genau genug ausdrücken kann - alles noch sehr wage für mich, sorry.
 
Ich mache ja momentan sehr viel in die Richtung (fast mehr Bild als Ton). Letztlich ist es so, dass das Bild auch sehr viel Beschäftigung fordert. Das ist dann Antrieb oder Neugierpotential, das einem beim Ton fehlt.

Zur Technik: Bild läuft sehr viel mehr als Ton auf der Computerebene. Trotz aller Interaktivität ist es viel Programmieren (meist Python) und läuft eigentlich fast nur im Rechner. Als Hardware-Devices ist Video etwa drei mal so teuer wie Audio.

Am direktesten ist noch Oszilloskop-Kunst. Auf Youtube gibt es Videos mit Ton (stereo). Wenn Du die linke und die rechte Tonspur in den X und Y- Kanal eines Scopes gibst, dann kommen die Figuren raus, die man auch im Video sieht.
 
...steevio & suzybee haben in irgendeinem ihrer Videos mal sehr detailliert erklärt wie man das in einem Modularsystem realisieren kann...
 
Danke für den hinweis - hatte ich garnicht mehr auf´m schirm...

Eine frage, die sich mir heute nacht aufdrängt und bestimmt sehr naiv ist: Warum wird "Audio" ab einer bestimmten frequenz nicht visuell sichtbar - wo doch alles schwinung sein soll!?
 
Ich bau mir einfach das Ding hier in mein Eurorack und häng da nen VCR an, dann hab ich was zum gucken beim patchen ... :D

 
Glaub am einfachsten geht das mit dem Critter&Guitari ETC. Den kann man per Midi oder Audio steuern, neue patches kann man entweder runterlanden oder per python programmieren.

ETC
 
Warum wird "Audio" ab einer bestimmten frequenz nicht visuell sichtbar - wo doch alles schwinung sein soll!?
Das ist sprachlich falsch. Richtig wäre Schwingungen können Frequenzen haben, die das Äquivalent zu Licht sind und somit sichtbar wären. Aber dann sind sie halt nicht mehr hörbar.

(An diversen Realitäten scheiternde) Theorie: ein pitchshifter, der Audio-Frequenzen auf Lichtfrequenzen transponiert.

Theoretisch denkbare Methode: ein Analyse/Synthese System in Anlehnung an einen Vocoders, wo aber das aus Audio gewonnene Spektrums-Signal das Farbspektrum einer Lichtquelle steuert (in nicht-Echtzeit gibt es das ja schon in diversen Plugins zur Darstellung von frequenzselektiver Audiobearbeitung).
Das könnte auch umgekehrt gehen: Bildanalyse prüft die Intensität diverser Farbtöne und gewinnt daraus Steuersignal für Audiofrequenzspektren (also ein Vocoder, der als Modulator einen Video nutzt).
Ich könnte mir sogar vorstellen, dass sowas wie ein Envelope-Follower auch für Video-Signal möglich sein müsste. Dann könnte man mit einer Kamera Sounds steuern.



Zur gerade erwähnten ETC: klar gut (mein Hderzeitiges Hauptspielzeug), aber das ist "nur" Musik->Video. Nicht umgekehrt.
 
Zuletzt bearbeitet:
Glaub am einfachsten geht das mit dem Critter&Guitari ETC. Den kann man per Midi oder Audio steuern, neue patches kann man entweder runterlanden oder per python programmieren.

ETC

ist halt aber auch "nur so" etwas limitiert im Output. Da erwarten viele halt schon wegen der Assoziation zu "VJing" halt mehr...

Find das Gerät aber auch nice, hab leider aktuell keinen Platz für nen zweiten TV/Bildschirm (am liebsten hätte ich nämlich wenn schon dann nen alten CRT-Monitor für maximale Retro-ness! ^^ )sonst würde ich da mal experimentieren :D


falls "für mit ohne Hardware" interessant ist - und eigentlich auch eher basic, aber in Reaper 5+ gibt es neuerdings ja auch verstärkte Video Tools u.a. inkl. einem "Analyser/Visualizer"... natürlich gerendet besser als Echtzeit, aber dafür mehr oder minder kostenlos:
 
Zuletzt bearbeitet:
Gibt wohl tausend und einen Lösungsweg. Mein grundlegender Ansatz wäre wohl ein CV->Midi-Interface, z.B. ein Doepfer A-192-2. Damit geht's dann unweigerlich weiter in einen Computer, der die ganze Geschichte in Bilder verwandelt. Sobald die Signale erst mal in digitaler Form vorliegen, ist es nur noch eine Frage der Software. Ich würde mir, aus lauter Spaß an der Freude, da selber was programmieren (kurzes googlen brachte mich zu processing.org + themidibus), aber es gibt sicherlich auch fertige Plugins, die Midi in Bildmaterial umwandeln können.
 
Das könnte auch umgekehrt gehen: Bildanalyse prüft die Intensität diverser Farbtöne und gewinnt daraus Steuersignal für Audiofrequenzspektren (also ein Vocoder, der als Modulator einen Video nutzt).
Siehe "Processing" : Dort kann man bestimmte farben best. funktionen zuordnen...
Das gibt es ja: Softwäre die aus einem photoshop-pic audio generiert... ist natürlich auch wieder nur metaphorisch...

Ich denke dass alle komonenten da und entwickelt sind! (Grafik die ich anfassen kann, beeinflusst audio usw.)

Es gibt unter esoterikern die methode der "Oktavierung": planeten-umlaufbahnen (optisch) werden solange gepitched bis sie hörbar werden... Allerdings bezweifle ich, dass das dann noch eine umlaufbahn ist - Es wird zwar nicht das verhältnis verändert...

Schwierig...
 
Schwingungen können Frequenzen haben, die das Äquivalent zu Licht sind und somit sichtbar wären. Aber dann sind sie halt nicht mehr hörbar.
Das ist mir egal, wenn sie denn sichbar wären und ich die in ein taschenlampe tun könnte z.b. ;-)

Die Frequenzen sollten sich mal ein beispiel nehmen am "Wasser": Das gibt es in allen aggregatzuständen: Fest, flüssig, gasförmig - aslo unsichtbar! Aber das ist ein anderes thema ;-)
 
Ok. Wobei "Bild" alles visuelle ist (Animation/film/video blahblah...

Ps: Ich bitte um entschuldigung für meine vielen tipp und rechtschreib-fehler - shit...
 
Wobei "Bild" alles visuelle ist
Richtig

Die Frequenzen sollten sich mal ein beispiel nehmen am "Wasser"
Ist garnicht so weit weg. Auch Temperatur von Materie kann als Molekular-Frequenz beschrieben werden.

K. H. Stockhausen war ja auch recht begeistert davon, dass man eigentlich alle physikalisch erfassbaren Sachverhalte als Frequenz, sprich als Sachverhalt in Relation zu Zeit darstellen kann - das war zwar schon früher in der Wissenschaft etablier, drang aber zu seiner Zeit gerade ins Allgemeinwissen ein.
 
Fand das hier "nett". Falls es nicht zum Thema passt, einfach ignorieren.



Ryoji Ikeda - data multiplex - 2005
 
Ich bin gerade auf diesen hochinteressanten Thread gestoßen. Ein paar Gedanken dazu von mir:

a) Es gibt (mindestens) eine Firma, die baut Videosynthesizer-Eurorackmodule, deren CV-Modulationseingänge problemlos mit Audio-Modulen zusammenarbeiten dürften:

https://lzxindustries.net/

b) Für den Mac gibt's ein super Programm, das die analogen Old-School-Videosynthesizer (à la EMS Spectron, Chromascope) emuliert:

http://lumen-app.com/

c) Ich habe früher ein bisschen mit Isadora von Troikatronix experimentiert - da klappt das Reagieren von Visuals auf Audio über den Soundkarteneingang ganz wunderbar. Allerdings ist die Software modular ausgelegt und man muss sich seine Visuals, Effekte oder Verfremdungen vom Videoeingang selbst zusammenfriemeln:

https://troikatronix.com/

d) Und abschließend noch ein nettes Filmchen, das es immer noch auf YouTube gibt:

 


Neueste Beiträge

News

Zurück
Oben