Modulare Video Synthesizer - das Licht oder die dunkle Seite?

bin sehr an Videos interessiert, habe oft diese Hardware Sachen angesehen,
aber ich bin da nicht drauf angesprungen. Teuer, oft kein HDMI und selber
löten mache ich eh nicht bei meinem chronischen Zeitmangel.

Auch die Software braucht Zeit und es ist im "Selbststudium" nicht
immer alles so schnell da wie es soll - und nach einem halben Jahr
fängt es wieder von vorne an.

Habe es inzwischen geschafft mit vMix live Kameras in Magic als
Quelle einzubinden - im Magix dann live-bearbeiten und dann als Ausgang
wieder ins Vmix. Alles Software, und das ist schon nicht leicht.

zu wenig Zeit und mein letztes Werk setzt schon spinnweben an
weil nix nachkommt - weil immer wieder was neues ausprobiert wird.
hier the last video - nicht live - sondern mühevoll nachbearbeitet:


https://youtu.be/fs4xM1cp4Cs
 
ich denke das sollte hier nicht fehlen: Touchdesigner (https://derivative.ca/)

ist quasi sowas wie max/msp für video würde ich sagen. extrem komplex. habe erst,ein bisschen reingeschnuppert… nutze auch magic bis jetzt. touchdesigner ist in abgespeckter version gratis, gibt dann unterschiedliche kaufmodelle…
 
ist das Synthese oder Modellierung?
Wo ist der Unterschied? Hab ich doch oben geschrieben: es geht darum aus dem Nichts ein Bild zu erzeugen - im Gegensatz zum Verarbeiten von vorhandenen Bildern. Ob das Erzeugen jetzt über analoge Schaltkreise oder in einem Rechner geschieht (wo Synthese halt "Modelling" heißt), ist mir egal so lange das Ergebnis mich überzeugt. Und da finde ich persönlich die im Rechner erzeugten Sachen zigfach interessanter. Gerade sowas wie die Pixelwolke bei AOKI finde ich grandios - und genau sowas ist analog definitiv nicht machbar.
 

...davon habe ich jetzt schon echt oft gelesen - wird von vielen Leuten empfohlen und wohl auch genutzt...ich habe damit bisher noch Null Erfahrung und wollte - vor allem wegen seiner ausgeprägten live-Fähigkeiten - Resolume richtig 'lernen'...

...gerade das Einbinden von Kameras und deren Verfremdung durch eine Kette wie zum Beispiel

Kamera -> Resolume -> analoges gear -> Resolume -> Ausgang

sind supereinfach und sehr-sehr effektiv und flexibel...
 
und genau sowas ist analog definitiv nicht machbar

...dass ich sowas (noch) nicht kann heißt nicht, dass das mit einem Hardware-System nicht geht - was ich so in dem Bereich sehe gibt es wohl durchaus Leute (mit entsprechend ausgestatteten Systemen) die sowas machen könnten...

...wenn ich über etwas stolpere verlinke ich es hier natürlich...
 
richtig spannend wirds ja dann, wenn sich Stable Diffusion-Modelle in Echtzeit steuern/generieren lassen. (Oder zumindest offline zu Videos verwursten lassen, ohne dass man jedes Einzelbild sekundenland rendern muss) Aber bis dahin werden performancebedingt wohl noch ein paar Jährchen ins Land gehen. 🤔
 
habe vor 1000 jahren mal so etwas programmiert, als es sonst noch niemand gemacht hat.

ist aber auch direkt frames oder GL, und nicht bloß steuerspannungen, das ergibt am rechner nicht so viel sinn.

die 100 modularen videodinger werden dann von meinen 350 sequencermodulen getriggert, gemischt und moduliert, damit könnte ich bis ans ende meiner tage jeden tag was neues basteln.

http://laut8leise.de/backup_89ee/_modular/pixtures.png


heute ist "modular" bei software der normalfall und es gibt fast mehr solcher systeme als herkömmliche schnittprogramme. touchdesigner hat schon lange die welt der bildermacher erobert.

das letzte mal an analoger videohardware gesessen bin ich 1989 beim landesfilmdienst. damals hieß ADAT noch VHS :D
 
Zuletzt bearbeitet:
...aber: da geht es eher nicht um die Anwendung in 'Echtzeit' im Sinne von 'kreativem Gestalten von visuals als Teil einer Event-Performance', sondern um mehr oder weniger geplante Umsetzungen 'im Hinterstübchen' ohne den live-Faktor?...

...Blender hat mich mit seinem Funktionsumfang (Detailverliebtheit?) umgehauen und eher abgeschreckt - bevor da bei mir was ansehbares rauskommt habe ich die Geduld verloren...
richtig.. es ist kein Fokus dieser Programme in einer echtzeit performance ausgeführt zu werden. Machbar ist es aber schon und ja, da arbeitet man sich nicht mal eben ins enigen Tagen ein
 
Vielleicht sollte man hier noch proce55ing und vvvv in den Raum werfen.
Sind halt eher Programmierumgebungen, die auch Echtzeitvisuals können.

Für Android u a gibts auch noch Pixilang.



 

@fairplay schau Dir das vielleicht mal an, und zwar das Pixiscope


Pixiscope sind Skripte für Pixilang, mit denen man u.a. ein Bild oder Video in Sound unwandeln kann, und das ansonsten einfach ein xy Oszilloskop ist.

Der Sound kann dann wieder zum Bild werden, X ist rechter Kanal und Y linker.

Ich glaube daß man mit der Kombination mit solchen Sachen, also zB Soundfiles und MIDI die den Videosynth steuern und per Pixilang gerechnet wurden einiges interessantes machen kann.

Ich schreck ein bisschen davor zurück mich in Pixilang einzuarbeiten, es scheint aber von der Grubdstruktur einfach. Da es auf Android keine Alternative gibt werd ichs wohl tun.
Anhang anzeigen pixel_gfx_anim.wav
 
Zuletzt bearbeitet von einem Moderator:
...und SC3 natürlich.

wobei nichts davon in wenigen wochen zu lernen wäre.

bei touchdesigner bedarfs es zwar auch dem ein oder anderen fachbegriff und ein bischen verständis für bildbearbeitung, aber es ist natürlich weit davon entfernt eine programmiersprache zu sein.


analog würde mir persönlich zu wenig möglichkeiten bieten. man will doch schon mal mindestens so etwas wie die luminanz einstellen oder an einer stelle mit masken arbeiten können. das ist mit analogen effekten entweder unmöglich oder wird irrsinnig teuer. +
oder es handelt sich um geräte, die innen drin dann doch digital sind, so wie das ja bei vielen musik modulen auch der fall ist. dann kannste auch gleich einen PC nehmen.

ein macmini M1 und ein kleiner midicontroller passen jedenfalls prima in ein eurorack, wenn ich mal ausnahmsweise mal direktiv sein darf.
 
man will doch schon mal mindestens so etwas wie die luminanz einstellen
Das ist jetzt n schlechtes Beispiel und analog nicht so das Problem..

Ich glaub sogar daß man die von @fanwander gepostet Partikelwolke ersatzweise hin kriegt. Aber frag mich nicht wie genau, und vielleicht täusche ich mich.
 
Das ist jetzt n schlechtes Beispiel und analog nicht so das Problem..

klar, für 300 euro mehr kann man das bestimmt auch irgendwie bauen. bis man dann relative luminanz braucht und man den farbraum von sender und display nicht kennt oder so.

gibt es solche geräte irgendwo? (beim rundfunk sicherlich) ich kenne nur mischer mit pegel.
 
Zuletzt bearbeitet:
…ok, ich glaube ich habe schon etwas das genau in die Richtung geht - rein analog:
Aus der Video-Beschreibung:
"We used the LZX Visual Cortex, Navigator and Shapechanger to generate and manipulate scanline images that are displayed on a Vectrex monitor."
Wenn ich die Beschreibung richtig verstehen, dann ist das letztlich (per LZX-Modulen erzeugte) Scope-Grafik von einem CRT-Monitor abgefilmt. Optisch (wie alle Scope-Grafiken) sehr wirkungsvoll.
 
displayed on a Vectrex monitor.
Diese Vectrex-Teile waren Spiele-Konsolen mit Vektor-Monitoren, also letztlich Bildschirmen nach dem Oszilloskop-Prinzip. Das ist kein Video-Signal mit Zeilen-Sprung. (Womit wir wieder bei meiner Aussagen in #6 wären: "Aus meiner Sicht die für uns Musiker interessantesten Ergebnisse an Realtimesynthese sind immer noch die aus der Scopemusic kommenden Sachen wie von Bernd Rasinger oder Robert Henke".)
 
Zuletzt bearbeitet:


Neueste Beiträge

Zurück
Oben