Modulare Video Synthesizer - das Licht oder die dunkle Seite?

...der Original-Vectrex steht ja nur nicht auf der Liste weil der schon auf dem Weg zu mir ist...

...hier ist übrigens der zarte Start der Pixelwolke - ausbaubar, aber immerhin schon 2007 realisiert:


https://youtu.be/s1eNjUgaB-g?t=90

Mir scheint allerdings dass das teilweise auch Zeilensprung gezeichnet wird, man kann das auf dem Oszi ja mischen, zB abwechselnd einen Frame zeichnen und dann ein xy Vektording, oder auch schnell per Random oder Oszillator zwischen beidem wechseln etc
 
der user @shivahoj hat einen radiator laser synth


Hatte das Teil vor einiger Zeit ein paar Tage hier, wenn ich mehr Zeit hätte, dann könnte ich mich für sowas auch noch mehr begeistern, hoffe ich kann ihn mir irgendwann nochmal leihen.

Das Teil lässt sich cv-steuern!

Muss auch nicht unbedingt n Laser ran, glaube das Teil hat ne VGA oder DVI Schnittstelle.
 
... @Marf - sowas meintest Du, oder?!...
Hallo aus dem Urlaub… erst mal möchte ich mal Stil vom Mittel trennen.
Zum Stil: Ja, mir sagt reduzierte Grafik und Animation wesentlich mehr zu. Eine fundiertes Konzept stringent durchgezogen. Wie man nun den Klang, Rhythmus und Spannungsbögen visualisiert ist ein eigenes und komplexes Thema, wenn es für den Betrachter zumindest nachvollziehbar, besser noch das Gehörte visuell unterstützen und intensivieren soll. Da mag der Musiker auch ganz andere Bilder zu seinen Klängen im Kopf haben und das sollte - denke ich - sich zumindest im Grundsatz decken.
Zu den Mitteln: Hier wären mir die verwendete Hardware oder Software erst mal egal. Alles hat seine Vor- und Nachteile. Ist m.E. das Gleiche wie mit Musik Gear. Hardware ist unmittelbar, direkt bedienbar, inspiriert, limitiert und fördert damit die Kreativität (bei mir zumindest) und macht live natürlich vieeel mehr her. Software kann schnell beliebig werden, wenn jemand wie ich als ungeschulter Autodidakt damit startet. Schnell verzettle ich mich da in den schier endlosen Möglichkeiten, was in Frust endet. Je mehr man aber ein Bild im Kopf hat, was man erreichen will, desto besser lässt sich Software einsetzen und auch ich fange an bestimmte Teile meines Live Setups mehr und mehr in ein iPad mit Controllern zu „virtualisieren“. Beim Thema Visualisierungen sieht das für mich hier ganz anders aus, da ich mich schon von Beruf wegen als Dipl. Des. viel intensiver mit dem Thema auseinandersetze und deutlich besser vorab einschätzen kann, was für mich funktioniert oder nicht. Daher würde ich da gleich zur Software greifen und in meinem Fall wäre vvvv.org das richtige Tool, da ich das eh schon drauf habe und so gut wie alles in Echtzeit generierbar sein dürfte, was heutige Rechner so hinbekommen können. Die Lernkurve ist allerdings heftig und der Weg steinig, sich das anzueignen. Dafür stehen einem dann fass alle Türen offen, die weit über die Generierung einer Animation hinaus gehen. Ist aber eben das gleiche Problem wie mit Musik aus dem Rechner: Man sollte vorher schon einen Plan haben, sonst verzettelt man sich.
Ich denke, hier muss jeder seinen individuellen Weg in einem entsprechenden Prozess finden um das zu erreichen, was für für sie/ihn und andere funktioniert. Anregungen, konstruktives Feedback und Meinungen sind da sehr hilfreich und wertvoll, wie man sie hier im Forum ja auch häufig bekommt.
Eine Sache noch, die für Live Visualisierung extrem wichtig ist: Die Latenz zwischen Klang und Bild. Bis der bereits gehörte Ton als Bild generiert und angezeigt wird, vergeht oft viel zu viel Zeit, um ein immersives Erlebnis zu schaffen. Daher würde ich hier primär mit Clock Signalen und Beatcountern arbeiten und sekundär Klanganalyse betreiben womit dann auch eine perfekt wahrgenommene Synchronisierung zwischen Bild und Ton machbar ist. Würde man also z.B. per FFT Analyse die Kick ermitteln, die Grafik rendern und an den Beamer schicken, käme das immer zu spät an und wirkt nicht. Selbst mit reinen Hardwarelösungen ist mindestens noch die durch digitale Technologie bedingte Latenz des Projektionssystems hinzuzurechnen, da hier analoge Hardware (z.B.Röhrenbeamer) wohl kaum mehr sinnvoll einsetzbar sind. Die Berechnung des Bildes muss im Live Kontext meist schon vor der Erzeugung des darzustellenen Klanges starten, um beides zeitgleich ausgespielt zu bekommen. Zwischen zwei Frames (dargestellten Bildern) liegen bei 60Hz schon über 16ms. Eine Latenz, bei der die meisten MusikerInnen schon die Augenbrauen hoch ziehen. Und ich kenne auch keinen Beamer oder Screen, der unter diesen Wert kommt.
So, jetzt geh ich einen Cappuccino am Strand trinken 😝
 
Selbst mit reinen Hardwarelösungen ist mindestens noch die durch digitale Technologie bedingte Latenz des Projektionssystems hinzuzurechnen, da hier analoge Hardware (z.B.Röhrenbeamer) wohl kaum mehr sinnvoll einsetzbar sind.

...eine Technik die da gerne eingesetzt wird ist das Re-Scanning: eine 'unabhängige' Kamera filmt einen Röhrenmonitor und gibt das direkt und ohne 'viel' digitale Bearbeitung an den Projektor weiter...

...dadurch bekommt man das Latenzproblem ganz gut in den Griff...

So, jetzt geh ich einen Cappuccino am Strand trinken

...dafür muss ich nicht extra an den Strand - der kommt bei mir in der Küche aus der Maschine - ätsch...
 
...eine Technik die da gerne eingesetzt wird ist das Re-Scanning: eine 'unabhängige' Kamera filmt einen Röhrenmonitor und gibt das direkt und ohne 'viel' digitale Bearbeitung an den Projektor weiter...

...dadurch bekommt man das Latenzproblem ganz gut in den Griff...
Glaub mir, du hast locker immer noch mindestens 2 Frames Verlust. Kamera digitalisiert Bild, prozessiert, komprimiert, gibt Daten über HDMI, Beamer liest und prozessiert Bild …. Ich hatte das schon oft genug ausprobiert. Den Effekt sieht man auch immer schön, wenn Live Redner nochmal auf einem Screen dargestellt werden….
 
Da fällt mir noch ein: Für den YT Live Stream könnte man das recht einfach durch eine zusätzliche Verzögerung der Ton/Bild Spur zu den Visuals perfekt in den Sync bekommen….
 
Für den YT Live Stream könnte man das recht einfach durch eine zusätzliche Verzögerung der Ton/Bild Spur zu den Visuals perfekt in den Sync bekommen

...das ist am einfachsten dadurch zu erreichen, dass man den Ton über den Audio-In einer der Kameras leitet...
 
Glaub mir, du hast locker immer noch mindestens 2 Frames Verlust.

...'glaube mir (- vertraue mir' - düdeldidüüü - so singt das die Schlange Kaa) - ganz-ganz viele low-budget-Produktionen setzen diese Technik sehr erfolgreich und zu allgemeiner Zufriedenheit ein...aber ich bin ja willig und bereit zu verbessern was geht...und ehrlich gesagt: so 'low-budget' sind wir wirklich nicht mehr...

...übrigens sind wir jetzt sehr weit OT...
 
...warum? - was wäre denn Dein Lösungsansatz? - nur Software live nutzen?...
Nein, die ist laut @Marf noch mehr mit Latenzrisiko behaftet. Er sagt nur, dass auch analoge Technologie mit Kameras nicht frei davon ist. (Womit er technisch sicher recht hat, was mir aber zumindest in obigem Beispiel als nicht störend erscheint).
 
Eine Sache noch, die für Live Visualisierung extrem wichtig ist: Die Latenz zwischen Klang und Bild. Bis der bereits gehörte Ton als Bild generiert und angezeigt wird, vergeht oft viel zu viel Zeit, um ein immersives Erlebnis zu schaffen. Daher würde ich hier primär mit Clock Signalen und Beatcountern arbeiten und sekundär Klanganalyse betreiben womit dann auch eine perfekt wahrgenommene Synchronisierung zwischen Bild und Ton machbar ist. Würde man also z.B. per FFT Analyse die Kick ermitteln, die Grafik rendern und an den Beamer schicken, käme das immer zu spät an und wirkt nicht. Selbst mit reinen Hardwarelösungen ist mindestens noch die durch digitale Technologie bedingte Latenz des Projektionssystems hinzuzurechnen, da hier analoge Hardware (z.B.Röhrenbeamer) wohl kaum mehr sinnvoll einsetzbar sind. Die Berechnung des Bildes muss im Live Kontext meist schon vor der Erzeugung des darzustellenen Klanges starten, um beides zeitgleich ausgespielt zu bekommen. Zwischen zwei Frames (dargestellten Bildern) liegen bei 60Hz schon über 16ms. Eine Latenz, bei der die meisten MusikerInnen schon die Augenbrauen hoch ziehen. Und ich kenne auch keinen Beamer oder Screen, der unter diesen Wert kommt.

...ich finde diese Sachen sollten wir hier - https://www.sequencer.de/synthesizer/threads/kleine-musik-events-live-streamen-technik.163969/ - weiter besprechen...
 
Hallo zusammen,

nach kurzer Überlegung poste ich das mal in diesen Thread, weil es hier am besten passt und mir vielleicht jemand helfen kann.

Ich habe mir bereits vor einiger Zeit aus einem alten Überwachungsmonitor ein CRT Oszillograph gebastelt auf Basis der zahlreichen YT Videos zum Thema, u. a. von Look Mum No Computer usw. Es gibt jedoch noch ein Problem, was ich bisher nicht beheben konnte:

Nachdem ich die H/V Spulen ausgemacht hatte, habe ich eine von beiden Spulen getrennt und testweise ein Audiosignal angelegt. Das Ergebnis war eine (durchgehende) vertikale Linie, die nach links und rechts ausschlug. Ich hatte demnach das Audio Signal an der Spule für die vertikale Ablenkung angelegt. Da ich den Monitor aber nicht drehen wollte, habe ich im Anschluss die Spule für die horizontale Ablenkung getrennt, auf der TV Platine an den Anschluss für die V Spule angeschlossen und anschließend ein Audiosignal an die H Spule angelegt. Soweit so gut. Es wird eine horizontale Linie angezeigt, der Ausschlag erfolgt nach oben und unten. Über einen kleinen Verstärker im Audioweg kann ich die Amplitude des horizontalen Ausschlags steuern. Das Problem ist, dass die vertikale Linie nicht über die komplette Bildschirmbreite geht, sondern lediglich über ca. 1/3 der Breite in der Mitte des Monitors. Weiß jemand, wie ich dieses Problem beheben kann? Hängt das mit diesen H/V Betriebsfrequenzen zusammen 60Hz/15 kHz? Ich habe diesbezüglich dieses Video gefunden, welches ich jedoch nicht vollständig versteht (von der Physik her als auch der Sprache):


https://www.youtube.com/watch?v=aScAZReGQc0&t=13s
 
Die Berechnung des Bildes muss im Live Kontext meist schon vor der Erzeugung des darzustellenen Klanges starten, um beides zeitgleich ausgespielt zu bekommen. Zwischen zwei Frames (dargestellten Bildern) liegen bei 60Hz schon über 16ms.

ich sehe da null problem. du kannst doch einfach das audio entsprechend verzögern, sei es am laptop, sei es mit einem haas delay im 19 zoll format. heute sind doch selbst DJ mischpulte digital.

außerdem ist die durchschnittliche latenz ja erst mal nur eine halbe framerate.

der hinweis, dass man das beachten muss ist aber richtig. es kommt überhaupt nicht gut, wenn schnitte oder blitze "zu spät" kommen. eher müsste das bild sogar zuerst kommen um den gewünschten effekt zu erhalten. :)

ich denke genau davon lebt die idee, eher nur auf einfache mittel und "alles analog" zu setzen - oder einfach laser statt TV signalen mit niedrigen fps zu verwenden.
 
Man kann je nach Musik die Tracks in 100 oder 125 bpm anlegen.
Das ist dann mit 24 oder 30 Hz kompatibel.
150 bzw 75 bpm gehen auch noch sind aber idR zu schnell bzw langsam.
 
aber mal was anderes, wie wäre es denn damit werkzeuge zu vermeiden, die eine feste framerate haben.

im gegensatz zum erzeugen von dateien kannst du ja live frames erzeugen wann du willst.
 


News

Zurück
Oben