Kleine Musik-Events live streamen - Technik

fairplay

fairplay

|||||||||||
...wir kommen von hier:


Eine Sache noch, die für Live Visualisierung extrem wichtig ist: Die Latenz zwischen Klang und Bild. Bis der bereits gehörte Ton als Bild generiert und angezeigt wird, vergeht oft viel zu viel Zeit, um ein immersives Erlebnis zu schaffen. Daher würde ich hier primär mit Clock Signalen und Beatcountern arbeiten und sekundär Klanganalyse betreiben womit dann auch eine perfekt wahrgenommene Synchronisierung zwischen Bild und Ton machbar ist. Würde man also z.B. per FFT Analyse die Kick ermitteln, die Grafik rendern und an den Beamer schicken, käme das immer zu spät an und wirkt nicht. Selbst mit reinen Hardwarelösungen ist mindestens noch die durch digitale Technologie bedingte Latenz des Projektionssystems hinzuzurechnen, da hier analoge Hardware (z.B.Röhrenbeamer) wohl kaum mehr sinnvoll einsetzbar sind. Die Berechnung des Bildes muss im Live Kontext meist schon vor der Erzeugung des darzustellenen Klanges starten, um beides zeitgleich ausgespielt zu bekommen. Zwischen zwei Frames (dargestellten Bildern) liegen bei 60Hz schon über 16ms. Eine Latenz, bei der die meisten MusikerInnen schon die Augenbrauen hoch ziehen. Und ich kenne auch keinen Beamer oder Screen, der unter diesen Wert kommt.

...welche Lösungsansätze bieten sich für live-visuals und live-streaming - in einer absoluten low-budget-Situation - zur Verminderung und von Latenzen an?...
 
Hier mal ein Beispiel (falls die Zeit nicht übernommen wird: ~ ab 0:58):

https://youtu.be/NCiVdvchjFM?t=58


Der "Donk" Sound (808 BD durch Ringmodulator) ist musikalisch auf dem ersten Schlag des Taktes. Im Bild sind die Stepsequenzer aber gerade erst beim letzten 16tel (des vorigen) Taktes.

Das Bild stammt aus einer Samsung S-Video-Kamera, geht durch einen Edirol V4 Video-Mixer, von da mit in einem ATOMOS "Connect Convert Scale" S-Video zu USB Konverter in OBS als Streamingsoftware.
Der Ton geht vom Audiomischer in ein Focusrite-Interface am Rechner und dort in OBS.
Das Stück hat ca 110 BPM,
Ein Viertel hat also 60s / 110 = 0,545s
Ein 16tel hat also 0,545s / 4 = 0,136s

136ms sind schon ein ordentlicher Versatz. Das ist jetzt Kameraseitig "Steinzeittechnik" von ~2005, wobei allerdings der Versatz wohl hauptsächlich bei der Konvertierung im Atomos Connect entsteht. Ggf wäre das besser, wenn ich mit dem Audio auch in den Atomos Konverter reingegangen wäre (keine Ahnung, ob der einen Latenzausgleich vornimmt).
 
...ich kann es mir gerade nicht ansehen - aber auch hier gilt sicher:

wenn man Video und Audio parallel verarbeitet - zum Beispiel durch einspielen des Audio über die Kamera - kann man den Unterschied wegdrücken...

...ich werde das bei der nächsten ambioSonics-Session so machen und das Audio für den Stream über eine der Funk-Kameras führen - parallel dazu dann noch eine zweite Spur direkt aufnehmen...
 
...ok - ich habe es mir jetzt (ausschnittsweise) angesehen, und ich scheine da ziemlich unempfindlich zu sein - mich stört der Versatz hier nicht...
 


News

Zurück
Oben