fairplay
||||||||||||
...wir kommen von hier:
...welche Lösungsansätze bieten sich für live-visuals und live-streaming - in einer absoluten low-budget-Situation - zur Verminderung und von Latenzen an?...
Eine Sache noch, die für Live Visualisierung extrem wichtig ist: Die Latenz zwischen Klang und Bild. Bis der bereits gehörte Ton als Bild generiert und angezeigt wird, vergeht oft viel zu viel Zeit, um ein immersives Erlebnis zu schaffen. Daher würde ich hier primär mit Clock Signalen und Beatcountern arbeiten und sekundär Klanganalyse betreiben womit dann auch eine perfekt wahrgenommene Synchronisierung zwischen Bild und Ton machbar ist. Würde man also z.B. per FFT Analyse die Kick ermitteln, die Grafik rendern und an den Beamer schicken, käme das immer zu spät an und wirkt nicht. Selbst mit reinen Hardwarelösungen ist mindestens noch die durch digitale Technologie bedingte Latenz des Projektionssystems hinzuzurechnen, da hier analoge Hardware (z.B.Röhrenbeamer) wohl kaum mehr sinnvoll einsetzbar sind. Die Berechnung des Bildes muss im Live Kontext meist schon vor der Erzeugung des darzustellenen Klanges starten, um beides zeitgleich ausgespielt zu bekommen. Zwischen zwei Frames (dargestellten Bildern) liegen bei 60Hz schon über 16ms. Eine Latenz, bei der die meisten MusikerInnen schon die Augenbrauen hoch ziehen. Und ich kenne auch keinen Beamer oder Screen, der unter diesen Wert kommt.
...welche Lösungsansätze bieten sich für live-visuals und live-streaming - in einer absoluten low-budget-Situation - zur Verminderung und von Latenzen an?...