Live-Looping: Beitrag mit Video-Beispielen

Richtig. Ausserdem, wenn die Einrichtung schon so komplex sein muss, ok, kein Problem, und alles über Templates geregelt werden kann, warum werden wichtige Templates nicht mitgeliefert? Beispiel, für ein Looper-Template: Elektrix Repiiter. (Die Namensänderung wäre bewusst dort, aber auch schön die Ähnlichkeit zum Wunschfeatureset/Wunschgerät).

Ich würde mir wünschen, dass ich zwischen 16 Templates schnell umschalten kann, eine Geheimtaste halten, unten einen Step drücken: Neues Template/Gerät geladen.

Die live-bpm kann man also nur durch Tapping beeinflussen? Real-time-auto-bpm-recognition OHNE Tapping geht also nicht beim Octatrack? Gitarre einstöpseln, spielen, ohne Tapping irgendwo, geht also nicht? Man tappt ja schon auf den Saiten, wieso nochmal anderswo mit dem Fuss tappen? Beispiel, Originalloop läuft auf 100 bpm, die Software könnte ja den live-input so analysieren, dass nur delta-bpm von +/- 10 bpm erlaubt sind beim Spielen, da sollten doch viele "Fehlberechnungen" damit ausgeschlossen werden können. Oder dieser delta-bpm Bereich sollte einstellbar sein.

Kann das Electrix Repeater? Auf Gitarre in live-input syncen, OHNE tapping anderswo mit dem Fuß?
 
serge schrieb:
TonE schrieb:
Die live-bpm kann man also nur durch Tapping beeinflussen? Real-time-auto-bpm-recognition OHNE Tapping geht also nicht beim Octatrack?
Richtig, der OT kann in der Tat nicht das Tempo eines am Audioeingang anliegenden Signals erkennen. Ist es bei weiteren Fragen zum OT vielleicht sinnvoller, diese im OT-Thread (viewtopic.php?f=5&t=53075) zu stellen?
Kann das denn überhaupt irgendein Loop-Gerät resp. eine -Software? Wäre mir neu, resp. ich kann mir nur schlecht vorstellen wie sowas technisch zuverlässig funktionieren sollte. Live gespieltes Audiomaterial ist ja voller Timing-Schwankungen (beabsichtigt in Form von Phrasierung und Groove, oder halt unbeabsichtigt). Ein deterministischer Algorithmus der sowas in Echtzeit richtig interpretieren kann?
 
Tim Kleinert schrieb:
serge schrieb:
Richtig, der OT kann in der Tat nicht das Tempo eines am Audioeingang anliegenden Signals erkennen. Ist es bei weiteren Fragen zum OT vielleicht sinnvoller, diese im OT-Thread (viewtopic.php?f=5&t=53075) zu stellen?
Kann das denn überhaupt irgendein Loop-Gerät resp. eine -Software? Wäre mir neu, resp. ich kann mir nur schlecht vorstellen wie sowas technisch zuverlässig funktionieren sollte. Live gespieltes Audiomaterial ist ja voller Timing-Schwankungen (beabsichtigt in Form von Phrasierung und Groove, oder halt unbeabsichtigt). Ein deterministischer Algorithmus der sowas in Echtzeit richtig interpretieren kann?

Diverse Korg Geräte (Kaossilator Pro, Zero 8, KP3 etc.) können das. Für seine absolute Zuverlässigkeit sind die Algorithmen allerdings nicht berühmt.
 
Danke für Eure Antworten. BPM-Erkennungsalgorithmen sind mir schon ein Begriff, wo wäre die heutige DJ-Szene denn ohne? :twisted: Aber dass die aus einer live gespielten unquantisierten Einzelspur (z.B. ein Rhodes-Groove mit Synkopen, Pausen, da und dort Laid-Back-Phrasierungen etc. -also eben etwas das in einer Live-Looping-Situation anfallen kann) zuverlässig die korrekte BPM entnehmen können, kann ich mir beim besten Willen nicht vorstellen. Das wäre ja AI der herberen Sorte.
 
Da ist von "semiautomatic" die Rede, insofern habe ich da Zweifel, ob diese Software aus einem beliebigen Audiodatenstrom ohne weiteres menschliches Zutun zuverlässig die richtige Clock extrahieren kann.
 
Ich dachte, Du würdest das kennen. Egal, ich wüsste nicht, wozu und womit ich das probieren sollte: Meine Musik ist komplett "beatless".
 
Nö, habe sie nur gestern gefunden und kurz getestet. Man kann ja irgendeine Musik aus dem Rechner spielen und schauen wie ein Midi-Clock slaved rhythm dem folgt, ich habe hier dafür Sequetron genommen. Naja, geht so, müsste mal das Handbuch von der Software genauer ansehen. Oh, gibt es nicht. :)

Es gibt da nur zwei Parameter.
1. Halflife im Bereich 3s..12s
2. Dann noch den mit den Hasen, für langsame, normale, schnelle Musik
 
Um das Tempo von unquantisierten live gespielten Einzelparts korrekt zu erkennen, müsste so ein Algorithmus mit den Time-Feels und rhythmischen Stilmerkmalen aller Musikkulturen dieses Planeten gefüttert worden sein. Denn herrlich "eiernde" Achtel eines Pandeiro haben nichts mit bretterhart geraden Achteln einer Funk-Gitarre zu tun, kingen beide innerhalb ihres Kontextes jedoch fein. Wenn die Google-AI-Rechner dann mal fertig sind, alle Bücher und alle Bilder im Netz neuronal abzutasten und auszuwerten, können sie dann auch mal mit Audiofiles anfangen. Bis dahin müssen wir uns halt noch mit Tap-Tempo begnügen. Lebende Mitmusiker wäre da auch noch eine Alternative, wenn auch unglaublich altmodisch und umständlich. :mrgreen:
 
TonE schrieb:
Man kann ja irgendeine Musik aus dem Rechner spielen und schauen wie ein Midi-Clock slaved rhythm dem folgt,
Denkfehler. Die Musik aus dem Rechner liegt der Software bereits vor dem Abspielen vor. Die Software kann das Ausrechnen sobald sie weiss wo das File liegt, lange bevor das File abgespielt wird. Das hat nichts mit Echtzeitanalyse zu tun.

Das gleiche Problem gibts ja auch bei den ganzen Bildschirmanimationen, die tolle Sachen auf dem Beat machen, wenn man Files abspielt, aber hoffnungslos daneben rumschwurbeln, wenn sie auf Line-In horchen müssen.
 
florian_anwander schrieb:
TonE schrieb:
Man kann ja irgendeine Musik aus dem Rechner spielen und schauen wie ein Midi-Clock slaved rhythm dem folgt,
Denkfehler. Die Musik aus dem Rechner liegt der Software bereits vor dem Abspielen vor. Die Software kann das Ausrechnen sobald sie weiss wo das File liegt, lange bevor das File abgespielt wird. Das hat nichts mit Echtzeitanalyse zu tun.

Das gleiche Problem gibts ja auch bei den ganzen Bildschirmanimationen, die tolle Sachen auf dem Beat machen, wenn man Files abspielt, aber hoffnungslos daneben rumschwurbeln, wenn sie auf Line-In horchen müssen.
Florian, Du bist zwar the master hier, aber trotzdem ist dies kein Denkfehler. Waveclock macht genau dies, auf Line-In horchen, wie gut oder wie schlecht darf jeder selbst kommentieren, einfach ausprobieren. Für Waveclock ist die abgespielte Datei Echtzeitaudio, da nichts vorher geladen wird, nichts voranalysiert wird, es wird in Echtzeit analysiert. Testen mit beliebigen Dateien habe ich erwähnt, nur falls jemand nicht erst umständlich selbst irgendwas einstöpseln und live spielen muss. Beliebige Dateien aus dem Rechner können auch dazu benutzt werden. Einzelspuren, oder Gesamtmixe, egal was. Audio ohne Transienten sind natürlich nicht gut geeignet für 'beat recognition', also möglichst keine Ambient-Stücke probieren. Aber rhythmische Gitarrensounds sollten funktionieren. z.B. darsho's Gitarrenaufnahmen zu sole survivor. :D


Wavetick, soll ja sozusagen auch das menschliche Tapping ersetzen, da es im Output zusätzlich Midinoten als 'beats' liefern kann, wurde vorübergehend entfernt aus der Seite, wird wohl bald wieder da sein, wird im Blog erklärt: http://wavesum.net/avhblog/?p=154
 
TonE schrieb:
Mr. Roboto schrieb:
Wie bereits gesagt: das Korg KP-3 kann das. Wie gut oder schlecht muß jeder für sich selbst rausfinden.
Wer Korg KP-3 probiert hat, kann ja gleich danach auch Waveclock testen, ob sie besser ist?

Das eine ist halt Hardware, das andere Software. Spricht ja dann schon eher zwei unterschiedlich Zielgruppen an denke ich.
 


Neueste Beiträge

News

Zurück
Oben