Wie geht ihr mit Latenzen um? Workflow anpassen oder doch Einstellungen?

Phobik

.....
Hallo zusammen,

ich habe leider immer noch einen alten Mac Air von 2015, welcher wahrscheinlich nicht mehr so rund läuft. Die entstehenden Latenzen sind natürlich ein komplexes Thema und auf viele Gründe zurück zu führen. Ich recorde hauptsächlich mit externer Hardware und nutze anschließend interne Effekte für das Processing. Ich weiß das jedes externe Gerät eigene Latenzen mit sich bringt, dass PC, Sample Rate und Puffer Einfluss haben und dass Effekte in den Spuren auch noch Einfluss haben können durch bspw. Lookahead... Dann noch diese Ableton Monitoring Latenzen... Ufff.....

- Doch wie geht man nun am besten damit um? Denn es frisst einfach meine Muse, immer wieder darauf achten zu müssen und in den Einstellungen zu graben, aber nie genau zu wissen ob es nun Rund läuft.

- Auch sind meine Latenzen häufig unterschiedlich. Wenn ich bspw. mein Track Delay in Ableton Einstellen will, schwankt die Latenz bei jedem Recordingvorgang um +- 5ms... Die "Perfekte Einstellung" habe ich so noch nicht gefunden...

- Ist es überhaupt ein guter Workflow, Ableton und externe Geräte live abzuhören? Oder gar Ableton Effekte live auf externe Hardware wie die Kick zu legen...Sollte ich lieber Zwiebelschichtenartig, Aufnahme für Aufnahme fertig stellen und in Ableton pressen? Wie macht ihr das?

Vielen Dank für eure Hilfe!!
 
Da hilft nur einarbeiten, möglichst schnelles Interface kaufen, für die Drumcomputer ggf ne Multiclock, wissen wo welche Latenzen entstehen, in der DAW ggf mit Track-Delay spielen, und damit leben. Am Ende dann die Spuren in der DAW noch zurechtschubsen. Fertig.

Ob dies oder jenes eine gute Idee ist, lässt sich pauschal leider nicht beantworten. Da muss jeder für sich selber experementieren, und gucken wie, und mit was er besser zurecht kommt.

Wenn ich jetzt z.B. eine 909 Kick schon als Audio in der DAW abfeuere, und einen externen Synth den Bass dazu spielen lasse, höre ich den externen Synth natürlich über die DAW ab. Mit glück passt das Timing, wenn nicht, verzögere ich die DAW Kick, um etwas zur Latenz der langsamen Hardware aufzuschließen.

So passt es zumindest beim Jam dann erst mal. Lege ich dann auf den über die DAW abgehörten Synth dann noch ein VST, was noch mal Latenz erzeugt, dann muss ich ggf die Kick halt noch weiter verzögern, oder im Timing wo anders hinbuchsieren.

Ist der Synth dann aufgenommen, stimmt das Timing mit der Kick-Spur natürlich schon wieder nicht. Also ist dann wieder anpassen gefragt.
 
Zuletzt bearbeitet:
Hat das MB Air nicht TB (2) Schnittstellen? Damit wärst Du ja schonmal gut bedient. Auf Mac OS geht auch AVB.

Ich erinnere mich aber auch grad an ein Antony Rother Ask-the-Producer auf YT, wo der zB sagt, dass er wie aufgegeben hat bzw. ihn das nicht interessiert, weil er das in der DAW ausgleicht. Es sei eh ein Kampf gegen Windmühlen. Oder so. Hoffe ich habe das richtig in Erinnerung.

P.S. Multiclock habe ich auch schonmal gegoogelt, nach dem so viele einschlägige YTer das Ding loben. Aber dann war mir das fast zuviel, weil auch ansatzweise in Richtung midi patchbay gehend, und die hab ich schon. Aber das heisst ja nicht, dass die deswegen nix taugt.
 
Da hilft nur einarbeiten, möglichst schnelles Interface kaufen, für die Drumcomputer ggf ne Multiclock, wissen wo welche Latenzen entstehen, in der DAW ggf mit Track-Delay spielen, und damit leben. Am Ende dann die Spuren in der DAW noch zurechtschubsen. Fertig.

Ob dies oder jenes eine gute Idee ist, lässt sich pauschal leider nicht beantworten. Da muss jeder für sich selber experementieren, und gucken wie, und mit was er besser zurecht kommt.

Wenn ich jetzt z.B. eine 909 Kick schon als Audio in der DAW abfeuere, und einen externen Synth den Bass dazu spielen lasse, höre ich den externen Synth natürlich über die DAW ab. Mit glück passt das Timing, wenn nicht, verzögere ich die DAW Kick, um etwas zur Latenz der langsamen Hardware aufzuschließen.

So passt es zumindest beim Jam dann erst mal. Lege ich dann auf den über die DAW abgehörten Synth dann noch ein VST, was noch mal Latenz erzeugt, dann muss ich ggf die Kick halt noch weiter verzögern, oder im Timing wo anders hinbuchsieren.

Ist der Synth dann aufgenommen, stimmt das Timing mit der Kick-Spur natürlich schon wieder nicht. Also ist dann wieder anpassen gefragt.


Ja krass, hätte nicht gedacht dass dieses zwiebelschichtige Arbeiten ein plausibler Ansatz ist... aber du beschreibst meine "Probleme" excellent bzgl. immer erneutem Abchecken der Spuren... wie schon ewähnt "ein Kampf gegen Windmühlen"... Deine Beschreibung passt so gut zu meinem Workflow, dass es mir jetzt schon besser geht in dem Wissen, dass andere den selben Struggle haben^^

Thunderbold habe ich irgendwie nie als Anschluss in betracht gezogen. Werde mich dort mal einlesen danke.
 
Benutzt schon jemand Ableton Link? Evtl in Verbindung mit Modular?
Evtl sowas hier?
 
Wenn ich jetzt z.B. eine 909 Kick schon als Audio in der DAW abfeuere, und einen externen Synth den Bass dazu spielen lasse, höre ich den externen Synth natürlich über die DAW ab.
Das mache ich grundsätzlich nicht so. Die Synths, die live eingespielt werden, höre ich direkt über den Mischer ab. DAW-Effekte muss ich nicht schon beim Live-Einspielen über Monitoring drauf haben.

Auch wenn sich die verschiednen Latenzen gegeneinander angleichen lassen, wird es immer eine Verzögerung zwischen Tastenanschlag und gehörtem Klang geben, wenn das ganze durch AD/DA und DAW samt Processing läuft - da muss die Hardware schon ziemlich fix sein, um keine beim Spielen störende Latenz zu erzeugen. :dunno:

Die fertige Spur hinterher etwas zu verzögern bzw. zu verschieben, halte ich da für den geringeren Aufwand.
 
"Latenzfrei" gibt es praktisch ohnehin nicht.
Die menschliche Reizschwelle durch einen neuronalen Impuls liegt bei 2,7 ms.
Der Rechner könnte zwar durchaus in der Datenverarbeitung bis nahezu auf 0,01 ms gebracht werden (nahezu Lichtgeschwindigkeit), aber dennoch verzögert das menschliche Gehirn immer um 2,7 ms.
2,7 ms entspräche in etwa der Fähigkeit, jeden einzelnen Flügelschlag einer Fliege mitzubekommen (100ms entspricht ein Wimpernschlag).
Tatsächlich nehmen wir aber Latenzen doch eher "gefühlt störend" um 1/4 Sekunde wahr, wenn wir von krassen aus Takt verrutschenden Verzögerungen sprechen (was in der Analogie zu ms wiederum in etwa "Entfernungen von mehreren Galaxien umfassende Lichtjahre" entspräche.
Aber das eigentlich nur alles so am Rande des ms.

Klar kann es schnell zu heftigen Rucklern kommen, wenn der PC auch noch durch viele Hintergrundprozesse ausgelastet ist.
Ich kenne es eigentlich nur so und es hat bisher bei mir auch gut bei Latenzproblemen funktioniert, dass in der DAW die angegebene Latenz bei der Aufnahme berücksichtigt werden kann (Aufnahmeversatz um Xsamples berücksichtigen), um Synchron zu bleiben.
 
Latenzfrei" gibt es praktisch ohnehin nicht.
Die menschliche Reizschwelle durch einen neuronalen Impuls liegt bei 2,7 ms.
Du meinst sicher keine Millisekunden, sondern Mikrosekunden, also µs.

Ich hab schon vor Jahren aufgehört meine DAW zu Midi Clock synchronisieren zu wollen, oder andersrum meine Synths zur DAW Clock. Ich spiel einfach mit Metronom und Preroll in die DAW ein oder drück am Sequenzer auf Start und schubs dann alles an den richtigen Platz.
 
Zuletzt bearbeitet:
Du meinst sicher keine Millisekunden, sondern Mikrosekunden, also µs.
Nein, ich meine tatsächlich RL /ms

p.s.: wobei ich anmerken möchte, dass es natürlich unterschiedliche Reizschwellen/Tempi gibt und dies hier in den Bereich der Adaption/Hörschwelle fällt.
 
Zuletzt bearbeitet:
Kein Ding, alles gut.
Und auch in der Musik gilt ja nicht selten auch die Handwerkerphilosophie: Was nicht passt, wird halt irgendwie passend gemacht :D
 
Ich kenne es eigentlich nur so und es hat bisher bei mir auch gut bei Latenzproblemen funktioniert, dass in der DAW die angegebene Latenz bei der Aufnahme berücksichtigt werden kann (Aufnahmeversatz um Xsamples berücksichtigen), um Synchron zu bleiben.

Nach meiner Erfahrung muss der Aufnahmeversatz in den DAW einstellungen immer händisch angepasst werden. Der Treiber meldet selten den tatsächlichen Wert.
 
Nach meiner Erfahrung muss der Aufnahmeversatz in den DAW einstellungen immer händisch angepasst werden. Der Treiber meldet selten den tatsächlichen Wert.

Richtig. Allerdings ist das ja nun wirklich komfortabel heute und in wenigen Sekunden erledigt.

Blöd wird es ja nur wenn Leute ITB mit externer Hardware mischen und dann eventuell noch die externen Signale Über Softwaremonitoring mit Effekten belegen.

Aber dafür kann das System nichts - da ist der unrealistische Wunsch Grund für den Frust :)

Ganz zu schweigen dass das Thema tatsächlich oft überdrammatisiert wird, denn "samplegenau" macht natürlich nicht überall Sinn wird aber auch oft an falschen Stellen als marketing Buzzword missbraucht -> externe "spezial" Clocks - was nutzt es denn wenn zwar die Clock einen Samplegenauen timinggenerator hat aber der Empfänger selber vielleicht bis zu 5 ms Latenz in der Klangerzeugung hat und auch noch bis zu 2 ms Jitter ?

Übrigens JA - ich hatte eine Innerclock System SyncGen Pro... und der reale Nutzem mit 808 / 909 / 303 hält sich durchaus in Grenzen.

Auch wenn da immer wieder ganz anderes behauotet wird, aber da ich die Sachen gemessen habe brauche ich mich da nicht auf Wunschgedanken verlassen :)
 
Nach meiner Erfahrung muss der Aufnahmeversatz in den DAW einstellungen immer händisch angepasst werden. Der Treiber meldet selten den tatsächlichen Wert.
Ja, der Versatz muss manuell nach der Latenzmessung angepasst werden- und natürlich können Latenzen auch schon innerhalb eines Projekts und im Verlaufe des Betriebs schwanken, wenn man es eigentlich so ganz genau nimmt. Eine Automatisierung wäre da sicherlich nicht die schlechteste Lösung.
Aber prinzipiell finde ich auch, das dazu eigentlich viel zu viel Gewese veranstaltet wird, denn ganz ehrlich, wo bleibt da die Lebendigkeit, wenn alles immer perfekt auf der 1 liegt ?
Ärgerlich ist es verständlicherweise schon, wenn eine makellose Synchronität gewährleistet sein müsste und das ganze Verbundsystem dann zu krass aus dem Ruder käuft.
Ich find es aber überzogen und im Sinne eines Perfektionswahn irrsinig zu glauben (und auch zu meinen), dass irgendjemand tatsächlich unbedingt Null-Latenz bräuchte, weil er mit einem Keyboard und ner Groovebox bewaffnet, unfehlbar korrekt und 100% quantisiert auf jeden Tick der Zählzeit oder z.b. ganz genau auf 1.2.247 spielen müsse (könnte)...und dieser jemand keine Mensch-Maschine ist :D
 
Ich habe früher mit der Anpassung des Aufnahmeversatzes immer gekämpft. Seit ich meinen Mac Pro 2013 und ein Thunderbolt-Interface habe (zurzeit MOTU 828ES), mache ich mir darüber keine Gedanken mehr. In Logic funktioniert das mit diesem Equipment mittlerweile so gut wie früher mit dem Tonbandgerät. Einen kleinen Buffer wählen, beim Aufnehmen den Low-Latency-Modus aktivieren und fertig. Das Zauberwort ist dabei wirklich "Thunderbolt".
 
Ich habe früher mit der Anpassung des Aufnahmeversatzes immer gekämpft. Seit ich meinen Mac Pro 2013 und ein Thunderbolt-Interface habe (zurzeit MOTU 828ES), mache ich mir darüber keine Gedanken mehr. In Logic funktioniert das mit diesem Equipment mittlerweile so gut wie früher mit dem Tonbandgerät. Einen kleinen Buffer wählen, beim Aufnehmen den Low-Latency-Modus aktivieren und fertig. Das Zauberwort ist dabei wirklich "Thunderbolt".
Eben, MOTU ist das Stichwort bzw. CUEMix, Rechner unabhängig. Das 828ES ist des Propheten Berg...oder umgekehrt ;-)
 
Also mal ganz unabhängig. Ich schalte in Logic in den Low Latency Modus. Logic schaltet dann selbständig die Rechenleistung aller Instanzen herunter um eine Vorgewählte IO Latenz zu erreichen. Das hört man natürlich, es reicht aber bis jetzt immer um Monitoren zu können und ist natürlich keine Lösung fürs Jammen.. Es ist wirklich zum Recorden gedacht .
 
kannst du mir erklären wie man das am besten macht? Ich plage mich da immer mit rum

Vielleicht findest Du es ja - wegen einem ganz spezifischen Workflow - unpraktisch, aber ich mache das so, dass ich erstmal beim Einrichten der DAW die Kompensation manuell anpasse indem ich - wenn es um externe Synths geht - einfach den Versatz zwischen einer triggernden Midinote und der Position des aufgenommenen Audios als Referenzwert nehme - das ist natürlich keinesfalls "samplegameu" aber in der Regel kann man da schon die wirklich störenden Millisekunden beheben.

Als nächste musst Du natürlich vermeiden FX Orgien im Rechner laufen zu haben denn da schraubt sich die Gesamtlatenz nantürlich schön hoch.

Und wenn DANN noch was - warum auch immer - zu stark "off" ist nudge ich einfach die gesamte aufnahme.

Wobei ich Prinzipiell letzteres als schnell und komfortabel meinte - das ist ja mehr oder weniger nur ein Handgriff.

Wobei es absolut stimmt dass einem das Thema komplett stören kann beim Arbeiten, man darf aber auch nicht zuviel von einem Rechner verlangen.

Das ist übrigens der Grund warum ich schon lange Interfaces mit DSP verwende - früher TC, nun Apollo X8 - denn es ist - für mich - absolut relevant bei machen Aufnahmen eine komplexe und hochwertige FX Kette OHNE musikalisch hinderliche Latenzbereiche nutzen zu können.

Da nutzt auch ein Super PC mit TB 3 Interface alleine nicht - denn selbst bei super Basiswerten - sagen wir das läuft bei 32er Buffer gut (was eh schon hakelig ist) dann hat man ja dennoch die Rounstriplatenz und die kumulierneden FX Latenzen - und schwupp - schon ist die Vocalmonitoringkett mit EQ, Kompressor, Gate, und einem guten Hall schon wieder nicht funktional.
 
Übrigens fand ich das bei Ableton auch - frag mich nicht mehr warum im Detail - alles etwas mühsam. Darum habe ich meine mehrfachen Versuche über die Jahre mit der Software warm zu werden immer wieder abgebrochen und die jeweiligen Versionen wieder verkauft.

Aber wenn du eher sequentiell externe Geräte benutzt ist es ja eigentlich übersichtlich - zumindest solange du im Arrange Modus arbeitest.
 
Man kann doch vom Audio Interface mit einem Kabel aus einem Ausgang wieder in einen Eingang (Loopback) und dann den Versatz messen.
Den Wert in der Latenzkompensation eintragen.

Live zeigt wenn man mit der Maus ein Plugin in der Titelleiste anklickt oder mit der Maus drübergeht übrigens die Latenz die das Plugin in der Kette hinzufügt, da kommt schnell einiges zusammen.
 
Man kann doch vom Audio Interface mit einem Kabel aus einem Ausgang wieder in einen Eingang (Loopback) und dann den Versatz messen.
Den Wert in der Latenzkompensation eintragen.

Ja das meinte ich oben mit MIDI Note -> wo das Audio tatsächlich landet.

Aber das ist dann ja "nur" die inherente Systemrountriplatentz - ab da wird es dann chaotisch und im Falle von externem recording bei aktiver Nutzung von FX im Softwaremonitoring - des Computers - SEHR schnell für das Gesäß.

Natürlich hat aich das System mit DSP Interfaces so seine tücken - recordet man dann schon mit FX oder nicht - muss man diese später umständlich in der DAW nachkonfigurieren etc... aber HAUPTSACHE - für mich halt - dass es beim Tracking Spass macht.

In der "Postproduction" - da meine ich in dem Fall allerdings das was vor dem Mixing kommt :) - wird ja sowieso geschnitten und geputzt etc.
 
Ja, da aber Treiber selten Latenz korrekt melden muss man messen.
Einige Audio Intetfaces melden korrekt, einige sind nahe dran, andere melden irgendeine Zahl...

Wenn man Plugins reinlädt zerschiessen die dann den Wert natürlich wieder.


Am besten sowieso direkt über Monitorfunktion oder Mixer abhören.
 


News

Zurück
Oben