ASIO4all nutze ich nicht, sondern nur Wasapi in Bitwig, also als ich noch Windows als Hauptsystem hatte.
Bei Analog Four/Analog Keys und Rytm bekommt man über Overbridge Main Out und Einzelausgänge und kann aus der DAW auch die Eingänge ansprechen (z.B. um Audio durch die analogen Filter und Send Effekte zu schicken). Digitakt und Digitone können glaub nur Einzelausgänge und Main Out (?).bei den Elektrons bekommt man über USB eh fast nur die Stereosumme,
WASAPI kann man im shared oder exclusiv Modus betreiben. Bei ersten können auch andere Programme Audio ausgeben, wie YouTube im Browser oder so was. Beim zweiten Modus, hat das Programm allein die Herrschaft, was die Latenz noch mal drücken kann. Latenzen habe ich noch nie bei Wasapi feststellen können, alles was unter 15ms ist, ist für mich nicht wahrnehmbar. Ab so 20ms merke ich dann langsam den Versatz, zwischen Anschlag und Ton.WASAPI geht meist nicht ganz so weit runter wie ASIO4ALL, hatte das auf meinem (damals neuen) DAW PC vor 2 Jahren getestet, bis ich die PCIe Karte bekommen hatte. Auch stimmten scheinbar die angegebenen Latenzen nicht, ich hatte 'ne gefühlte Verzögerung zwischen Anschlag und Klang, was bei Latenzen unter 10ms eigentlich nicht passieren sollte, wobei sie das vielleicht bei aktuelleren Windows Versionen gefixed haben.
Sollte exklusiv gewesen sein, ist bei ASIO ja genauso - sieht man mal von den Multi Client fähigen Treiber mancher Hersteller ab.WASAPI kann man im shared oder exclusiv Modus betreiben.
Beim zweiten Modus, hat das Programm allein die Herrschaft, was die Latenz noch mal drücken kann. Latenzen habe ich noch nie bei Wasapi feststellen können, alles was unter 15ms ist, ist für mich nicht wahrnehmbar. Ab so 20ms merke ich dann langsam den Versatz, zwischen Anschlag und Ton.
Ja, weil die CPU alles berechnet und keine DA Wandlung stattfindet.Fazit bei Nutzung nur Rechner-interner Plugin-Sounds, ohne jegliche Audio-Ins (HW-Synth, Vocals, Gitarre, Schnarchen meiner Frau...) :
die als End-Produkt (Track) exportierte WAV ist qualitativ unabhängig vom Benutzen eines Audio-Interface am Rechner, ist das so korrekt?
Ja, wenn externe Synthesizer über Midi angespielt werden, muss die Audioausgabe des Synthesizers in AD gewandelt werden.ich kenne nur Echtzeit-Aufnahmen, d.h. den Track meines (HW-) MIDI-Verbundes muss ich demnach einmal während der Mix-Aufnahme einmal komplett abspielen.
Wie schon bei den Synthesizer Plugins geschrieben, kann man entweder bouncen oder in Echtzeit aufnehmen und evtl. noch Parameter per Hand einspielen bzw. ändern etc...Ein im Rechner (DAW) produziertes Projekt (z.B. zufriedenstellender Mix) muss doch erst einmal alle Plugin-Synth antriggern / "abspielen" (inkl. allem drumherum, wie FX-Ketten u.a.), bevor überhaupt etwas als WAV exportiert werden kann.
Für mein Verständnis muss ein Arrangement (DAW spielt MIDI- und Audiospuren ab) vorerst komplett in Echtzei "aufgenommen" werden,
um überhaupt eine WAV-Datei werden zu können.
DAW-User schmunzeln vielleicht, aber habe ich hier ein Denkfehler?
Booh, ich tue mich echt schwer damit mir vorzustellen,
dass ein Rechenprozess ein komplexes Projekt in eine Audio-Datei bounct, obwohl das Ganze in Realtime nicht stattfand.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.