DAW - externe Soundkarte wirklich nötig?

Haha, ja MME Treiber oder auch DirectX waren die Hölle, zum Glück sind dank Wasapi die Zeiten lange vorbei. Unter Linux nutze ich jetzt direkt den ALSA, ich glaube weiter runter kommt man da in der Abtraktionsschicht nicht, eins drüber wäre dann wohl Jack.
 
ASIO4all nutze ich nicht, sondern nur Wasapi in Bitwig, also als ich noch Windows als Hauptsystem hatte.

WASAPI geht meist nicht ganz so weit runter wie ASIO4ALL, hatte das auf meinem (damals neuen) DAW PC vor 2 Jahren getestet, bis ich die PCIe Karte bekommen hatte. Auch stimmten scheinbar die angegebenen Latenzen nicht, ich hatte 'ne gefühlte Verzögerung zwischen Anschlag und Klang, was bei Latenzen unter 10ms eigentlich nicht passieren sollte, wobei sie das vielleicht bei aktuelleren Windows Versionen gefixed haben.
 
So wie ich das hier verstanden habe, kann eine Soundkarte unabhängig von u.a. angeschlossener Hardware Synthies Einfluss auf die MIDI Wiedergabe (sofern man ein MIDI - Keyboard angeschlossen hat) sowie auf die CPU in der DAW haben. Das sind für mich definitiv wichtige Aspekte, um ordentlich produzieren zu können. Falls das jemanden interessiert, den Big Sky habe ich heute nochmal gegen Plugins getestet und ich muss sagen, dass ich nicht annährend so einen Hall über Plugins bekommen habe. Er klingt irgendwie wärmer und zurückhaltender, wenn es z.B. um einfache Räume geht.
 
Mal so ganz allgemein:

1. interne bzw OnBoard Soundkarten sind fast immer billig aufgebaut, liegen also qualitativ noch weit unter billigen externen Interfaces. (Der Term „externe Soundkarte“ ist Übrigens eigentlich falsch, denn eine Soundkarte ist was zum Stecken, also was Internes, externe nennen sich Audio Interface)

2. interne bzw Onboard Soundkarten haben immer einen Mikrofoneingang, selten einen Line Eingang. Der MikrofoneUmgang ist Miniklinke, unsymmetrisch und es gibt auch keine Phantomspeisung, die man für Kondensatormikrofone benötigt

3. die Anzahl der USB Geräte sollte man, gerade unter Windows, auf einem Minimum halten. Erstens gehen nicht alle Kombinationen miteinander und zweitens erhöht jedes USB Gerät die Last des Prozessors, da USB im Gegensatz zu FireWire oder Thunderbolt/PCI(e) kein DMA (direkter Speicherzugriff) kann, sondern alles durch die CPU erledigt werden muß. Kann man sich dann vorstellen wie eine volle Säuglingsstation mit nur einer Pflegekraft, die alle Babies gleichzeitig säubern, windeln, schaukeln und füttern muß.
Wenn USB Einzelspuren bietet, die über analoges Audio nicht gehen, wäre das ein Grund, USB zu nutzen, geht da nur die Summe, kann man genauso auch analog anschließen.
Generell sollte man immer nur ZWEI USB Verbindungen zum Rechner haben: eine für USB Audio und eine für USB MIDI, jeweils mit entsprechenden Interfaces.

4. USB ist nicht galvanisch getrennt, und je mehr USB Geräte mit Audio man hat, desto höher ist die Chance, sich USB Noise einzuhandeln, da die Spec immer noch keine Isolation der USB Schirmung vorsieht, über die diese Geräusche von meist billigen externen Netzteilen kommen, und die wenigsten Entwickler dran denken, an dieser Stelle den Hebel anzusetzen.

das nur mal als generelle Anmerkung.
 
Das ist interessant. Ist es dann auch besser, wenn man mehrere Elektron Geräte hat, die ja alle über USB am Rechner angeschlossen sind, über einen Hub von Elektron anzuschließen? Damit wird quasi nur ein USB Anschluss am Rechner somit verwendet.
 
Der Hersteller ist egal, es geht um Minimierung von USB Verbindungen zum Rechner. Ein Hub ändert da rein garnichts, der schleift nur durch, es wird trotzdem pro Gerät ein Stack angelegt.
bei den Elektrons bekommt man über USB eh fast nur die Stereosumme, von daher kann man die auch analog an ein Interface anschließen, was manchmal auch dem Klang zugute kommt.
 
bei den Elektrons bekommt man über USB eh fast nur die Stereosumme,
Bei Analog Four/Analog Keys und Rytm bekommt man über Overbridge Main Out und Einzelausgänge und kann aus der DAW auch die Eingänge ansprechen (z.B. um Audio durch die analogen Filter und Send Effekte zu schicken). Digitakt und Digitone können glaub nur Einzelausgänge und Main Out (?).

Die Models liefern seit einem Update auch Class Compliant Audio über USB (Stereosumme).


*Edit
Ein begrenzender Faktor ist vorallem bei A4 Mk1 und AR Mk1 die USB Bandbreite, da geht glaub nicht alles parallel in 24 Bit. Hab das nicht mehr alles so im Detail auf dem Schirm.
 
Zuletzt bearbeitet:
WASAPI geht meist nicht ganz so weit runter wie ASIO4ALL, hatte das auf meinem (damals neuen) DAW PC vor 2 Jahren getestet, bis ich die PCIe Karte bekommen hatte. Auch stimmten scheinbar die angegebenen Latenzen nicht, ich hatte 'ne gefühlte Verzögerung zwischen Anschlag und Klang, was bei Latenzen unter 10ms eigentlich nicht passieren sollte, wobei sie das vielleicht bei aktuelleren Windows Versionen gefixed haben.
WASAPI kann man im shared oder exclusiv Modus betreiben. Bei ersten können auch andere Programme Audio ausgeben, wie YouTube im Browser oder so was. Beim zweiten Modus, hat das Programm allein die Herrschaft, was die Latenz noch mal drücken kann. Latenzen habe ich noch nie bei Wasapi feststellen können, alles was unter 15ms ist, ist für mich nicht wahrnehmbar. Ab so 20ms merke ich dann langsam den Versatz, zwischen Anschlag und Ton.
Ich arbeite aber viel in the Box, von daher spielen Latenzen nicht wirklich die große Rolle in meiner Welt. Und fürs Einspielen reichen 12ms aus. Auch hier gibt es sicher Menschen, die das beim Einspielen mit dem MIDI-Keyboard wahrnehmen können, ich zum Glück nicht. Eine Sorge weniger.
Die Frage, ob man Latenzen unter 10ms benötigt, scheint somit sehr individuell zu sein.

Man muss auch mal bedenken dass 20ms unglaublich schnell sind. Das ist die Länge eines Einzelbildes beim Fernsehen mit 50Hz. Für ein paar Pads oder ne Melody reicht mir solch eine Antwortzeit dicke aus, zumal es bei mir ja eher 12ms sind, also wie ein Einzelbild bei 83Hz. Sicher ist man beim Hören da empfindlicher, aber einige scheinen dort sensibler zu sein als andere.
 
WASAPI kann man im shared oder exclusiv Modus betreiben.
Sollte exklusiv gewesen sein, ist bei ASIO ja genauso - sieht man mal von den Multi Client fähigen Treiber mancher Hersteller ab.

Beim zweiten Modus, hat das Programm allein die Herrschaft, was die Latenz noch mal drücken kann. Latenzen habe ich noch nie bei Wasapi feststellen können, alles was unter 15ms ist, ist für mich nicht wahrnehmbar. Ab so 20ms merke ich dann langsam den Versatz, zwischen Anschlag und Ton.

Hab' in den 00ern lange mit der DSP-Factory bei Werten um die 20ms gearbeitet, daher kenne ich das ein klein wenig. Wie gesagt - die Werte die mir angezeigt wurden stimmten mit der gefühlten Latenz überein - war von der Reaktion her eher "matschig" obwohl ich die Monitor Lautsprecher an dem PC direkt vor mir stehen hab'. Von daher würde ich wohl eher zu ASIO4ALL greifen, wie ich das Jahrelang an meinem Internet PC gemacht hab', dank TOSLINK Ausgang mit entsprechendem Wandler.
Das Ganze musste auch nur so lange funktionieren bis die Searph A3 MWX angekommen ist.
 
Ok, na dann ist Wasapi nichts für dich. Muss der Threadstarter dann sowieso selbst entscheiden und testen, ob der da zwischen Tastenanschlag und Ton hören eine Latenz wahr nimmt.
 
späte Anmerkung in die Runde:
Fazit bei Nutzung nur Rechner-interner Plugin-Sounds, ohne jegliche Audio-Ins (HW-Synth, Vocals, Gitarre, Schnarchen meiner Frau...) :
die als End-Produkt (Track) exportierte WAV ist qualitativ unabhängig vom Benutzen eines Audio-Interface am Rechner, ist das so korrekt?


und zum Zitat weiter oben:
Exportiert wird der Track ja im Rechner, ein Rechenprozess quasi.

dazu unklar:
ich kenne nur Echtzeit-Aufnahmen, d.h. den Track meines (HW-) MIDI-Verbundes muss ich demnach einmal während der Mix-Aufnahme einmal komplett abspielen.

Frage dazu:
Ein im Rechner (DAW) produziertes Projekt (z.B. zufriedenstellender Mix) muss doch erst einmal alle Plugin-Synth antriggern / "abspielen" (inkl. allem drumherum, wie FX-Ketten u.a.), bevor überhaupt etwas als WAV exportiert werden kann.

Für mein Verständnis muss ein Arrangement (DAW spielt MIDI- und Audiospuren ab) vorerst komplett in Echtzei "aufgenommen" werden,
um überhaupt eine WAV-Datei werden zu können.

DAW-User schmunzeln vielleicht, aber habe ich hier ein Denkfehler?
 
Fazit bei Nutzung nur Rechner-interner Plugin-Sounds, ohne jegliche Audio-Ins (HW-Synth, Vocals, Gitarre, Schnarchen meiner Frau...) :
die als End-Produkt (Track) exportierte WAV ist qualitativ unabhängig vom Benutzen eines Audio-Interface am Rechner, ist das so korrekt?
Ja, weil die CPU alles berechnet und keine DA Wandlung stattfindet.

ich kenne nur Echtzeit-Aufnahmen, d.h. den Track meines (HW-) MIDI-Verbundes muss ich demnach einmal während der Mix-Aufnahme einmal komplett abspielen.
Ja, wenn externe Synthesizer über Midi angespielt werden, muss die Audioausgabe des Synthesizers in AD gewandelt werden.
Wenn Du ein Synthesizer Plugin benutzt, also der Sound von der CPU berechnet wird, kannst Du den Track auch ohne abzuspielen als Audio Datei bouncen.

Ein im Rechner (DAW) produziertes Projekt (z.B. zufriedenstellender Mix) muss doch erst einmal alle Plugin-Synth antriggern / "abspielen" (inkl. allem drumherum, wie FX-Ketten u.a.), bevor überhaupt etwas als WAV exportiert werden kann.

Für mein Verständnis muss ein Arrangement (DAW spielt MIDI- und Audiospuren ab) vorerst komplett in Echtzei "aufgenommen" werden,
um überhaupt eine WAV-Datei werden zu können.
Wie schon bei den Synthesizer Plugins geschrieben, kann man entweder bouncen oder in Echtzeit aufnehmen und evtl. noch Parameter per Hand einspielen bzw. ändern etc...

Bei den meisten DAW's gibt es die Möglichkeit, einen Track zu einzufrieren (dann folgen alle Parameter einer festgelegten Automation, das spart CPU Leistung). Anschließend kann der eingefrorene Track auch als Audiodatei gerendert werden.
 
Interessant, und herzlichen Dank für die ausführliche Antwort!!

Wie schon bei den Synthesizer Plugins geschrieben, kann man entweder bouncen oder ...

Mich wunderte bei Tutorials, dass das zu "WAV-Exportieren" eines finalen Projektes immer nur ein paar Sekunden benötigt,
obwohl der Track in Realtime mehrere Minuten lang ist.

Booh, ich tue mich echt schwer damit mir vorzustellen,
dass ein Rechenprozess ein komplexes Projekt in eine Audio-Datei bounct, obwohl das Ganze in Realtime nicht stattfand.

Metaffer-Beispiel (nicht ernst nehmen, da A zu D):
ein Orchester ist in der Lage, ein 15 minütiges Stück aufzuführen.
Jeder Solist weiß ganz genau, wann und wie er zu Zupfen, zu Schlagen, zu Streichen hat, wann also seine Einsätze kommen.
Die Leitung sagt nun, wir machen eine Genaral-Aufnahme.
Er kommt mit einem Rechner und bounct, scannt, oder wie auch immer acht Sekunden lang mit 125 KI-Mikrofonen über das Orchester,
und das komplette Stück befindet sich als 15-minütige Audio-Datei im Rechner...
 
Das ändert sich dann, wenn das Projekt auch in Echtzeit nicht mehr oder gerade so berechnet werden kann, ab da ist der Rendering Prozess auch dementsprechend lange..
 
DAW-User schmunzeln vielleicht, aber habe ich hier ein Denkfehler?

das ist alles richtig, was du da sagst.

allerdings bedeutet es halt immer noch, dass du das, was du produzierst, nicht wirklich so hören kannst wie es produziert wurde.

ein schlechteres vs. ein besseres interface zu benutzen ist der gleiche vorgang wie schlechte vs gute lautsprecher zu benutzen oder gute vs. schlechte ohren zu haben.

ob der effekt groß genug ist um den kauf eines interfaces zu rechtfertigen (oder man die ersten 500 euro nicht lieber für einen guten kopfhörer ausgibt, der dann halt an einem schlechten wandler/verstärker hängt) muss jeder selbst entscheiden.

Booh, ich tue mich echt schwer damit mir vorzustellen,
dass ein Rechenprozess ein komplexes Projekt in eine Audio-Datei bounct, obwohl das Ganze in Realtime nicht stattfand.

vereifnacht gesagt: alles, was in einem musikprogramm passiert (bzw. wann es passiert) ist von der audio clock abhängig.

bei einem semiprofessionellen externen inteface kommt diese clock sogar von der hardware.

alles, was in deiner DAW berechnet wird, bezieht sich auf einzelne samples oder genauer auf gruppen von samples, z.b. immer 32.

beim rendern haben viele programme jetzt einen simple mechanismus, der einfch nur immer dann, wenn weniger als 50% rechenleistung in echtzeit benötigt werden würden, die abstastrate im programm sich von der voreinstellung doer der hardware löst, und verdoppelt wird.

dann läuft für die nächsten 32 samples alles im programm statt mit 44 khz mit 88 khz und die bearbetiung dieser 32 samples dauert jetzt nicht mehr 0,7 millisekunden sondern nur noch 0,35 millisekunden.

wie plasmatron richtig ergänzt hat, geht das sogar umgekehrt, manche programme erlauben auch dinge zu rendern, die in echtzeit nicht mehr richtig laufen würden. deswegen haben manche plug-ins sogar einen button für den "high quality mode")

ich versuche auch mal eine schräge analogie: wenn du ein tonband zurückspulst, machst du das schneller wie beim abhören. dennoch sind immer noch die gleichen daten auf dem band.
und man kann sie uch immer noch lesen: in der industriellen herstellung von musikkassetten wird zumeist mit der doppelten geschwindigkeit kopiert.

oder noch geiler: beim scratchen mit einer schallplatte ändert sich weder die uhr an der wand noch wie die beats in der rille relativ zueinander stehen. ;-)
 
Zuletzt bearbeitet:
Hammer, diese Materie kannte ich nach gar nicht, besten Dank für die gute Erklärung!
Da merkt man, dass ich (noch) keine DAW habe.

Ist zwar vom ursprüngl. Thema leicht abgekommen, aber "Recording-Blog" hat das Thema
Bouncen / Rendern auch noch mal aufgegriffen, sowie Echtzeit- und offline-Ergebnisse genau verglichen.
 


News

Zurück
Oben