Samplerates: the higher the better, right?

maak

maak

||||||||||
Ich habe mich schon immer gefragt was das Oversampling bei Ableton's Compressor tut, und was Oversampling überhaupt ist.
Neben bei wird auch die Nyquist Frequency so erklärt dass man es versteht,

In this video tutorial, Dan Worrall explains when and why you should use higher samplerates for your recordings and mixing sessions, and more importantly... when you should NOT. Also, Dan goes in depth about oversampling vs. higher sample rates.

Disclaimer. Auch wenn das Video eigentlich eine Werbung für Fabfilter ist, der Content erklärt sehr viel.



https://www.youtube.com/watch?v=-jCwIsT0X8M


Hängt die interne sample rate der DAW direkt an der sample rate vom audio intarface?
Angenommen das AI kann nur 44.1 kHz kann zB Ableton intern mit 96kHz arbeiten und beim Export down samplen?
 
Ja, die DAW kann intern mit höherer Sampling Rate arbeiten. Oversampling eben.

Oder meinst du ob du audio dateien mit höherer Sampling Rate als die auf der dein Audio Interface eingestellt ist in die DAW importieren kannst?
Was das umgehen mit verschiedenen Sampling Raten angeht unterscheiden sich einige DAWs glaub ich.
Im Zweifelsfall nachlesen wie dei e DAW das handhabt.
Ableton Live kann zwar unterschiedliche Sample Raten importieren (und konvertieren), es wird alletdings empfohlen solche Dateien erst in der Sampling Rate, mit der das System läuft zu rendern und dann zu importieren.
 
Zuletzt bearbeitet:
Ja, die DAW kann intern mit höherer Sampling Rate arbeiten. Oversampling eben.

Oder meinst du ob du audio dateien mit höherer Sampling Rate als die auf der dein Audio Interface eingestellt ist in die DAW importieren kannst?
Was das umgehen mit verschiedenen Sampling Raten angeht unterscheiden sich einige DAWs glaub ich.
Im Zweifelsfall nachlesen wie dei e DAW das handhabt.
Ableton Live kann zwar unterschiedliche Sample Raten importieren (und konvertieren), es wird alletdings empfohlen solche Dateien erst in der Sampling Rate, mit der das System läuft zu rendern und dann zu importieren.

Ich wollte nur verstehen, ob die Sample-Rate-Auswahl da unten im Dialog vorgibt welche Sample rate die DAW insgesamt benutzt. Könnte ja sein dass Live zB intern immer mit 96 kHz arbeitet und nur zum Aufnehmen und Exportieren dann auf den Wert den man da unten eingestellt hat zurück geht. Könnte ja aber auch sein, dass der Wert da unten im Screenshot die Basis Samperate für die DAW insgesamt vorgibt.

Das Oversample ist glaub ich immer relativ zur Bassis Sample Rate gemeint, zB 2x oder 4x Oversampling. Also dass die DAW oversampling kann ist mir klar, nur halt zu welcher Basis Sample rate. Hoffe ich konnte das jetzt besser formulieren.

Ach so warum ich überhaupt die Frage komme, ist weil da In/Out sample rate steht. Deswegen dachte vielleicht gilt der Wert nur für Aunahem / Export aber intern ist die sample rate halt maximal was möglich ist also zb fest @96 kHz.


reduce-sample-rate.jpg
 
Zuletzt bearbeitet:
Ich hab mal gehört das 88khz besser wären weil der Rechner das besser rechnen kann, (weil wohl das doppelte von 44) kann das Jemand bestätigen? Hört sich bisschen naiv an...
 
Ich hab mal gehört das 88khz besser wären weil der Rechner das besser rechnen kann, (weil wohl das doppelte von 44) kann das Jemand bestätigen? Hört sich bisschen naiv an...

44000 oder 88000 als Zahl das ist dem Rechner egal. Interessant wird es wenn du das ganze pro Sekunde siehst. Also echte Sekunden. Und was der Techner eigentlich mit den gesampleten 88000 Datenpunkten / s machen muss. Erstmal muss der Rechner bei 88 kHz ja 88000 mal die Sekunde auf das Ausiosignal schauen, das veruracht nicht nur doppelt soviel Daten (die müssen ja auch erstmal ins RAM oder Caches und auf die Festplalte) sonderrn das zwingt den Rechner noch dazu alles andere erstmal stehen zu lassen was die CPU noch so leisten muss, damit das Audiosignal schön regelmäßig 88000 mal die Sekunde verarbeitet wird. Ist also eher umgekehrt je mehr kHz desto mehr Stress für die CPU. Wenn das Video gesehen hast gehts ja ausserdem um FFT, es wird also jede Menge gerechnet und bei 88 kHz erfolgt diese Rechnung auf 2x so viele Daten wie bei 44 kHz und dann haste noch ein EQ auf jede Spur, was ja normal ist, dann wird klar warum man viele, schnelle Cores braucht, wenn man bis nach 96 kHz hoch gehen will. Deswegen je mehr Cores und mehr Dampf pro Core, je größer die CPU Caches und schneller die Festplatten desto besser wird die Gesamtlatenz. 44 ist definitiv einfach zu bewerkstelligen als 48 oder 96 kHz.
 
Ganzzahliges Downsampling von 88 auf 44 ist einfacher als von 48 auf 44. Das ist relevant, weil historisch bedingt oftmals 44.1 das Zielformat ist. (44.1 CD 48 DVD)
Da es beim Produzieren verschiedene Situationen gibt, bei denen höhere Sampleraten als 44.1 von Vorteil sind, Rechner schnell sind und ADDA Wandler das schon lange können, geht es dabei weniger um die Echtzeitverarbeitungsgeschwindigkeit, als um die möglichst saubere offline-Konvertierung im Mastering.
 
Zuletzt bearbeitet:
Ich hab mal gehört das 88khz besser wären weil der Rechner das besser rechnen kann, (weil wohl das doppelte von 44) kann das Jemand bestätigen? Hört sich bisschen naiv an...

ich vertrete diese idee seit jeher und mache das auch so, aber eigentlich nur noch aus gewohnheit.

wenn das zielformat 44 ist, und du musst von 88 da hin, ist die interpolation beim downsampeln einfacher zu bewerkstelligen. ende der neunziger hatten viele programme auf PC und Mac noch nicht die qualität an SRC wie das heute der fall ist. damals hast du noch einen unterschied zwischen barbabatch und einer weiss hardware gehört messen können.
 
Ich wollte nur verstehen, ob die Sample-Rate-Auswahl da unten im Dialog vorgibt welche Sample rate die DAW insgesamt benutzt. Könnte ja sein dass Live zB intern immer mit 96 kHz arbeitet und nur zum Aufnehmen und Exportieren dann auf den Wert den man da unten eingestellt hat zurück geht.

beim exportieren und bei importieren tun viele programme heute dateien direkt in passende format konvertieren bevor sie z.b. in den speicher gelesen werden.

und weil du oben wegen einem EQ gefragt hast oder was das war: plug-ins machen sowieso was sie wollen. es gibt welche die passen sich an, früher hatten viele eine maximale rate, die erlaubt war, wieder andere wandeln einfach intern um wenn sie was bestimmtes brauchen.

ist bei der bittiefe genauso. die meisten guten synths berechnen seit 15 jahren intern das meiste in 64 bit, egal was die hosts kann und gerade macht. und jeder kennt "mda delay" - dessen delay buffer bis heute nur in 16 bit samplen.
 
Ich wollte nur verstehen, ob die Sample-Rate-Auswahl da unten im Dialog vorgibt welche Sample rate die DAW insgesamt benutzt. Könnte ja sein dass Live zB intern immer mit 96 kHz arbeitet und nur zum Aufnehmen und Exportieren dann auf den Wert den man da unten eingestellt hat zurück geht. Könnte ja aber auch sein, dass der Wert da unten im Screenshot die Basis Samperate für die DAW insgesamt vorgibt.

Das Oversample ist glaub ich immer relativ zur Bassis Sample Rate gemeint, zB 2x oder 4x Oversampling. Also dass die DAW oversampling kann ist mir klar, nur halt zu welcher Basis Sample rate. Hoffe ich konnte das jetzt besser formulieren.

Ach so warum ich überhaupt die Frage komme, ist weil da In/Out sample rate steht. Deswegen dachte vielleicht gilt der Wert nur für Aunahem / Export aber intern ist die sample rate halt maximal was möglich ist also zb fest @96 kHz.


Anhang anzeigen 68877
Soweit ich weiß ist das so.
Die Sample Rate, die man dort einstellt ist also schon die Sample Rate mit der Live dann arbeitet, was dann einzelne Plugins vielleicht machen weiß man evtl. wieder nicht genau.

In Lives manual steht einiges zur Audio Engine und im Merkblatt zu Lives Audio Engine findest du quasi eine Zusammenfassung.
 
ich schrub ja im Mischpulthread das ich den Eindruck habe das Transients mit 96kHz oder mehr definierter rüberkommen als in 44.1 kHz

er beschreibt genau das Selbe
 
Ist das vielleicht ein wenig wie bei Kinofilmen, die in höheren Frameraten als 24fps (z.B. 60fps) von Teilen des Publikums zunächst auch abgelehnt wurden, weil man jahrzehntelang dieses leichte Ruckeln mit dem "großen Kino" assoziiert hat? (TV-Produktionen fuhren auch schon höhere Frameraten, und wirkten dadurch "billiger")?
 
Ist das vielleicht ein wenig wie bei Kinofilmen, die in höheren Frameraten als 24fps (z.B. 60fps) von Teilen des Publikums zunächst auch abgelehnt wurden, weil man jahrzehntelang dieses leichte Ruckeln mit dem "großen Kino" assoziiert hat? (TV-Produktionen fuhren auch schon höhere Frameraten, und wirkten dadurch "billiger")?
es wird immer noch abgelehnt - und ich verstehe auch warum. Es sieht natürlicher aus - aber will man denn bei einem Film natürlicher?

Hinzu kommt - das es die Produktionskosten wirklich absurd erhöht.

Schauen wir nur mal auf die CG-Elemente. Wir haben da oftmals renderzeiten von z.B. 6 Stunden pro frame (ja krass was - und mehr ist nicht so ungewöhnlich) - wenn man das jetzt mal verdoppeln oder gar vervierfachen würde. Das macht schon was aus. Dazu kommen deutlich aufwändigere Simulationen, extrem viel mehr Speicherplatz und alles dafür das es das Publikum doof findet?

Bei der samplerate für Audio sind die hörbaren Unterschiede aber viel weniger auffällig und der Aufwand für die Computer ist eigentlich verschmerzbar.
 
Ist das vielleicht ein wenig wie bei Kinofilmen, die in höheren Frameraten als 24fps (z.B. 60fps) von Teilen des Publikums zunächst auch abgelehnt wurden, weil man jahrzehntelang dieses leichte Ruckeln mit dem "großen Kino" assoziiert hat? (TV-Produktionen fuhren auch schon höhere Frameraten, und wirkten dadurch "billiger")?

Es ist ja nicht nur das Ruckeln, es geht auch um Bewegungsunschärfe, siehe zB hier: https://www.heise.de/hintergrund/Vi...uers-Kino-revolutioniert-7243067.html?seite=3
Leider hat man seitdem nichts mehr davon gehört.

Mich nervt es immer noch, vorallem wenn es künstliche Zwischenbildberechnung ist, die dann auch noch Fehler einbaut.
 
die komprimierung der daten macht bei film so viel kaputt, dass man das nur mit einer erhöhung der framerate wieder halbwegs in den griff bekommt.

viel fragwürdiger finde ich das aufblähen der bildgröße. tagesschau in 4k ist einfach lächerlich.

aber der zweite aspekt ist, dass es früher recht sinnlos gewesen wäre. vor nicht allzu langer zeit war die nachleuchtzeit von bildschirmpixeln noch so groß, dass zwischen den bildwechseln quasi analog interpoliert wurde, und du hättest von 100Hz content nicht viel mitbekommen.
 
Zuletzt bearbeitet:
Es ist ja nicht nur das Ruckeln, es geht auch um Bewegungsunschärfe, siehe zB hier: https://www.heise.de/hintergrund/Vi...uers-Kino-revolutioniert-7243067.html?seite=3
Leider hat man seitdem nichts mehr davon gehört.

Mich nervt es immer noch, vorallem wenn es künstliche Zwischenbildberechnung ist, die dann auch noch Fehler einbaut.
man kann ja bei Kamerafahrten wo das 24 fps geshuttere wirklich nerven kann, in höherer framerate rendern

und ja das automatisch generierte - oft die STandardeinstellugnen bei Fernsehern - sieht schlimm aus
 
Was hier noch komplett fehlt ist die Latenz. Eine höhere Samplerate wird bei identischer Größe des Buffers die Latenz reduzieren (Latenz in MS = Buffer / Samplerate + Latenz der Software). Bei Live Sets oder komplexeren Live Aufnahmen (z. B. Routing Hardware -> DAW -> Hardware -> DAW) macht sich das durchaus bemerkbar.
 
Eine höhere Samplerate wird bei identischer Größe des Buffers die Latenz reduzieren (Latenz in MS = Buffer / Samplerate + Latenz der Software). Bei Live Sets oder komplexeren Live Aufnahmen (z. B. Routing Hardware -> DAW -> Hardware -> DAW) macht sich das durchaus bemerkbar.
Vielleicht dumme Frage, aber ist das nicht eine Milchmädchenrechnung, weil die benötigte Rechenleistung (da höherer Datendurchsatz) entsprechend ansteigt? 🤔
 
Vielleicht dumme Frage, aber ist das nicht eine Milchmädchenrechnung, weil die benötigte Rechenleistung (da höherer Datendurchsatz) entsprechend ansteigt? 🤔
Ja und nein, bitte korrigieren, wenn ich falsch liege:

Der Buffer wird so klein wie möglich eingestellt, um die Latenz klein zu halten, aber so groß wie nötig, damit das System stabil läuft.

Wenn ich bei einem so knappen Buffer die Samplingrate erhöhe, wird es wahrscheinlich instabil, aber:

Wenn der Buffer vorher großzügig (mehr als doppelt über knapp) eingestellt war, verkleinert sich die Latenz mit der Verdoppelung der Samplingrate, Systemstabilität vorrausgesetzt.
 
Vielleicht dumme Frage, aber ist das nicht eine Milchmädchenrechnung, weil die benötigte Rechenleistung (da höherer Datendurchsatz) entsprechend ansteigt? 🤔
prinzipiell hast du schon recht… aber wenn man relativ wenig im Rechner macht oder der schnell genug rechnet, kann man mit höherer Samplerate durchaus noch geringere Latenz erreichen

bei mir ist das so
 
bei mir ist das so
habs zugegeben nicht seibst ausprobiert - der Gedanke war: wenn mein System schon so schwach ist, dass ich bei 44.1k den Puffer nicht kleiner stellen kann, wird es auch nicht mit 96k und gleicher Puffergröße arbeiten. Aber schon klar, dass das keine exakte 1:1-Beziehung sein dürfte und immer auf dem Einzelfall ankommt.
 
Vielleicht dumme Frage, aber ist das nicht eine Milchmädchenrechnung, weil die benötigte Rechenleistung (da höherer Datendurchsatz) entsprechend ansteigt? 🤔
Der Buffer wird so klein wie möglich eingestellt, um die Latenz klein zu halten, aber so groß wie nötig, damit das System stabil läuft.
Klar, die Rechenleistung ist das größte Bottleneck. Ein weiterer Aspekt den man aber einkalkulieren muss ist die verwendete Software. In meinen Tests zur Latenzoptimierung fürs Live Set war die Auslastung des Systems bei 64 Samples Buffer und 48khz noch gut (ca. 60%). Trotzdem hörte ich Artefakte im Audio. Das Problem war letztendlich (nach meiner logischen Herleitung) dass bestimmte Plugins mit so einem kleinen Buffer einfach nicht klarkommen, wahrscheinlich weil der Algorithmus mehr Daten braucht. Bei 128 Samples und 96khz war dann alles fein. Die Latenz ist dabei gleich geblieben (128/96 == 64/48) aber die Software war happy.
 
Bei der samplerate für Audio sind die hörbaren Unterschiede aber viel weniger auffällig und der Aufwand für die Computer ist eigentlich verschmerzbar.

Das Ding ist, dass jedwede Bearbeitung immer zur jeweiligen Nyquist Frequenz verzerrt/hingezogen wird, dazu kommt, dass auch Bearbeitungen im hochfrequenten Bereich ein Plugin anders arbeiten lassen, da mehr Inhalte/mehr Energie reingegeben wird.

44,1khz reicht nicht aus, da die Signal erzerrungen weit in den hörbaren Bereich gehen.

Thema Aliasing kommt auch noch dazu,
auch bei guten Antialiasingfiltern.

Bestes Beispiel: Highshelving im plugindoctor bei unterschiedlichen Abtastraten vergleichen.
Diese Art der Verzerrungen passieren bei jeder Bearbeitung: bei EQs, Komps, reverbs, Distortion sowieso
 
Vielleicht dumme Frage, aber ist das nicht eine Milchmädchenrechnung, weil die benötigte Rechenleistung (da höherer Datendurchsatz) entsprechend ansteigt? 🤔

Du kannst halt höhere Buffer wählen, sodass die Latenz gleich bleibt. Das kompensiert die Mehrauslastung etwas.

Andererseits upsamplen eh schon viele Plugins. Eine höhere DAW-Samplerate hätte zur Folge, dass viele Plugins nicht mehr so stark upsamplen müssen, das kommt dem auch noch entgegen.

Ich schätze, dass eine doppelt Samplingrate ca 25-30% Mehrauslastung bedeute.

Das Audiosystem ist da viel problematischer, da man doppelt so viele Adat I/Os benötigt, sofern man diesen Schund nutzt 😂
 


News


Zurück
Oben