44.1kHz oder 48kHz? Vor- und Nachteile?

Caine

.....
Hallo!

ich habe mein system auf 48khz gestellt gehabt vor jahren und erst neulich meinte einer das er nicht auf 48khz produzieren würde. er meinte es wäre eh 44.1 standard und 48khz bringen keine vorteile.

was sagt ihr dazu? bringt es vor und/oder nachteile? ich produziere nur in box, also vsts usw in meiner DAW.

danke
 
HaHa, von früher (als DAT neu war) weis ich das 44,1 consumer level und 48 pro level ist.
Ich selber stelle meine projekte immer auf 48kHz.
Einige nutzen 96kHz wegen der besseren Latenz und/oder damit alle algorythmen feinere (detailierte) Daten zum rechnen haben.
Alles darüber ist sinnloss. Ausser du hast einen weltklasse künstler den du mit dem entsprechend hochwertigen equipment aufnehmen möchtest.
Ansonsten bist du nicht der erste der das fragt und es ist in diesem Fourm bestimmt schon alles dazu gesagt worden.
 
Zuletzt bearbeitet:
Genau. Das Thema habe ich vor kurzem aufgemacht. Hier ein paar Zitate:

Mein Fazit heute: Der Umstieg auf 48kHz lohnt sich nicht wirklich, weil "lohnen" das falsche Wort dafür ist, aber es zieht doch eine kleine Verbesserung mit sich.
Die Antialiasing Filter funktionieren besser.
Ich ziehe mir grad das unten verlinkte Video rein.
Demnach wäre es egal, wenn die Plugins gut sind bzw. Oversampling haben. Also ungefähr das was @ollo in der ersten Antwort meinte.

Hier geht er auf die 44/48-Geschichte ein:


Er meint, dass 48 doppelt so gut ist wie 44 kHz. Bzw. man das in gewisser Weise sagen könnte.
 
44,1 oder 48khz macht kaum Unterschied. Interessant heute dazu ist nur:

Und das betrifft hauptsächlich Bearbeitungen mit Sättigung.
Man kann oversamplen, aber das bringt selbst Artefakte mit ein, also ist man besser beraten auf 88,2 96 oder gar 192khz zu fahren - wenn man die kapazitäten hat.

Die höhere Abtastrate reduziert die Latenz, man könnte also mit höherer Buffersize arbeiten und spart so etwas CPU Auslast ein.

Obs einem liegt oder obs relevant ist. Probiere es einfach für dich aus
 
Die höhere Abtastrate reduziert die Latenz, man könnte also mit höherer Buffersize arbeiten und spart so etwas CPU Auslast ein.
Warum soll man so CPU einsparen, bei doppelten Buffersize und doppelter Frequenz wird sie genauso häufig unterbrochen und muss dabei noch 'nen größeren Puffer befüllen.
 
Warum soll man so CPU einsparen, bei doppelten Buffersize und doppelter Frequenz wird sie genauso häufig unterbrochen und muss dabei noch 'nen größeren Puffer befüllen.

Du hast dennoch nicht gleich doppelt soviel Mehrbelastung, sondern vlt nur 60% oder so
 
Du hast dennoch nicht gleich doppelt soviel Mehrbelastung, sondern vlt nur 60% oder so
Du hast bei gleicher Latenz kein Gewinn, eher Verlust an Leistung zu erwarten, speziell wenn es sich um ein USB Audio Interface handelt und die CPU die Daten selbst schaufeln muss. Das sieht unter Umständen besser aus, wenn du viele Plugins benutzt die dann kein Oversampling inkl. Filterung mehr machen müssen, das ist von Fall zu Fall verschieden.
 
Du hast bei gleicher Latenz kein Gewinn, eher Verlust an Leistung zu erwarten, speziell wenn es sich um ein USB Audio Interface handelt und die CPU die Daten selbst schaufeln muss. Das sieht unter Umständen besser aus, wenn du viele Plugins benutzt die dann kein Oversampling inkl. Filterung mehr machen müssen, das ist von Fall zu Fall verschieden.

Du hast immer eine Mehrbelastung, das ist klar und diese wird erst etwas weniger, wenn du die Latenz über Buffersize angleichst.

Hab's scheiße formuliert
 
Aber so wie du es beschreibst, bei doppeltem Buffersize, wird der Prozessor bei doppelter Abtastfrequenz genauso oft unterbrochen, hat aber mit dem befüllen der Puffer mehr zu tun.
 
Aber so wie du es beschreibst, bei doppeltem Buffersize, wird der Prozessor bei doppelter Abtastfrequenz genauso oft unterbrochen, hat aber mit dem befüllen der Puffer mehr zu tun.

Aber die Latenz wird doch geringer, deshalb kann man die Buffergröße heraufsetzen und an seine Arbeitsweise anpassen.
Dadurch hast du nicht ganz so hohen CPU Verbrauch.

Oder was ist jetzt dein Punkt?
 
Meine bescheidene Erfahrung ist, dass man bei 96 kHz gegenüber 48 kHz zwar theoretisch halb soviel Latenz hätte, aber die doppelte Buffer-Größe braucht, damit es nicht zu Aussetzern kommt, was den Vorteil gleich wieder negiert.

EDIT: Das Durchgestrichene wurde von @serge schlüssig als Mythos widerlegt:
44,1 kHz waren ja von Anfang an eigentlich nur eine Notlösung, weil Karajan darauf bestand, dass die 9. Sinfonie von Beethoven auf nur eine einzige CD passen müsse. Sony waren die Wünsche des Herrn Karajan so wichtig, dass man die technisch bessere Lösung für die CD mit 48 kHz zugunsten der 44,1 kHz kippte, um die Einführung der CD mit Beethovens Neunter unter Karajan vermarkten zu können.

Ich erinnere mich gut an eine Messe, die im Jahre 1982 in Düsseldorf stattfand und auf der die CD als Neuerung vorgestellt wurde (nachdem sie schon 1981 auf der IFA in Berlin erstmals präsentiert worden war). Ich war gerade 10 Jahre alt. Damals gab es ganze 50 Produktionen auf CD (die in Deutschland dann erst 1983 erschienen) und mein Vater meinte, es würde sicher noch viele Jahre dauern, bis sich diese Technik durchsetzt. Da irrte er sich ...

Und heute haben wir den Salat.

Einen Unterschied zwischen 44,1 kHz und 48 kHz höre ich nicht, aber ich hab´ ja eh doofe Ohren.
 
Zuletzt bearbeitet:
Einen Unterschied zwischen 44,1 kHz und 48 kHz höre ich nicht, aber ich hab´ ja eh doofe Ohren.

Darum geht es auch nicht. Man hat hier leichte Vorteile bzgl Aliasing, aber je nachdem welche Abtastrate Ziel
ist, könnten die Vorteile durch die entstehenden Artefakte wieder zunichte gemacht werden.

Wenn man kann min 88,2khz
 
Wem es nur um die Latenz geht, der gewinnt nichts, aber höhere Buffersize=geringere CPU Auslast,
höhere Abtastrate=höhere CPU AUslast
Trotzdem hast Du bei höherer Abtastrate immer mehr CPU-Last als bei niedrigerer Abtastrate.
Es müssen ja im selben Zeitraum mehr Daten durchgeschaufelt und auch entsprechend mehr
Berechnungen vorgenommen werden.
Eine größere Buffer-Größe senkt (wenn man die ganz kleinen Buffer-Größen mal ausnimmt)
nur noch bedingt die CPU-Last, sie sorgt lediglich dafür, dass auftretende Unregelmäßigkeiten
in der Verarbeitungszeit besser toleriert werden. (Soll heißen, der Effekt wird immer schwächer,
je größer der Buffer schon ist. Unter eine bestimmte Verarbeitungszeit pro Sample kommt man
auch mit größeren Buffern nicht mehr runter - der Rechenaufwand pro Sample verschwindet ja
nicht einfach, wenn man den Buffer größer macht).
 
Trotzdem hast Du bei höherer Abtastrate immer mehr CPU-Last als bei niedrigerer Abtastrate.

Ja natürlich, ich sagte ja ich hätte mich nicht gut ausgedrückt.

Wer so hohe Abtastraten fährt, muss es in erster Linie um die klanglichen Vorteilen bei der Berechnung
von Plugins gehen, die Aliasing erzeugen. Ob nun Latenz heute wirklich relevant ist? Für Gitarristen vlt.,
aber sonst? So ne RTL von knapp 4 ms kriegt man eigtl locker hin. So´n RME oder MOtu ließe sich mit einer RTL von unter 2ms betreiben.
 
Lassen wird das, bring uns ja nicht weiter wenn du dich ständig mit neuen Argumenten rauslavierst.
 
Für die Leute die da immer irgendwelche Unterschiede hören... Höhere Abtastraten und Bittiefen haben z.t. in der Produktion ihre Berechtigung, im Endprodukt bezweifle ich das irgendjemand im Blindtest einen Unterschied hört.



Das angestaubte original hat auch heute noch seine Daseinsberechtigung....
 
Darum geht es auch nicht. Man hat hier leichte Vorteile bzgl Aliasing, aber je nachdem welche Abtastrate Ziel
ist, könnten die Vorteile durch die entstehenden Artefakte wieder zunichte gemacht werden.

Wenn man kann min 88,2khz
Ich habe mal gelesen, 44,1/48 kHz oder 88,2/96 kHz wäre bei allen Mono-Signalquellen und bei allen Line-Signalen vollkommen unerheblich. Einen hörbaren Vorteil sollten höhere Sampleraten nur bei echten Stereo-Mikrofonaufnahmen haben. Die Gründe weiß ich nicht mehr. Aber irgendwo hier war ein Video mit der entsprechenden plausiblen Erklärung verlinkt.
 
Ich habe mal gelesen, 44,1/48 kHz oder 88,2/96 kHz wäre bei allen Mono-Signalquellen und bei allen Line-Signalen vollkommen unerheblich

Ist es auch. Es geht hier nur um die Bearbeitung. Die Abtastrate des Zielmediums ist bis 44,1khz runter für die meisten Menschen ausreichend.

Ich bezweifle dass es überhaupt jemanden gibt, such kleine Kinder nicht, die bis ~22khz hören können
 
Diese Unterschiede kommen aus der Filmecke, die 48kHz sind dort sehr üblich (wegen DropFrame - aus vergangenen Zeiten) und für den Rest eben die kleine - doof ist eher das umrechnen von 48 auf 44.1kHz weil das natürlich etwas nah beieinander liegt.
Aber es ist besser. Ja. du nimmst ja immerhin 7000 Proben mehr pro Sekunde.

Wenn du schon damit arbeitest, kannst du es lassen - es bringt sogar etwas mehr Reserve beim Rechner, aber noch mehr arbeiten bereits mit Vielfachen dieser Frequenzen.
Das ganze hat viele viele Gründe, die wir hier schon mehrfach gedreht haben.

Ich hab das damals mit DAT auch auf 48kHz gemacht, weil es sich besser anhörte - aber für CDs ist es nicht die beste Grundlage gewesen.
Heute gibt es für alles Konverter und ganz gute Wandler-Algorithmen die es kaschieren.

Wichtiger ist aber noch die Auflösung von 16 bis 32 Bit mit und ohne Float - in einer DAW ist das gut, wenn es da Reserven gibt wenn du mischst. Damit kannst du einerseits Reserve haben bei der Dynamik zwischen sehr lauten und leisen Stellen und so weiter, deshalb spielt sowas dort eine Rolle - schau dir also deine Musik an (ehm, hör sie dir an) und und und..

Aber intern hoch auflösend zu arbeiten ist idR kein Nachteil mit aktuellen Rechnern.
Es gibt sehr sehr viel zu erzählen, aber ..
am Ende ist das fast heute eine Art Grundentscheidung die mit deinem Umfeld zu tun hat.
 
Zuletzt bearbeitet:
44,1 kHz waren ja von Anfang an eigentlich nur eine Notlösung, weil Karajan darauf bestand, dass die 9. Sinfonie von Beethoven auf nur eine einzige CD passen müsse. Sony waren die Wünsche des Herrn Karajan so wichtig, dass man die technisch bessere Lösung für die CD mit 48 kHz zugunsten der 44,1 kHz kippte, um die Einführung der CD mit Beethovens Neunter unter Karajan vermarkten zu können.
Eine schöne Geschichte, nur ist sie leider wie andere Geschichten, die sich um die Entstehung der CD ranken, nicht wahr. Die Abtastrate 44,1 kHz ergab sich aus den Sony-Wandlern, die die Audio-Signale für die Aufzeichnung auf U-Matic-Video-Recordern mit 16-Bit-Dynamikauflösung digitalisierten:

Diese Video-Recorder konnten pro Sekunde 50 Halbbilder zu jeweils 294 Bildzeilen aufzeichnen,
und da pro Bildzeile 96 Bit kodiert werden konnten,
ließen sich also pro Sekunde 50 x 294 x 96 = 1.411.200 Bit speichern.

Für 16-Bit-Dynamikauflösung teilt man diesen Wert durch 16,
macht also 88.200 16-Bit-Worte pro Sekunde,
und da wir für Stereo zweikanalig aufzeichnen, teilen wir diesen Wert durch 2,
womit wir 44.100 Stereo-Abtastwerte in 16-Bit-Dynamikauflösung pro Sekunde erhalten.
(Quelle)

"Quod Erat Demonstrandum, baby ("ooh, you speak French")"
(Quelle) Aber ich bin mir sicher, dass Du die Zeile auch ohne Quellenangabe erkannt hast. ;-)
 
Eine schöne Geschichte, nur ist sie leider wie andere Geschichten, die sich um die Entstehung der CD ranken, nicht wahr.
Das kann ich nicht beurteilen, weiß aber sicher, das aus sehr berufenem Munde persönlich gehört zu haben. Und es wurde auch in diversen Medien so kolportiert. Da ich aber anders als Du keine Quellen benennen kann außer meiner Erinnerung, hast Du Recht.

Ich habe noch das Folgende gefunden: "Die 74 Minuten gehen, so will es zumindest der Mythos, theoretisch auch darauf zurück, dass Norio Oga, Ende der 70er Vizepräsident der Firma Sony und einst Opernsänger, unbedingt Beethovens 9. Sinfonie auf einem einzigen Tonträger haben wollte. Tontechniker von Sony orientierten sich dafür an der längsten Fassung, die existierte."
(Quelle: https://www.rollingstone.de/40-jahre-cd-faszinierende-fakten-zur-compact-disc-2254927/)

"Die zunächst von Philips angestrebte Spieldauer von 60 Minuten wurde auf Bitten von Norio Ohga, Vizepräsident von Sony und Liebhaber und Kenner klassischer Musik, auf 74 Minuten verlängert und der Durchmesser dementsprechend auf 12 Zentimeter vergrößert. Sein Wunsch, die neunte Sinfonie von Ludwig van Beethoven in voller Länge auf nur einen Tonträger zu pressen, konnte damit erfüllt werden. (...) Herbert von Karajan war derart begeistert von dem Qualitätssprung der CD gegenüber anderen Tonträgern, dass er sich entschloss, sich anlässlich der Salzburger Festspiele für das CD-System auszusprechen."
(Quelle: https://www.tmk-gruppe.de/GeschichtederCD.htm)

Demnach wäre nicht die Samplerate an Beethoven angepasst worden, sondern der Durchmesser. Wieder was gelernt.
 
Zuletzt bearbeitet:
Der unterscheid ist, machst du was zum Hören, dann 44.1 kHz machst du, was zum Ansehen ist 48 kHz zu verwenden. Warum 48 kHz ganz einfach beim Rendern oder importieren, gibt es je nach Programm Probleme.
 
Ich produziere schon ewig in 44.1KHz mit 24Bit. Und zwar aus dem Grund, weil ich den Kram schon vor langer Zeit bis ins letzte Detail geprüft und durchgekaut habe. Ergebnis von mir und Fachkollegen ist, wer normal Musik wie Techno, Pop und Co. produziert, ist 44.1KHz mit 24Bit das Beste. Wenn ihr mich jetzt fragt warum, muss ich den ganzen Klimm Bim von damals der mich überzeugte auskramen.

Ich sag nur so viel.
In der heutigen Zeit mit den guten Wandlern und Plugins kommt es nur auf eins an. Welche Zielrate wird man ganz am Ende nach dem Mastern haben ?
Wird man am Ende 44.1KHz haben, produziert man auch gleich am besten darin. Denn jede Konvertierung der Bitrate wirkt sich negativer auf den Klang aus als alles andere. In 96KHz was recorden macht nur Sinn, wenn man was absamplet wie ein Klavier oder so. Nur dafür wurde das entwickelt. Aber normale Musikproduktion 44.1KHz. Produziert man speziell für Film und Game, dann 48KHz, weil das da das Format ist.
 


News

Zurück
Oben