44.1kHz oder 48kHz? Vor- und Nachteile?

Na - du tust ja gerade so als ob du uralte Plugins nutzt die kein Oversampling können und deshalb unbedingt bei 96khz laufen müssen o.O

Ich schrub jetzt mindestens zwei mal, dass Oversampling Artefakte nach sich zieht und nur eine Notlösung darstellt. Konsequent ist das nicht.

Aber ich schreibs dir gerne noch 10 mal

Wenn es wenige Bearbeitungen in einem Mix sind, bspw 2-3 Comps und nen Tape, wirds wohl nicht so große Auswirkungen haben. Die Realität dürfte aber heute aussehen, dass davon in einem durchschnittlichen Mix min 30% der Plugins betroffen sind. Also ist der Gewinn einer höheren Abtastrate im Mix alles andere als subtil.
 
Zuletzt bearbeitet:
...oder sich einfach gar keine Rille drum machen, weil beim Master eh für mindestens ein analoges Gear gewandelt wird und das Endergebnis dann, ist das nicht toll, simpelst in jeder gewünschten Auflösungskombi festgehalten werden kann...
 
Diese Unterschiede kommen aus der Filmecke, die 48kHz sind dort sehr üblich (wegen DropFrame - aus vergangenen Zeiten) und für den Rest eben die kleine - doof ist eher das umrechnen von 48 auf 44.1kHz weil das natürlich etwas nah beieinander liegt.
Aber es ist besser. Ja. du nimmst ja immerhin 7000 Proben mehr pro Sekunde.
Besser ist hier relativ... du nimmst 7000 Proben pro Sekunde mehr, ja, aber was bringt dir das? Richtig, eine höhere maximal aufnehmbare Frequenz (Nyquist und so...), diese Frequenzen die du dabei gewinnst kann aber kein Mensch hören. Macht vielleicht Sinn wenn du für Fledermäuse produzierst... ;-)
 
Bob Katz hat dazu eigentlich schon alles gesagt... im Prinzip ist 48khz der "neue Standard" (insbesondere getrieben durch die Streaming Plattformen), seiner Erfahrung nach werden im Moment nur ca. 20% des Mastering Materials mit 96khz an ihn weitergereicht, was aufgrund der Leistungsfähigkeit aktueller Rechner in Zukunft sicherlich zunehmen wird. Hinsichtlich möglicher Artefakte gilt bei ihm die Devise: Einsatz von guten Wandlern (Klar, der Mann bewegt sich da in anderen Gefilden als z.B. ich mit meiner RME Fireface UCX), diese bei der Aufnahme nicht übersteuern und nach Möglichkeit so wenige Plugins nutzen wie möglich, da durch diese jeweils (ungewollte) Artefakte & Distortion hinzufügen können.

Seit Jahren mit 48khz unterwegs... nächstes Jahr soll es ein neuer Audiorechner werden, da werde ich dann auf 96khz springen. Da ich keine CDs produziere, ergeben für mich 44,1khz ohnehin keinen Sinn. Und wenn doch, würde ich eher mit 88,2khz produzieren. Bob Katz rules... kann sein Buch nur wärmstens empfehlen.

https://www.amazon.de/Mastering-Aud...ob+katz+mastering+audio&qid=1688798875&sr=8-1

Nette YT-Runde mit dem Meister himself (3 Jahre her, also mitten im C-Wahnsinn):

 
Ich recorde mit 48kHz bei 24bit weil ich meistens Filmmusik produziere und dort 48kHz Standard sind. Würde ich nur für mich produzieren, dann würde ich ganz sicher das 44.1 Format verwenden.
 
So lange das Endformat für Endkonsumenten nicht 88.2KHz 24Bit ist, macht es keinen Sinn damit zu produzieren, da durch die Runterkonvertierung der Samolerate am Ende auf 44.1 KHz ins Zielformat der Endkunden das ganze wieder versaut. Egal wie gut das Konverterplugin ist. Dann gleich in 44.1KHz zu produziere für das Endformat ist die sauberste Lösung. Wo keine Konvertierung, da auch null Artefakte. Da die heutigen Plugins alle Oversampling nutzen und die Wandler von den Interfaces super sind, ist es klanglich besser in 44.1KHz oder 48KHz zu produzieren und da zu bleiben als die ganze Mühe mit 88.2KHZ oder 96KHz zu versauen indem man am Ende ins Zielformat 44.1 oder 48 runterkonvertiert und durch die Wandlung mehr Schaden anrichtet als während der ganzen Produktion in 44.1 oder 48.
 
Besser ist hier relativ... du nimmst 7000 Proben pro Sekunde mehr, ja, aber was bringt dir das? Richtig, eine höhere maximal aufnehmbare Frequenz (Nyquist und so...), diese Frequenzen die du dabei gewinnst kann aber kein Mensch hören. Macht vielleicht Sinn wenn du für Fledermäuse produzierst... ;-)
Das ist natürlich provokativ - aber leider auch nicht ganz richtig.
Es gibt nun mal mehr Information die das Ohr auch aufnimmt, die Topfrequenzen allein sind da nicht gemeint sondern einfach mehr Daten.
Natürlich ist das ein Unterschied - wie groß musst du und kannst du durch hören ausprobieren ob es dir das wert ist.

Die Gedanken dazu sind unterschiedlich und vorgeben würde ich das nicht. Aber - es gibt einen kleinen Unterschied. Es gibt auch einen zu zB 32kHz, hör es dir an, mit besten Wandlern und Amps und Abhöre.
Das Fledermäuse-Argument hinkt dann, wenn du bedenkst, dass auch die unteren Bereiche höher aufgelöst sind - das sollte man nur wegen der Frequenz selbst nicht ignorieren.
Es gibt genau deshalb auch 88 96 und andere Samplefrequenzen, die einfach ein Vielfaches der Basisfrequenzen sind und hier spricht natürlich auch keiner von Fledermäusen, sondern das bringt eine doppelte Auflösung unterhalb und lohnt sich eben schon. Sonst würde man das nicht anbieten und machen. Es gibt mehr als 2 Aspekte dabei.

Oversampling wurde ja schon erwähnt, und die Idee das als Doppelung zu machen ist schlicht einfacher als etwa auf 54kHz zu gehen, was auch eine Verbesserung wäre.
Wie dem auch sei - die Auflösung wäre höher und das ist auch feststellbar - die Nyquist Geschichte ist leider eher im Weg als eine eigene Schallmauer bei dieser Betrachtung.
 
Zuletzt bearbeitet:
So lange das Endformat für Endkonsumenten nicht 88.2KHz 24Bit ist, macht es keinen Sinn damit zu produzieren, da durch die Runterkonvertierung der Samolerate am Ende auf 44.1 KHz ins Zielformat der Endkunden das ganze wieder versaut.

Eine einmalige Konvertierung fällt nicht so stark ins Gewicht, wohl aber die ständige, sofern man Oversampling einsetzt.
 
Ich hatte nur geschrieben, falls du das meinst?
Das sieht unter Umständen besser aus, wenn du viele Plugins benutzt die dann kein Oversampling inkl. Filterung mehr machen müssen, das ist von Fall zu Fall verschieden.
Aber da ging es um die Prozessorlast nicht ums Aliasing. Denn unabhängig von der Abtastrate hat man im Rechner ständig mit einer wie auch immer quantisierten Signalen bzw. Daten zu tun, egal mit welcher Abtastrate man arbeitet, liegen die Daten immer digital vor und müssen bei div. Operationen entsprechend per aufbereitet bzw. interpoliert, gefiltert etc. werden um Aliasing zu vermeiden.
 
Zuletzt bearbeitet:
Es gibt nun mal mehr Information die das Ohr auch aufnimmt, die Topfrequenzen allein sind da nicht gemeint sondern einfach mehr Daten.

Aber - es gibt einen kleinen Unterschied. Es gibt auch einen zu zB 32kHz, hör es dir an, mit besten Wandlern und Amps und Abhöre. Das Fledermäuse-Argument hinkt dann, wenn du bedenkst, dass auch die unteren Bereiche höher aufgelöst sind - das sollte man nur wegen der Frequenz selbst nicht ignorieren.

Wir hören aber nicht die Datenpunkte, sondern bestenfalls das, was das Rekonstruktionsfilter hinter dem DA aus den Datenpunkten macht (und an den Speaker liefert blablabla ... ich denke Du weißt, worauf ich hinaus will, selbst ich hier nicht die ganze Signalkette herunterbete). Und aus Sicht des Filters sind bei Frequenzen deutlich unterhalb SR/2 (bzw. der "Topfrequenzen", wie Du es nennst) zwar mehr Informationen zu verwerten, aber die sind für diese Bereiche redundant. Das Filter hätte den Wert auch ohne einen Datenpunkt durchlaufen.

Was die oft genannte höhere zeitliche Unterscheidbarkeit zwischen zwei Ereignissen angeht: Der Kehrwert des zeitlichen Abstandes zweier Datenpunkte ist letztlich auch nur eine Frequenz. Und in Sachen Frequenzen gibt es halt im Ohr zunächst Grenzen, je nach Alter und Gesundheitszustand. Aber: Ich könnte mir vorstellen, dass es bei der Stereoabbildung eventuell Vorteile bringt. Da sind die Ohren zwar noch immer baulich limitiert, aber man hat davon ja zwei und das Gehirn könnte womöglich noch den Laufzeitunterschied auswerten. Das geht aber nur, wenn zwei Impulse aus verschiedenen Richtungen kommen. Alles in der Mitte profitiert davon nicht. Ich lese öfter, dass die Leute von mehr Räumlichkeit bei höheren Raten berichten und das könnte eine mögliche Erklärung dafür sein. Ich selber nehme das nicht so wahr, bin aber mit meinen komischen Ohren und meiner Ausrüstung auch kein Maßstab.

Dass man bei den von Dir erwähnten 32kHz einen Unterschied hört, liegt wohl auch daran, dass manche Menschen SR/2 = 16kHz noch hören können. Insbesondere, wenn noch (AA)Tiefpässe im Spiel sind, die ja nicht unendlich steil sind und deren Übergangsband durch die niedrige Rate deutlich im Hörbereich liegen kann. Wegen der o.g. Begrenzung des menschlichen Hörapparates kann man das nicht 1:1 auf höhere Abtastraten extrapolieren und jedesmal einen grandiosen Zuwachs an wahrnehmbaren Details erwarten.

Das gilt wohlgemerkt für Endprodukte, die auf ihrer Rate wiedergegeben werden. Nicht aber zwingend für die interne Berechnung und schon gar nicht für Dateien, die man dann im Sampler in den Keller transponieren will. Da können höhere Raten Sinn machen, sofern da frequenztechnisch etwas aufgezeichnet wurde.
 
Zuletzt bearbeitet:
Bei der DA-Wandlung wird ein sehr steilflankiges Tiefpass-Filter (Rekonstruktionsfilter) angewendet, das alles oberhalb der Nyquist-Frequenz abschneidet. Im Fall von 44100 Hz Sample Rate ist der Bereich zwischen Hörbereichsgrenze bzw. Passband-Grenze (20000 Hz) und Nyquist-Frequenz (22050 Hz) sehr schmal. Das führt zu Artefakten, insbesondere einem heftig verbogenen Phasengang im oberen Hörbereich und zu Ripple (Welligkeit) und Ringing (Klingeln) in der Nähe der Nyquist-Frequenz.
Ich persönlich höre diese Effekte mit Sicherheit nicht, aber über einen jungen Menschen mit hervorragendem Gehör würde ich keine Aussagen treffen. Daher kann es sicherlich nicht schaden, die Nyquist-Frequenz und damit den Bereich der Artefakte weiter nach oben aus dem Hörbereich zu schieben, wie das bei 48 kHz im Vergleich zur Sample Rate 44.1 kHz ja schon der Fall ist.
Ein professionelles Plugin, egal ob virtuelles Instrument oder Audio-Effekt, wird heute immer schon mit internem Oversampling arbeiten, wo immer das notwendig ist.
Es ist nicht zwingend so, dass der Übergang zur doppelten Sample Rate dann zu einem besseren Ergebnis führen wird. Denn Plugins nutzen Oversampling meistens dazu, um im Frequenzbereich einen Headroom für Frequenzen zu haben, die durch nicht-lineare Operationen (Distortion, Ringmodulation, FM) erzeugt werden. Dabei entstehende negative Frequenzen stören nicht weiter, sofern sie sich nicht in den Hörbereich zurückfalten, und dieser Frequenzmüll wird dann beim abschließenden Downsampling abgeschnitten. Die Notwendigkeit zu dieser Bereinigung fällt nicht weg, wenn man das Plugin mit einer höheren Sample Rate betreibt. Es wird auch dann relativ steilflankige Filter mit einer sehr hohen Stoppband-Unterdrückung und einer geringen Welligkeit im Durchlassbereich benötigen, um den Frequenzmüll zu entfernen, nur dass das dann nicht mehr implizit beim Downsampling geschieht. Somit ist auch in diesem Fall (d.h. wenn man nicht wieder downsamplen muss) die Verarbeitung nicht 100% neutral (phasentreu usw.)
Das Argument von @Knastkaffee_309 greift nur, wenn wiederholtes Up- und Downsampling durch die Verwendung einer höheren Sample-Rate vermieden werden kann. Ich bezweifle, dass das generell der Fall ist. Die Bedenken bzgl. wiederholter Umwandlungen würden m.E. eher dafür sprechen, komplexe Plugins zu benutzen, die viele Funktionen in sich integrieren (weil dann intern unnötige Sample-Rate-Wandlungen sicherlich entfallen). Dagegen ist das Risiko eigentlich unnötiger Wandlungen immer gegeben, wenn man viele Plugins mit geringer Funktionalität hintereinander schaltet.
 
Zuletzt bearbeitet:
Das Fledermäuse-Argument hinkt dann, wenn du bedenkst, dass auch die unteren Bereiche höher aufgelöst sind
Sieh dir das Video an, die Auflösung bei niedrigen Freuquenzen spielt nach der D/A Wandlung keine Rolle... aber ich will hier nicht missionieren.
Ich versuche auch nicht mehr Leute zu überzeugen, die 500€ für ein Lautsprecherkabel ausgeben und Stein und Bein schwören sie würden einen Unterschied hören nachdem sie zusätzlich ihre CD entmagnetisiert haben.
Ein doppel Blindtest nur nach Gehör wäre das einzige was hier zählt, alles andere gehört eher in den Bereich der Psychologie.
 
Ich hab diese Sache vor einigen Dekaden durchgespielt.
Ich hab meine Religion schon vordefiniert ;-)
Ich werde hier gar nicht beginnen eine zu definieren. Nur - es kann was bedeuten, wenn man mehr Samples hat oder weniger, wenn das alles stimmte müssten 10kHz Samples Rate außer Nyquist entsprechend sein - aber das ist es nicht.

Ich bin nicht einige, ich habe das für mich ergründet und die Frage kann man auch heute noch sehr genau überlegen.
Eine Empfehlung habe ich aber nicht.

empfehle aber die Auflösung eher im Blick zu haben, 16Bit, 20, 24, 32 oder float - ist immerhin die Menge der Zahlen und 655535 als kleinster Wertebereich bis weit über Millionen sollte auch ein Bild davon geben, was da eine Rolle spielt.

Das spielt sich in die Hände und ich argumentiere über Dinge die einfach technisch leicht nachvollziehbar sind.
Da geht es nicht um Fledermäuse.

Ja, mach den Doppelttest - dagegen ist nichts zu sagen.
Es spielt auch eine Rolle, welche Art von Sound du machst -zB mit viel Dynamik und eher Tanz mit Lautsein überall oder mit vielen leisen und lauten Stellen spielt auch eine Rolle bei der Wahl.
 
Die Bedenken bzgl. wiederholter Umwandlungen würden m.E. eher dafür sprechen, komplexe Plugins zu benutzen, die viele Funktionen in sich integrieren (weil dann intern unnötige Sample-Rate-Wandlungen sicherlich entfallen)

Es betrifft alle Plugins mit Sättigung, also auch Vintage EQs oder Tapedelays, kompressoren und distortion, Preamps uswusf.
 
empfehle aber die Auflösung eher im Blick zu haben, 16Bit, 20, 24, 32 oder float - ist immerhin die Menge der Zahlen und 655535 als kleinster Wertebereich bis weit über Millionen sollte auch ein Bild davon geben, was da eine Rolle spielt.
Ich denke auch, dass die Auflösung (16, 24, 32 bit) entscheidender ist als die Samplerate. Bei der Samplerate geht es um die Frequenz und niemand, auch kein Kleinkind, hört Töne oberhalb von 22 kHz. Bei der Auflösung aber geht es um die Dynamik und das ist gerade bei akustischen Instrumenten, klassischer Musik usw. ganz entscheidend.
 
mit 44.1 und 24Bit bin ich bisher ganz gut gefahren.
Die Frage ist halt: Wenn ich das ganze Projekt mit 96kHz fahre - bedeutet das dann, dass die einzelnen Plugins kein Oversampling mehr betreiben, und weniger Rechenzeit dafür verbraten wird bzw. weniger entspr. Artefakte enstehen ... oder kocht da doch jeder Hersteller sein eigenes Süppchen und in der Praxis bringt das nichts? :dunno:
 
Nur mal ein paar Fakten...

The dynamic range of an audio system is a measure of the difference between the smallest and largest amplitude values that can be represented in a medium. Digital and analog differ in both the methods of transfer and storage, as well as the behavior exhibited by the systems due to these methods.

The dynamic range of digital audio systems can exceed that of analog audio systems. Consumer analog cassette tapes have a dynamic range of 60 to 70 dB. Analog FM broadcasts rarely have a dynamic range exceeding 50 dB.[4] The dynamic range of a direct-cut vinyl record may surpass 70 dB. Analog studio master tapes can have a dynamic range of up to 77 dB.[5] An LP made out of perfect diamond has an atomic feature size of about 0.5 nanometer, which, with a groove size of 8 micron, yields a theoretical dynamic range of 110 dB. An LP made out of perfect vinyl LP would have a theoretical dynamic range of 70 dB.[6] Measurements indicate maximum actual performance in the 60 to 70 dB range.[7] Typically, a 16-bit analog-to-digital converter may have a dynamic range of between 90 and 95 dB,[8]: 132  whereas the signal-to-noise ratio (roughly the equivalent of dynamic range, noting the absence of quantization noise but presence of tape hiss) of a professional reel-to-reel ¼-inch tape recorder would be between 60 and 70 dB at the recorder's rated output.[8]: 111 
...
The process of analog-to-digital conversion will, according to theory, always introduce quantization distortion. This distortion can be rendered as uncorrelated quantization noise through the use of dither. The magnitude of this noise or distortion is determined by the number of quantization levels. In binary systems this is determined by and typically stated in terms of the number of bits. Each additional bit adds approximately 6 dB in possible SNR, e.g. 24 x 6 = 144 dB for 24 bit quantization, 126 dB for 21-bit, and 120 dB for 20-bit. The 16-bit digital system of Red Book audio CD has 216= 65,536 possible signal amplitudes, theoretically allowing for an SNR of 98 dB.[2]: 49 
...
Work done in 1981 by Muraoka et al.[23] showed that music signals with frequency components above 20 kHz were only distinguished from those without by a few of the 176 test subjects.[24] A perceptual study by Nishiguchi et al. (2004) concluded that "no significant difference was found between sounds with and without very high frequency components among the sound stimuli and the subjects... however, [Nishiguchi et al] can still neither confirm nor deny the possibility that some subjects could discriminate between musical sounds with and without very high frequency components."[25]

In blind listening tests conducted by Bob Katz in 1996, recounted in his book Mastering Audio: The Art and the Science, subjects using the same high-sample-rate reproduction equipment could not discern any audible difference between program material identically filtered to remove frequencies above 20 kHz versus 40 kHz. This demonstrates that presence or absence of ultrasonic content does not explain aural variation between sample rates. He posits that variation is due largely to performance of the band-limiting filters in converters. These results suggest that the main benefit to using higher sample rates is that it pushes consequential phase distortion from the band-limiting filters out of the audible range and that, under ideal conditions, higher sample rates may not be necessary.[26] Dunn (1998) examined the performance of digital converters to see if these differences in performance could be explained by the band-limiting filters used in converters and looking for the artifacts they introduce.[27]
Quelle (mit Verweisen auf u.a. wissenschaftliche Quellen): https://en.wikipedia.org/wiki/Comparison_of_analog_and_digital_recording
 
produziere seit jahren mit 44,1 und 16 bit.
platten und cds hörten sich immer gut an.
bei film musik mag das sinn machen.
 
mit 44.1 und 24Bit bin ich bisher ganz gut gefahren.
Die Frage ist halt: Wenn ich das ganze Projekt mit 96kHz fahre - bedeutet das dann, dass die einzelnen Plugins kein Oversampling mehr betreiben, und weniger Rechenzeit dafür verbraten wird bzw. weniger entspr. Artefakte enstehen ... oder kocht da doch jeder Hersteller sein eigenes Süppchen und in der Praxis bringt das nichts? :dunno:

Gute Frage.

Wenn man Plugins nutzt, die eh oversampling betreiben oder man eh schon immer oversampling an hat oder den "hq mode", lohnt es sich mit der Frage auseinanderzusetzen.

Hersteller die automatisch oversamplen würde ich evtl aussortieren.
 
Es gibt nun mal mehr Information die das Ohr auch aufnimmt, die Topfrequenzen allein sind da nicht gemeint sondern einfach mehr Daten.
Aber genau darum geht es doch. Das Ohr nimmt dieses mehr an Daten eben nicht auf. Ich bin etwas schockiert angesichts dieser Aussage, vor allem wenn die von jemandem kommt, der sich gern auf Wissenschaft und Rationalität beruft und Esoterik eher ablehnt (wenn ich das richt verstanden habe) Fledermausohren verarbeiten dieses mehr an Daten, menschliche Ohren nicht. Ich kann mit nicht erklären, wie du dazu kommst einfach zu behaupten, das Ohr nähme diese Information auf. Das ist einfach falsch. Das Ohr nimmt Informationen in Form von Schwingungen auf. Diese Schwingungen werden aufgrund der Daten vom Lautsprecher reproduziert. Schwingungen bis zur Hörschwelle werden auch von 44100 Daten pro Sekunde reproduziert. Da gibt es kein für das Menschenohr verwertbare Informationen, wenn die Rate höher wird.
 
Eine einmalige Konvertierung fällt nicht so stark ins Gewicht, wohl aber die ständige, sofern man Oversampling einsetzt.
Es wird ja nicht ständig konvertiert. Synths werden in 44.1KHz aufgenommen. Stimme auch. Und Plugins nutzen Oversampling und das Projekt läuft in 44.1. Selbst Samples haben 44.1. Keine Konvertierung. Somit fällt die einmalige Konvertierung mehr ins Gewicht. Alleine schon bei Leuten die mit Samples arbeiten und 96KHz Projekten. Da wird jedes Sample schon im Projekt hochgerechnet, da Samples höchrens 44.1 haben und am Ende wird der Kram wieder runtergerechnet. Bei 88.2 und 96 eine dauernde Konvertiererei.

Einfach in der Zielsamplerate produzieren und gut ist.
 
Ein Synth, eine Spur:

Preamp
Pulteq EQ
Vinrage Kompressor
Tape

da wird schon auf einer Spur 4 mal hin und her konvertiert.
 
auch die unteren Bereiche höher aufgelöst sind -
Allgemein kommt da auch haeufig der Vergleich zur Bildbearbeitung mit Weichnzeichnern, Verschmieren etc. wo es auch vorteilhaft ist mit hohen Aufloesungen zu arbeiten und das Ergebnis am Ende auf kleinere Pixelgroessen runterzurechnen, als in geringen Aufloesungen anzufangen....

Ansonsten waere ja eventuell auch ein Arbeiten im mp3 Format vorteilhaft, wenn das eh zu 90% dem konsumierten Endprodukt entspricht. Aber sicher wird da eine Wandlung von hoeheren Aufloesungen besser, oder zumindest nicht schlechter klingen.

Oversampling hat da denselben Gedanken selbst von einer geringeren Anfangs-Aufloesunge die jeweilige Bearbeitungstransformationen hoeheraufloesend durchzufuehren, auch wenn es dann wieder runtergesamplet ausgespuckt und "weitergereicht" wird. 96khz ist da zumindest bequem, und die Einschraenkung dass es mehr CPU zieht fuer mich selber am Ende eine "weniger ist mehr" Situation sich entscheiden zu muessen statt wahllos Plugs zu verballern und den Oversample zu managen... hat sicherlich wie alles Vor-und Nachteile, je nachdem auf was man da Wert legt.
 
Mir fällt gerade zum ersten Mal auf, dass man beim digitalen Konvertieren von 48kHz nach 44.1kHz überhaupt kein Antialiasing-Filter benötigt, weil 48-kHz-Material nur maximal 24kHz enthält, was zwar beim Heruntertransformieren auf 44.1kHz an 22.05kHz gespiegelt wird, aber eben nur auf 20.1kHz und nicht tiefer, so dass jedes durch diese Konvertierung erzeugte Aliasing unhörbar bleibt.

War das schon jedem klar? Mir nicht.

Komischerweise ekelt sich vermutlich jeder davor, wissentlich den Frequenzbereich zwischen 20.1 und 22.05kHz durch Aliasing zu verschmutzen.

Von 44.1kHz nach 48kHz kann sich jemand anders durchdenken ;-)
 
Wirst du doch brauchen, beim Konvertieren werden ja Worte rausgenommen (oder dazu gepackt, bei upsampling) und die Lücken bzw. zusätzliche Worte müssen wieder rausgerechnet/geglättet werden.
 


Neueste Beiträge

News

Zurück
Oben