44,1 kHz / 48 kHz / 96 kHz – aus heutiger Sicht...

Nunja also technisch gesehen ist es folgendermassen. Das Nyquist-Shannon-Theorem besagt, dass ein Sample mit der doppelten Frequenz der höchst vorkommenden Frequenz abgetastet werden muss um wieder vollständig reproduzierbar sein zu können.

Mit anderen Worten heisst das:

Höchste Frequenz in der Musik = 20kHz (theoretisch). Doppelte Frequenz = 40kHz --> und aus technisch-historischen Gründen wurdens dann 44.1kHz.

Das heisst rein was die Wiedergabe anbelangt hast du absolut keine Klangeinbussen mit 44.1kHz ABER wenn du die Samples bearbeiten / effektieren usw. Willst, dann kannst du jenachdem schon mit höheren Sampleraten arbeiten (Warping etc profitiert davon). Und am Ende wieder auf 44.1kHz runtersamplen.

Und wie bereits erwähnt wurde, Youtube komprimiert sowieso.

Was die Bits anbelangt, so lohnt es sich sicherlich mit 24 oder 32 Bit zu arbeiten. Wenn Samples bearbeitet werden, dann willst du eine feine Auflösung haben. Am Ende wird es wieder auf 16bit runtergerechnet. Die Signal-to-Noise Ratio ist bei 16bit bereits so hoch, dass es Qualitativ sehr hochwertig ist.

technisch gesehen...
 
Ausgehend davon, dass Frequenzen über 20 kHz kaum jemand, in diesem Forum aufgrund des Alters niemand hört,
sehe ich den einzig echten Vorteil von hohen Abtastfrequenzen in der Verringerung der Latenz.
Dies erhöht aber die Anforderungen an die Hardware deutlich.

Zum vermindern des Aliasings ist die hohe Abtastrate bei der Aufnahme unnötig, da moderne D/A Wandler sowieso
mit Oversampling arbeiten.
 
Bei Youtube immer optimiert in 44khz hochladen klingt besser!!
48khz kam damals wegen ganz einfachen kopierschutz bei DAT und wegen Filmsync irgendwie. Im Broadcastbereich ist weiterhin 48Khz Standard. Alles darüber ist ansich Quark und nur Placebo Bittiefe ist wichtiger.
 
Ausgehend davon, dass Frequenzen über 20 kHz kaum jemand, in diesem Forum aufgrund des Alters niemand hört,
da irrst du dich aber ... 96 kHz erhöht nicht nur die maximale abbildbare Frequenz , es erhöht auch die Auflösung , wodurch komplexes Audio (FM, Verzerrungen, schnelle Transienten) besser dargestellt wird

das kann man auch ohne Goldohren hören
 
Zuletzt bearbeitet:
Ich habe in meinem Test der Focal Trio11 Be mich mal mit dem Thema "Wie ist das jetzt mit den 40 kHz?" auseinandergesetzt, weil der Hersteller damit wirbt, dass sein Hochtöner so eine große Bandbreite hätte:
(ziemlich am Ende des Tests)
 
Normalerweise gehöre ich zu den Leuten, die andere gerne als "Esoteriker" belächeln, wenn sie sich Sorgen darum machen, ob sie sich bei ihren Hifi-Kaltgerätekabeln lediglich mit der Mittelklasse im dreistelligen Preisbereich zufrieden geben sollen, oder nicht vielleicht doch lieber etwas mehr für was "anständiges" auf den Tisch legen.

Weil: "hört man doch eh nicht"

Beim Thema Samplingrate/Bittiefe sehe ich das etwas anders. Ich arbeite, wo's geht, in 96/24. Nicht weil ich sage: "das höre ich auf jeden Fall", sondern weil ich sage: "vielleicht hört es ja irgendwer", und vor allem: weil es heute, 2020, überhaupt keinen zusätzlichen Ressourcenaufwand darstellt.

Prinzip: arbeite in der besten Qualität, die von den technischen Möglichkeiten her noch einigermaßen praktisch zu handhaben ist.

So wie vor 25 Jahren klar war, dass meine Fasttracker2-Samples in 44/16, mono, waren, sehe ich heute keinen Grund, in weniger als 96/24, stereo, aufzunehmen. Aber ich mische auch nicht Dutzende Spuren in der DAW zusammen, und habe auch kein Audiointerface, das mehr als die zwei Eingänge bewältigen muss, durch die die Stereosumme aus meinem Analogpult kommt. Wäre es anders, hätte ich vielleicht auch etwas enger gesteckte Grenzen.

Was die Sache mit Nyqvist, 40KHz & Co. angeht: natürlich, es gibt eine Grenze, ab der wir nicht mehr sagen können, dass wir eintreffende Schallwellen als Ton wahrnehmen. 16, 18, 20KHz, was auch immer. Darin erschöpfen sich aber Akustik und Wahrnehmungsphysio- und -psychologie aber noch nicht.

Ich fände es z.B. super, wenn wir die technischen Mittel hätten, auch Frequenzen außerhalb des "Hörschalls" angemessen aufzunehmen und zu reproduzieren. Vor allem *unterhalb* dieses Spektrums, und das leuchtet irgendwie jedem sofort ein -- wieso sollte man dasselbe dann nicht auch für den Bereich oberhalb der 20Khz anstreben? Jörgs Artikel spricht da ja schon ein paar Aspekte an.

Die vielzitierte Hörschwelle, die mit die Grundlage für die Annahme bildet, dass ca. 40Khz für "natürlichen" Sound auf einer CD ausreichen (hätte man das auch so entschieden, wenn ~1980 die technischen Bedingungen mehr ermöglicht hätten?), diese Hörschwelle beruht ja auf Tests unter Laborbedingungen, die bloß danach fragen, ob man *benennen* kann, dass man einen Sinuston mit Frequenz xy hört. Können wir sicher sagen, dass das nicht bloß nur ein kleiner Ausschnitt aus dem ist, was ein solcher Ton mit uns "macht"? Da sind schon einige Wenns und Abers drin. Von der schwingenden Kopfhörermembran bis zur Äußerung: "da höre ich einen, oder eben nicht" -- das ist physiologisch und kognitiv schon eine ganze Ecke.

Und überhaupt: warum eigentlich immer nur Sinuston? Unsere akustische Umgebung, musikalisch oder nicht, besteht ja schon aus ein bisschen mehr. Der Abstand zwischen zwei Schallereignissen wäre z.B. ein solches akustisches Phänomen, das wir nicht als "Ton" wahrnehmen. Je gröber die Rasterung auf der Zeitachse, desto weniger Feinheit ist möglich in der Abbildung solcher Abstände. Auch das Thema "Laufzeitunterschiede" wäre so eine Sache. Erst recht, wenn man mitbedenkt, dass wir zwei Ohren haben.

Dann auch die Frage: wieviele Samples pro Schwingungsperiode haben wir eigentlich bei einer bestimmten Samplingrate zur Verfügung? Bei einer Samplingrate von 44,1KHz kann man die Anzahl von Samples, in der wir einen 9000-Hz-Ton ausgespuckt bekommen, an einer Hand (!) abzählen. Unter "hochauflösend" würde man doch eher was anderes verstehen. Nicht nur weil bereits ein purer Sinus derart gerastert ziemlich fies entstellt wird, sondern auch weil in dieser 9000tel-Sekunde wahrscheinlich sowieso viel komplexere Sachen passieren als ein isolierter Sinuston. Vom Problem der digitalen Nachbearbeitung ganz zu schweigen. Das sprachen ja auch einige schon an, dass fünf Samples für einen solchen Zeitraum arg wenig sein können.

Solche Sachen kann man als "Jägerlatein" abtun. Aber dann wäre die Beweislast (dass es eine klar benennbare Samplingrate gibt, die "ausreicht") bei einem selber.

Die andere Maxime ist IMHO nämlich die einleuchtendere (und nicht beweisbedürftige): "keine Samplingrate (und erst recht Bittiefe) kann hoch genug sein, um das Geschehen 'da draußen' digital abzubilden" ...solange man die Kirche im Dorf lässt und sich auf das beschränkt, was Zeit, Geld, Speicherplatz und eigene Nerven hergeben.
 
2020, überhaupt keinen zusätzlichen Ressourcenaufwand darstellt.
das war 1998 schon so und daran hat sich nichts geändert... spiel mal n Softsynth wie Ableton Wavetable oder nutz aufwändige analog-emulations FX-plugins ... das braucht schon deutlich mehr Ressourcen.
Oder auch Aufnahme bei 96 kHz und 32 samples - damit brachte ich meinen macMini echt ins Schwitzen.

Ich mach das dennoch seit 15 Jahren in 96/24 - ich find der Aufwand lohnt sich.
 
1998 hatte ich glaubich noch keinen Computer, der irgendwelche Softsynths oder Emulationen hätte laufen lassen können. ReBirth unter Windows NT, das war bei mir die große Offenbarung, nachdem ich anno 2000 meinen 486er verschrottet hatte
:opa:
 
Sofern man nicht Aufträge für Movie-Scores bearbeitet,
ist aus meiner Sicht 24/44.1 vollkommen ausreichend. Sowohl im Arrangement, Mix als auch im finalen Master.
 
Ich fände es z.B. super, wenn wir die technischen Mittel hätten, auch Frequenzen außerhalb des "Hörschalls" angemessen aufzunehmen und zu reproduzieren. Vor allem *unterhalb* dieses Spektrums, und das leuchtet irgendwie jedem sofort ein -- wieso sollte man dasselbe dann nicht auch für den Bereich oberhalb der 20Khz anstreben?

Bedenke, dass wir für Schall unterhalb unserer Hörschwelle auch Sensoren haben. Den nehmen wir nämlich als Vibration oder Druckschwankung wahr.

Und überhaupt: warum eigentlich immer nur Sinuston? Unsere akustische Umgebung, musikalisch oder nicht, besteht ja schon aus ein bisschen mehr.

Man kann alles auf eine Mischung aus sinusoiden Schwingungen reduzieren. Da sich Schwingungen grundsätzlich ungestört überlagern, kann man exemplarisch auch einen einzelnen Sinus (beispielsweise in einem Grenzbereich) betrachten.

Der Abstand zwischen zwei Schallereignissen wäre z.B. ein solches akustisches Phänomen, das wir nicht als "Ton" wahrnehmen. Je gröber die Rasterung auf der Zeitachse, desto weniger Feinheit ist möglich in der Abbildung solcher Abstände. Auch das Thema "Laufzeitunterschiede" wäre so eine Sache. Erst recht, wenn man mitbedenkt, dass wir zwei Ohren haben.

Abstand in der Zeit ist nichts anderes als Frequenz und wie oft man mindestens messen muss, um eine bestimmte Zeitauflösung darstellen zu können, gibt Nyquist - Shannon Auskunft.
 
Bedenke, dass wir für Schall unterhalb unserer Hörschwelle auch Sensoren haben. Den nehmen wir nämlich als Vibration oder Druckschwankung wahr.

Ebent, genau das meinte ich ja: wenn man ihn wahrnehmen kann (sei's über die Gehörnerven, sei's anderweitig), wäre es doch auch nett, ihn reproduzieren zu können. Und oberhalb der Hörschwelle genauso.

Re: Fourier usw.: klar, da hab ich nichts zu widersprechen und freue mich über jede Präzisierung von Leuten, die sich da besser auskennen als ich das tue (-:
 
Und überhaupt: warum eigentlich immer nur Sinuston?

Wegen Fourier.

Dann auch die Frage: wieviele Samples pro Schwingungsperiode haben wir eigentlich bei einer bestimmten Samplingrate zur Verfügung? Bei einer Samplingrate von 44,1KHz kann man die Anzahl von Samples, in der wir einen 9000-Hz-Ton ausgespuckt bekommen, an einer Hand (!) abzählen. Unter "hochauflösend" würde man doch eher was anderes verstehen.

Die Frage ist, wieviele Samples Du brauchst, um ein bandbreitenbegrenztes Signal wieder herzustellen. Die Antwort gibt das berühmte Abtasttheorem.

Nicht nur weil bereits ein purer Sinus derart gerastert ziemlich fies entstellt wird, sondern auch weil in dieser 9000tel-Sekunde wahrscheinlich sowieso viel komplexere Sachen passieren als ein isolierter Sinuston.

Siehe oben. Die Frage ist nicht, was 'dazwischen' ist, sondern welche Samples Du brauchst, um ein (bandbreitenbegrenztes) Signal wieder zu rekonstruieren.

Was nicht passiert: Man malt lustige Striche zwischen den Abtastpunkten und behauptet, der Linienzug wäre das rekonstruierte Signal. Völlig falsche Vorstellung.

Grüße
Omega Minus
 
das war 1998 schon so und daran hat sich nichts geändert... spiel mal n Softsynth wie Ableton Wavetable oder nutz aufwändige analog-emulations FX-plugins ... das braucht schon deutlich mehr Ressourcen.
Oder auch Aufnahme bei 96 kHz und 32 samples - damit brachte ich meinen macMini echt ins Schwitzen.

Ich mach das dennoch seit 15 Jahren in 96/24 - ich find der Aufwand lohnt sich.

Kann ich unterschreiben. Auch wenn ich mittlerweile auf 88,2kHz und 32bit float Format gewechselt bin. Ich hab irgendwie das Gefühl es mischt sich leichter. Und es ist auch leichter es „echt“ also analog klingen zu lassen. Filter, Verzerrer und Sättigung profitieren davon. Ich kann’s nicht Messen oder belegen. Allerdings ist das mein subjektiver Eindruck. Es bleibt viel länger klarer im Mix. Diese alias Frequenzen machen dem Anschein nach wirklich was aus, wenn sie im hörbaren Bereich von Plugins erzeugt werden. Bei höherer Abtastrate passiert das wohl nicht so schnell. Bzw eben im nicht hörbaren Bereich.

Also mich persönlich hat’s überzeugt und ich bleibe auf der höheren Abtastrate von 88,2kHz. Es wird auf jeden Fall nicht schlechter sein ;-)
 
Für Hören reicht ganz klar 44100, beim Produzieren gehen die Meinungen auseinander. Die Tools bei denen es drauf ankommt, die rechnen meistens ehh intern in höherer Auflösung, daher läuft bei mir alles auf 44100.
Wenn man extrem Samples runter pitcht, dann lohnt es sich wohl auch, wenn die in sehr hoher Auflösung aufgenommen wurden.

Bei Cubase beim Distroyer zB schalte ich oversampling aber immer ab, klingt irgendwie nicht so geil.
 
Zuletzt bearbeitet:
Die Plugins rechnen intern höher.. das stimmt schon..

Allerdings bekommen sie eine Auflösung von 44,1 und geben diese dann auch wieder aus.. egal was intern passiert.

Hat man jetzt 2-3 Plugins hintereinander wird alles 2-3 mal hoch und wieder runter gerechnet..

Und gemischt werden die ganzen Spuren ja dann auch mit 44,1.

Ich hab ehrlich gesagt keine Ahnung.. allerdings ist es mir vom Sound her mit 88,2 irgendwie besser.. liegt’s an den transienten, an dem weniger an alias Frequenzen, an der Genauigkeit an sich? Ich kann’s nicht sagen.. trotzdem finde ich es ist ein anderer Sound, der mir besser gefällt. Es kommt mir klarer, sauberer und besser definiert vor. Alles rein subjektiv.. belegen kann ich es wie gesagt nicht.
 
Der Mensch hört nicht nur mit dem Ohr allein.

Ist genauso wie Menschen glauben, das ein IR Laser, den man nicht sehe, einem Auge nichts anhaben kann.

Oder Radioaktivität die man nicht wahrnehmen kann, einem nichts antun würde.

Sind 192 KHz genug, oder wieviel Bit, kann ein Ohr hören? Diese Frage muss man sich einmal stellen.

Die Ohren sind jedenfall nicht so dumm, wie die Dummheit der Digitalität.
 
schon mal ein youtube video runtergeladen und die audiospur verglichen? da gehen die Bitraten nicht höher als 129 kbt/s und maximal 44hz samplerate. der sound ist nach dem Hochladen des Videos eh Schrott. für videos reicht es ok, aber du kannst es noch so gut mastern, der sound wird dann nie so klingen wie im quell video. da fehlt es dann hörbar an brillianz. kannst also gleich 44.1 hz verwenden
 
Zuletzt bearbeitet:
Ob man mit 192kHz aufnehmen muss, wage ich zu bezweifeln, da die Informationen ausgedünnt werden müssen, um im Mix bestehen zu können. Im Mixdown mag es seine Berechtigung haben, um zum Mastern die bestmöglichste Qualität abzuliefern.
 
der sound ist nach dem Hochladen des Videos eh Schrott. für videos reicht es ok, aber du kannst es noch so gut mastern, der sound wird dann nie so klingen wie im quell video. da fehlt es dann hörbar an brillianz. kannst also gleich 44.1 hz
mit Verlaub, aber das ist kompletter Unfug.
Je nachdem wie der Sound gemastert ist , kann er auch in YT noch sehr ordentlich sein. Ich hab schon oft Tracks von mir der hochgeladen und konnte noch keinen Qualitätsverlust hören der einem ins Gesicht springt.
Deswegen in 44.1kHz aufzunehmen und zu mischen ist aber Quatsch.
 
vermutlich nicht ... es sei denn man verkackt irgendwie das downsampling auf 44.1 kHz für SoundCloud etc. ...

Also ich nehm den Pro L2 von Fabfilter, aktiviere das volle oversampling programm und auch das True Peak irgendwas und dieses Dithering Noise Shaping auf 16bit .. dann Dreh ich den Ausgangslevel auf -0,2dB und Render das Ding.. fertig.

Ist das richtig ? Ich hab da keine Ahnung von.. so hab ich’s halt aus der Anleitung raus gelesen. Kling auch gut..

Ob man mit 192kHz aufnehmen muss, wage ich zu bezweifeln, da die Informationen ausgedünnt werden müssen, um im Mix bestehen zu können. Im Mixdown mag es seine Berechtigung haben, um zum Mastern die bestmöglichste Qualität abzuliefern.

Wieso muss eine Info für den Mix den ausgedünnt werden? Die meisten Infos hört man eh nicht. Also warum ausdünnen? Versteh ich nicht.
Man nimmt doch die Spannung bei analog Mischpulten auch nicht zurück um irgendwas aus zu dünnen? Nee.. man dreht eher die preamps weiter auf und nimmt den Kanalfader dafür etwas zurück.. um das Signal „noch fetter“ zu machen?

Hab ich grad nen Knoten im Hirn oder warum sollte ich infos entfernen ?
 
Also ich nehm den Pro L2 von Fabfilter, aktiviere das volle oversampling programm und auch das True Peak irgendwas und dieses Dithering Noise Shaping auf 16bit .. dann Dreh ich den Ausgangslevel auf -0,2dB und Render das Ding.. fertig.

Ist das richtig ? Ich hab da keine Ahnung von.. so hab ich’s halt aus der Anleitung raus gelesen. Kling auch gut..

so genau kenn ich mich da auch nicht aus ... aber eben genau des wegen, ist da halt Potential was zu verkacken. Ich hatte mit den falschen Dithering Einstellungen schon seltsame Artefakte eingehandelt . Nichts was einem ins Gesicht sprang, aber bei genauem Hören war das schlechter als das Original.
 
so genau kenn ich mich da auch nicht aus ... aber eben genau des wegen, ist da halt Potential was zu verkacken. Ich hatte mit den falschen Dithering Einstellungen schon seltsame Artefakte eingehandelt . Nichts was einem ins Gesicht sprang, aber bei genauem Hören war das schlechter als das Original.

Ey genau das hab ich auch schon geschafft.. war aber Ozone Limiter in Reason .. als Rack Extension.. wenn man den falsch einstellt, macht der auch genau das.. so komisches bebrizzel oder gezirpe an manchen stellen .. extrem hochfrequent und ich glaube nur an krass lauten Stellen mit viel Dynamik war das.. auf jeden Fall mega uncool.. geil ist wenn du das erst paar Tage später hörst und dann denkst dein Mix ist kacke aber dabei ist es nur dieses dämlich falsch eingestellte Plugin im Master.. naja.. früher war ich auch so dumm so Teile direkt in der Vorlage sitzen zu haben.. heute hab ich mir das zum Glück abgewöhnt.. da kommt sowas erst, wenn der Mix schon gut ist ;-)
 
Ausgehend davon, dass Frequenzen über 20 kHz kaum jemand, in diesem Forum aufgrund des Alters niemand hört
Nein. Auch ein Neugeborenes hört nicht über 20.000 Hz. Im Alter wirds dann weniger, ja, aber Frequenzen über 20 kHz hören geht nicht, egal welches Alter!
Nunja also technisch gesehen ist es folgendermassen. Das Nyquist-Shannon-Theorem besagt, dass ein Sample mit der doppelten Frequenz der höchst vorkommenden Frequenz abgetastet werden muss um wieder vollständig reproduzierbar sein zu können.

Mit anderen Worten heisst das:

Höchste Frequenz in der Musik = 20kHz (theoretisch). Doppelte Frequenz = 40kHz --> und aus technisch-historischen Gründen wurdens dann 44.1kHz.

Das heisst rein was die Wiedergabe anbelangt hast du absolut keine Klangeinbussen mit 44.1kHz ABER wenn du die Samples bearbeiten / effektieren usw. Willst, dann kannst du jenachdem schon mit höheren Sampleraten arbeiten (Warping etc profitiert davon). Und am Ende wieder auf 44.1kHz runtersamplen.

Und wie bereits erwähnt wurde, Youtube komprimiert sowieso.

Was die Bits anbelangt, so lohnt es sich sicherlich mit 24 oder 32 Bit zu arbeiten. Wenn Samples bearbeitet werden, dann willst du eine feine Auflösung haben. Am Ende wird es wieder auf 16bit runtergerechnet. Die Signal-to-Noise Ratio ist bei 16bit bereits so hoch, dass es Qualitativ sehr hochwertig ist.

technisch gesehen...
Absolut richtig und das beste was hier im Thread bisher zu lesen war!

Es kann (Konjunktiv!!) Sinn machen höher zu gehen um den Plugins mehr "Luft" zu geben. Am Ende wird es aber so oder so 44,1kHz 16bit.

Ich benutze übrigens 44,1 kHz 16bit. Hatte ne Zeit lang 32bit, da ich aber aktuell keine Plugins verwende passt 16bit.
 
32bit float ist meines Wissens nach im Prinzip genauso fein wie 24 Bit und macht absolut Sinn , wenn der Wandler mit 24 Bit aufnimmt.
die zusätzlichen 8 Bit werden einfach drangehängt und als Headroom genutzt, also der Headroom wird extrem erweitert.
So gibt es kein digitales Clipping, auch wenn der Pegel zwischendurch mal deutlich höher wird. Hauptsache am Schluss wird es wieder unter 0 geregelt.
 
kann = Präsens, könnte = Konjunktiv!

Nein... ich bin kein Deutschlehrer ;-)

Das ist so eine sinnlose kacke, was man da über deutsch lernen soll.. und zwar jedes Kind in der Schule.. ob’s es Schriftsteller werden will oder nicht.
Wer muss bitte wissen ob das jetzt Präsenz oder Konjunktiv ist ?
Das ist sowas von bescheuert, da fällt mir echt nix mehr ein..
 


News

Zurück
Oben