44.1kHz oder 48kHz? Vor- und Nachteile?

Da ich aber anders als Du keine Quellen benennen kann außer meiner Erinnerung, hast Du Recht.
Ist das…
Wieder was gelernt.
…nicht das Entscheidende (und was am meisten Spaß macht)?

Nachfolgend die Erinnerung von jemand, der dabei gewesen ist: Kees A. Schouhamer Immink, einem der Miterfinder der Compact Disc (sowie der DVD und Blue-Ray):

"Towards the end of the 1970s, ‘PCM adapters’ were developed in Japan, which used ordinary analog video tape recorders as a means of storing digital audio data, since these were the only widely available recording devices with sufficient bandwidth. The best commonly-available video recording format at the time was the 3/4" U-Matic.

The presence of the PCM video-based adaptors explains the choice of sampling frequency for the CD, as the number of video lines, frame rate, and bits per line end up dictating the sampling frequency one can achieve for storing stereo audio. The sampling frequencies of 44.1 and 44.056 kHz were the direct result of a need for compatibility with the NTSC and PAL video formats. Essentially, since there were no other reliable recording products available at that time that offered other options in sampling rates, the Sony/Philips task force could only choose between 44.1 or 44.056 KHz and 16 bits resolution (or less).

During the fourth meeting held in Tokyo from March 18-19, 1980, Philips accepted (and thus followed Sony’s original proposal) the 16-bit resolution and the 44.1 kHz sampling rate. 44.1 kHz as opposed to 44.056 kHz was chosen for the simple reason that it was easier to remember.
"

(K. Schouhamer Immink: "Shannon, Beethoven, and the Compact Disc". IEEE Information Theory Society Newsletter (December 2007). 57: 42–46. Link zum Download)
 
Zuletzt bearbeitet:
Allgemein kommt da auch haeufig der Vergleich zur Bildbearbeitung mit Weichnzeichnern, Verschmieren etc. wo es auch vorteilhaft ist mit hohen Aufloesungen zu arbeiten und das Ergebnis am Ende auf kleinere Pixelgroessen runterzurechnen, als in geringen Aufloesungen anzufangen....

Ansonsten waere ja eventuell auch ein Arbeiten im mp3 Format vorteilhaft, wenn das eh zu 90% dem konsumierten Endprodukt entspricht. Aber sicher wird da eine Wandlung von hoeheren Aufloesungen besser, oder zumindest nicht schlechter klingen.

Oversampling hat da denselben Gedanken selbst von einer geringeren Anfangs-Aufloesunge die jeweilige Bearbeitungstransformationen hoeheraufloesend durchzufuehren, auch wenn es dann wieder runtergesamplet ausgespuckt und "weitergereicht" wird. 96khz ist da zumindest bequem, und die Einschraenkung dass es mehr CPU zieht fuer mich selber am Ende eine "weniger ist mehr" Situation sich entscheiden zu muessen statt wahllos Plugs zu verballern und den Oversample zu managen... hat sicherlich wie alles Vor-und Nachteile, je nachdem auf was man da Wert legt.
Wichtig ist generell schon noch - da es schon wichtig ist das nicht zu sehr zu verspulen - es bleibt schon dabei, dass höher aufgelöst schon auch besser ist und uns leider diese Nyquist Sache "dazwischen" kommt. aber generell ist natürlich ein Mehr an Daten von Vorteil - Summa sagte es ja ganz richtig - sonst muss man was dazuerfinden oder wegnehmen und das ist leichter wenn mehr Daten da sind. Auch wenn natürlich für das rausnehmen auch Gefahren bestehen.

Wir haben deshalb heute meist einfach die Wahl die vier magischen Werte zu verwenden und den Rest über die Auflösung zu regeln. Die Rechenkraft zwischen den beiden Quasistandards ist nicht so gravierend - aber es ist halt etwas besser - und bei 88 ist und bleibt 96 ist es eben auch für Nichtfledermäuse merklich besser - bei Berechnungen von Audiokram und in SynthEngines ist das ebenso, deshalb rechnen einige Engines in 48, andere in 96kHz und wieder andere in 44.1kHz.

Wer es also eine Nummer höher macht wird es auch bemerken, mal minimaler, mal deutlich je nach Sprung. Und ja, es gibt sogar 192 - kenne aber nicht so viele die das wirklich aktiv nutzen.
Aber auch das macht man halt nicht um die Flederwelt zu beeindrucken.

Für elektronische Musik ist und sind solche Unterschiede sogar noch interessanter als für klassische Bandbesetzungen, so man es eben hier auch mit hochwertigen Sounds und Dynamik zu tun hat.
Ich will ganz sicher niemandem hier was vorlegen - also probiert es aus und macht es. Wir können natürlich auch noch mal eine Umfrage machen, welche der 4 Hauptauflösungen man hier bevorzugt und weshalb und ggf. auch für die 16-32Bit mit und ohne Float.

Dann hättet ihr eine kleine Statistik.
 
Für elektronische Musik ist und sind solche Unterschiede sogar noch interessanter als für klassische Bandbesetzungen.
Nein. Elektronische Musik, die mit Klangerzeugern gemacht wird, deren Ausgänge sowieso nur 44,1 kHz oder 48 kHz liefern, profitiert nicht von höheren Sampling-Raten. Oder redest Du nur von Software-Klangerzeugern?

"Klassisch" ist nicht gleich "Bandbesetzung". Ich habe zum Beispiel kürzlich zum ersten Mal in meinem Leben klassische Musik von einem Solo-Cello aufgenommen. In einer akustisch tollen Kirche. Da bin ich wirklich ins Grübeln gekommen. Ich hatte zwei Paare Mikrofone positioniert. Einmal nah am Instrument zwei Großmembran-Mikros in MS-Technik und einmal in Publikums-Entfernung zwei Kleinmembran-Mikros in X/Y-Technik.

Bei der Gelegenheit habe ich wirklich darüber nachgedacht, ob nicht jedes bisschen mehr an besseren Mic-PREs, höherer Sampling-Rate und höherer Auflösung entscheidend sein könnte, aber bei elektronischen Klangerzeugern? Nein. Wirklich nicht.
 
Eine große Menge elektronischer Instrumente rechnet sehr hochauflösend und ist mit 16 Bit und 44.1kHz gar nicht mal perfekt abgedeckt. Nicht als Regel sondern als eine hohe Wahrscheinlichkeit - und natürlich will ich akustischer Musik damit nichts unterschieben - nur dass in Sounds aus der elektronischen Ecke eine Menge Grund steckt nicht zu komprimieren und eher hoch aufzulösen.

Also bitte das im übertragenen Sinne lesen.
Und gegen hochauflösende Celli hab ich auch nichts.
 
Eine große Menge elektronischer Instrumente rechnet sehr hochauflösend und ist mit 16 Bit und 44.1kHz gar nicht mal perfekt abgedeckt. Nicht als Regel sondern als eine hohe Wahrscheinlichkeit - und natürlich will ich akustischer Musik damit nichts unterschieben - nur dass in Sounds aus der elektronischen Ecke eine Menge Grund steckt nicht zu komprimieren und eher hoch aufzulösen.

Also bitte das im übertragenen Sinne lesen.
Und gegen hochauflösende Celli hab ich auch nichts.
Okay, einverstanden.

Meine These wäre: Sämtliche analogen und/oder akustischen Signale profitieren immer von der höchst-möglichen oder sinnvollen Auflösung. Digitale Signale nur bis zu der Grenze, mit der sie erzeugt wurden.
 
Ich gehe von einer Mischung inkl analoger Synths aus und schon ein VSynth konnte 96kHz nutzen, und damit ist das schon sinnvoll - zumal man die Erfassung ja nicht im gleichen Synth macht - das kann sich ändern - da wo zB diese Synths auch selbst Audiointerface sind zB System 8 kann sowas.

Ringmodulation aufnehmen mit mehr oder weniger Auflösung bringt was, einen zugedrehten Bass könnte man ggf. schon mit weniger Aufwand aufnehmen. Aber mit sowas wollte ich nicht weiter langweilen.
 
Ich gehe von einer Mischung inkl analoger Synths aus und schon ein VSynth konnte 96kHz nutzen, und damit ist das schon sinnvoll - zumal man die Erfassung ja nicht im gleichen Synth macht - das kann sich ändern - da wo zB diese Synths auch selbst Audiointerface sind zB System 8 kann sowas.
Oder die viel unterschätzte Waldorf Kyra: 8fach multitimbral bei 96 kHz out of the box nur mit einem einzigen USB-Kabel.

Ringmodulation aufnehmen mit mehr oder weniger Auflösung bringt was, einen zugedrehten Bass könnte man ggf. schon mit weniger Aufwand aufnehmen. Aber mit sowas wollte ich nicht weiter langweilen.
Das ist ja klar. Wir reden hier ja nicht auf Kindergarten-Niveau. Wenn der Ringmodulator aber durch 44,1 kHz-Wandler rausgeht, nützt eine höhere Sampling-Rate bei der Aufnahme auch nichts.
 
Allgemein kommt da auch haeufig der Vergleich zur Bildbearbeitung
Das lässt sich auch zum Teil ganz gut als Vergleich heranziehen.
Man könnte z.B. ein großes rotes Quadrat mit einer Bassfrequenz vergleichen.
Das wird bei höherer Auflösung genau so dargestellt wie bei niedriger.
Und vielleicht finden sich Leute, die meinen, hochaufgelöst sieht die Kante des Vierecks schärfer aus oder so.

Was das Oversampling mit den Plugins angeht, da hab ich keine Ahnung und halte mich entsprechend raus, habe aber noch nie Probleme bemerkt,
es klingt aber zumindest nicht unplausibel, dass da eine höhere Auflösung zweckmäßig sein kann.
 
Wichtig ist generell schon noch - da es schon wichtig ist das nicht zu sehr zu verspulen - es bleibt schon dabei, dass höher aufgelöst schon auch besser ist und uns leider diese Nyquist Sache "dazwischen" kommt. aber generell ist natürlich ein Mehr an Daten von Vorteil - Summa sagte es ja ganz richtig - sonst muss man was dazuerfinden oder wegnehmen und das ist leichter wenn mehr Daten da sind. Auch wenn natürlich für das rausnehmen auch Gefahren bestehen.

Wir haben deshalb heute meist einfach die Wahl die vier magischen Werte zu verwenden und den Rest über die Auflösung zu regeln. Die Rechenkraft zwischen den beiden Quasistandards ist nicht so gravierend - aber es ist halt etwas besser - und bei 88 ist und bleibt 96 ist es eben auch für Nichtfledermäuse merklich besser - bei Berechnungen von Audiokram und in SynthEngines ist das ebenso, deshalb rechnen einige Engines in 48, andere in 96kHz und wieder andere in 44.1kHz.

Wer es also eine Nummer höher macht wird es auch bemerken, mal minimaler, mal deutlich je nach Sprung. Und ja, es gibt sogar 192 - kenne aber nicht so viele die das wirklich aktiv nutzen.
Aber auch das macht man halt nicht um die Flederwelt zu beeindrucken.

Für elektronische Musik ist und sind solche Unterschiede sogar noch interessanter als für klassische Bandbesetzungen, so man es eben hier auch mit hochwertigen Sounds und Dynamik zu tun hat.
Ich will ganz sicher niemandem hier was vorlegen - also probiert es aus und macht es. Wir können natürlich auch noch mal eine Umfrage machen, welche der 4 Hauptauflösungen man hier bevorzugt und weshalb und ggf. auch für die 16-32Bit mit und ohne Float.

Dann hättet ihr eine kleine Statistik.
Tatsächlich arbeiten einige DAWs bereits mit einer 64bit Engine bzw. bieten diese Option an... und ich kann Euch nicht sagen, ob das alles Sinn ergibt. Nachdem ich das "Merkblatt" der Abletonnerds gelesen hatte, beschloss der Kleine es bei 32bit Floating Point zu belassen.


Abschließend bleibe ich dabei: Mit 44,1khz zu produzieren (also auch aufzunehmen) ist nur empfehlenswert, wenn das Ergebnis (ausschließlich) auf CD soll... beim Master dann bitte Dithering nicht vergessen (sofern man seinen Kram an einen Mastering Profi gibt, muss man sich darum allerdings nicht kümmern). Für alles andere gibt es 48khz oder 96khz... ich bin mal so frech und behaupte, das ist längst der neue Standard. 192khz als neuen Standard werde ich nicht mehr erleben... da penne ich längst bei den Fischen.
 
es bleibt schon dabei, dass höher aufgelöst schon auch besser ist und uns leider diese Nyquist Sache "dazwischen" kommt.
Was meinst du mit "leider dazwischen kommt" ?. Würdest du dann sagen, dass du höhere Frequenzen als 22 kHz wahrnimmst oder bestreiten, dass 22kHz durch 44,1 kHz Samplerate eindeutig abbildbar ist ? Wenn weder das eine noch das andere, hast du eine technische Erklärung für die Behauptung, dass das höher=besser ist ?
Oder ist dir das technisch egal und es reicht dir, dass du einen Unterschied zu hören glaubst ?
 
Zuletzt bearbeitet:
Was meinst du mit "leider dazwischen kommt" ?. Würdest du dann sagen, dass du höhere Frequenzen als 22 kHz wahrnimmst oder bestreiten, dass 22kHz durch 44,1 kHz Samplerate eindeutig abbildbar ist ? Wenn weder das eine noch das andere, hast du eine technische Erklärung für die Behauptung, dass das höher=besser ist ?
Oder ist dir das technisch egal und es reicht dir, dass du einen Unterschied zu hören glaubst ?
Also warum "höher" empfehlenswerter ist ("besser" ist abhängig vom Ziel bzw. persönlichen Vorlieben) wurde weiter oben schon ausgiebig formuliert/diskutiert... da jetzt in einer Art Endlosschleife dran rütteln zu wollen ergibt wenig Sinn.

Nochmal der Meister auf eine Frage eines Users aus der Community: https://www.digido.com/ufaqs/choosing-the-proper-recording-resolution/

Wichtige Info für mich: Wenn ich aus dem Computer in Outboard Gear gehe (z.B. eine Aufnahme durchs Morphagene von Make Noise jagen) , sollte ich den Output auf 24bit dithern. Wobei das Morphagene nach meinem Kenntnisstand mit 32bit/48khz arbeitet. Hhm... need2check!
 
Klangerzeugern..., deren Ausgänge sowieso nur 44,1 kHz oder 48 kHz liefern,
Externe Klangerzeuger haben doch primaer/ meistens/immer auch Audio Ausgaenge, an denen dann noch externe Effektgeraete, Bodentreter, Kompressoren (mit Roehren oder Transformatoren) etc. haengen koennen, bevor das Signal dann in die Aufnahme/Wandlung des Interfaces -> DAW geht?
Habe selbst wenig Klangerzeuger, die ich direkt vom Geraet digital aufnehme, entweder weil kein solcher Anschluss am Geraet selbst ist oder nicht genuegend passende Anschluesse am Interface (spdif, aes, adat).
Dabei profitiert man doch dann, das analoge Signal moeglichst gut zu wandeln/digitalisieren?

EDIT:
Digitale Signale nur bis zu der Grenze, mit der sie erzeugt wurden.

Okay, hat sich geklaert :)
 
Zuletzt bearbeitet:
Wenn ich aus dem Computer in Outboard Gear gehe (z.B. eine Aufnahme durchs Morphagene von Make Noise jagen) , sollte ich den Output auf 24bit dithern.
Ist der Grund dafuer, weil das Audiointerface meist mit 44/48/96khz und 24bit arbeitet, und es sonst zwischen DAW 32bit floating intern und Interface 24bit intern zu moeglichen "Ungenauigkeiten" kommt?

Habe da noch nie wirklich drueber nachgedacht, obwohl ich gerne mal, trotz Wandlung, ein Signal raus und wieder reinschleife, z.b. fuer Reverb Send oder Kompressor....
 
Wirst du doch brauchen, beim Konvertieren werden ja Worte rausgenommen (oder dazu gepackt, bei upsampling) und die Lücken bzw. zusätzliche Worte müssen wieder rausgerechnet/geglättet werden.
Geglättet schon, besser gesagt: interpoliert. Aber Interpolieren ist eben nicht zwingend antialiasen,sondern um ein vielfaches simpler. Ich könnte wetten, dass diverse Plugins und Konverter genau diese Vereinfachung in Kauf nehmen, um weniger CPU-Last zu erzeugen.
 
Ist der Grund dafuer, weil das Audiointerface meist mit 44/48/96khz und 24bit arbeitet, und es sonst zwischen DAW 32bit floating intern und Interface 24bit intern zu moeglichen "Ungenauigkeiten" kommt?

Habe da noch nie wirklich drueber nachgedacht, obwohl ich gerne mal, trotz Wandlung, ein Signal raus und wieder reinschleife, z.b. fuer Reverb Send oder Kompressor....
Genau so ist es... habe ich mir auch noch nie einen Kopp drum gemacht. Somit gut, dass das Thema hier im Thread angeschnitten wurde. Darüber hinaus arbeitet nur die Audio-Engine bei 32bit - wenn ich also etwas bei 24bit rendere oder recorde ist kein Dithering notwendig, falls ich das Audiomaterial daraufhin noch einmal in die Außenwelt route, um es z.B durchs Eurorack zu schicken (wenn es nicht in realtime möglich ist).
 
Im Steinberg Online Handbuch steht´s nicht präzise:


Siehe Abschnitt Aufnahmedateiformat.

Hochskalieren ist idR kein Problem, also von 16 auf 32bit, zum herunterskalieren sollte immer gedithert werden.
Das passiert idR nicht automatisch.
 
Zuletzt bearbeitet:
Dithering von 32bit auf 24bit scheint nicht das ganz grosse Problem zu sein, zumibdest empfehlen die dafuer noch kein extra Noiseshaping:


Generell steht da ja etwas von "Dithering nur als letzten Schritt", da nachtraegliche Bearbeitung nicht zu empfehlen/kontraproduktiv ist?

Was auffaelt, wuerde izotope den Fall "externe Geraete einbinden" nicht explizit dort mit aufgefuehrt haben, um einen weiteren Einsatz fuer ihre Dithering Loesung zu praesentieren? 🤔


Hab hier noch einen Kommentar dazu gefunden:
 
Zuletzt bearbeitet:
Was meinst du mit "leider dazwischen kommt" ?. Würdest du dann sagen, dass du höhere Frequenzen als 22 kHz wahrnimmst oder bestreiten, dass 22kHz durch 44,1 kHz Samplerate eindeutig abbildbar ist ? Wenn weder das eine noch das andere, hast du eine technische Erklärung für die Behauptung, dass das höher=besser ist ?
Oder ist dir das technisch egal und es reicht dir, dass du einen Unterschied zu hören glaubst ?
Das ist ganz einfach: Mehr Daten bringen auch mehr Abbildung, wenn du von einem gleich langen Stück 22k oder 44k oder auch 54k hast ist das ein Unterschied - um den geht es mir und nicht um Nyquist. Da ist die Sache klar.

Höhere Auflösungen bilden besser ab. Das ist dann nicht schluss weil Fledermaus - es ist nur da "zuende" wo wir halt wegen der Höhe nichts mehr hören, aber unterhalb von 20kHz sind nun auch mehr Daten genommen worden, die nicht nur überhalb von 20kHz passieren.

Das ist alles - find ich erstaunlich, dass man das nicht auch sieht - und deshalb ist natürlich auch eine geringe Erhöhung ein Thema.
Das ist extrem technisch - mehr Werte sind mehr Daten, was ist daran nicht zu verstehen?
Und natürlich wäre es noch besser wenn die Proben im entsprechenden Frequenzbereich stattfänden. Nunja - das hat mit Eso nichts zu tun.

Ich hatte aber nicht vor hier so eine Art Mission zu machen, mir ist das für andere total egal, aber es ist halt auch logisch und leicht nachvollziehbar. Einige tun so als fände diese Abtastrate dann NUR NOCH oberhalb des Hörbaren statt.
 
Einige tun so als fände diese Abtastrate dann NUR NOCH oberhalb des Hörbaren statt.
Was sie aus meiner Sicht auch tut. Das hat einfach mit der Wellenlänge zu tun. Bei Ereignissen mit sehr viel Veränderungen bei kurzen Wellen braucht man natürlich mehr Proben um das abzubilden als bei längeren mit wenigen Änderungen. Was man am Ende dann hört ist ja auch wieder zurückgewandelt. Eventuell vorhandene Stufenwerte werden dabei von der Elektronik und nicht zuletzt vom Lautsprecher geglättet.
 
Und natürlich wäre es noch besser wenn die Proben im entsprechenden Frequenzbereich stattfänden.

Nur um das mal für mich selber zu verstehen:
Eine höhere Abtastrate (nicht Quantisierung) dürfte sich doch aber nur auf noch höhere Frequenzen auswirken? Es wird zwar alles gleichmaessig gescannt und z.b. bei 48 auf 96 verdoppelt, aber die unteren Frequenzen waren doch schon sauber abbildbar, d.h. wenn jetzt noch zwischen 2 Punkten ein weiterer hinzukommt, dürften doch nur vorher "versteckte" oder nicht berücksichtigte Frequenzen (und damit höhere) "dazukommen" wenn es nachher um die Abbildung, bzw. rückwandlung in analoge Frequenzen bzw Schallwellen geht? Oder bin ich da gedanklich auf dem ganz falschen Dampfer?
 
Das ist ganz einfach: Mehr Daten bringen auch mehr Abbildung, wenn du von einem gleich langen Stück 22k oder 44k oder auch 54k hast ist das ein Unterschied - um den geht es mir und nicht um Nyquist. Da ist die Sache klar.

Höhere Auflösungen bilden besser ab. Das ist dann nicht schluss weil Fledermaus - es ist nur da "zuende" wo wir halt wegen der Höhe nichts mehr hören, aber unterhalb von 20kHz sind nun auch mehr Daten genommen worden, die nicht nur überhalb von 20kHz passieren.
[...]
Ich hatte aber nicht vor hier so eine Art Mission zu machen, mir ist das für andere total egal, aber es ist halt auch logisch und leicht nachvollziehbar. Einige tun so als fände diese Abtastrate dann NUR NOCH oberhalb des Hörbaren statt.

Der Punkt ist, dass alles, was unterhalb der Nyquist-Frequenz "dichter" gesampelt wurde, auch ohne dieses dichtere Sampling (nach Shannons Sampling-Theorem) perfekt rekonstruierbar ist.
D.h. die zusätzlichen Stützpunkte bei einer höheren Sample-Rate sind dort - sofern das Eingangssignal keine Frequenzanteile oberhalb der Nyquist-Frequenz für die niedrigere Sample-Rate hat - im Vergleich zu den Stützpunkten bei der niedrigeren Sample Rate komplett redundant (eben weil auch bei der niedrigeren Rate perfekt rekonstruierbar).
Es handelt sich daher nur scheinbar um eine bessere Auflösung - es sei denn, es gäbe doch interessierende Frequenzinhalte, die nur mit der höheren Samplerate darstellbar sind.
(Ähnliches hatte auch @Cyclotron bereits geschrieben.)
 
Zuletzt bearbeitet:
Geglättet schon, besser gesagt: interpoliert. Aber Interpolieren ist eben nicht zwingend antialiasen,sondern um ein vielfaches simpler. Ich könnte wetten, dass diverse Plugins und Konverter genau diese Vereinfachung in Kauf nehmen, um weniger CPU-Last zu erzeugen.
Ich hab das ganz bewusst nur vage umschrieben, um nicht irgendwelches unverständliches Halbwissen von mir geben zu müssen ;-)
 
Also ob man Unterschiede hört zwischen Aufnahmen mit 192 kHz oder 48 kHz Samplingrate darüber kann man vielleicht streiten.
Aber unter perfekten Voraussetzungen würde ich behaupten ja, hört man.

Bilder einer runtergerechneten Aufnahme sollten alles sagen:
Bildschirmfoto_2023-07-09_16-15-53.png

Dasselbe mit originaler Samplingrate:
Bildschirmfoto_2023-07-09_16-14-17.png

Was der Pc mit den Daten in irgendwelchen Plugins tut hab ich keine Ahnung.
In einer DAW würde ich auch best mögliche Samplingraten einstellen um bestmöglichste Ergebnisse zu produzieren.

Ich nehme mein Analoges Zeug mit höchst möglicher Abtastrate auf und gut.
 
Es handelt sich daher nur scheinbar um eine bessere Auflösung - es sei denn, es gäbe doch interessierende Frequenzinhalte, die nur mit der höheren Samplerate darstellbar sind.
Was bringt dann dieses massive Oversampling bei einigen Plugins genau? Worauf wirkt sich das aus?

Aehnliche Frage bei Bitrate, was ja Lautstaerke ist:
24bit hat enormen Headroom, trotzdem arbeiten DAWs intern mit 32bit und sogar floating und in Zukunft scheinbar 64bit.... gleiche Frage wie bei Samplerate, was bringt das ganz genau betrachtet fuer Vorteile, wenn bei 24bit eigentlich schon fast Schluss ist, lange aber bei 32bit?
 
Also ob man Unterschiede hört zwischen Aufnahmen mit 192 kHz oder 48 kHz Samplingrate darüber kann man vielleicht streiten.
Aber unter perfekten Voraussetzungen würde ich behaupten ja, hört man.

Bilder einer runtergerechneten Aufnahme sollten alles sagen:
Anhang anzeigen 181555

Dasselbe mit originaler Samplingrate:
Anhang anzeigen 181558

Was der Pc mit den Daten in irgendwelchen Plugins tut hab ich keine Ahnung.
In einer DAW würde ich auch best mögliche Samplingraten einstellen um bestmöglichste Ergebnisse zu produzieren.

Ich nehme mein Analoges Zeug mit höchst möglicher Abtastrate auf und gut.
Du bekommst ja nicht zu hören was du da siehst, außer du verwendest noch Wandler aus den 80ern, sich an der grafischen Repräsentation der Daten zu orientieren ist unrealistisch.
 
Was bringt dann dieses massive Oversampling bei einigen Plugins genau? Worauf wirkt sich das aus?
Die Plugins brauchen das, wenn sie nicht-lineare Operationen wie Verzerrung, Ringmodulation oder FM anwenden.
Bei Ringmodulation z.B. entstehen Summen- und Differenzfrequenzen der Eingangssignale. Enthält Signal A z.B. einen Frequenzanteil mit 2000 Hz und Signal B einen Anteil mit 3000 Hz, dann ist im Ergebnis des Ringmodulators die Summenfrequenz 2000 Hz + 3000 Hz = 5000 Hz zu hören.
Dummerweise geschieht aber dasselbe, wenn Signal A einen Anteil mit 20000 Hz und Signal B ebenfalls einen Anteil mit 20000 Hz enthält. Durch die Ringmodulation entsteht dann ein Anteil mit 20000 Hz + 20000 Hz = 40000 Hz.
Bei einer Sample Rate von 44100 Hz liegt dies über der Nyquist-Frequenz von 22050 Hz und man hört durch das Aliasing stattdessen die Spiegelfrequenz 44100 Hz - 40000 Hz = 4100 Hz, was sich (je nach Pegel) klanglich störend bemerkbar macht.
Um das zu vermeiden, wird Oversampling genutzt.
Führt man die Ringmodulation bei 88200 Hz durch, so liegt die Summenfrequenz 40000 Hz unterhalb der dann gültigen Nyquist-Frequenz von 88200 Hz / 2 = 44100 Hz und wird insbesondere nicht in den Hörbereich zurückgefaltet.
Beim anschließenden Downsampling zu 44100 Hz werden alle Frequenzen oberhalb von 22050 Hz durch ein Halfband-Filter beseitigt. Nun erhält man ein sauberes Ergebnis der Ringmodulation und z.B. der obige Störanteil bei 4100 Hz würde nicht mehr entstehen.
Soviel zum Thema, warum Plugins Oversampling brauchen. Bei Verzerrern ist der Bedarf noch größer, weil dort nicht nur Summenfrequenzen bzw. die 2. Harmonische erzeugt wird, sondern auch viele noch höhere Harmonische. Daher ist hier sogar mehrfaches Oversampling erforderlich.
 
Zuletzt bearbeitet:
Höhere Auflösungen bilden besser ab. Das ist dann nicht schluss weil Fledermaus - es ist nur da "zuende" wo wir halt wegen der Höhe nichts mehr hören, aber unterhalb von 20kHz sind nun auch mehr Daten genommen worden, die nicht nur überhalb von 20kHz passieren.
In den hohen Frequenzspektren sind auch die Informationen enthalten, die zu einer räumlichen Ortung des gehörten führen. Schon darum ist dieser Bereich für Musik interessant.
 
In den hohen Frequenzspektren sind auch die Informationen enthalten, die zu einer räumlichen Ortung des gehörten führen. Schon darum ist dieser Bereich für Musik interessant.
Widersprichst Du Dir jetzt nicht selbst? Du sagtest doch, Du würdest für Dich am liebsten mit 44,1 kHz arbeiten. Oder habe ich das falsch verstanden?
 
aber unterhalb von 20kHz sind nun auch mehr Daten genommen worden, die nicht nur überhalb von 20kHz passieren.
Wie hier schon andere schrieben: es macht bei tieferen Frequenzen keinen Unterschied, diese werden bei doppelter Abtastrate ihrer Frequenz bereits perfekt rekonstruiert. Siehe auch mein Grafik Beispiel mit dem Quadrat.
 


Neueste Beiträge

News

Zurück
Oben