Lohnt sich der Umstieg von 44.1 auf 48kHz?

Lohnt sich der Umstieg von 44.1 auf 48kHz?


  • Umfrageteilnehmer
    46
Lohnt es sich nun oder nicht? :denk:
Meiner Meinung nach nicht.
Bedingt durch die ADAT 24-Track Recorder musste ich damals alles in 48kHz aufnehmen, zu dieser Zeit hatte ich noch viele Sachen für Werbung gemacht.
Der minimale Vorteil von 48kHz wird aber durch mehrfaches wandeln auf 44.1kHz und wieder zurück oft wieder zunichte gemacht, das bringt dann eher Nachteile.
Meine Fieldrecordings nehme ich durchweg in 96kHz auf, werden aber dann zur Bearbeitung auf 44.1 resamplet.
Anders gesagt: Es kommt auch immer auf deine Arbeitsweise und die Musik an.
Ich mache Ambient, also eher ruhiges Zeug, Noise, Aliasing und extreme Dynamik spielen da nur eine untergeordnete Rolle.
 
Lohnt sich ein Umstieg? Es kommt doch immer darauf an, wafür man etwas produziert. Gehts um CDs oder Streaming? Dann bleib bei 44k1
Ich produziere fast ausschließlich nur noch für Film, da sind 48kHz Standard.
 
Ich ziehe mir grad das unten verlinkte Video rein.
Demnach wäre es egal, wenn die Plugins gut sind bzw. Oversampling haben. Also ungefähr das was @ollo in der ersten Antwort meinte.

Hier geht er auf die 44/48-Geschichte ein:


Er meint, dass 48 doppelt so gut ist wie 44 kHz. Bzw. man das in gewisser Weise sagen könnte.
 
Zuletzt bearbeitet:
dieses Bild hab ich 2x 10% hoch und runterskaliert... (rechts das Original)
ich gehe davon aus das bei Audio etwas Vergleichbares passiert
Auf den ersten Blick ist das logisch und sicherlich tritt das auch irgendwann ein, aber ich stelle mir vor, dass das bei Audio viel später im hörbaren Bereich eintritt.
 
Auf den ersten Blick ist das logisch und sicherlich tritt das auch irgendwann ein, aber ich stelle mir vor, dass das bei Audio viel später im hörbaren Bereich eintritt.

Nach meiner Erfahrung fallen Fehler in Audio deutlich eher auf als Fehler in Bildern oder Videos.
 
Wenn ich Lust hab test ich das mal
ich würde vermuten, dass das hauptsächlich bei Frequenzen oberhalb von 10kHz auftritt, und nicht jeder das sofort hört.

Nach meiner Erfahrung fallen Fehler in Audio deutlich eher auf als Fehler in Bildern oder Videos.

Wenn es sich um sowas wie ein Knacksen durch ein defektes Sample vs. einen Pixelfehler in einem Frame handelt: bestimmt. :) (allerdings entspricht ein defektes Sample eher einem komplett weißen/schwarzen Bild für einen Frame - das fällt dann schon auf)
 
Hauptsache 24 Bit, Samplerate mache ich 88,2 um damit Recorden zu können und danach ist die Umwandlung in 44,1 geschickter… bei reinen DAW Plugin Geschichten ist 44,1 vollkommen okay..
 
Das mit den Transienten ist wirklich so, macht sich aber bei unserer Musik und Produktionsmethoden nicht wirklich bemerkbar. Bei Musik ohne Filter ist das eher ein Thema, und dann ist es auch nur den Leuten vorbehalten die gute Ohren haben.. Und eine richtige Hörumgebung. Bei moderner, nach vorne gemischter Musik kann man ja alles kontrollieren und anpassen, shapen..

Bei Mehrkanalton ist 48 KHz halt Standard. Sich damit zu beschäftigen macht mehr Sinn als mit High RES … Einfach weil der Markt da sehr dünn ist und man viel eher Hörer findet, wenn man 5.1 Produziert..
 
ich würde vermuten, dass das hauptsächlich bei Frequenzen oberhalb von 10kHz auftritt, und nicht jeder das sofort hört.



Wenn es sich um sowas wie ein Knacksen durch ein defektes Sample vs. einen Pixelfehler in einem Frame handelt: bestimmt. :) (allerdings entspricht ein defektes Sample eher einem komplett weißen/schwarzen Bild für einen Frame - das fällt dann schon auf)

Du kannst im Grafikbreich Algorithmen einsetzen, die im Audiobereich niemals bestehen würden. Beispiel wären hier schlechte Sinusapproximationen. Deren Qualität im Bild kann man oft nur durch übereinanderlegen von Graphen unterscheiden. Ohne Referenz sieht man das nicht.

Aber als Audio hörst Du die Mängel - je nach Einsatzgebiet - auch ohne Referenz. Das können Seitenbänder sein, die man deutlich hört. Oder falsche Levels, wenn man derartige Algorithmen für einen Sin/Cos Crossfade hernimmt. Letzteres habe ich in einem WT Oszillator gemacht und man merkt die Qualitätsunterschiede der Algorithmen sehr deutlich.

Von Filtern und deren Artefakten (Pre - Ringing oder frequenzabhängige Phasenverschiebung) will ich gar nicht anfangen. Denn da hören manche ja schon Artefakte, wenn sie nur den Namen des Produktherstellers lesen.

Und wir haben das auch schon mehrfach im Forum diskutiert, beispielsweise als sich jemand über die unnatürliche Anmutung von Audiomorphing beklagte (mit Verweis darauf, dass Bildmorphing doch set Jahrzehnten so glaubhaft möglich sei). Zu der Zeit war beides voller Artefakte, störend aufgefallen sind sie aber nur bei Audio.
 
Zuletzt bearbeitet:
beispielsweise als sich jemand über die unnatürliche Anmutung von Audiomorphing beklagte (mit Verweis darauf, dass Bildmorphing doch set Jahrzehnten so glaubhaft möglich sei).
da würde ich aber gerne die entspr. Beispiele sehen. Glaubhaftes Bildmorphing seit Jahrzehnten, und bei Audio soll das nicht möglich sein? 🤔

Zu der Zeit war beides voller Artefakte, störend aufgefallen sind sie aber nur bei Audio.
den ersten Teilsatz würde ich untershreiben, beim zweiten: s.o. :)
 
das hatte ich aus der Aussage des anderen "jemand" herausgelesen. :dunno: Daher das Interesse an den Beispiele, die der Kollege bei der Aussage im Hinterkopf hatte. ;-)
 
das hatte ich aus der Aussage des anderen "jemand" herausgelesen. :dunno: Daher das Interesse an den Beispiele, die der Kollege bei der Aussage im Hinterkopf hatte. ;-)

Nein, dann habe ich das missverständlich formuliert.

Es ging damals in der Diskussion um Loris, Kyma und Prosoniq Morph. Das ist schon länger her, ich hab das auch nicht mehr genau im Kopf. Das wurde auch in andren Foren (kvr, gearspace) mehrfach diskutiert, oft mit dem Hinweis auf die hohe Qualität des Bildmorphings in Filmen (Terminator 2 oder Michael Jacksons Video zu "Black and White") und wahrgenommene Artefakte beim Morphing von Audio. Da ging es nicht nur um die beliebten "Phasenschweinereien" o.ä., sondern auch um Zwischenzustände, die man als akustisch "unpassend" empfand.

Das ist aber ein sehr spezieller Bereich, griffiger finde ich eher schon das Beispiel mit der Sinusapproximation. Da ist das Auge deutlich einfacher zu befriedigen als das Ohr.

Mit dem Auge nehmen wir Form, Intensität und ein Farbspektrum von nur einer Oktave wahr. Hinzu kommt eine Obergrenze der Zeitauflösung u.a. durch die Art, wie das Auge chemisch/biologisch funktioniert. Das ergibt eine natürliche Glättung (Tiefpass) vor der Wandlung in Nervenimpulse und auch die Verarbeitung der Impulse ist entsprechend ausgelegt. 25 fps reichen somit schon, um einen leidlich kontinuierlichen Verlauf zu suggerieren. Dem Ohr könnte man das so nicht anbieten. Zumindest nicht, wenn das von Dir oben gesagte gilt, dass ein Videoframe einem Audiosample weitgehend gleichzusetzen ist.
 
oft mit dem Hinweis auf die hohe Qualität des Bildmorphings in Filmen (Terminator 2 oder Michael Jacksons Video zu "Black and White")
Die empfinde ich allerdings nicht als besonders hochwertig bzw. glaubwürdig umgesetzt. Gerade CGI altert vielerorts gefühlt deutlich schlechter als practical FX.

Hinzu kommt eine Obergrenze der Zeitauflösung u.a. durch die Art, wie das Auge chemisch/biologisch funktioniert.
Das stimmt allerdings. Dafür läuft hinterher (im ZNS) eine recht gute Mustererkennung und Interpolation drüber.

Dem Ohr könnte man das so nicht anbieten. Zumindest nicht, wenn das von Dir oben gesagte gilt, dass ein Videoframe einem Audiosample weitgehend gleichzusetzen ist.
Ach, das hatte ich auch nur so schnodderig dahergeschrieben. Ich bin gar nicht sicher, ob sich eine Analogie zwischen Audio und Video in der Richtung überhaupt herstellen lässt. Da fand ich den Vergleich mit dem Skalierungs- (oder Kompressions-)artefakten schon besser. Mit Audiomorphing habe ich eigentlich gar keine Erfahrungen (abseits von Synths) - mir würde da spontan kein Beispiel einfallen, bei dem ich irgendwelche Zwischenschritte als unnatürlich wahrnehmen würde. Jedenfalls unnatürlicher als bei Videomorphing.
 
ja.. aber 44/88 kHz sind die unterste samplerate die gute Qualität liefert.. ich stelle mir vor das das u.U. schon grenzwertig sein kann
88.2kHz ist wesentlich besser als 48kHz und nahezu so gut wie 96kHz.

Auf der anderen Seite ist 44.1kHz wirklich gut. Denn für die meisten Musikhörer würde sogar 32kHz reichen, weil die wenigsten über 15kHz hören können (auch die wenigsten Großmembrankondensatormikros liefern besonders viel über 15kHz). Aber in der heutigen Zeit, wo es Leute gibt, die auf die Vorteile von 384kHz schwören, kann man mit solchen Äußerungen nicht landen. Nichtsdestotrotz ist und bleibt es so.

Man kann hoffentlich annehmen, dass 2023 nahezu alle professionellen A/D-D/A-Wandler, Audio-Interfaces und Algorithmen sehr gut gemacht sind. Aber vor nicht allzu langer Zeit konnten z.B. digitale EQs deswegen schlecht klingen, weil die interne Samplingrate zu nahe an den Nutzfrequenzen war. Dann verzerrt sich das Spektrum z.B. der Resonanz eines 24-dB-Tiefpassfilters ziemlich extrem oberhalb von ~10kHz. Man kann das alles kompensieren, aber man muss es auch, damit es gut klingt. Einfacher Ausweg: 96kHz und schon sind alle rechnerischen Probleme im toten Bereich zwischen 20kHz und 48kHz.
 
Die empfinde ich allerdings nicht als besonders hochwertig bzw. glaubwürdig umgesetzt. Gerade CGI altert vielerorts gefühlt deutlich schlechter als practical FX.

Sehe ich auch so. Besonders gruselig sind (und waren schon immer) CGI Standbilder. Genannte Titel waren damals aber die Referenz zum Thema "Morphing".

Ich bin gar nicht sicher, ob sich eine Analogie zwischen Audio und Video in der Richtung überhaupt herstellen lässt.

Und da kommen wir zu dem obigen Vergleich von Bildern und Audio zurück: Ich denke, dass man anhand von Resampling- bzw. Interpolationsartefakten in Bildern nur in Grenzen darauf schließen kann, wie sehr sich etwas "in Audio" auswirkt. Man sollte die Versuche schon mit dem Medium machen, das man anschließend qualtitiv bewerten möchte - auch wenn das obige Bild das gut veranschaulicht.

Perfekte Filter ohne Seiteneffekte hinsichtlich Phase, Frequenzgang oder Schmierartefakte gibt es meines Wissens nicht und eine Interpolation kann ggf. verlorene Informationen auch nicht perfekt dazuerfinden. Da würde ich im Zweifelsfall eher mit einer hinreichend hohen DAW Rate arbeiten und am Ende notfalls einmal resampeln, als in jedem Plugin in der Kette ein (auch rechenintensives) Up- und Downsampling zu haben.

Und im Zweifelsfall würde ich aufgrund meiner eigenen Experimenten davon ausgehen, dass die Artefakte in "Audio" eher auffallen als im Bild. Aber ein Experte, der das bis auf Quantenebene schlüssig herleitet, bin ich weiß Gott auch nicht. Vielleicht meine Wortmeldung eher so einordnen.
 
Einfacher Ausweg: 96kHz und schon sind alle rechnerischen Probleme im toten Bereich zwischen 20kHz und 48kHz.
Frisst aber 4x so viel Ressourcen. Pro Plugin. Oversampling ist schonender und sauberer. Zumindest dem obigen Video nach.

Siehe diesen Abschnitt:

192kHz mit Fabfilter Saturn:
1679924352514.png

48kHz mit HQ-Funktion vom Saturn:
1679924406762.png

Die Reflexionen nach unten möchte man nicht. Das ist digitaler Dreck. Noch dreckiger sind die Reflexionen nach oben, aber diese sind bei 192kHz im nicht hörbarem Bereich.
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben