warum haben samples 24bit oder 32bit?

Hardware-Sampler waren 16 Bit, weil das damals nun mal der Stand der Technik war. Als die ersten Software-Sampler aufgetaucht sind - da konnten sie recht schnell auch 24 Bit. Die meiste Hardware ist aber bei 16 Bit geblieben.

Was Mixing angeht, so spielt dort das Sample-Format der Audiodateien für das Mixing selbst keine Rolle. Intern wird hochauflösend gerechnet, und beim Export entscheidet man, was man haben möchte: 32 Bit, 24 Bit oder 16 Bit.
 
haesslich schrieb:
Phil999 schrieb:
Also ich kann nicht nachvollziehen, wie analoge und digitale Verluste bzw. Signalrauschabstand gleichgesetzt werden können. Das eine hat mit Informationsverlust zu tun der nicht mehr reparierbar ist, das andere mit Rauschpegel, das zwar qualitativ eine Verminderung bedeutet, aber das Signal nicht reduziert.

nordcores letzten beitrag gelesen?
den habe ich zweimal gelesen, und kam infolgedessen ins Grübeln. Und habe darauf auch die Frage gestellt.

Michael Burman schrieb:
Was Mixing angeht, so spielt dort das Sample-Format der Audiodateien für das Mixing selbst keine Rolle.
das ist eben die ürsprüngliche Frage. Was ich mir zusammenreime ist, dass man früher Samples einfach abgespielt hat, live, oder auf Band aufgenommen hat oder/und mit Analogtechnik gemischt hat. Da reichen 16-bit. Heute, mit einer DAW, die digital Signale mischt, ist das nicht mehr so einfach; Samples müssen 24-bit aufweisen, damit man digital mischen kann.

Ich komme immer mehr ins Grübeln.
 
jemand schrieb:
Was ich mir zusammenreime ist, dass man früher Samples einfach abgespielt hat, live, oder auf Band aufgenommen hat oder/und mit Analogtechnik gemischt hat. Da reichen 16-bit.
S/N von 96 dB reicht für Samples auch heute noch, Nordcore hat hier im Forum mal Beispiele gebracht. Ist dem menschlichen Hörvermögen adequat angepasst. Annahme ist aber, dass mit z.B. 24-bit aufgenommen und dann normalisiert wurde.

Phil999 schrieb:
Samples müssen 24-bit aufweisen, damit man digital mischen kann.
Nope. Die DAW Engine, also die Verarbeitung der Daten muss z.B. 24-bit oder 32-bit Float oder auch mehr aufweisen, so dass jedwede Bearbeitung mit Kompressor, EQ oder sonstwas keine Artefakte produziert. Am Ende kann man dann wieder auf 16-bit für z.B. CD gehen.
 
andere Frage die ich hier schon mal gestellt habe:

was macht es für einen Unterschied ob ich
A. einen Synthie in einem 24bit Projekt digitalisiere und dabei -1dB maximal(!) aussteuere und später im Mix den Fader runterziehe.
Ich schaffe mir den Headroom sozusagen erst später im Mixer.
oder
B. einen Synthie in einem 24bit Projekt digitalisiere und dabei -12dB maximal aussteuere und später im Mix den Fader so lasse wie er ist.
Ich habe den Headroom bereits bei der Aufnahme erzeugt.

???
Die Dynamikunterscheide zwischen den leisten und den lautesten Passagen bleiben ja in Relation gleich.
 
was ich noch immer nicht verstehe ist:
warum macht man die Digitalisierung/Aufnahme in einer 24bit DAW nicht mehr "hot", also kurz vor 0dB, z.B. -1dB?
alle reden jetzt davon bei -12dB aufzunehmen wegen dem Headroom, auch falls es zu Pegelschwankungen kommt. Und die Dynamik bei 24bit sei ausreichend, so dass man ohne Probleme auch bei -12dB aufnehmen kann.

Welche Headroom ist eigentlich gemeint?

- der, der durch unvorversehbare Pegelschwankungen schon bei der Aufnahme erfolgen kann, z.B. bei echtem Gesang?
das schliesse ich aus, da ich nur Synths digitalisiere und vorher 2 x den Part abspiele und den Mixer einstelle (z.B. auf -1dB)

- der, der zu einem späteren Zeitpunkt im Mix da sein muss damit nichts übersteuert?
tja, dann kann ich doch den Fader wieder runterziehen 8)

oder?

wer kann mir das erklären warum man unter 24bit nicht mehr "hot" aufnimmt?
vielleicht ist es nicht mehr üblich, aber was gibt es für konkrete Gründe die dagegen sprechen?
was gibt es für Vorteile bei -12dB aufzunehmen?
 
wer kann mir das erklären warum man unter 24bit nicht mehr "hot" aufnimmt?

Keine Ahnung! Es ist immer besser den größtmöglichen Wandlerbereich auzunutzen (hängt auch von der Güte der ganzen Kette ab). Ansonsten regelst Du u.U. in der DAW wieder unnötig den Pegel nach... Bei vielen Spuren addieren sich so nach und nach Fehlers :) Hört zwar keiner, weil minderwertiges Analog Equipment sowieso rauscht wie Atze :)

Für dynamische Signale hat der Audio-Gott doch den Compressor/Limiter erfunden, welcher einen möglichst hohen AD-Pegel erlaubt. :D

bussi
ilse noisetracker
 
24-bit entsprechen einem S/N von 144 dB. Schau Dir mal dieses Bild an:

Schallpegel.JPG


Analog Gear hat da schon Probleme mit dem S/N, ohne jetz eine Referenz zu haben (also High-End Amps oder Mics) liegt das sicher max bei 120, da ist dann noch locker Platz für 12 dB Headroom.

Klar kannst Du hoch aussteuern, aber es macht die Aufnahme nicht besser, Du hast nur das analoge Rauschen mit mehr Bits aufgelöst. Wenn Du mit Headroom aufnimmst, dann hast Du eben keine Stress und es wird nie clippen.
 
swissdoc schrieb:
24-bit entsprechen einem S/N von 144 dB.
Kein Wandler schafft das. In der Praxis hat man viel weniger.

Man sollte aber auch schauen, wie vor dem Wandler verstärkt wird. Vielleicht fügt der Verstärker ja so viel Rauschen hinzu, dass es sich gar nicht lohnt den Pegel vor der A/D-Wandlung anzuheben.

Wenn der Pegel aber hoch und rauscharm ist, dann kann man hoch gepegelt aufnehmen, denn wozu Dynamik bzw. S/N verschenken, wenn nicht nötig? Einfach gut aufpassen, dass es nicht clippt.
 
Phil999 schrieb:
Also ich kann nicht nachvollziehen, wie analoge und digitale Verluste bzw. Signalrauschabstand gleichgesetzt werden können. Das eine hat mit Informationsverlust zu tun der nicht mehr reparierbar ist, das andere mit Rauschpegel, das zwar qualitativ eine Verminderung bedeutet, aber das Signal nicht reduziert. Das sind doch vollkommen verschiedene Welten, oder nicht?
Absolut nicht.
Es ist völlig das gleiche.
In beiden Fällen wird ein Rauschsignal als "Fehlersignal" hinzugefügt. In beiden Fällen wird dadurch die Information reduziert.
Was man digital einfach ausprobieren kann, Signal auf weniger Bits rendern und vom Original abziehen: die Differenz ist nur Rauschen.
(Da ist dann auch das Problem mit "nicht-dithern": der Fehler ist dann manchmal kein Rauschen mehr, sondern wird signalabhängig. Pragmatische Bewertung mit den Ohren ergibt, das man halb Taub sein muss, um solche Fehler besser als Rauschen zu finden (YMMV). )

powmax schrieb:
Bei vielen Spuren addieren sich so nach und nach Fehlers
Wird immer wieder behauptet, ist im Detail aber komplizierter, und neigt dazu, gerne mal umgekehrt zu sein.
Genauer:
- eine Spur rauscht nur vor sich hin (Triangel bei 2:31): das addiert sich wirklich
- normales Signal: hier addieren sich sowohl Spuren als auch Fehler identisch
- Spektral begrenztes Signal (Bass, HiHat): hier landen viele einzeln gut hörbare Fehler in der Verdeckung durch die anderen Spuren
 
Einige Leute haben in diesem Thread ein Aussteuern bis kurz unter die 0dB Grenze propagiert. Es gibt zwei Gründe, dies nicht zu tun:

#1: Vermeidung von inter-sample clipping
#2: Wandler die sich normalsterbliche Menschen leisten können klingen am besten, wenn man sie nicht mit höchstmöglichem Pegel fährt. Der Grund liegt nicht im Wandler selbst, da hört man in der Praxis keinen Unterschied. Doch vor dem D/A-Wandler befindet sich ein analoger OpAmp und solange man nicht das Beste vom Besten hat verhält sich dieser Opamp bei mittlerem Pegel linearer als bei hohen Pegeln.
 
Grenzfrequenz schrieb:
Wandler die sich normalsterbliche Menschen leisten können klingen am besten, wenn man sie nicht mit höchstmöglichem Pegel fährt. Der Grund liegt nicht im Wandler selbst, da hört man in der Praxis keinen Unterschied. Doch vor dem D/A-Wandler befindet sich ein analoger OpAmp und solange man nicht das Beste vom Besten hat verhält sich dieser Opamp bei mittlerem Pegel linearer als bei hohen Pegeln.
Das müsste dann ja auch für 16 Bit Wandler gelten. Wie viel Headroom ist empfehlenswert? 12 dB? 18 dB? Klingt eine 16 Bit-A/D-Wandlung am besten, wenn man ca. 13 bis 14 Bit davon nutzt? :roll:

PS: Du hast geschrieben D/A-Wandler, meintest aber wohl einen A/D-Wandler. 8)
 
24 Bit werden überschätzt.

Ich wiederhole mich mal (Murmeltiertag?): Warum schafft es RME nicht, THD+N auf der Aufnahmeseite auf einen niedrigeren Wert als 104dB zu drücken? Bei keinem einzigen selbst seiner neusten Geräte: nicht dem Fireface 802, nicht dem ADI-8 DS Mk III und nicht dem Fireface UFX. Kein Wandler unter 3000€ schafft mehr (und ob die noch teureren wirklich mehr schaffen, sei mal dahingestellt).

Wenn wir über 16 Bit vs. 24/32 Bit in Audiodateien reden, die analog aufgenommen wurden (also mit Mikro oder Tonabnehmer), dann enthalten Audiodateien mit 24 bis 32 Bit theoretisch allerhöchstens 4 Bit mehr Information als 16 Bit-Dateien.

Meistens jedoch ist das nicht der Fall, da es viele Fälle gibt, bei denen das Grundrauschen bereits vor der A/D-Wandlung zu laut ist:
1) Akustische Gitarre: Bei einem typischen Mikroabstand von 40 cm kommt das Signal bei durchschnittlichem Spiel vielleicht mit 80dB SPL an der Membran an. Das beste Studio-Kondensatormikrofon hat aber ein Eigenrauschen von 6dB SPL. Das heißt, die Gitarre liegt durchschnittlich bei bestem Equipment und allerbestem Aufnahmeraum (auf Federn gelagert, vollständig entkoppelte Raum-in-Raum-Konstruktion in einer Stadt ohne U-Bahn weit vom Bahnhof und jeder Straßenbahn entfernt, am besten tief in einem großen Wald) nur 74dB über dem unvermeidbaren Grundrauschen. Selbst mit 20dB Headroom (was bei akustischer Gitarre durchaus nicht übertrieben ist) reichen perfekte 16-Bit-Wandler (obwohl ich das natürlich nie machen würde).

Aber wenn ich die Gitarre mit 20dB Headroom und meinem Fireface aufgenommen habe, dann hebe ich die Lautstärke der Spur soweit an, daß ich nur noch ca. 1 bis 3dB Headroom habe und speichere das Ganze als 16-Bit-Audio-Datei und zwar völlig verlustfrei und meinetwegen auch ganz ohne Dithern, da die unteren 3.5 Bit sowieso nur noch das Mikrofonrauschen enthalten (und so lautes Grundrauschen muß man nicht mehr dithern).

2) Nachrichtensprecher: Bei 80dB SPL sind schon das höchste der Gefühle. Normale Sprache bekommt man verlustfrei in 16-Bit-Dateien.

3) Hörspielsprecher: Größere Variation der Lautstärke. Flüstern ist die Herausforderung schlechthin, da oft weniger als 60dB SPL erreicht werden, selbst wenn das Mikro 10 cm nahe an den Mundwinkel herangebracht werden kann. Bleiben 54dB Dynamik, da reicht schon fast eine 8-Bit-Audiodatei für eine verlustfreie Konservierung (aber wer würde da Platz sparen wollen?!).

Ganz wichtig ist aber, daß von uns allen fast niemand ein so toll schallbehandeltes Studio hat, daß er das Grundrauschen eines Mikrotech Gefell M940 hören könnte. Insofern sind die oben genannten 6dB SPL unvermeidbares Grundrauschen nur der theoretische Bestwert. Der reale wird allein schon dadurch verschlechtert, daß der Gitarrenspieler/Sprecher nicht nur atmet, sondern sich auch bewegt. Rascheln der Kleidung kann unglaublich laut sein wenn man als Toning drauf achtet.

Wir hatten mal eine Profisprecherin da, alles lief perfekt, aber in den späteren Aufnahmen sah und hörte man ganz leise in regelmäßigen Abständen Klicks. Kaputte Wandler? Neonröhre? Am Ende wars das Ticken einer leisen Frauenarmbanduhr, die sie bei den Aufnahmen am Handgelenk in ihrem Schoß 1m vom Mikro entfernt getragen hatte.

Take-Home-Message: Es gibt wenige bis keine realen Audio-Ereignisse, von denen man mehr als 16 Bit bekommt (dazu müssen sie nämlich immer lauter als 6 + 96 dB SPL sein. Und nun gucken wir mal in das schöne Bild von swissdoc:
Schallpegel.JPG


Demnach wäre ein Presslufthammer fast schon zu leise. Fairerweise muß man sagen, daß hier eine riesige Menge akustischer Instrumente fehlt, die locker 110 dB SPL überschreiten können (Drums, Trompete, Shouts, ...)

Und zum Schluß eine Lanze für 24-Bit-Dateien: Ich muß nicht normalisieren und kann dadurch die originalen Lautstärkeverhältnisse bewahren, wenn ich alles mit der gleichen Preamp-Einstellung und Mikroposition aufnehme.
 
Inter-sample clipping ist überbewertet.

Ein Clipping, das zwischen zwei Samples stattfindet und wohlgemerkt gar nicht im vorigen und gar nicht im nachfolgenden, hat bei 44.1kHz Samplerate eine Dauer von weniger als 22µs. Das ist systemtheoretisch nichts anderes als ein Dirac-Impuls und wenn ich den clippe, dann passiert nichts anderes als eine Änderung seiner Lautstärke und zwar genau um den Betrag, um den er oben abgeschnitten wird.

Wieviel lauter kann ein Wert zwischen zwei Samples theoretisch werden? Vermutlich immer viel weniger als 6dB.

Ich behaupte, niemand auch mit noch so gespitzten Ohren kann wahrnehmen, ob ein Dirac-Impuls um weniger als 6dB in der Lautstärke verringert wurde (Man höre sich zum Spaß mal einen Dirac-Impuls an: Leeres Signal, alle Werte auf 0, ein einzelnes Sample auf Maximum ziehen).

Über die Hörbarkeit im Mix müssen wir gar nicht reden. Bei 96kHz entschärft sich die Situation noch mehr, da die Impulse unter 10µs liegen.

Übrigens fügen analoge Rekonstruktionsfilter die Überschwinger zwischen Samples wieder hinzu, da gibt es gar kein Inter-sample clipping.

Zum Schluß: Wenn das Signal allerdings "gemastert" wird (also die Dynamik Richtung 0dB gepeitscht), dann kommen Überschwinger zwischen Samples natürlich viel häufiger vor, und eine große Menge von Dirac-Impulsen mit um verschiedene Beträge geänderten Lautstärken ergeben in der Summe ein Störsignal, das durchaus hörbar sein könnte. Aber genau hier, wo Headroom dann wirklich sinnvoll sein könnte, wird gerade ganz darauf verzichtet.

Verkehrte Welt. Gespickt mit Mythen und Fehlbedienung.
 
Bei der Wiedergabe liegt es ja an der Wiedergabe-Kette, ob die solche Intersample-Peaks korrekt rekonstruiert oder nicht.
Es gibt einen sehr einfachen Trick, das sicherzustellen: Man schwächt das Signal digital soweit ab, dass die Intersample Peaks den Wandler nicht mehr übersteuern können.
Bei heutigen Wandlern ist das recht zwingend, da die das Signal ja weitgehend digital rekonstruieren, man also keine analoge Reserve hat.
Im echten Leben sind das übrigens etwa 1dB.

Macht aber keiner, scheint also klanglicher weniger schlimm zu sein, als die audioesoterische Befindlichkeit, das digitales Abschwächen "böse" ist.


Bei MP3 bekommt man übrigens weiteres Clippen dazu (ohne Intersample), denn die diversen Filter drehen hier und da etwas an den Phasen, so dass das Ausgangssignal etwas höhere Peaks bekommen kann. Einzelne Peaks bei (der Deppenbitrate) 128k fix erreichen da bis 3dB. Hört man allerdings auch sehr wenig. Auch das kann einfach selber testen, foobar2000 kann mp3 direkt in Floats konvertieren, die dann auch über 0 gehen. Das kann man dann in der DAW untersuchen, u.a. auch wieder die Differenz (zur 16 Version). Hier kann man die Differenz dann auch im Pegel anheben um zu hören, wie sie wirklich klingt und wo ihre Hörschwelle etwa liegt. (Ich höre da durchaus noch ein paar dB "Sicherheitsabstand", YMMV. )

Mein Fazit: es lohnt sich nicht klanglich nicht, diese Peaks zu vermeiden. Denn um die zu vermeiden muss ich den Track entweder niedriger Pegeln ("leiser machen") oder stärker durch den Limiter schieben. Und das schadet beides mehr, als die Clipping-Artefakte drin zu lassen.
Zumal sie der wirklich qualitätsbewusste Hörer in seiner Hi-End-Kette ja auch gar nicht hat.
 
nordcore schrieb:
Absolut nicht.
Es ist völlig das gleiche.
In beiden Fällen wird ein Rauschsignal als "Fehlersignal" hinzugefügt. In beiden Fällen wird dadurch die Information reduziert.
Was man digital einfach ausprobieren kann, Signal auf weniger Bits rendern und vom Original abziehen: die Differenz ist nur Rauschen.
(Da ist dann auch das Problem mit "nicht-dithern": der Fehler ist dann manchmal kein Rauschen mehr, sondern wird signalabhängig. Pragmatische Bewertung mit den Ohren ergibt, das man halb Taub sein muss, um solche Fehler besser als Rauschen zu finden (YMMV). )
:supi:
 
Je nachdem wie komplex das Signal ist kann man sich dithering auch schenken, ich hab bei 24 bit drumsamples auch schon einfach Zack die letzten 8 bit weggeworfen, gehört hab ich davon nix, wenn es nicht gerade ne akustische hh war.
 
Man lade sich mal ein paar Stücke aus den Open Goldberg Variations herunter. http://www.opengoldbergvariations.org/
Wenn ich es recht erinnere, so gibt es da 24-bit unkomprimiert. Das ist vom Recording her erste Sahne. Aber meine Herren, da ist total viel Krach mit auf der Aufnahme, also Nebengeräusche ohne Ende. Dafür gehen dann die Bits drauf, damit die Nebengeräusche auch noch gut klingen :)
 
virtualant schrieb:
tja, ernsthafte Frage:
ich denke grad drüber nach warum das so ist. heutzutage haben alle möglichen Multisamples, z.B. von irgendwelchen Synthiesounds, 24bit oder sogar 32bit. Aber das ist doch nach meinem Verständniss unnötig, reichen da nicht 16bit um den gesampelten Sound 1:1 naturgetreu abzubilden?

Jeh mehr Bit umso feiner lässt sich die Aplitude abtasten / abbilden. Wenn du nur 16 Bit hast kannst du z.B. die Lautstärke der Sounds nicht so fein aufeinander abstimmen wie mit 32 Bit.
 
mark schrieb:
Jeh mehr Bit umso feiner lässt sich die Aplitude abtasten / abbilden. Wenn du nur 16 Bit hast kannst du z.B. die Lautstärke der Sounds nicht so fein aufeinander abstimmen wie mit 32 Bit.

Das ist falsch.
Mehr Bit= weniger Rauschen. <=Punkt
 
mark schrieb:

Ist aber so.
(Kann man in jedem Grundlagenbuch zur digitalen Signalverabeitung nachlesen - und ggfls. auch nachrechnen, wenn man nicht dran glaubt. Findet man dabei einen Fehler (ist ja eigentlich seit >50 Jahren Stand der Erkenntnis), bereitet man das ordentlich auf und schickt es als sensationelle Veröffentlichung an einen wissenschaftlichen Verlag, der Ruhm ist einem dann gewiss. )
 


News

Zurück
Oben