Samplerates: the higher the better, right?

Ich habe auf jeden Fall mit meiner bescheidenen Erfahrung noch nix bemerkt in der Richtung und würde jetzt nicht auf 96khz wechseln.
darum gehts auch nicht... denn:
  • ja die Unterschiede sind ziemlich minimal.
  • je nach Musikstil und den verwendeten Sounds wird es gar keine hörbaren Unterschiede geben
  • offensichtlich gibt es noch grundsätzlich Verständnisprobleme, gut das mal zu thematisieren.
ich habe aber Bereiche gefunden wo es eindeutige Unterschiede gibt. Und auch wenn nicht jeder Sound betroffen ist: mich kostet die höhere Samplerate nichts - Audiointerface und Computer schaffen das sehr locker.
Mein Entscheidung ist klar.
 
Dann mache ich etwas falsch, ich habe nicht mehr als 20 Spuren ca. und kratze schon am Limit mit meinem High-End Rechner, das bei 48khz :selfhammer:

Aber mal ernsthaft, kann ja jeder so machen wie er will, und vor allem jeder anders. Kommt halt drauf an was für Plugins man benutzt etc.
 
Nur weil Ihr Michaels Pixelbeispiele nicht versteht heißt nicht, dass er nicht recht hat...
Doch so wie er sie erklärt hat, ist es schlicht und ergreifend falsch. Erhöht sich die Pixeldichte und stellt der Monitor das so dar, ergibt das eine mess und sichtbare feinere Auflösung.
Das lässt sich nicht wirklich auf die samplerate übertragen. Weil - wie schon mehrfach erklärt wurde - das vorhandene Material nicht besser aufgelöst wird, sonder die Range des darstellbaren erweitert wird.
Bezieht er sich dabei auf den Aspekt von sehr feinen Bildelementen, die mit zu geringer Auflösung nicht dargestellt werden, lässt sich das nicht übertragen. Denn mit der vorhandenen Auflösung von 44.100 samples lassen sich alle für das menschliche Ohr hörbaren Frequenzen abbilden. Mit einer Auflösung von z.B. 1280x720 lassen sich nunmal nicht alle Details darstellen die das Auge erkennen kann.
 
Besser wäre es nicht vom Bildschirm zu sprechen, sondern vom Bild selbst.
Man macht z.B. ein Foto mit 24 MP (oder mehr), bearbeitet das Bild, und rechnet es runter für die Darstellung im Display.
So auch bei Audio. Für Berechnungen von Audio (inkl. Modulationen wie bei FM) und Zwischenberechnungen inkl. Zwischenspeicherung sind höhere Auflösungen sinnvoll.
 
Zuletzt bearbeitet:
Wikipedia:

Oversampling is „the process of sampling a signal at a sampling frequency significantly higher than the Nyquist rate - Hardware


Sage Audio "Oversampling Explained" :

Oversampling in audio refers to applying a higher sample rate than you have natively set. Many modern plugins have an oversampling feature to increase the sample rate to the audio they’re processing. … Oversampling increases the maximum frequency your processors can handle and increases the accuracy with which the signal is encoded and processed.

Also das was Michael sagt.
Aber ich hab selber kein Plan :D Aber werde mich jetzt da mal einarbeiten, ist interessant!
 
Zuletzt bearbeitet:
Das Ding ist, dass jedwede Bearbeitung immer zur jeweiligen Nyquist Frequenz verzerrt/hingezogen wird, dazu kommt, dass auch Bearbeitungen im hochfrequenten Bereich ein Plugin anders arbeiten lassen, da mehr Inhalte/mehr Energie reingegeben wird.

44,1khz reicht nicht aus, da die Signal erzerrungen weit in den hörbaren Bereich gehen.

Thema Aliasing kommt auch noch dazu,
auch bei guten Antialiasingfiltern.

Bestes Beispiel: Highshelving im plugindoctor bei unterschiedlichen Abtastraten vergleichen.
Diese Art der Verzerrungen passieren bei jeder Bearbeitung: bei EQs, Komps, reverbs, Distortion sowieso
Sehr interessant.
 
Denn mit der vorhandenen Auflösung von 44.100 samples lassen sich alle für das menschliche Ohr hörbaren Frequenzen abbilden. Mit einer Auflösung von z.B. 1280x720 lassen sich nunmal nicht alle Details darstellen die das Auge erkennen kann.
Und warum nimmst du jetzt 1280x720 als Beispiel und nicht 4K, 8K usw.?
Dann könnte ich dem auch Audio mit 8 Bit bei 12 kHz Samplerate gegenüber stellen.
Sowohl das menschliche Auge als auch das menschliche Ohr hat die jeweilige Auflösung (inkl. Verarbeitung im Hirn). Bei einem Bildschirm kommt es dazu auf die Entfernung an.
 
Und warum nimmst du jetzt 1280x720 als Beispiel und nicht 4K, 8K usw.?
Dann könnte ich dem auch Audio mit 8 Bit bei 12 kHz Samplerate gegenüber stellen.
Sowohl das menschliche Auge als auch das menschliche Ohr hat die jeweilige Auflösung (inkl. Verarbeitung im Hirn). Bei einem Bildschirm kommt es dazu auf die Entfernung an.

Bedeutet das, ich wenn ich meine Lautsprecher weiter weg aufstelle, klingt meine Musik dann weniger Scheisse? :traurig:
 
Ist doch im Audiobereich sowieso öfters mal mehr Gefühl und Meinung, als das was man dann am Ende tatsächlich hört im Mix :opa:
Selbst wenn es nicht falsch ist, dann doch eher selten und eher extrem minimal. Dafür jetzt die Hälfte der CPU Leistung opfern?
Ich würde da nochmal unterscheiden, zwischen dem was man mag und dem wo man sich faktisch irrt und trotzdem daran festhält. Manches ist klar nachweisbar, einiges hat Potential für unvolständigkeit.
Hifi Kopfhörer oder generell diese Equipment, amps und dac's ist sehr wild. Das kann aus technischer Sicht wirklich schlecht sein und trotzdem einen Hype in der Szene auslösen.
Beim Thema, was ist vintage Klang oder was die alten Klassiker ausmacht dagegen, ist das noch nicht so klar.
Gut, aber auch da kann man der MEINUNG sein, dass es das ist.
Vielleicht hast du recht und ich hätte mir diesen Kommentar sparen können. Zu spät.
 
darum gehts auch nicht... denn:
  • ja die Unterschiede sind ziemlich minimal.
Ist ja im Synthesizerbereich nicht anders ;-)

Ich wollte nur nochmal hinzufügen. Seit geraumer Zeit mache ich wieder Musik und hatte die SR immer bei 44.1.
Vor nem Monat hab ich mal 48 benutzt und hatte auch sofort den Eindruck es klingt besser. Ne wilde Session mit vielen Plugins. Hab dann auch überlegt, woran das liegt, aber nach meinem damaligen Wissensstand hätt das nicht sein dürfen. Ich höre selbst auch nur bis 16-17 khz.

Wirklich gut dass wir die Diskussion nochmal aufgemacht haben.
Solche Erkenntnisse, die in solchen Threads entstehen, sollte man in einer Wissensabteilung auslagern, damit das Theman nicht immer und immer wieder aufkommt. Danke an @F-A-B für die Informationen.
 
Zuletzt bearbeitet:
Ja und nein, bitte korrigieren, wenn ich falsch liege:

Der Buffer wird so klein wie möglich eingestellt, um die Latenz klein zu halten, aber so groß wie nötig, damit das System stabil läuft.

Wenn ich bei einem so knappen Buffer die Samplingrate erhöhe, wird es wahrscheinlich instabil, aber:

Wenn der Buffer vorher großzügig (mehr als doppelt über knapp) eingestellt war, verkleinert sich die Latenz mit der Verdoppelung der Samplingrate, Systemstabilität vorrausgesetzt.

ich würde es ml einfacher formulieren wollen: ob dir die gesparte millisekunde das mehr an CPU wert ist, ist nicht die hauptfrage.
die hauptfrage ist, ob es nicht auslangt, erst mal zu versuchen den IO buffer so klein wie möglich einzustellen. denn das braucht immer noch weniger mehr an CPU wie sämtliche prozesse in einer höheren rate zu berechnen.

den unterschied zwischen 6ms und 4 ms halte ich perslönlich für überschätzt, wenn man bedenkt, dass ein klavier 20 und eine kirchenorgel 40 hat.

Solche Erkenntnisse, die in solchen Threads entstehen, sollte man in einer Wissensabteilung auslagern, damit das Theman nicht immer und immer wieder aufkommt. Danke an @F-A-B für die Informationen.

solche wissensabteilungen, in denen dann ein jeder seine vermutung äußern darf, die auf gerüchten aus youtube videos stammen, braucht kein mensch. :)

das internet ist voll von halbwegs zutreffenden erklärungen für solche themen. es kommt nur darauf an, sie auch wirklich finden zu wollen.
 
Zuletzt bearbeitet:
Ist ja im Synthesizerbereich nicht anders ;-)

Ich wollte nur nochmal hinzufügen. Seit geraumer Zeit mache ich wieder Musik und hatte die SR immer bei 44.1.
Vor nem Monat hab ich mal 48 benutzt und hatte auch sofort den Eindruck es klingt besser. Ne wilde Session mit vielen Plugins. Hab dann auch überlegt, woran das liegt, aber nach meinem damaligen Wissensstand hätt das nicht sein dürfen. Ich höre selbst auch nur bis 16-17 khz.

Wirklich gut dass wir die Diskussion nochmal aufgemacht haben.
Solche Erkenntnisse, die in solchen Threads entstehen, sollte man in einer Wissensabteilung auslagern, damit das Theman nicht immer und immer wieder aufkommt. Danke an @F-A-B für die Informationen.

Aber das ist doch ein Denkfehler, Samplerate ist nicht das gleiche wie das Hörspektrum.

Edit: Oder ich habs gerade falsch verstanden wahrscheinlich.
 
Aber das ist doch ein Denkfehler, Samplerate ist nicht das gleiche wie das Hörspektrum.

Edit: Oder ich habs gerade falsch verstanden wahrscheinlich.

es kommt immer darauf an, was man macht.

wenn man dabei z.b. nur ans aufnehmen und wiedergeben denkt, hat er absolut recht damit.

sofern das zielformat 44 ist, hat man sogar ein geringeres spektrum, wenn man zuvor mit 96 gemischt hat, weil das runtersampeln einen tiefpass benötigt und es keine idealen filter gibt.

für den guten klang ist ansonsten eine stabile clock das A und O. es gibt interfaces, bei bei 44 besser klingen als bei 192...
 
Aber das ist doch ein Denkfehler, Samplerate ist nicht das gleiche wie das Hörspektrum.

Edit: Oder ich habs gerade falsch verstanden wahrscheinlich.
Aber es hängt zusammen. Der Graph von @F-A-B zeigt, das der eq bei niedriger samplerate mehr frequenzen abschneidet und das schon in Bereichen, die ich noch sehr gut hören kann.
Zumindest zeigt das der Graph für sich so. Ich kenne den Kontext nicht und andere Einflussfaktoren, aber zumindest unter gewissen Umständen gibt es diesen Effekt. In dem gezeigten Fall, ändert sich das Frequenzverhältnis hörbar. Wie gesagt, beginnt es schon bei weniger als 10 khz. Das wusste ich nicht.
Und grundlegend kann man sagen, je höher die Frequenz, desto eher wird deren Darstellung von der samplerate beeinflusst.

Edit: Wenn ich das richtig verstanden habe. Ich steig da auch noch nicht ganz durch.
 
Aber es hängt zusammen. Der Graph von @F-A-B zeigt, das der eq bei niedriger samplerate mehr frequenzen abschneidet und das schon in Bereichen, die ich noch sehr gut hören kann.
Zumindest zeigt das der Graph für sich so. Ich kenne den Kontext nicht und andere Einflussfaktoren, aber zumindest unter gewissen Umständen gibt es diesen Effekt. In dem gezeigten Fall, ändert sich das Frequenzverhältnis hörbar. Wie gesagt, beginnt es schon bei weniger als 10 khz. Das wusste ich nicht.
Und grundlegend kann man sagen, je höher die Frequenz, desto eher wird deren Darstellung von der samplerate beeinflusst.

Edit: Wenn ich das richtig verstanden habe. Ich steig da auch noch nicht ganz durch.

Schon, aber eben nur wenn das Plugin schlecht ist, z.B. bei Fabfilter passiert so etwas nicht, auch z.B. nicht bei den U-he Sachen - Weil gute Plugins das korrekt berechnen, es ist also ein Programmierfehler kein grundsätzliches Problem.

Gibt doch schon (manchmal) gute Gründe, warum manche Plugins etwas kosten.
 
Edit: Wenn ich das richtig verstanden habe

sofern ich dich richtig verstanden ist dem nicht so.

das ist ein klassischen missverständnis, dass digitale signale das analoge quellsignal nicht abbilden könnten.

ein DAC (mit idealer clock) stellt das analoge signal exakt wieder so her wie es vorher auch war - verzerrungen entstehen nur über dem spektrum der samplingrate.
 
Zuletzt bearbeitet:
Und warum nimmst du jetzt 1280x720 als Beispiel und nicht 4K, 8K usw.?
Dann könnte ich dem auch Audio mit 8 Bit bei 12 kHz Samplerate gegenüber stellen.
Sowohl das menschliche Auge als auch das menschliche Ohr hat die jeweilige Auflösung (inkl. Verarbeitung im Hirn). Bei einem Bildschirm kommt es dazu auf die Entfernung an.
Weil es den Unterschied zur Samplerate deutlicher macht, den du dich weigerst zu verstehen..

Nehmen wir mal an 44.1 kHz = 4k und 96 kHz = 8k

Auch hier gilt, die höhere Pixeldichte verändert grobe Details die bei 4K schon gut aussehen. Bei der Samplerate passiert genau das eben nicht. Es sei denn wir nehmen eine samplerate die so schlecht ist das sie die Fähigkeiten der Ohren unterschreitet. Mehr Pixel unterteilen das Bild immer feiner. Bis wann wir das sehen , kann ich nicht sagen.
 
Programmierfehler
naja.. die erfinden auch nicht jedes Mal das Rad neu. Da macht man keinen Fehler und hupsi ist die Berechnung falsch. Man entscheidet sich ob man oversampling einsetzt oder eben nicht. Wann man das einsetzt und mit welchen Filtern man arbeitet.
Das sind keine programmierfehler , eher Designentscheidungen die für den jeweiligen Zweck mehr oder weniger viel ausmachen.
 
Bei der Samplerate passiert genau das eben nicht. Es sei denn wir nehmen eine samplerate die so schlecht ist das sie die Fähigkeiten der Ohren unterschreitet.
Je höher die Samplerate, umso mehr wird nach oben aufgelöst. Du selbst schreibst ja im Forum, dass es für dich Unterschiede zwischen 48 kHz, 96 kHz und 192 kHz gibt. Bei einem Bildschirm ist auch irgendwo Schluss, wo es für das menschliche Auge fein genug ist. Mir ging es bei den Sampleraten auch nicht darum, was genug für das menschliche Ohr ist, sondern welche Sampleraten noch als System-Frequenzen, zum Zwischenspeichern, zum Weiterbearbeiten des Signals sinnvoll sein können.
 
Zuletzt bearbeitet:
Aber es hängt zusammen. Der Graph von @F-A-B zeigt, das der eq bei niedriger samplerate mehr frequenzen abschneidet und das schon in Bereichen, die ich noch sehr gut hören kann.
Zumindest zeigt das der Graph für sich so. Ich kenne den Kontext nicht und andere Einflussfaktoren, aber zumindest unter gewissen Umständen gibt es diesen Effekt. In dem gezeigten Fall, ändert sich das Frequenzverhältnis hörbar. Wie gesagt, beginnt es schon bei weniger als 10 khz. Das wusste ich nicht.
Und grundlegend kann man sagen, je höher die Frequenz, desto eher wird deren Darstellung von der samplerate beeinflusst.

Edit: Wenn ich das richtig verstanden habe. Ich steig da auch noch nicht ganz durch.

Die Grafik ist nicht richtig aufgelöst.
Am besten selbst mal im Plugindoctor ausprobieren, dann wirds deutlich
 


Neueste Beiträge

News


Zurück
Oben