Digital ist schlechter

ja, genau - aber bei Festkommazahlen (fixed-point numbers) hat man doch an jeder Stelle eine gleich feine Auflösung

ich denke er hat einfach nur gesagt, dass das bei flaot kein "problem" ist sondern dass das design begründet ist.

der artikel macht nämlich ein problem daraus.

außerdem erscheint die erklärung im arikel auch unvollständig. dort wird nömlich behauptet, die verteilung von float wäre exponentiell.

lustigerweise zitiert er hinterher dem mathematiker, der es dann korrekt darstellt, indem er von non uniform spricht.

1658865207501.png

die veteilung von float werten sieht so aus:

1658865515599.png

ok, das ist dann aber schon ein ziemlich arger "Spezialfall"...

der uns hier als vergleich zum papier dienen soll: denn mit einem sehr großen wert zu multiplizieren ist in etwa eine analogie zu rekursion/iterationen: ein vorher bestehende kleiner fehler wird plötzlich riesengroß.

wenn du diese rechnung in 64 bit floating point durchführst, scheitert dies schon an 1/80.

denn 1/80 ergibt dort 0.1250000000000000069388939072283776476697925567627, weil es zwar 1 und 80 gibt, aber 0.0125 nicht existiert.

vor der multiplikation mit 5 ultrafantastilliraden euro ist das kein problem, danach schon.


ob 110 binär oder dezimal ist, darfst du raten.
 
Sofern man mit etwas Einbußen am oberen Rand des Hörbereichs leben kann. Bei 44,1 khz klingen für meine Ohren sämtliche digitalen Echtzeit-Filter, die nicht schon unter 20khz etwas wegnehmen, kaputt. Schrill, wattig, dynamisch kastriert usw., trotz auf dem Papier guter Messwerte. Ich weiß das, weil ich DACs habe, bei denen ich selber Filter hochladen kann. Die Erhöhung der Samplingfrequenz bis zu einem gewissen Punkt, 60 khz z.B. ist daher u.U. durchaus sinnvoll. Nicht weil man dort hören kann, sondern weil das Antialiasing-/Rekonstruktionsfilter dann weniger im Hörbereich arbeitet.
Dem würde ich auch nicht widersprechen. Aber da reden wir über das Thema Bearbeitung bzw. Signalerzeugung. Das reine Anhören des Endergebnisses kann ohne weiteres in 44 oder 48 kHz passieren…

Edit: Du redest im zweiten Teil tatsächlich vom Anhören von Musik? Da würde ich mal vorsichtig Zweifel anmelden, ob ein sauber (offline) auf 48 kHz herunterkonvertiertes Signal irgendetwas von dem von dir beschriebenen “Schmutz“ enthält. Wie gesagt, Echtzeitfilter in der DAW oder im VA-Synthesizer: keine Frage…
 
Zuletzt bearbeitet:
vielleicht ist Auflösung auch das falsche Wort.
Es geht um die Darstellung von Zahlen bei gegebener Stellenzahl

ich würde es einfacher versuchen:

frage: warum haben die das so gemacht, dass beim float number format die möglichen werte zwischen 100 und 101 nicht so fein verteilt sind wie die werte zwischen 0,0100 und 0,0101?

antwort: weil wir ein maximum von 7 stellen haben! wenn man längere zahlen als 100.0001 ohnehin nicht darstellen kann, dann braucht man auch nicht 100.00010,100.00011, 100.00012 darstellen wollen. bei 0.01010 hingegen geht das noch, und deswegen macht man es da.
 
außerdem erscheint die erklärung im arikel auch unvollständig. dort wird nömlich behauptet, die verteilung von float wäre exponentiell.
lustigerweise zitiert er hinterher dem mathematiker, der es dann korrekt darstellt, indem er von non uniform spricht.
Das ist kein Artikel, sondern ein Blog-Post des Science Museums. Die Original Arbeit ist von Bruce M. Boghosian, Peter V. Coveney und Hongyan Wang. Coveney ist übrigens Professor für Physicalisch Chemie, seinen Phd hat er zum Thema "Semiclassical methods in scattering and spectroscopy" erhalten, das ist eher Physik als Mathe.

Zwischen "non uniform" und "exponentiell" sehe ich keinen Widerspruch.
 
ob es falsch ist einen blog post als artikel zu bezeichnen ist mir vollkommen egal.

aber non uniform ist alles, was nicht gleichförmig ist, und das ist nicht automatisch exponentiell.

im artikel (haha) wird festgestellt die verteilung sei power of 2.

ich tendiere dazu festzustellen, dass sie mindestens zusätzlich dazu auch noch stufig ist.


1658869302230.png


das lässt sich notfalls sogar arithmetisch beweisen. :)
 
Zuletzt bearbeitet:
Dem würde ich auch nicht widersprechen. Aber da reden wir über das Thema Bearbeitung bzw. Signalerzeugung. Das reine Anhören des Endergebnisses kann ohne weiteres in 44 oder 48 kHz passieren…

Edit: Du redest im zweiten Teil tatsächlich vom Anhören von Musik? Da würde ich mal vorsichtig Zweifel anmelden, ob ein sauber (offline) auf 48 kHz herunterkonvertiertes Signal irgendetwas von dem von dir beschriebenen “Schmutz“ enthält. Wie gesagt, Echtzeitfilter in der DAW oder im VA-Synthesizer: keine Frage…

Ich rede von den Filtern, die in praktisch allen aktuellen Wandlern stecken. Es ist immer ein Kompromiss zwischen Frequenzgang, Aliasing und Impulsdarstellung. Und ich rede auch vom Abhören von 44,1 khz Material über mit 44,1 khz getaktete Wandler. Bei höheren Samplingrates muss man weniger Kompromisse eingehen.
 
Ich rede von den Filtern, die in praktisch allen aktuellen Wandlern stecken. Es ist immer ein Kompromiss zwischen Frequenzgang, Aliasing und Impulsdarstellung. Und ich rede auch vom Abhören von 44,1 khz Material über mit 44,1 khz getaktete Wandler. Bei höheren Samplingrates muss man weniger Kompromisse eingehen.
OK, dann hatte ich dich beim zweiten Lesen richtig verstanden…
 
aber non uniform ist alles, was nicht gleichförmig ist, und das ist nicht automatisch exponentiell.
im artikel (haha) wird festgestellt die verteilung sei power of 2.
ich tendiere dazu festzustellen, dass sie mindestens zusätzlich dazu auch noch stufig ist.

ob es falsch ist einen blog post als artikel zu bezeichnen ist mir vollkommen egal.
Der Artikel (Paper) ist einem Peer Review unterzogen worden und folgt somit den Standards für wissenschaftliche Veröffentlichungen. Der Blog Post ist einfach das, ein Blog Post. Wobei ich nicht die Integrität des Science Museums in Frage stellen will. Wer in London ist, sollte sich dieses Haus unbedingt besuchen.
 


Zurück
Oben