Digital ist schlechter

Ich glaube @einseinsnull will vor allem darauf hinaus, welche praktischen Konsequenzen das alles hier hat - und natürlich kann man auch mit einem digitalen Rechner ziemlich gut ein Flugzeug simulieren oder das Wetter vorhersagen, das stellt doch auch keiner in Frage. Den Autoren der Arbeit geht es denk ich in erster Linie um die (erstmal) theoretischen Limitierungen des digitalen Berechenbarkeitsmodells. Und offensichtlich kann das doch auch Konsequenzen in der Praxis haben - es lohnt sich finde ich auf jeden Fall darüber nachzudenken! "Wieso nur gut genug wenn's auch besser geht?" - und wie genau es besser gehen könnte ist ja auch gar nicht Anspruch der Arbeit, aber vielleicht trägt sie dazu bei.

präzision ist nicht bereich... und decimal ist kein datentyp... ich weiß immer gar nicht was ich dazu sagen soll.

Ich hab mich ja auch gar nicht auf "Präzision" oder "Bereich" festgelegt, beides wird aber immer endlich groß sein. Und vielleicht erstmal googlen bevor du was dazu sagst? Decimal data type

Nein, nicht zwangsläufig. Zahlentheorie ist z.B. diskret.

Klar, ich korrigiere mich: Mathematik kann kontinuierlich sein, muss es aber natürlich nicht...

Ach ja, mehr als zwei Geschmacksrichtungen.

Aleph Null und Aleph Eins sind die bekanntesten Vertreter, aber nicht die einzigen.

Grüße
Omega Minus

Deswegen ja "womöglich", denn so sicher ist man sich da nicht, kommt drauf an ob die Kontinuumshypothese stimmt oder nicht (und Gödel hat ja bewiesen dass die Hypothese nicht widerlegt werden kann, Cohen dass sie nicht bewiesen werden kann)

...aber langsam wird's auch etwas kleinlich finde ich - man muss auch nicht immer jeden Satz auf 100% Exaktheit überprüfen, sonst geht irgendwann der Blick für's Ganze verloren.
 
In wie weit die Mathematik Realität abbildet, bzw umgekehrt, ist ja eh unklar.

Inwiefern spielt der Unendlichkeitsbegriff überhaupt eine Rolle wenn im Universum alles finit oder zumindest abzählbar ist. (Falls das die richtigen Begriffe sind).

Zu dem Paper nochmal, in meinem Unverständnis haben die einfach einen etwas exotischen Randomgenerator vorgeschlagen.

Discuss.
 
"Wieso nur gut genug wenn's auch besser geht?" - und wie genau es besser gehen könnte ist ja auch gar nicht Anspruch der Arbeit, aber vielleicht trägt sie dazu bei.

ich denke halt zwangshaft dialektisch, und wenn ich das adjektiv "schlechter" höre, dann will ich sofort wissen "...als was?" - sonst sehe ich mich außerstande, die aussage auch nur aufzunehmen.

Ich hab mich ja auch gar nicht auf "Präzision" oder "Bereich" festgelegt

du hast das eine gesagt und das andere nicht, aber das scheint auch egal zu sein, weil du ja den unterschied nicht beachten willst.

die aussage der herren, die das papier schrieben, war, dass es für die aufgabe nicht ausreicht, die präzision zu erhöhen.

das stelle ich nicht in abrede. trotzdem hat 64 bit eben auch einen größeren wertebereich, oder man könnte auch noch größere nehmen.

es wäre schon mal interessant zu vergleichen, was dabei herauskäme, wenn die herren das mal ebenso fundiert hochwissenschaftlich mit 1024 bit int machen würden. in synopsis quasi.

falls es damit besser geht, ist die artikelüberschrift "mit computern geht das gar nicht" dann widerlegt. :)

Und vielleicht erstmal googlen bevor du was dazu sagst?

google ist da ein ganz schlechter lehrer. (pro tip der woche: lies mal durch, was da steht.)

Hiess aber BIT One ;-)

kann der auch FM? *lieb guck*

wann kommt der blödinger clone?
 
trotzdem hat 64 bit eben auch einen größeren wertebereich, oder man könnte auch noch größere nehmen.
Deswegen auch habe ich mal den RNG als Vergleich rangezogen, aber auch weil es mir strukturell fast identisch vorkommt:

Minimal unterschiedliche Eingangswerte ergeben unverhersehbar unterschiedliche Ausgangswerte, die dann zur nächsten Iteration hergezogen werden.

Und da spielt die Bittiefe strukturell keine Rolle.
 
Deswegen auch habe ich mal den RNG als Vergleich rangezogen, aber auch weil es mir strukturell fast identisch vorkommt:

ich kann das jetz nicht vernünftig erklären, aber das ziel ist halt ein ganz anderes (generator vs funtionen berechnen o.ä.)

ein rng hat keine topologie und keinen verlauf z.b. - man ihn auch nur ein einziges mal triggern. und man will mit ihm auch nichts berechnen, sondern man muss was berechnen, damit was bestimmtes rauskommt.


die chaotische komponente in einem dynamischen system hingegen ist nicht nur beiwerk, sondern die hälfte seines wesens.

da die papierschreiber hier selbst ihren untersuchungsgegenstand als dynamisches system bezeichnen, ist das deswegen auch die basis meiner herumlaberei über den versuchsaufbau im hinblick auf unsere obige "theorie vs praxis" diskussion.

ein dynamisches system ist nämlich etwas, was man zwangsweise der angewandten mathematik - oder der physik - zuordnen muss.

das ist der grund, warum ich so tue als ob es irgendwie wichtig wäre, dass die herren dann trotzdem auf die berechnung auf eine bestimmte art und weise (nämlich floating point arithmetik) bestehen. das würde man in der angewandten mathematik ja nicht machen, dass man die methode vorher festlegt, man würde schon alle ausprobieren die man kennt und schauen, welche am besten geht.


das ist so ein bischen wie ich oben in einfachen worten schon mal versucht habe zu behaupten: innerhlab der kybermetik und der chaosforschung ist die algebra nur ein instrument der annäherung. es gibt in der kybernetik genau wie in der statistik immer nur modelle.
 
Zuletzt bearbeitet:
Die Simulation der analogen Wirklichkeit wird nie an das Echte herankommen- es sei denn man gibt sich mit dem statischen Abbild zufrieden.
 
er hat eine(n) verteilung(sraum)

mit den begriffen hab ich es auch nicht so.

auf jedenfall ist es kein dynamisches system sondern etwas vollkommen anderes.

würde topologie nicht voraussetzen, dass die verteilung kontinuierlich ist? pseudo zufallswerte kann man ja immer nur innerhalb des verwendeten data types erzeugen (oder den bereich noch weiter einschränken.) bin jetzt zu müde dafür.

zufall ist ja nur ein psychologisches konstrukt und kann in der natur nicht beobachtet werden. :D
 
Zuletzt bearbeitet:
Die Simulation der analogen Wirklichkeit wird nie an das Echte herankommen- es sei denn man gibt sich mit dem statischen Abbild zufrieden.
"That's another thing we've learned from your Nation," said Mein Herr, "map-making.
But we've carried it much further than you. What do you consider the largest map that would be really useful?"


"About six inches to the mile."


""Only six inches!" exclaimed Mein Herr. "We very soon got to six yards to the mile. Then we tried a hundred yards to the mile. And then came the grandest idea of all! We actually made a map of the country, on the scale of a mile to the mile!"


"Have you used it much?" I enquired.


"It has never been spread out, yet," said Mein Herr: "the farmers objected: they said it would cover the whole country, and shut out the sunlight! So we now use the country itself, as its own map, and I assure you it does nearly as well.


Lewis Caroll
 
Die Simulation der analogen Wirklichkeit wird nie an das Echte herankommen- es sei denn man gibt sich mit dem statischen Abbild zufrieden.

Selbst dann nicht. Simulationen basieren auf Modellen. Modelle sind immer Abstraktionen der Wirklichkeit, d.h. Modelle haben einen inherenten Informationsverlust. Ergo können Modelle nie die Realtiät zu 100% abbilden/simulieren. Und darum geht es bei Modellen ja auch - ohne Informationsreduktion keine Modelle, die irgendetwas simulieren könnten.

Was uns allerdings hilft: Das menschliche Auflösungsvermögen, Sehen, Hören, Denken, ... ist limitiert. Als Beispiel: Bei 60 Bildern in der Sekunde (diskrete Information!) halten wir das Gesehene für eine flüssige Bewegung. Insofern können wir auch eine Simulation, die Welten von der Realität entfernt ist, für die Realität halten, weil wir gar nicht in der Lage sind, den Informationsverlust der Simulation gegenüber der Realität zu erkennen.
 
Zuletzt bearbeitet von einem Moderator:
Man kann da noch eins draufsetzen, unsere Idee von Realität ist auch nur ein Modell.

Und zwar eins das mit der Realität überhaupt nichts zu tun hat.

Also nicht nur einfacher ist oder so. Es fängt ja mit der Idee von Raum und Zeit schon an.

Die Physik spricht dann von der Raumzeit, aber auch das ist nur ein Modell
das mit Realität nichts zu tun hat.
 
Welche Rolle spielt das? Wobei ich gar nicht weiß was gemeint ist.

ich dachte ich meinte dass ich sagen wollte oder so oder vielleicht... dass das was du als "topologie" bezeichnest, man bei pseudo random generatoren eher als "verteilung" bezeichnen würde, weil es einfach etwas anderes ist.


1658786003175.png


normal distribution after 110 would be this for example:

expr (sqrt(-2.0*ln(1-((random(0\,32767))*(1./32768.)))))*(cos(((random(0\,32767))*(1./32768.))*6.283185307))


weil es ja von vorneherein immer nur werte ausgeben soll, die genau in den wertebereich passen und dort auch darstellbar sind (hier 16 bits signed, weil mein rand() nicht mehr kann, ansonsten müsste und könnte man für 32 und 64 bit dann die formel anpassen.)


ein dynamisches system hingegen erzeugt "man" ja "kurven", also etwas fortlaufendes.


(wobei das pendel hier idealisiert ist und damit noch nicht mal zu der problemstellung aus dem thesenpapier gehört
.)
 
Zuletzt bearbeitet:
Hm, ich denke ich versteh was Du meinst, aber mein Vergleich ist simpler gedacht.
Mehr fuzzy thinking.
Aber nicht so wichtig. Der Knackpunkt ist modulo, oder vergleichbare Operationen
die den Wert innerhalb eines Rahmens halten, "falten", wie nennt man das deutsch korrekt?
Ob das ein Pendelaufhängung ist oder mod 1 oder was anderes spielt in der Denke keine Rolle.
Und ob ich da jetzt berechne wo das Pendel im nächsten Schritt ist,
oder im RNG einfach zB addiere oder shifte, spielt in der Denke auch keine Rolle.
Was eine Rolle spielt ist daß die Berechnung diskontinuierlich und fehlerbehaftet ist.

Aber ich könnte den Gedanken vermutlich noch wochenlang erklären,
und weder Du noch @Max noch @Omega Minus noch der werte @swissdoc würden zustimmen daß das eine mit dem anderen auch nur entfernt zu tun hat.

Für mich ist es offensichtlich daß es dasselbe in Grün ist.
 
Aber nicht so wichtig. Der Knackpunkt ist modulo, oder vergleichbare Operationen
die den Wert innerhalb eines Rahmens halten, "falten", wie nennt man das deutsch korrekt?

ja genau, dadurch explodieren fehler dann gleich um sehr große werte.

ich glaube falten (fold) ist korrekt, oder wickeln (wrap)?

ich komm da auch immer durcheinander.

ne, fold ist wenns um die ecke geht... 8, 9, 10, 9, 8, so palindrome style, also ist es eher wrap.

in meinem kopf (und meinen programmierklassen) heißt sowas "loop" - die missverständlichkeit daran liebe ich.

Was eine Rolle spielt ist daß die Berechnung diskontinuierlich und fehlerbehaftet ist.

momomomooooment.

sie ist doch nicht wirklich fehlerbehaftet, oder? also zumindesten sind die fehler vorhersagbar, man kennt die werte, die rauskommen.

nimm die gleichförmige verteilung, dann besteht der ganze algorithmus nur aus rand(), man legt den bereich fest, und erhälte perfekte ganze zahlen wie erwünscht.

Für mich ist es offensichtlich daß es dasselbe in Grün ist.

das ist alles nur ein frage der perspektive.

die einzigen, die wirklich unrecht haben sind die diskurverweigerer.
 
Mit "für mich offensichtlich" meinte ich auch nicht daß es eine esotherische Wahrheit ist die keiner kapiert sondern daß es etwas abwegige Denke ist die man nicht unbedingt nachvollziehen kann oder muss.

Die Berechnung ist im RNG nicht fehlerbehaftet, aber in der Physiksimulation.
Und im RNG könnte man ja auch willkürlich verlangen das nicht N Bit geshiftet wird sondern zB Pi Bit (keine Ahnung ob es Mathematik für sowas gibt, aber man könnte sie postulieren glaube ich, zumindest könnte man auf Irrwegen zu einer Lösung kommen die das verlangt selbst wenn es sinnfrei sein sollte)
 
Ich weiss, daß man Lösungen z.B. für die "beliebig" genaue Berechnung der Zahl Pi oder für Primfaktorenzerlegung - oder meinetwegen auch für Bitcoins - dadurch finden kann, indem man algorithmisch vorgeht (Mathematiker würden so etwas als Folgen und Reihen bezeichnen).

Es gibt halt Probleme und Lösungen davon, da schaukeln sich keine Fehler hoch.
Es gibt Probleme, die gut oder schlecht konditioniert sind.

Wenn ich mit dem Newton-Verfahren nahe genug an der Lösung bin und die Funktion keine Schweinereien macht, dann ist jeder Folgeschritt - auch fehlerbehaftet - eine Verbesserung, bis man die maximale Genausigkeit erreicht, die mit dem Verfahren und der Zahlendarstellung geht.

Habe ich schlecht konditioniertes Problem, kann die Lösung empfindlicher von den Eingansparameters abhängen.
Beispiel:
Ich will den Schnittpunkt zweier Geraden, deren Gleichung ich betimmt habe oder gemessen habe, berechnen.
Gut konditioiniert: Die Geraden liegen mehr oder weniger senkrecht zu einander. Kleine Messfehler, kleiner Fehler im Ergebnis, alles in Butter.
Schlecht konditioniert: Die Geraden sind fast paralell, Kleiner Meßfehler, gorßer Fehler im Ergebnis. Ist dann halt nicht so gut.

Oder ich habe ein Polynom elften Grades mit reellen Nulklstellen.
Ich ermittle die erste Nullstelle x0, deflationiere das Polynom (Polynomdivision durch (x - x0) und bestimme die nächste Nullstelle x1
usw.
Da kann es passieren, dass durch die Rundungsfehler beim Deflanionieren die späteren Nullstellen ziemlich abseits liegen oder - wenn es ganz schlecht läuft - mein Algo nicht konvergiert, weil das Restpolynim nur noch komplexe Nullstellen hat. *sad trombone*
Kann man gegen steuern, in dem man nachiteriert mit dem nicht-deflationierten Polynom.
Oder ein stabiles (und weniger naives) Verfafhren nimmt.

Schön, wenn man die Wahl hat.

Blöde halt, wenn man die Wahl nicht hat und das zu lösende Problem schlecht konditioniert ist. Und wenn es so "chaotisch" ist, dann ist es wahrscheinlich schlecht konditioniert.

Also, die Existenz eines Algortihmus sagt nicht, ob ich vernünftige Lösungen unter allen Bedingungen kriege. Wäre sonst zu einfach. :)


Für die x-Millionen Nachkommastellen von Pi nimmt man eine Artithmetik, die auch so viele Nachkommastellen darstellen kann.
Fun Fact:
Ab so ca. 100 Stellen ist es schneller, wenn man die Mulitiplikation mit einer (entsprechend angepasseten) FFT macht, denn dann brauch ich nur O(n * log n) statt O(n²) Operationen.


Bitcoins minen hat nix mit Folgen oder Reihen zu tun. Man muss einen Hash raten. Da gibt es keine konvergierende Reiheoder so. Ja, ich weiß, ich bin wieder kleinlich ...

Grüße
Omega Minus
 
Das Problem mit der IEEE Arithmetik ist aber wohl generell und gut erforscht wie mir scheint:
Für meine Ohren klingen ja komischerweise die simplen Integer-Algorithmen alter 19"-Geräte oder Software (Sawstudio z.B.) besser als die heutigen Fließkommaplugins. Es ging früher schon die Behauptung rum, dass bei Fließkommaberechnungen trotz des eigentlich höheren Abstands etwas im hörbaren Bereich schief gehen kann.

So ganz untechnisch ausgedrückt, ich habe von der Mathematik dahinter keine Ahnung. Aber Musik mache ich praktisch nur noch mit alter Analog- und Digitalhardware...
 
"Digital ist Schlechter"

Carl_Schlechter_%28profile%29.png


Grüße
Omega Minus
 
Das Ausmaß in dem man einen Satz auf die Goldwaage legen sollte ist stark davon abhängig wo er steht! :xenwink:


Wissenschaftlicher Artikel: jeder Nebensatz sollte sehr kritisch überprüft werden

Blog-Post: wird schneller und deutlich vereinfacht geschrieben für ein anderes Publikum

Thread-Titel im sequencer.de Forum (z.B. "Digital ist schlechter"): kann durchaus auch mal reines Clickbait sein und hat hier ja auch offensichtlich funktioniert 🎣😇 (aber die naheliegende Antwort auf "schlechter als was" ist natürlich "analog", was aber noch zu beweisen wäre)


Zum Thema "Präzision" vs. "Bereich" noch: das Wort "precision" bezieht sich ja im allgemeinen Computer-Sprachgebrauch meist auf den Speicherplatz und meint somit auch beides - single precision floats 32 Bit, double precision 64 Bit usw. Je nachdem wo dann der radix point liegt hat man dann am Ende einen - mehr oder weniger - guten Kompromiss aus Präzision und Wertebereich. Ich lese den Artikel so, dass es völlig egal ist wie hoch der Wertebereich ist und wie gut die Präzision - das Problem mit dem chaotischen Verhalten wird halt nur etwas später auftreten. Und auch fixed-point Arithmetik schafft keine Abhilde:

It cannot be mitigated by the use of fixed-point arithmetic or other recently proposed adjustments to the floating-point system of representation 22, 23 owing to the discrete nature of any finite-state digital computer.


Btw, Prof. Bernd "Mr. Analog Computer" Ulmann hat den Blog-Post und Artikel heute ebenfalls auf seiner Facebook-Seite geteilt, was für mich auch ein Garant für ein gewisses Maß an Qualität und Relevanz ist.
 
das Wort "precision" bezieht sich ja im allgemeinen Computer-Sprachgebrauch meist auf den Speicherplatz

die präzision ist die breite der (un)genauigikeit einzelner werte... (kann es jemnd noch kürzer zusammenfassen?)

und meint somit auch beides - single precision floats 32 Bit, double precision 64 Bit usw.

...und eine solche ungenauigkeit ist bei 32 int oder bei 32 bit fixed point nicht vorhanden, wodurch sich in der dezimalen repräsentation eine präzision von 10 stellen ergibt, während man mit float nur auf 6-7 kommt.

oder du bist protools 5 oder iOS 1 un verwendest eines der 4 bytes als overflow, dann musst du leider, leider mit 24 bits of precision klarkommen. hab aber gehört, dass das für diese anwendung ausreichend sein soll. ist mit 8 decimal stellen auch immerhin noch besser als float.:)

Je nachdem wo dann der radix point liegt hat man dann am Ende einen - mehr oder weniger - guten Kompromiss aus Präzision und Wertebereich.

die precision eines zahlenformats ist immer gleich, der wertebereich auch.

Ich lese den Artikel so, dass es völlig egal ist wie hoch der Wertebereich ist und wie gut die Präzision - das Problem mit dem chaotischen Verhalten wird halt nur etwas später auftreten.
Und auch fixed-point Arithmetik schafft keine Abhilde:

mir erklären die herren mathematiker an dieser stelle zu wenig, als dass ich davon etwas verstünde. und noch besser als eine erklärung wäre natürlich ein beweis.

du musst es mal so sehen: wenn die behaupten, dass das mit zahlenformaten, die kongruent zu ganzen/natürlichen zahlen sind, auch nicht geht, dann sagen die damit nur, dass es schon mathematisch nicht geht.

genauso gut könnte man dann argumentieren, dass die bösen computer scheiße rechnen, weil sie die primzahlenherleitung noch nicht gelöst haben.


falls die aussage sein soll, dass genauigkeit in der praxis endlich ist oder digitale rechenmaschinen nicht kontinuierliche signale ausgeben können, haben wir das vorher gewusst.

falls die aussage sein soll, dass rechenmaschinen ganz generell nicht in der lage sind halbweg gut eine bestimmte berechnungen durchzuführen, würde ich aus dem bauch heraus widersprechen (und hätte daher gerne mal einen vergleich des experiments mit einer höhreren auflösung gesehen, den man uns ja leider nicht zeigen wollte, weil die aufgabenstellung nicht war herauszufinden wie es denn besser ginge, was natürlich legitim ist.)

ansonsten bleibe ich abschließend dabei, dass mindestens der artikelschreiber eine sinnentstellende gleichsetzung von "32 bit float" und "digitaler computer" vorgenommen hat, die es so gar nicht gibt und mehr missverständnisse als aufklärung dadurch entstehen.
 
falls die aussage sein soll, dass genauigkeit in der praxis endlich ist oder digitale rechenmaschinen nicht kontinuierliche signale ausgeben können, haben wir das vorher gewusst.
Wäre ein DSD Audiostream nicht kontinuierlich?
Nach meinen beschränkten Verständniss irgendwie schon und dafür braucht's sogar nur 1 Bit.
Wobei mir gerade beim schreiben wieder einfällt, dass wir ja zumindest nicht in der Lage sind, des ganze Digital zu mischen, aber erzeugen und ausgeben geht eben schon.
 
Wäre ein DSD Audiostream nicht kontinuierlich?

Zeitkontinuierlich: Nein, es gibt ja eine Sampling-Rate.
Wertekontinuierlich: Auch nein.

Faustformel:
Kann ich es digital abspeichern, sind die zugrunde liegenden Daten ebenfalls digital, also nicht kontinuierlich.
Man hat also immer Quantisierungsrauschen (Bitbreite) und Bandbreitenbegrenzung (Sample-Rate).
So ganz grob.

Nach(!) der Wandlung hat man ein analoges Signal (mit oben erwähnten Fehlern genüber dem abgetasteten Originalsignal), aber das ist bei der CD ja auch nicht anders.

Grüße
Omega Minus
 


Zurück
Oben