Digital ist schlechter

Max

||||||||||
Kommt mir irgendwie trivial vor, ohne jetzt das Problem zu durchdringen.
Aber solche Probleme kennt doch jeder der numerische Simulation macht?
 
Liest sich wirklich irgendwie trivial (der erste Artikel
 fĂŒr den zweiten habe ich grad keine Zeit).

Die jahrzehntelange Debatte analog vs digital ist endlich geklĂ€rt! 😬

Nicht nur das, sondern der Herr Professor hat sogar herausgefunden, dass nur die RealitĂ€t der „wahre Scheiß“ ist :P

The richness of the real world is entrained with irrational numbers which cannot be represented on any digital computer (‘and will not be representable on a quantum computer either’, he adds).
 
Erstaunlich - das Modell der Welt, das ein Computer liefern kann, ist nicht mit der Welt identisch. DafĂŒr gibt es sicher den IgNobel-Preis. FĂŒr mehr kann diese profunde Erkenntnis eigentlich nicht reichen.

Dass floating-point-Arithmetik mit Vorsicht zu geniessen ist, ist auch nicht mehr ganz neu, davon habe ich schon mal vor ein paar Jahrzehnten gehört. In irgendeinem Schinken von N. Wirth.
 
Er scheint Museumsdirektor oder sowas zu sein. Vielleicht richtet er sich mit seinen Erkenntnissen eher an den durchschnittlichen „John Doe“

 
Ich dachte wie leben eh in einer Simulation?! Stichwort "Matrix". Gibt wirklich Physiker die nach Zeitquantisierung suchen, um damit einen Hinweis zu bekommen, dass unsere Raum-Zeit kĂŒnstlich geschaffen ist.
Zumindest nach unserem VerstĂ€ndnis von "Computer" könnte man dies dann ein Indiz dafĂŒr werten. Ob die Machine dahinter "analog" oder "digital" ist, ist eine gĂ€nzlich andere Frage. Kann ja auch irgendwas sein, was unseren geistigen Horizont ĂŒbersteigt. Andererseits wird ja behauptet, dass Mathematik universell sein. Hmm! :)
 
sensationelle erkenntnis... auch 80 bit floating point oder double kann nicht jeden wert darstellen, weil die prÀzision und die spannweite begrenzt sind.

doch eine frage bleibt: wenn ich das verhalten von flugzeugen bei zufÀlligen und vorher unbekannten scherwinden modellieren will, hilft mir dann ein analogcomputer wirklich weiter? ist der wirklich genauer? und was mache ich, wenn ich 100 werte/funktionen gleichzeitig brauche? 100 analogcomputer nehmen?

omg, man kann gar keine fibonacci reihe mit matlab herleiten, weil man dazu die irrationale zahl √5 braucht! mĂŒssen wir jetzt alle sterben? oder versuchen wir mit den verfĂŒgbaren ~100 stellen hintern komma erst mal irgendwie klarzukommen.

fĂŒr computerspiele langt das doch. realitĂ€t hab ich in der realitĂ€t schon genug.
 
Zuletzt bearbeitet:
wow, wie arrogant... đŸ„±

ich frage mich wie viele der mosernden ĂŒberdurchschnittlich begabten Überflieger wirklich verstehen worum es hier geht... ja, es hat mit Rundungsfehlern zu tun, aber noch viel mehr damit wie sich das erstmal klitzekleine Problem zu einem gewaltigen "aufschaukeln" kann
 
Deswegen mein Fragezeichen, ich schrieb ja ich verstehe es nicht.
Vor allem nicht was genau daran neu ist - ich bin alt genug um mich zu erinnern daß "Fraktale" als Digitalrechnerartefakte bezeichnet wurden.

Was niemand so recht widerlegen konnte glaube ich.
 
Solche Probleme hat man zB beim physical modelling von Musikinstrumenten die ganze Zeit.
 
Ich dachte wie leben eh in einer Simulation?! Stichwort "Matrix". Gibt wirklich Physiker die nach Zeitquantisierung suchen, um damit einen Hinweis zu bekommen, dass unsere Raum-Zeit kĂŒnstlich geschaffen ist.
Zumindest nach unserem VerstĂ€ndnis von "Computer" könnte man dies dann ein Indiz dafĂŒr werten. Ob die Machine dahinter "analog" oder "digital" ist, ist eine gĂ€nzlich andere Frage. Kann ja auch irgendwas sein, was unseren geistigen Horizont ĂŒbersteigt. Andererseits wird ja behauptet, dass Mathematik universell sein. Hmm! :)

Das ist doch quatsch. Wir sind slle nur gedacht von einem Boltzmann Gehirn.
 
In dieser AllgemeingĂŒltigkeit hat es auf jeden Fall schon "neue" Aspekte (bzw. fast, die Arbeit ist ja auch schon von 2019) - fĂŒr die ganzen Schlauberger hier: einfach mal die ersten paar AbsĂ€tze in der originalen Arbeit durchlesen, da steht genau drin was die Autoren an neuen BeitrĂ€gen liefern.

Davon abgesehen ist hier ja auch immer noch das Synthesizer-Forum, ich hab den Artikel gepostet weil ich ihn interessant fand und natĂŒrlich auch relevant fĂŒr das Forum in dem seit Jahrzehnten ĂŒber analog vs digital diskutiert wird (zugegeben, der erste Post war vielleicht etwas provokant formuliert). Ich frage mich aber natĂŒrlich auch ernsthaft, wie genau jetzt da die Verbindung zu Klangsynthese ist.

Also wer etwas konstruktives beizutragen hat, gerne - wer der Welt in erster Linie nur mitteilen möchte, dass das hier aber sowas von unter seinem/ihrem Niveau ist -> 👋 bye bye
 
Wobei grad gar nicht sicher bin, wie wÀre das denn rein mathematisch, kommt es da auch zu chaotischem Rauschen?

die frage bedarf einer erklÀrung.

ich wĂŒrde sie mal umformulieren und erst mal etwas allgemeiner halten: bei welcher art von funktionen/berechnungen wird es zu einem problem (und wo ist es noch keines)?

naiv gesagt wird die precision bei float immer dann zu einem problem, wenn ich nĂ€her an die grenzen der range stoße.

also wenn ich z.b. irgendwas mache, wo ich mit 3540,5 anfange, und spÀter eine gewisse genauigkeit auch noch 12-16 stellen hintern komma brauche.

und das ist bei 32 bit schnell erreicht, wenn ich erst tage in millisekunden umrechne und dann noch zwei mal hintereinander exponential oder logarithmus berechne - oder 3 mal cosinus von oder 3 mal polar to carthesian oder 3 mal pi wrap.


ich habe da eine kleine anekdote aus der eigenen werkstatt: ich habe irgendwo mal in einer software aus grĂŒnden 3 mal hintereinander eine rangeconversion durchgefĂŒhrt, also irgenwas in der art von:

exp(log)
exp(log)
1/input
log

spĂ€ter habe ich dann die reihenfolge getauscht und z.b. das erste exp(log) von sonstwas von der ersten position ganz nach hinten versetzt - aus design grĂŒnden - und im festen glauben, dass das ja nichts Ă€ndern kann.

irgendwann spÀter ging plötzlich die software nicht mehr und hat mir "not a number" ausgegeben, wenn ich den slider bewegt habe.

so etwas kommt wirklich sehr selten vor, aber im grunde genommen weiß man es und ich habe den fehler dann durch systematische suche gefunden, und erst dann dadurch mich wieder daran erinnert, dass ich ja die reihenfolge geĂ€ndert hatte.


der oben verlinkte artikel nennt zwei beispiele, das eine ist die bernoulli sache, die schon recht ĂŒberraschend ist, wenn man das erste mal darauf stĂ¶ĂŸt (Ă€hnlichen stress machen eigentlich alle dieser fraktal algos wenn steuerwerte oder phi gleich einer int sind), und das ist absolut valide.

etwas affig finde ich die "erklĂ€rung", dass man mit einem computer keine irrationalen zahlen darstellen könnte, denn das gilt nicht nur fĂŒr float sondern auch fĂŒr fixed point und int und man kann irrationale zahlen auch auf keine tafel der welt schreiben oder mit ihnen eine korrekte kopfrechnung durchfĂŒhren.

und das hat auch niemals jemand behauptet, also warum sollte man das erforschen oder widerlegen wollen.

dafĂŒr gibt es fractions oder das wurzelzeichen. :)
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: Max
Ein Digitaler Sequenzer ist definitiv besser, weil der kann einfach mehr.
 
Meine Frage bezog sich auf FM Feedback in FM Synthese, also rekursive Sinusfunktion

y'=sin(y*k)

oder wie immer man das notieren will
 
bei rekursiven funktionen kannst du immer aus der range fliegen, aber dafĂŒr gibt es ja lösungen in form von clipping.

du willst in einem feedbackloop eh nicht mehr als 0.9999 amplitude haben und weniger als 0,00001 kannst auch in die tonne kloppen. also clippst du das einfach weg.


dramatischer ist es bei frequenzfiltern (die ja auch solche rekursiven funktionen beinhalten können), da bist du daher dann auch froh, wenn du 64 bit hast.
 
@einseinsnull Ich spreche doch nicht von der Simulation, sondern frage ob das chaotische Verhalten beim Feedback auch in kontinuierlicher Mathe auftaucht

Das finde ich nicht intuitiv zu beantworten.

Und clippen braucht man da nichts, der sinus clipt ja.
 
Und vielleicht kann jemand noch erklÀren worin sich die Problemstellung im Paper von dem in den 80ern postuliertem Schlagwort "Schmetterlingseffekt" unterscheidet?
 
Und vielleicht kann jemand noch erklÀren worin sich die Problemstellung im Paper von dem in den 80ern postuliertem Schlagwort "Schmetterlingseffekt" unterscheidet?
Das kommt dann nach den ersten AbsĂ€tzen in der Originalarbeit. Das ist aber mehr fĂŒr Physiker, und das bin ich leider nicht.
 
@kybernaut_01 so ist das halt wenn Nerds diskutieren, erstmal geht's darum wer die dicksten Eier hat... aber einverstanden, ich nehme mich auch im spöttischen Ton zurĂŒck 👍

Inhaltlich kann ich im Moment wenig mehr beitragen als schon in den Artikeln steht (das Paper hab ich bis jetzt auch nur ĂŒberflogen) - bin selbst erst heute abend im Facebook-Analog-Computer-Forum darĂŒber gestoßen und wollte dann natĂŒrlich die Gelegenheit nicht verstreichen lassen hier mal wieder ĂŒber analog vs digital zu diskutieren :xenwink:

Glaube aber auch ernsthaft, dass das Thema Potential hat und in den letzten BeitrĂ€gen wird's doch auch langsam interessant ✊
 
Analogcomputer bieten nach dem Autor auch keine Lösung fĂŒr das Problem. Die Frage die sich stellt: was dann? PrĂ€sentiert er denn irgendwelche LösungsansĂ€tze? (Habe das Originalpaper noch nicht gelesen
)
 
@einseinsnull Ich spreche doch nicht von der Simulation, sondern frage ob das chaotische Verhalten beim Feedback auch in kontinuierlicher Mathe auftaucht

von "theoretischer" mathematik verstehe ich nix, kann die aber bei "FM feedback" auch nicht als solche erkennen, denn das ist ja bereits ingenieurskrempel (langt, wenns funktioniert), oder nicht?

deren grĂ¶ĂŸtes problem bleibt, dass man zur fehlerreduzierung vor allem hochsamplen mĂŒsste.


der von dir aufgefĂŒhrte pseudo code y'=sin(y*k) wĂŒrde in einer fp umgebung glaube schon deswegen keine probleme machen, weil die fehler nirgends multipliziert oder extrapoliert werden, sondern bei jeder karusselfahrt wieder zu werten werden, die noch darstellbar innerhalb des systems sind.

(je hĂ€ufiger man float operationen durchfĂŒhrt, desto grĂ¶ĂŸer wird die wahrscheinlichkeit, dass es gleich viele abweichungen nach oben und nach unten gibt)

natĂŒrlich könnte es sein - ich habe jetzt keine lust das zu probieren, dass wenn k == genau pi/2, dass dann die ergebnisse die vermutlich hier vorgegebene range von -1 bis 1 sprengen wĂŒrden.

nur pi/2 ist ja irrational und kann schon bei der eingabe nur als float im system dargestellt werden, man kann also eh nicht damit rechnen.

dafĂŒr gibt es jetzt zwei möglichkeiten:
pi/2 (oder -pi/2 for that matter) in 32float kann nur etwas grĂ¶ĂŸer als korrekt oder nur etwas kleiner als korrekt dargestellt werden.
selbst wenn es grĂ¶ĂŸer wĂ€re (ist wohl entweder bei + oder bei - der fall), tritt dies aber nur ein einziges mal auf, denn nachdem es aufgetreten ist, ist ja dann die eingabe nicht mehr 1.0 oder -1.0, so dass beim zweiten mal schon wieder ein wert rauskommt, der die range nicht sprengen kann.

ergo der fehler kann sich nicht unendlich vergrĂ¶ĂŸern, so wie beim bernouilli dingens mit dem modulo, wo man endlos addiert und/oder multipliziert oder sowas.

oder, falls mal ein einzelner wert >1 auftritt, man das eben clippt so wie ich vorschlug;

y'=sin(y*k), außer wenn y'>1.0, dann y=1.0 OR wenn y'<-1.0, dann y=-1.0#

oder, etwas weniger pseudo

(min(max((y'=sin(y*k)) 1.)\,-1.))


(der nichtnerd wĂŒrde wahrscheinlich einfach y auf y*0.99 beschrĂ€nken.)
 
Zuletzt bearbeitet:


Neueste BeitrÀge

News

ZurĂŒck
Oben