Digital ist schlechter

Kommt mir irgendwie trivial vor, ohne jetzt das Problem zu durchdringen.
Aber solche Probleme kennt doch jeder der numerische Simulation macht?
 
Liest sich wirklich irgendwie trivial (der erste Artikel… für den zweiten habe ich grad keine Zeit).

Die jahrzehntelange Debatte analog vs digital ist endlich geklärt! 😬

Nicht nur das, sondern der Herr Professor hat sogar herausgefunden, dass nur die Realität der „wahre Scheiß“ ist :P

The richness of the real world is entrained with irrational numbers which cannot be represented on any digital computer (‘and will not be representable on a quantum computer either’, he adds).
 
Erstaunlich - das Modell der Welt, das ein Computer liefern kann, ist nicht mit der Welt identisch. Dafür gibt es sicher den IgNobel-Preis. Für mehr kann diese profunde Erkenntnis eigentlich nicht reichen.

Dass floating-point-Arithmetik mit Vorsicht zu geniessen ist, ist auch nicht mehr ganz neu, davon habe ich schon mal vor ein paar Jahrzehnten gehört. In irgendeinem Schinken von N. Wirth.
 
Er scheint Museumsdirektor oder sowas zu sein. Vielleicht richtet er sich mit seinen Erkenntnissen eher an den durchschnittlichen „John Doe“…
 
Ich dachte wie leben eh in einer Simulation?! Stichwort "Matrix". Gibt wirklich Physiker die nach Zeitquantisierung suchen, um damit einen Hinweis zu bekommen, dass unsere Raum-Zeit künstlich geschaffen ist.
Zumindest nach unserem Verständnis von "Computer" könnte man dies dann ein Indiz dafür werten. Ob die Machine dahinter "analog" oder "digital" ist, ist eine gänzlich andere Frage. Kann ja auch irgendwas sein, was unseren geistigen Horizont übersteigt. Andererseits wird ja behauptet, dass Mathematik universell sein. Hmm! :)
 
sensationelle erkenntnis... auch 80 bit floating point oder double kann nicht jeden wert darstellen, weil die präzision und die spannweite begrenzt sind.

doch eine frage bleibt: wenn ich das verhalten von flugzeugen bei zufälligen und vorher unbekannten scherwinden modellieren will, hilft mir dann ein analogcomputer wirklich weiter? ist der wirklich genauer? und was mache ich, wenn ich 100 werte/funktionen gleichzeitig brauche? 100 analogcomputer nehmen?

omg, man kann gar keine fibonacci reihe mit matlab herleiten, weil man dazu die irrationale zahl √5 braucht! müssen wir jetzt alle sterben? oder versuchen wir mit den verfügbaren ~100 stellen hintern komma erst mal irgendwie klarzukommen.

für computerspiele langt das doch. realität hab ich in der realität schon genug.
 
Zuletzt bearbeitet:
wow, wie arrogant... 🥱

ich frage mich wie viele der mosernden überdurchschnittlich begabten Überflieger wirklich verstehen worum es hier geht... ja, es hat mit Rundungsfehlern zu tun, aber noch viel mehr damit wie sich das erstmal klitzekleine Problem zu einem gewaltigen "aufschaukeln" kann
 
Deswegen mein Fragezeichen, ich schrieb ja ich verstehe es nicht.
Vor allem nicht was genau daran neu ist - ich bin alt genug um mich zu erinnern daß "Fraktale" als Digitalrechnerartefakte bezeichnet wurden.

Was niemand so recht widerlegen konnte glaube ich.
 
Solche Probleme hat man zB beim physical modelling von Musikinstrumenten die ganze Zeit.
 
Ich dachte wie leben eh in einer Simulation?! Stichwort "Matrix". Gibt wirklich Physiker die nach Zeitquantisierung suchen, um damit einen Hinweis zu bekommen, dass unsere Raum-Zeit künstlich geschaffen ist.
Zumindest nach unserem Verständnis von "Computer" könnte man dies dann ein Indiz dafür werten. Ob die Machine dahinter "analog" oder "digital" ist, ist eine gänzlich andere Frage. Kann ja auch irgendwas sein, was unseren geistigen Horizont übersteigt. Andererseits wird ja behauptet, dass Mathematik universell sein. Hmm! :)

Das ist doch quatsch. Wir sind slle nur gedacht von einem Boltzmann Gehirn.
 
In dieser Allgemeingültigkeit hat es auf jeden Fall schon "neue" Aspekte (bzw. fast, die Arbeit ist ja auch schon von 2019) - für die ganzen Schlauberger hier: einfach mal die ersten paar Absätze in der originalen Arbeit durchlesen, da steht genau drin was die Autoren an neuen Beiträgen liefern.

Davon abgesehen ist hier ja auch immer noch das Synthesizer-Forum, ich hab den Artikel gepostet weil ich ihn interessant fand und natürlich auch relevant für das Forum in dem seit Jahrzehnten über analog vs digital diskutiert wird (zugegeben, der erste Post war vielleicht etwas provokant formuliert). Ich frage mich aber natürlich auch ernsthaft, wie genau jetzt da die Verbindung zu Klangsynthese ist.

Also wer etwas konstruktives beizutragen hat, gerne - wer der Welt in erster Linie nur mitteilen möchte, dass das hier aber sowas von unter seinem/ihrem Niveau ist -> 👋 bye bye
 
Wobei grad gar nicht sicher bin, wie wäre das denn rein mathematisch, kommt es da auch zu chaotischem Rauschen?

die frage bedarf einer erklärung.

ich würde sie mal umformulieren und erst mal etwas allgemeiner halten: bei welcher art von funktionen/berechnungen wird es zu einem problem (und wo ist es noch keines)?

naiv gesagt wird die precision bei float immer dann zu einem problem, wenn ich näher an die grenzen der range stoße.

also wenn ich z.b. irgendwas mache, wo ich mit 3540,5 anfange, und später eine gewisse genauigkeit auch noch 12-16 stellen hintern komma brauche.

und das ist bei 32 bit schnell erreicht, wenn ich erst tage in millisekunden umrechne und dann noch zwei mal hintereinander exponential oder logarithmus berechne - oder 3 mal cosinus von oder 3 mal polar to carthesian oder 3 mal pi wrap.


ich habe da eine kleine anekdote aus der eigenen werkstatt: ich habe irgendwo mal in einer software aus gründen 3 mal hintereinander eine rangeconversion durchgeführt, also irgenwas in der art von:

exp(log)
exp(log)
1/input
log

später habe ich dann die reihenfolge getauscht und z.b. das erste exp(log) von sonstwas von der ersten position ganz nach hinten versetzt - aus design gründen - und im festen glauben, dass das ja nichts ändern kann.

irgendwann später ging plötzlich die software nicht mehr und hat mir "not a number" ausgegeben, wenn ich den slider bewegt habe.

so etwas kommt wirklich sehr selten vor, aber im grunde genommen weiß man es und ich habe den fehler dann durch systematische suche gefunden, und erst dann dadurch mich wieder daran erinnert, dass ich ja die reihenfolge geändert hatte.


der oben verlinkte artikel nennt zwei beispiele, das eine ist die bernoulli sache, die schon recht überraschend ist, wenn man das erste mal darauf stößt (ähnlichen stress machen eigentlich alle dieser fraktal algos wenn steuerwerte oder phi gleich einer int sind), und das ist absolut valide.

etwas affig finde ich die "erklärung", dass man mit einem computer keine irrationalen zahlen darstellen könnte, denn das gilt nicht nur für float sondern auch für fixed point und int und man kann irrationale zahlen auch auf keine tafel der welt schreiben oder mit ihnen eine korrekte kopfrechnung durchführen.

und das hat auch niemals jemand behauptet, also warum sollte man das erforschen oder widerlegen wollen.

dafür gibt es fractions oder das wurzelzeichen. :)
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: Max
Ein Digitaler Sequenzer ist definitiv besser, weil der kann einfach mehr.
 
Meine Frage bezog sich auf FM Feedback in FM Synthese, also rekursive Sinusfunktion

y'=sin(y*k)

oder wie immer man das notieren will
 
bei rekursiven funktionen kannst du immer aus der range fliegen, aber dafür gibt es ja lösungen in form von clipping.

du willst in einem feedbackloop eh nicht mehr als 0.9999 amplitude haben und weniger als 0,00001 kannst auch in die tonne kloppen. also clippst du das einfach weg.


dramatischer ist es bei frequenzfiltern (die ja auch solche rekursiven funktionen beinhalten können), da bist du daher dann auch froh, wenn du 64 bit hast.
 
@einseinsnull Ich spreche doch nicht von der Simulation, sondern frage ob das chaotische Verhalten beim Feedback auch in kontinuierlicher Mathe auftaucht

Das finde ich nicht intuitiv zu beantworten.

Und clippen braucht man da nichts, der sinus clipt ja.
 
Und vielleicht kann jemand noch erklären worin sich die Problemstellung im Paper von dem in den 80ern postuliertem Schlagwort "Schmetterlingseffekt" unterscheidet?
 
Und vielleicht kann jemand noch erklären worin sich die Problemstellung im Paper von dem in den 80ern postuliertem Schlagwort "Schmetterlingseffekt" unterscheidet?
Das kommt dann nach den ersten Absätzen in der Originalarbeit. Das ist aber mehr für Physiker, und das bin ich leider nicht.
 
@kybernaut_01 so ist das halt wenn Nerds diskutieren, erstmal geht's darum wer die dicksten Eier hat... aber einverstanden, ich nehme mich auch im spöttischen Ton zurück 👍

Inhaltlich kann ich im Moment wenig mehr beitragen als schon in den Artikeln steht (das Paper hab ich bis jetzt auch nur überflogen) - bin selbst erst heute abend im Facebook-Analog-Computer-Forum darüber gestoßen und wollte dann natürlich die Gelegenheit nicht verstreichen lassen hier mal wieder über analog vs digital zu diskutieren :xenwink:

Glaube aber auch ernsthaft, dass das Thema Potential hat und in den letzten Beiträgen wird's doch auch langsam interessant ✊
 
Analogcomputer bieten nach dem Autor auch keine Lösung für das Problem. Die Frage die sich stellt: was dann? Präsentiert er denn irgendwelche Lösungsansätze? (Habe das Originalpaper noch nicht gelesen…)
 
@einseinsnull Ich spreche doch nicht von der Simulation, sondern frage ob das chaotische Verhalten beim Feedback auch in kontinuierlicher Mathe auftaucht

von "theoretischer" mathematik verstehe ich nix, kann die aber bei "FM feedback" auch nicht als solche erkennen, denn das ist ja bereits ingenieurskrempel (langt, wenns funktioniert), oder nicht?

deren größtes problem bleibt, dass man zur fehlerreduzierung vor allem hochsamplen müsste.


der von dir aufgeführte pseudo code y'=sin(y*k) würde in einer fp umgebung glaube schon deswegen keine probleme machen, weil die fehler nirgends multipliziert oder extrapoliert werden, sondern bei jeder karusselfahrt wieder zu werten werden, die noch darstellbar innerhalb des systems sind.

(je häufiger man float operationen durchführt, desto größer wird die wahrscheinlichkeit, dass es gleich viele abweichungen nach oben und nach unten gibt)

natürlich könnte es sein - ich habe jetzt keine lust das zu probieren, dass wenn k == genau pi/2, dass dann die ergebnisse die vermutlich hier vorgegebene range von -1 bis 1 sprengen würden.

nur pi/2 ist ja irrational und kann schon bei der eingabe nur als float im system dargestellt werden, man kann also eh nicht damit rechnen.

dafür gibt es jetzt zwei möglichkeiten:
pi/2 (oder -pi/2 for that matter) in 32float kann nur etwas größer als korrekt oder nur etwas kleiner als korrekt dargestellt werden.
selbst wenn es größer wäre (ist wohl entweder bei + oder bei - der fall), tritt dies aber nur ein einziges mal auf, denn nachdem es aufgetreten ist, ist ja dann die eingabe nicht mehr 1.0 oder -1.0, so dass beim zweiten mal schon wieder ein wert rauskommt, der die range nicht sprengen kann.

ergo der fehler kann sich nicht unendlich vergrößern, so wie beim bernouilli dingens mit dem modulo, wo man endlos addiert und/oder multipliziert oder sowas.

oder, falls mal ein einzelner wert >1 auftritt, man das eben clippt so wie ich vorschlug;

y'=sin(y*k), außer wenn y'>1.0, dann y=1.0 OR wenn y'<-1.0, dann y=-1.0#

oder, etwas weniger pseudo

(min(max((y'=sin(y*k)) 1.)\,-1.))


(der nichtnerd würde wahrscheinlich einfach y auf y*0.99 beschränken.)
 
Zuletzt bearbeitet:


News

Zurück
Oben