Digital ist schlechter

Was wäre denn dann ein möglicher Lösungsansatz? Oder bewundert der Autor des Papers nur das Problem…
Ich habe mir meine wissenschaftlichen Meriten an einem Institut erworben, wo damals einfache (68020 war damals die schnellste CPU) chaotische Systeme nummerisch untersucht wurden. Ich selber habe experimentiert und nur Analysen der Ergebnisse im Rechner gemacht. Fehlerbetrachtungen gehören in der Physik immer dazu, aber es ging damals nicht so sehr darum. Wo diese Thematik heute steht, kann ich nicht sagen. Der Autor will natürlich seine Ergebnisse promoten und sich wichtig machen.

Hier geht er auf das Thema genauer ein - Abschnitt 9. Coping with chaos:

Lösungen werden gesucht, es gibt eine “next generation arithmetic” von John Gustafon, "based on entities he calls unums and posits", aber das ist laut Author eine Sachgasse. Es wird gesucht, natürlich vom Author und in der Tat bringt er Analoge Computer als mögliche Lösung ins Gespräch. Damit ersetzt man dann die pathologischen Artefakte von IEEE Gleitkommazahlen durch thermisches Rauschen.

...aber die "Probleme" tretten überall auf, wo etwas mit einem Rechner simuliert wird...
Nein. Gezeigt wurde das Problem bei der Bernoulli Abbildung. Vermutet wird, dass es auch bei komplexeren nichtlinearen Systemen (Wettermodelle z.B.) auftritt. Ob es ein echtes Problem ist, oder eher akademischer Natur, kann ich nicht sagen.
 
Nein, eine GPU rechnet die gleichen Algorithmen. Und Erhöhen der Genauigkeit bringt nichts.

du hast aber auch einen größeren wertebereich.

die grundannahme in dem artikel war doch, dass computer grundsätzlich nur mit 32 bit float werten rechnen würden und/oder nur 32 bit befehle verarbeiten.

dinge wie VLIW oder prozessoren mit bis zu 1024 bit werden aus #gründen nicht thematisiert.

ein 256 bit prozessor kann ganze zahlen in from von unsigned int aus mehr 80 ziffern ein und ausgeben, also mehr als zehn mal so viele wie 32 bit float mit seinen 6-7 stellen.

die autor des textes jedenfalls scheint auch gar keinen versuch unternommen zu haben, die berechungen anders durchzuführen, denn sein ziel war es ja, ein beispiel für die grenzen des computers zu finden.


das "geht nicht" ist mir daher ein bischen zu radikal. es ist wohl eher eine frage dessen, ab wann ein computer das halbwegs können wird oder wie lange er dafür braucht.

oder von mir aus auch, wie man ihn bauen müsste.
 
Zuletzt bearbeitet:
du hast aber auch einen größeren wertebereich.

die grundannahme in dem artikel war doch, dass computer grundsätzlich nur mit 32 bit float werten rechnen würden und/oder nur 32 bit befehle verarbeiten.

dinge wie VLIW oder prozessoren mit bis zu 1024 bit werden aus #gründen nicht thematisiert.

nein, man kann sicher durch größere floats ein besseres Ergebnis erzielen, aber das grundsätzliche Problem ist unabhängig von der Präzision:

Though the root of this problem resides in the use of finite-precision floating-point arithmetic, it cannot be mitigated by increasing the precision of the floating-point representation. Our analysis strongly suggests that the pathology we describe will exhibit for mantissa and exponent fields of any finite length whatsoever, and for floating-point numbers encoded in any radix whatsoever.
 
Siehe Beatport: Techno Top100 oder auch Trance Top100 oder edm oder drum n bass. Einfach mal pasr Stunden hören und dann mal wechseln zu wirklich gut gemachter Musik des gleichen Genres

Bei Beatport ist halt generell das Problem, dass meistens Musik dort in den Charts ist, die möglichst den elektronischen Mainstream trifft. Was wäre denn deiner Meinung nach gut gemachte Musik und welches schlechte? Wäre nett, wenn du mal ein paar Beispiele posten könntest, würde mich wirklich interessieren, was für dich dann den Unterschied ausmacht und wieso ein Beispiel dann komplett digital in the Box sein sollte und welches nicht.
 
Die Ursache des Problems liegt hier:
However, it is seldom realised by computer and computationalscientists, let alone day to day users of these digital machines, that the way these numbers are distributed is highly nonuniform. Thereare as many IEEE floating point numbers between 0 and 1 (wherethere are one billion of them) as there are from 1 to infinity, and asmany between 0.25 and 0.5 as between 0.5 and 1.0.
 
Our analysis strongly suggests that the pathology we describe will exhibit for mantissa and exponent fields of any finite length whatsoever, and for floating-point numbers encoded in any radix whatsoever.

soll heißen: du kannst soviele Bits nehmen wie du willst, von mir aus 810 Quattuwieauchwimmer Bits, solange die Anzahl endlich ist hast du das Problem
 
Die Ursache des Problems liegt hier:
the way these numbers are distributed is highly nonuniform.

...und das problem kann man lösen, indem man nicht diese, sondern andere zahlen verwendet, nämlich currency.

zahlen, die so groß werden, berechnet man in mehreren schritten mit überträgen, operationen die zu groß sind, teilt man in mehrere kleinere auf.
 
Zuletzt bearbeitet:
Bei Beatport ist halt generell das Problem, dass meistens Musik dort in den Charts ist, die möglichst den elektronischen Mainstream trifft. Was wäre denn deiner Meinung nach gut gemachte Musik und welches schlechte? Wäre nett, wenn du mal ein paar Beispiele posten könntest, würde mich wirklich interessieren, was für dich dann den Unterschied ausmacht und wieso ein Beispiel dann komplett digital in the Box sein sollte und welches nicht.

Gerne, siehe PM
 
du hast aber auch einen größeren wertebereich.

Mein 8088 hatte mit dem 8087-Koprozessor auch 23, 64 und 80-Bit Fließkomma.

Und (mit Performancenachteilen) kann man natürlich(!) beliebige(!) Fließkommazahlen machen. Ob auf 8-Bit, 16-Bit oder oder ist uninteressant. Das ist nur eine Frage, wie die Sprache das implementiert hat. Ohne 8087-Koprofessor hatten man auch Fließkommaarithmetik, die hat halt nur der Hauptprofessor gemacht zu Fuß, dentsprechend langsam.

Grüße
Omega Minus

PS:
Zur Erbauung:
 
Mein 8088 hatte mit dem 8087-Koprozessor auch 23, 64 und 80-Bit Fließkomma.

Und (mit Performancenachteilen) kann man natürlich(!) beliebige(!) Fließkommazahlen machen.

der lisa I auf dem foto im artikel hatte noch keinen FPU, und wurde dort wohl ausgewählt, weil es der erste 32 bit desktop prozessor war.


meine "kritik" daran, wenn man das so nennen will, liegt aber in einem anderen bereich.

denn der autor behauptet unter der überschrift "the problem with digital computers" folgendes:

1658770544079.png

und das ja ja nicht mal halb "richtig".

denn weder macht es sinn sich in 2019 anzuschauen, was ein apple lisa konnte, noch verarbeiten computer zahlen als floating point.

prozessoren haben gewisse größen für ihre register, für den datenbus, und ggf für coprozessoren, alles andere ist dann eine frage der zuschreibung, der interpretation, und der repräsentation.

das ist das problem mit solchen autoren, die sind genau so dumm wie wir und verwechseln und vermauscheln auch immer alles - das können wir aber bereits selbst - deswegen kann man davon auch selten etwas neues lernen.
 
Ich finde bemerkenswert, dass in der Diskussion Analog vs. Digtal scheinbar implizit davon ausgegangen wird, Analog sei stetig. Dabei haben wir die Planck-Zeit, die das kleinstmögliche Zeitinverall beschreibt. Ob die Zeit innerhalb einer Planck-Einheit dann diskret oder kontinuierlich verläuft, wissen wir (noch) nicht, basierend auf dem, was wir bisher belegen können, müssen wir den Zeitstrahl aber als aus aneinandergereiten diskreten Planck-Einheiten annehmen. Was man auch als einen digitalen Datenstrom verstehen könnte.

Im Allgemeineren haben wir diese diskreten Werte ganz generell in der Quantenmechanik. Betrifft also nicht "nur" Zeit, sondern auch Energie und Materie.
 
...und das problem kann man lösen, indem man nicht diese, sondern andere zahlen verwendet, nämlich currency.

zahlen, die so groß werden, berechnet man in mehreren schritten mit überträgen, operationen die zu groß sind, teilt man in mehrere kleinere auf.

Auch currency, decimal und alle anderen diskreten Datentypen - seinen sie auch noch so groß - werden das Problem nicht lösen.

Denk mal z.B. über diese Zahlen nach: 1/3, Pi, e...

Außerdem hast du wohl noch nicht den eigentlichen "Artikel" gesehen, du zitierst nicht aus dem Paper sondern aus einem Blog-Post darüber - die originale Arbeit ist hier: A New Pathology in the Simulation of Chaotic Dynamical Systems on Digital Computers
 
Ich finde bemerkenswert, dass in der Diskussion Analog vs. Digtal scheinbar implizit davon ausgegangen wird, Analog sei stetig. Dabei haben wir die Planck-Zeit, die das kleinstmögliche Zeitinverall beschreibt. Ob die Zeit innerhalb einer Planck-Einheit dann diskret oder kontinuierlich verläuft, wissen wir (noch) nicht, basierend auf dem, was wir bisher belegen können, müssen wir den Zeitstrahl aber als aus aneinandergereiten diskreten Planck-Einheiten annehmen. Was man auch als einen digitalen Datenstrom verstehen könnte.

Im Allgemeineren haben wir diese diskreten Werte ganz generell in der Quantenmechanik. Betrifft also nicht "nur" Zeit, sondern auch Energie und Materie.

Sehr interessanter Aspekt! Darüber können wir denk ich nur spekulieren, wie du sagst weiß (noch) kein Mensch ob die Welt jetzt diskret oder kontinuierlich ist...

Mathematik ist auf jeden Fall kontinuierlich.

Das selbe gilt für die Unendlichkeit - in der Mathematik ganz klar vorhanden (sogar (womöglich) in zwei Geschmacksrichtungen), in der echten Welt...?
 
der lisa I auf dem foto im artikel hatte noch keinen FPU, und wurde dort wohl ausgewählt, weil es der erste 32 bit desktop prozessor war.

Ich weiß nicht, wieviel Sachverstand uf die Bilderwahl verschwendet wurde. I,A, sind die Beispsielfotos eines Artikel die Pixel nicht wert, die es zur Darastellung braucht,

denn der autor behauptet unter der überschrift "the problem with digital computers" folgendes:

Anhang anzeigen 146995

und das ja ja nicht mal halb "richtig".

Die Aussage (for billion values) für Singe Precisision ist richtig.
Aber wer benutzt noch Singe Precision?

denn weder macht es sinn sich in 2019 anzuschauen, was ein apple lisa konnte, noch verarbeiten computer zahlen als floating point.

Wie geagt, die Lisa ist für mich ein überflüssiges Symbolbild.

prozessoren haben gewisse größen für ihre register, für den datenbus, und ggf für coprozessoren, alles andere ist dann eine frage der zuschreibung, der interpretation, und der repräsentation.

Eben das ist ja genau mein Argument. Furzegal was natriv unterstützt wird, Du kannst auch 128bit Floating Point mit einem 4-Bit Prpozessor machen. Da brauche ich keine GPU für.

das ist das problem mit solchen autoren, die sind genau so dumm wie wir und verwechseln und vermauscheln auch immer alles - das können wir aber bereits selbst - deswegen kann man davon auch selten etwas neues lernen.

Für jedes kack Symbolbild sieben virtuelle Peitschenhiebe.

Grüße
Omega Minus
 
Auch currency, decimal und alle anderen diskreten Datentypen - seinen sie auch noch so groß - werden das Problem nicht lösen.

präzision ist nicht bereich... und decimal ist kein datentyp... ich weiß immer gar nicht was ich dazu sagen soll.

jedenfalls würde ich von einem mathematiker erwarten, dass er seine these "warum digital schlechter ist" damit beweist, dass er uns mal zeigt, wie es mit "analog" besser geht.

Denk mal z.B. über diese Zahlen nach: 1/3, Pi, e...

ich muss darüber nicht nachdenken, weil das eine ganz einfache sache ist:

ich kann feststellen, dass für 99.99% aller möglichen rechenoperationen, die man potentiell mit einem computer machen kann, pi oder euler z.b. mit 1024 int und einem gedachten, beweglichen komma, immerhin auf 78 stellen genau darstellen kann, plus eine 79. falsche, und das solche rechenfehler absolut überall außer in feedbackloops mit wraps drinnen komplett irelevant sind, weil man nämlich solche werte auch gar nicht noch genauer rezipieren könnte.

denk du doch mal darüber nach, wie hochpräzise elektronische bauteile sein müssten um irrationale zahlen mit mehr stellen anzeigen zu können wie mit 32 bit float - dann reden wir. :)


beim thema wettervorhersage ist das problem zwar in der theorie richtig beschrieben, das habe ich ihm ja bescheinigt, aber auch dort ist es in der praxis ganz egal, weil man ja schon keine ganz genauen und richtigen daten eingeben kann. niemand hat auch nur eine quantrillion thermometer und hygrometer über dem ozean installiert, während ich hier mit meinem 1024 bit supercomputer sitze und darauf warte, dessen präzision auch nur zu 1% ausnutzen zu können.

und mal ehrlich, gibt es eine sinnvolle applikation, das chaos eines schwingenden pendels so vorrauszusagen, wie es in der natur auch passieren würde? wie wollte man das denn berechnen? willst du vorher die scharniere und gewinde und das darauf befindliche schmiermittel mit einem rasterelektronenmikroskop ausmessen? inclusive temperaturschwankungen, irregularitäten in der erdumdrehung und so weiter und so fort.

im grunde genommen erklärt und der herr wisenschaftler hier, dass man kybernetik nicht arithmetisch berechnen kann. das weiß man doch seit 200 jahren.


tausende von menschen benutzen in unterschiedlichsten zusammenhängen vereinfachte modelle von bernoulli maps, chirikov pendeln, von attraktoren, und all dem anderen zeug was er in dem papier aufzählt, und bei der wettervorhersage oder bei der kursananalyse helfen uns modellierungen und der vergleich mit gesammelten daten aus der vergangenheit ganz prima zu nützlichen ergebnissen zu kommen.

für solche modelle, die die natur nicht vorausberechnen oder nachbilden, sondern nur nachempfinden, kann man solche berechungen komplett in integer durchführen.

Außerdem hast du wohl noch nicht den eigentlichen "Artikel" gesehen, du zitierst nicht aus dem Paper sondern aus einem Blog-Post darüber - die originale Arbeit ist hier: A New Pathology in the Simulation of Chaotic Dynamical Systems on Digital Computers

er berechnet es ja auch mit float, was von allen denkbaren varianten die schlechteste dafür ist, nur um zu beweisen, dass es mit "computern" nicht geht, obwohl "computer" aber noch mehr können als float. kein wunder also, wenn laien dann so solchen falschen schlüssen kommen wie dieser journalist und das gleichsetzen.
 
Das selbe gilt für die Unendlichkeit - in der Mathematik ganz klar vorhanden (sogar (womöglich) in zwei Geschmacksrichtungen), in der echten Welt...?

Ach ja, mehr als zwei Geschmacksrichtungen.

Aleph Null und Aleph Eins sind die bekanntesten Vertreter, aber nicht die einzigen.

Grüße
Omega Minus
 
das paper schließt damit ab festzustellen, dass ein bernoulli map beispiel ja eigentlich noch gar kein wirklich chatoisches system sei, und nennt als beispiel für ein solches fluid motion.

fluid motion zur vorsage eines natürlichen ereignisses braucht aber kein mensch, man braucht es nur zur simulation.

und so gehen die leute dann her und ignorieren die theorie und modellieren erfolgreich fluid motion durch einfache approximation, um z.b. flüssigkeiten am bildschirm darzustellen oder die druckveränderungen bei bewegung zu beschreiben.

genau wie musiker das mit ihren pendeln und attraktoren machen - meine laufen alle in 7, 8, 10 oder 16 bit.

wobei pendel schon sehr darunter leiden, wenn man ihnen das chaos nimmt, attraktoren hingegen überhaupt nicht. :)
 
Zuletzt bearbeitet:


News

Zurück
Oben