Warum nicht mal unkonventionell? WWDC Neuheiten die mich wirklich überraschen würden. Analogrechner und die Bernd-Invasion, Analog Computer

Gäbe es nicht Dinge, die man eher so lösen könnte - Hybrid mit klassischem Rechner und Anschluss an sowas:


https://youtu.be/UnKCCpRFrrk

is ja bald WWDC
der mathematische Teil ist schnell und so cool gesagt, wie bei Mr.Guyver - vermutlich stimmt das alles. Ich bin ITler aber ich hab keine Ahnung von Mathe. Bin ich zu dämlich für.

Wie oft braucht und rechnet man sowas? Ich hab keine Idee das einzuschätzen. Achja - der Nerd ist cool und liebt das Wort “doof“.

Aber man kann sehen, dass Sinus mit einschwingen gut geht. Synths!

Hilft auch gegen Zombies

Hier isser: http://analogparadigm.com/products.html

Bernd Ulmann heißt - Cooler Supernerd, offenbar auch megafit in Mathe. Such nach ihm und nach analogrechner und du findest Dinge…

1592520018192.jpeg
 
Zuletzt bearbeitet:
Bernd Rasinger aus Österreich (kennen sicher einige hier) - Analoge Visuals mittels analoger Technik (Modular) als Erzeuger - hab das live gesehen auf der Superbooth, sieht super aus, klingt super - laut ist super - nachmachen - wäre mit sowas vielleicht auch zu realisieren

Video ist leider gelöscht worden: https://www.youtube.com/watch?v=dz2k7rxMlpk

*nur gut wenn SCHEINELAUT und mit guten Boxen!!


Alternativangebot

https://vimeo.com/289362386
 
Ist zwar schon nen bissle her, dass ich den Vortrag gesehen hab, aber kann mich noch an den Aha Moment erinnern bzw. wie mir einfach voll bewusst wurde, dass es sehr Sinnvoll sein kann, mal nen ganzes Stück in der Geschichte der technologischen Entwicklung zurückzugehen und mal ne andere Abzweigung zu wählen.
 
APPsolut ja!! -ggf. werden wir dies oder das evtl anders machen und diese grünen Grafiken vom Flügelprofil aus dem ersten Vortrag ist ja auch sonst rattenscharf.
aber - ich bin wirklich bei allem ausgestiegen was mathematisch ist - obwohl ich weiss, wie man eine Ableitung macht, .. ich gehe ja mehr logisch vor und so aber ohne jede Mathe - leider - ich bin nicht stolz drauf
Aber ich würde sowas kombiniert gern mal sehen - es gibt ja wie gesagt auch den 2005er Chip eines Analogrechners. Vielleicht sowas? https://www.techspot.com/news/77687-ibm-announces-8-bit-analog-chip-projected-phase.html
Was zum Lesen dazu gibts hier https://drupal.ee.columbia.edu/back...ging-analog-and-digital-computing-single-chip

Lorenz Attraktor - sieht so aus: Fragen sich sicher auch mehrere - also so in bewegt


https://www.youtube.com/watch?v=dP3qAq9RNLg
 
Zuletzt bearbeitet:
der Typ ist exakt so, wie ich mir ein Unigewächs vorstelle. Jemand, der nur an einer Uni existieren kann.
Vielleicht liege ich falsch, ich hab mir nur 7 minuten angesehen, dann hatte ich genug. Ich würde aber trotzdem
eine Wette eingehen, daß der nur zwischen zu Hause, Hörsaal und Mensa pendelt. Dabei tolle Ideen hat, die
aber nicht zu konkreten Lösungen führen.

Was das Konzept angeht: wie gesagt, hab das Video nur überflogen, aber mir schien, seine Argumentation
FÜR seinen komischen Analogrechner bestand darin, über Digitalrechner herzuziehen.

Vielleicht kann mir jemand, der sich das Video vollständig angesehen hat, folgende Fragen beantworten:
1. was zum Beispiel kann ich mit einem Analogrechner schneller berechnen als mit einem digitalen?
2. wie wäre der jeweilige Programmieraufwand für Analog-/Digitalrechner? Wenn ich mit Kabeln programmiere,
muß ich z.B. auch jeden Rechner einzeln programmieren. Ich kann aber innerhalb von Sekunden ein Programm auf tausend
Digitalrechnern installieren.
3. wie zum Teufel DEBUGGE ich ein Programm auf einem Analogrechner?

Mir scheint allein die Idee sehr akademisch. Wie ein Quantencomputer: wir arbeiten an einer Lösung, wissen aber noch
nicht, für welches Problem.
 
Das hier war eine Sackgasse - mit all dem hier kam es letztlich dazu in die falsche Richtung zu gehen, danach (Minicomputer) kam der Microcomputer und Sachen wie Apple II und ähnlicher Kram.
Bernd: doof!
Ich: schwer unbezahlbar
wir: mein Handy kann mehr heute. Weiss ich.
aber das hier ist dann natürlich wieder digital - langweilig ;-)


https://www.youtube.com/watch?v=yUZrn7qTGcs&fbclid=IwAR1AtbmySXo6iEHa2ugjuckncpRkRAdF0ge6b-4mi-JpnxkYdIqa2ve9JsQ

Aber es geht natürlich auch näher an dem was wir tun:
 
Zuletzt bearbeitet:
der Typ ist exakt so, wie ich mir ein Unigewächs vorstelle. Jemand, der nur an einer Uni existieren kann.
Vielleicht liege ich falsch, ich hab mir nur 7 minuten angesehen, dann hatte ich genug. Ich würde aber trotzdem
eine Wette eingehen, daß der nur zwischen zu Hause, Hörsaal und Mensa pendelt. Dabei tolle Ideen hat, die
aber nicht zu konkreten Lösungen führen.

Was das Konzept angeht: wie gesagt, hab das Video nur überflogen, aber mir schien, seine Argumentation
FÜR seinen komischen Analogrechner bestand darin, über Digitalrechner herzuziehen.

Vielleicht kann mir jemand, der sich das Video vollständig angesehen hat, folgende Fragen beantworten:
1. was zum Beispiel kann ich mit einem Analogrechner schneller berechnen als mit einem digitalen?
2. wie wäre der jeweilige Programmieraufwand für Analog-/Digitalrechner? Wenn ich mit Kabeln programmiere,
muß ich z.B. auch jeden Rechner einzeln programmieren. Ich kann aber innerhalb von Sekunden ein Programm auf tausend
Digitalrechnern installieren.
3. wie zum Teufel DEBUGGE ich ein Programm auf einem Analogrechner?

Mir scheint allein die Idee sehr akademisch. Wie ein Quantencomputer: wir arbeiten an einer Lösung, wissen aber noch
nicht, für welches Problem.
Ja, die LEute hauen dir Zeug um die Ohren und du kannst es nicht prüfen, er hätte genau so gut einen Minimoog hinstellen können, ich hätt es genau so gut gefunden oder irgendein Modular - sieht ja auch so aus - ist ja auch irgendwie nicht weit weg. Comparator und so - kennen wir ja auch. Sogar was die machen. Aber Mathe konnte ich nicht parsen, da bin ich langsam. Und so funktioniert natürlich auch Eso und VT, weil es so eine schöne Abkürzung ist - ich würde bei dem ver2feln, es gern hören weil es inspiriert - aber ich würde niemals was damit machen können. Weil… tja, ich halt nicht weiss wie man das alles sinnvoll macht - er scheint es aber zumindest zu wissen.

Natürlich trollt er uns mit dem Shit - ich finds trotzdem super auf der Inspirationsebene und da lass ich dann nichts kommen - Auf dem CCC / 3XC3 lass ich mir sowas gern erzählen - weil ... klar.

Analogrechner können nichts, sind nicht flexibel - sie können nur eine Sache und das ist natürlich klar und auch ihm.
Ich würde sagen - es ist eben auch eine Sichtsache aber - ich finde es könnte zu einer Ästhetik reifen die mit sowas bestimmten Leuten - vermutlich eher Studenten Dinge zeigen könnte, so wie man mit dem Oszilloskop Sounds etwas nachvollziehen kann bzw. mit dem Spectrum Analyzer. Debug ist ggf. einfacher, weil du weniger machen kannst. Das ist ja nicht BASIC wo man eigentlich jedes Problem bauen kann. Kaffeemaschine oder Spiel, Matheproblem oder Oszillator. Ich hab Basic geliebt deshalb. Das ist von MS.

Aber daran sieht man auch wie das so ist wenn man über KI redet - da wird unfassbar viel getriggert - aber KI ist heute genau so großes Blasengespräch und hey, noch kein Auto fährt autonom, noch kein OS ist schlau genug mir alles abzunehmen und keine KI versteht auch nur den Sinn eines Halbsatzes zusammen mit einem zweiten anderen Halbsatz. Wer das Gegenstück hat schaut Quarks und Co über KI / Machine Learning - Faszinierend, aber eigentlich unfassbarer Bulllshit. Aaaaber - es ist für Probleme durchaus da - für ML und KI fallen mir viele gute Lösungen ein, sei es auch nur Erkennungshilfen und sowas für Raussuchen aus riesigen Mengen. Das könnten sie und Zusammenhänge herstellen - manchmal auch zwischen Dingen die keine Zusammenhänge haben. Sowas find ich aber auch faszinierend, so wie die wirkliche Logik. Die die man in Philsophie lernt, 1-2 Semester. Vulkanier können es, wir so halb. Kirk gewinnt, Spock nicht. Naja..
Schachcomputer, Go spielen und so ist halt noch was anderes - Musiker ersetzen wäre noch was.

Aber es gibt Probleme die man mit Teilen solcher Ideen lösen helfen kann, oder veranschaulichen. Deshalb find ich es irgendwie doch gut, brilliant sogar hier und da.

mehr Inspiration https://www.google.com/search?q=ana..._jkuAL&bih=1161&biw=2249#imgrc=EGYqoe_VRLGQoM sieht leider auch echt super aus - ich steh aber auf 50's Zeugs

Da ist dieser analoge Chip von 2005 https://dl.acm.org/doi/book/10.5555/1104333 als PDF http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.113.3740&rep=rep1&type=pdf

Die Folien vom Bernd sind hier https://docplayer.org/60377430-Rechnen-ohne-algorithmen.html

large_system.jpg
 
Zuletzt bearbeitet:
Ich habe mir das erste video garnicht angesehen, aber,,,


> 1. was zum Beispiel kann ich mit einem Analogrechner schneller berechnen als mit einem digitalen?
Alles. Analogrechner sind 100% Echtzeit. Es gibt keine Latenz.

> 2. wie wäre der jeweilige Programmieraufwand für Analog-/Digitalrechner? Wenn ich mit Kabeln programmiere,
muß ich z.B. auch jeden Rechner einzeln programmieren. Ich kann aber innerhalb von Sekunden ein Programm auf tausend
Digitalrechnern installieren.

Das "Programm" (die Potis und die kabel) kann man ja gerne digital darstellen (Stichwort digitally controlle resistor, cmos-switch).

> 3. wie zum Teufel DEBUGGE ich ein Programm auf einem Analogrechner?
Mit dem Voltmeter. ;-)
 

Ich denke, die richtige Antwort wäre: Alles, was man sowohl mit einem Analogrechner berechnen kann als auch mit einem digitalen.
Und damit meine ich explizit *nicht* alles, was man mit einem Analogrechner *theoretisch* berechnen kann.
Wenn ich als Vorlage z.B. ein Programm mit 100000 Zeilen Quellcode habe, und um dieses Programm auf einem Analogrechner umzusetzen
müßte der 10000 Kabelverbindungen haben und wäre 20 Meter hoch, dann würde ich sagen, daß man es nur theoretisch umsetzen kann,
weil der technische Aufwand für so einen Analogrechner so groß wäre, daß es in der Praxis niemand machen würde.
 
Stimmt nicht ganz. Die Signallaufzeit ist nur sehr kurz im Vergleich.
Stattgegeben :)

Der essentielle Teil ist vor allem, dass in Analogrechner echte koordinierte Parallelverarbeitung und zwar in massivem Umfang der Standard ist, während sie bei den üblichen Digitalsystemen auf die Anzahl der Kerne begrenzt ist.
 
"begrenzt" ist irgendwie nicht das richtige Wort, wenn man bedenkt, daß Clustersysteme hunderttausende von Kernen haben.
Schon eine 500-Euro-Graphikkarte hat einige tausend Kerne.
 
Ich habe mir das Video im Eingangspost komplett angesehen. Obwohl ich mit den Rudimenten meines vor 30 Jahren erworbenen Abiturwissens in Mathematik und Physik nur die Hälfte verstehe, finde ich die Ausführungen von Herrn Ullmann ausgesprochen faszinierend.
 
Mir scheint allein die Idee sehr akademisch. Wie ein Quantencomputer: wir arbeiten an einer Lösung, wissen aber noch
nicht, für welches Problem.

Es gab auch mal Akademiker, die haben sich interessiert für ein merkwürdiges Mittelding, nicht Leiter, nicht Isolator. Man nannte es "Halbleiter" und keiner wusste, warum die Herren, die daran forschten, das interessant finden und - ehrlich geasgt - hätte man irgendeinen gefragt damals, ob, die Dinge mal einen Nutzen haben, könnten ... nein. Kann keiner gebrauchen, was will man denn damit?

Sprich: Viele akademische Ideen sind die Grundlage für die Technologie, die wir tägllich wie selbstverständlich nutzen. Ob das jetzt Halbleiter sind oder Galoiskörper oder Korrelationsfilter. Und mangels funktionsfähiger Glaskugel lässt sich nicht verhersagen, was ein zukunftsträchtiger Weg ist und was nicht. (Für "Halbleiter" sah man keine Zukunft oder praktische Anwendung.)

Ich habe übrigens im Physikpraktikum selbst Differentialgleichungen gelöst mit Operationsverstärkern. Und kenne ein paar der Probleme beim nummerischen Lösen von Differentialgleichungen.

Grüße
Omega Minus
 
Zuletzt bearbeitet:
ich hoffe ja wirklich sehr auf eine Renaissance von analogen Rechnern hoch integriert auf einem kleinen Chip (siehe z.B. Mythic AI)

was so eine Technologie für Synthesizer bedeuten würde kann man sich ja ausmalen -

Prof. Ulmann / "Analog Paradigm" folge ich seit einiger Zeit auf Facebook, vor 2 Wochen oder so hat er ein neues Buch gedropped Analog and Hybrid Computer Programming - ich wünschte ich hätte beim Differentialrechnen besser aufgepasst... aber auch wenn man nicht jedes Detail versteht ganz interessant zu lesen, im Grunde sind diese Analogrechner auch nichts anderes als patchbare modulare Synths (mit einer etwas anderen Modulauswahl) bzw. höchstwahrscheinlich waren diese frühen Analogrechner auch Vorbild für die ersten modularen Synthesizer..
 
kenne ein paar der Probleme beim nummerischen Lösen von Differentialgleichungen.

das Hauptproblem dürfte wohl die numerische Stabilität sein. Bei der Simulation von Crashvorgängen kommt es durchaus mal vor,
daß die Rechnung nach einigen Millisekunden abschmiert. Das kriegt man aber dadurch in den Griff, daß man die Zeitschrittweite reduziert
oder die Strukturmasse des Fahrzeugs um einige Prozent erhöht.
 
das Hauptproblem dürfte wohl die numerische Stabilität sein. Bei der Simulation von Crashvorgängen kommt es durchaus mal vor,
daß die Rechnung nach einigen Millisekunden abschmiert. Das kriegt man aber dadurch in den Griff, daß man die Zeitschrittweite reduziert
oder die Strukturmasse des Fahrzeugs um einige Prozent erhöht.

Die Wahl der Schrittweite ist immer kritisch. Zu kleine Schrittweite und man rechnet sich "dumm und dämlich", ohne einen richtigen Vorteil zu haben. Zu große Schrittweite die Lösung wird ungenau oder "crahst". Es gibt Verfahren und/oder Zusatzüberlegungen, die eine automatsiche Schrittweitensteuerung erlauben.
Wahl es Verfahrens: Es gibt extra ODE-Solver (Löser für gewöhnliche Differentialgleichungen) für sog. "steife" Probleme.
Oder contraint-basierte Solver, die z.B. eine Energiebilanz machen und dafür sorgen, dass die Lösung der Energieerhaltung genügt und nicht wegen nummerischer Ungenauigkeiten abhaut.
Usw. usf.

Das ist alles nicht-trivial. Ich habe zu Studentenzeiten an einem Finite Elemente-Programm zur Simulation von Umformprozessen mitgearbeitet. In FORTRAN, aber ich war jung und brauchte das Geld. :cool:

Grüße
Omega Minus
 
Oder contraint-basierte Solver, die z.B. eine Energiebilanz machen und dafür sorgen, dass die Lösung der Energieerhaltung genügt und nicht wegen nummerischer Ungenauigkeiten abhaut.

bei Crashsimulationen geht es nicht darum, den Crash physikalisch exakt zu simulieren. Manchmal geht ein bißchen von der Gesamtenergie verloren, manchmal kommt was dazu.
Solange es in der Größenordnung von ein paar Prozent liegt, ist das egal. Wir sind ja Ingenieure. Daß die Realität am Ende nicht exakt mit der Simulation übereinstimmt, ist ja eh klar.
Simulationen macht man nicht, um absolute Aussagen zu machen, so was wie "wenn ihr das Auto SO baut, wird es exakt die folgenden Eigenschaften haben".
Simulationen macht man, um ausgehend von einem Startmodell iterativ zu einem Endmodell zu kommen, dessen EIgenschaften gegenüber dem Startmodell verbessert sind.
 
Ich habe übrigens im Physikpraktikum selbst Differentialgleichungen gelöst mit Operationsverstärkern. Und kenne ein paar der Probleme beim nummerischen Lösen von Differentialgleichungen.

Dornier hat über die Jahre einige Analog- und Hybridrechner gebaut, um - ich nehme an - Differentialgleichungen für den Flugzeugbau zu lösen.
 
bei Crashsimulationen geht es nicht darum, den Crash physikalisch exakt zu simulieren. Manchmal geht ein bißchen von der Gesamtenergie verloren, manchmal kommt was dazu.
Solange es in der Größenordnung von ein paar Prozent liegt, ist das egal. Wir sind ja Ingenieure. Daß die Realität am Ende nicht exakt mit der Simulation übereinstimmt, ist ja eh klar.
Simulationen macht man nicht, um absolute Aussagen zu machen, so was wie "wenn ihr das Auto SO baut, wird es exakt die folgenden Eigenschaften haben".
Simulationen macht man, um ausgehend von einem Startmodell iterativ zu einem Endmodell zu kommen, dessen EIgenschaften gegenüber dem Startmodell verbessert sind.

Bezog sich nicht auf den Crashtest, sondern auf den Ball, der immer höher springt (siehe Video). Da ist ja dann die Energie nicht mehr erhalten, sollte sie aber. Aber man die Energieerhaltung dann in einen contraint packen.

Ich habe das mal anschaulich gesehen bei einer einfachen Simulation einer kleinen Masse, die sich in Form einer Acht um zwei große Massen bewegte. Wenn man zig Umläufe simuliert und die Trajektorien zeichnet, kann man erkennen, ob die Simulation abhaut oder nicht. Die ursprüngliche Version tat das, die verbesserte Version, die die Energieerhaltung berücksichtigte, nicht.

Grüße
Omega Minus
 
Zuletzt bearbeitet:
Dornier hat über die Jahre einige Analog- und Hybridrechner gebaut, um - ich nehme an - Differentialgleichungen für den Flugzeugbau zu lösen.

Ah, interessant, danke!

Die haben die Dinger auch damit gesteuert:
Wahnsinn! :)

Ich habe nur damals in einem Computermuseum einen Analogcomuter gesehen, der benutzt wurde um Fahrverhalten und dessen Stabilität zu rechnen. Der Typ, der das vorführte: "Jo, so haben wir das damals gemacht, in den 60ern. Damals sind die Autos auch nicht umgekippt!" (war kurz nach er Geschichte mit dem Mercedes A und dem Elchtest).

Grüße
Onmega Minus
 
mag ja sein, daß Dornier und andere *früher* mal Analogrechner nutzten, aber heute tun sie es offenbar eben nicht mehr.
Vermutlich hatten "Simulationsmodelle" zu der Zeit nur eine Handvoll Parameter/Freiheitsgrade. Ich weiß immer noch nicht
genau, wie ein Analogrechner im Detail funktioniert, aber wenn die Anzahl der Kabel, die man stecken muß, mit der Anzahl
der Parameter des Modells zusammenhängt, dann ist eben irgendwann Schluß.

Einen Stoßdämpfer z.B. kann man als Ein-Massen-Schwinger mit *einem* Freiheitsgrad und den Parametern Masse, Steifigkeit und Dämpfung
modellieren.

Ein Fahrzeugmodell für eine Crashsimulation hat heutzutage einige Millionen Freiheitsgrade. Der Solver (das Programm, das die Simulation
numerisch durchführt) ermittelt also als Ergebnis (einfach ausgedrückt) einen Lösungsvektor mit einigen Millionen Zeilen (bzw. Spalten).
Die Anzahl der Freiheitsgrade ist im Gegensatz zum Ein-Massen-Schwinger auch nicht immer gleich. Könnte ein Analogrechner so eine
Berechnung mit mehreren Millionen Freiheitsgraden durchführen?
 
mag ja sein, daß Dornier und andere *früher* mal Analogrechner nutzten, aber heute tun sie es offenbar eben nicht mehr.

Ja früher, denn Dornier gibt's ja auch schon seit vielen Jahren nicht mehr.

In den 60ern und 70ern war die numerische Lösung von solchen Problemen halt auch nicht ohne weiteres zu errechnen, und ein Analogrechner vermutlich schlicht günstiger als ein Digitalrechner, der das könnte.
*Spätestens* seit den frühen 90ern, moglicherei aber schon seit den 80ern, dürfte das nicht mehr der Fall sein.
 
Ich war heute in Bernd Ulmanns Analogrechnermuseum und durchaus beeindruckt. Er produziert und verkauft auch ganz praktisch Analogrechner, es gibt also einen Bedarf dafür. Didaktisch war er aber nicht optimal - er hat 90 min geredet und blieb dabei zu theoretisch. Eine kleine Lösung eines einfachen Problems zu demonstrieren wäre sicher gut gewesen.
Übrigens: eine Rechnung/ Gleichung auf dem Analogrechner sieht aus wie das Patchen eines Modularsystems! Nur die Module sind halt mathematisch :)
 


Zurück
Oben