BASIC mit Zeilennummer - Programmieren

Aber die Formel für Apfelmännchen hab ich nie verstanden.
Ich möchte mal versuchen, das ohne Formel und stark vereinfacht zu erklären.

ACHTUNG: Ich bin da selbst ein völliger Laie und bitte um Korrektur, falls ich Mumpitz erzähle.

Stell Dir eine Formel vor, die Du mehrere Male nacheinander berechnest.
Der Trick ist, dass diese Formel bei jedem neuen Berechnungsschritt ihr Ergebnis aus dem vorherigen Berechnungsschritt als Ausgangsmaterial für den neuen Berechnungsschritt verwendet.

Das ist im Prinzip das Gleiche wie die Rückkopplung zwischen Lautsprecher und Mikrofon.

Die Formel für dieses "Apfelmännchen" berechnet aus zwei Eingangswerten ein Ergebnis, indem der erste Eingangswert mit sich selbst multipliziert wird, und der zweite addiert wird.

Der erste dieser Eingangswerte ist der Ergebnis des vorherigen Berechnungsdurchlaufs.
Bei dem ersten Durchlauf der Berechnung ist dieser erste Eingangswert Null, denn wir durchlaufen die Formel ja zum allerersten Mal, es gibt also noch gar kein vorheriges Ergebnis.
Bei allen folgenden Durchläufen der Berechnung ist dieser erste Eingangswert das Ergebnis des vorherigen Durchlaufs der Formel.

Der zweite dieser Eingangswerte ist eigentlich ein Wertepaar, nämlich die X-Position und die Y-Position eines Punktes in einem XY-Koordinatensystem.

Das Koordinatensystem arbeitet mit sogenannten Komplexen Zahlen, deren Verständnis aber für das Verständnis des Zustandekommens des bekannten "Apfelmännchen"-Bildes meiner Ansicht nach nicht notwendig ist.

Das Ganze funktioniert nun so:
0) Man einigt sich darauf, wie oft man die Formel durchlaufen will, sagen wir 20 Mal.
1) Man sucht sich einen Punkt in diesem Koordinatensystem, gibt dessen XY-Wertepaar in die Formel ein und lässt sie 20 Mal durchlaufen.
2) Dann schaut man sich die Ergebnisse der 20 Durchläufe an.
3a) Dabei stellt man entweder fest, dass diese Ergebnisse nicht größer als 2 (≤2) werden.
3b) Oder man stellt fest, dass diese Ergebnisse mehr oder weniger schnell ins unendlich Große explodieren.
4a) Wird das Ergebnis für den in Schritt (1) gewählten Punkt nicht größer als 2, malt man diesen Punkt schwarz.
4b) Explodiert das Ergebnis für den in Schritt (1) gewählten Punkt, malt man diesen Punkt farbig. Je nachdem, nach wievielen der maximal 20 Durchläufe das Ergebnis wie stark explodiert ist, wählt man eine andere Farbe.

Die Schritte (1) bis (4) wiederholt man nun für alle Punkte des Koordinatensystems, die man sehen möchte.

EDIT Die Bedingung in den Schritten (3a) und (4a) korrigiert.
 
Zuletzt bearbeitet:
Meinst du nicht Geek-Krams? Red domma german, Mann.
Na gut - dann eben "Quadratkopf" ;-)

Und hier noch was aus der Bateilung 'schnell, schmutzig, populär':
... wenn ich mir diese (für mich unverständliche) esoterische Bitshift- und Pointer-Arithmetik anschaue, dann wundere ich mich auch nicht darüber, wie angreifbar in C geschriebene Betriebssysteme sind (schlecht implementiert vorausgesetzt) - Stichwort Buffer Overflow (das Beispiel hat echt schon Perl Obfuscated Code Qualitäten).

:mrgreen:
 
@serge
wg. Apfelmännchen Formel: Das meinte ich mit "Rekursion" (in meinem flappsiogen Kommentar gestern)
 
Hat doch nicht so lange gedauert wie befürchtet: Ich habe eine originale Soundkarte (1976) für den Altair 8800 bekommen können, die SSM SB1.
Historisch sehr interessant, da auf selbiger der erste SSM (solid state music) Chip überhaupt verbaut ist, der SSM2000 (Doppel-VCA), der sonst meines Wissens nach nirgends verwendet worden ist.

Kontext: SSM hat zu Altair-Zeiten etliche ganz normale Peripherie-Karten für den Altair (bzw generell: S100 Computer-Systeme) hergestellt, zB RAM oder Interfaces (seriell, parallel). Für die hier gezeigte SB1 wurde dann der SSM2000 entworfen, dessen Nachfolger 2010 im Emu Modularsystem landete. Spätere SSM Chips waren dann - bekannterweise - in allen möglichen Synthesizern verbaut.

Die Karte ist ansonsten mit Digitaltechnik aufgebaut, erzeugt eine einzige Stimme. Kern ist eine homöopathische Menge RAM, der mit Zählern ausgelesen wird. Also, Single Cycle Waveform(s) und eine mehrstufige VCA Hüllkurve, die auch (ein bisschen) die Waveforms switchen kann.

Die originale Software hab ich noch nicht besorgen können leider, insofern gehts im Moment nur schrittchenweise mit 8080 Assembler voran (erste Fehler auf der Karte wurden auch schon ausgemacht 😅)

IMG_3130.jpegIMG_3131.jpeg
 
Das wäre einen eigenen Thread wert, schon weil es SSM und Sound darstellt und nicht direkt BASIC adressiert.
Aber interessant isses allemal. Ich hab mit Basic und Assembler damals den AY8910 bearbeitet vom ZX81 aus. Heute kann ich zaubern, damals machte es rapiep reapiep.

aber du lieber Himmel - Altair - das war ja noch vor Basic und wirklich eine LED-Anzeigemaschine der ersten Stunde. Meine Lernversuche liefen auf einem sgnt Einplatinencomputer. Eingabe in Hex und rotes Display. Wirkte nicht so "magic" aber interessant um Computer zu verstehen. Ich muss sogar sagen, dass diese Gnade der passenden Geburt das Verständnis für Computer und ihre Funktion recht nahe bringen - aber am Ende steht das Handy und das neue Macbook und das OS dazu und dann die Idee - ein Sinclair und das alles könnte heute gar nichts mehr anbringen, es wäre alles zu klein um die Welt zu drehen. Es ist sehr schade, dass es nur noch 2 feste OS gibt und das alles so unerreichbar - damals wirkte es wie ein Zukunftswettbewerb - man könnte es schaffen - wenn man auch Tramiel, Jobs und Co. kaum unterstellen könnte das die total bei 0 liefen.
Das aber nur zwischendurch.

BASIC ist ja hier mein Thema - weiter oben steht was über Zeilennummern - ich hab sie mit dem Atari abgestoßen, denn dort waren sie nicht mehr "in" und die Strukturen wurden sehr ähnlich wie C, C++ und Pascal. Es ist auch eigentlich kein Problem - es ist nur eine Art von Nostalgie. Ein Rechner den man einschaltet und ist direkt im Basic Mode - naja, das ist ein Lerncomputer aus heutiger Sicht, einer der einem zeigt wie das geht. Heute ist ein Computer für alle und man macht Facetube damit. Das nicht abwertend gemeint - es ist mehr ein Werkzeug und das lernen ist an zweiter Stelle oder darunter.
Hieße ich Pascal würde ich mich natürlich immer Turbopascal rufen lassen, weil das schneller klingt. Aber es gibt heute ja auch Multikern,Multithreaded-Sprachen…

Manche nutzen am Ende sogar nur 2-3 Programme wirklich.
Aber das tolle ist das Offene, das selbstmachen.. wie auch in der Musik.
Das leer Blatt und der blinkende Cursor - Mach was mit mir!
 
Genau für diese Nostalgie habe ich hier noch meine Basic-Computer, beide um die 40 Jahre alt und voll funktionstüchtig.
Laufen beide mit einem frühen Microsoft-Basic.
- natürlich mit Zeilennummern :cool:
 

Anhänge

  • Retro Basic.jpg
    Retro Basic.jpg
    1,9 MB · Aufrufe: 17
Ich hatte einen KC 85/3 mit Basic Modul und es lag eine kleine Anleitung für Basic bei, damit ging schon ne ganze Menge.
Die Tastatur vom Teil fand ich designmäßig immer total überlegen, ich habe das Gerät echt geliebt.
Aber auch viel zuviel GOTO benutzt, ich fand das dann sehr verwirrend, ohne auskommen zu müssen mit turbo pascal.
 
Goto war böse, Gosub gut. Das liegt daran, dass du in Basic die Pointer verspringen lassen kannst und SPRINGEN ist böse. Dabei ist in Assembler springen total normal und die eigentliche "Struktur" besteht oder sagen wir bestand aus "Springen".
Heute muss das alles nebenläufig sein und so weiter.. Scala, Haskell und sowas wären heute vielleicht interessanter - für uns aber wohl nicht sooo sehr, glaube Audio geht damit nicht so perfekt.

Heute baut man natürlich auch eher was in moderneren Sprachen wie Erlang, die ein bisschen wie ein modernes Prolog ist und eben auch rekursiv-freundlich.
Und heute will man ja verteilt und skaliert arbeiten und das dann noch auf mehreren Kernen und das ideal optimal - für uns Audiohanseln ist das nur schwer, weil es meist nicht reicht für Synths - weil ja ein Filter nun mal erst nach dem Oszillator "filtern kann".
Spannend aber. Allerdings ist mein kleiner Thread auf eher grundlegender Idee und oft nicht mehr schnell genug, während C, C++ noch immer als akuell gilt - ich hab C, C++, Java "gelernt" im Studium aber auf der Basis dieser alten Erfahrungen mit Basic, Assembler Pascal.
Damals auch Lisp und sowas wie Prolog - wo man ein bisschen KI aufgehängt hat - KI galt damals aber als Datenbeziehungen, semantisch - und das ist ja bei heutiger KI nicht mehr so - auch spannend, denn ich war so fasziniert von sowas - wenn es clever wird - siehe auch Rekursion - das ist ganz passend, dass das hier erwähnt wurde.

Den KC85 hab ich nie kennengelernt, weil Westkind - aber vielleicht konnte man später dran kommen? Bei mir war Apple II und PET dann das was man so draußen sah, auch anderes später und die Freunde hatte natürlich alle C64, Sinclair und ein paar Exoten (ich war sehr UK-based mit meinem Computerkrams).
Naja, und dann Atari und das war so ein bisschen der Sprung von Basic und dem alten Denken zu dem was man später machte.
 
Zuletzt bearbeitet:
Den KC85 hab ich nie kennengelernt, weil Westkind - aber vielleicht konnte man später dran kommen?
Die wurden nach/während der Wende sehr erschwinglich, weswegen es im Rahmen der Möglichkeiten war, dass ich mit 12 oder 13 einen zu Weihnachten bekam.
Viel hat man nicht verpasst, es gab ein paar Spiele, die schon halbwegs mit denen auf dem C64 mithalten konnten, aber der C64 war da schon deutlich eine Kategorie drüber.
Spannend war die Möglichkeit, Töne direkt auf das angeschlossene Kassettengerät auszugeben (mit dem Basic Befehl "Sound").
Man konnte also Melodien programmieren und auf Kassette aufnehmen. Aber eben einfach reine Töne, d.h. man konnte natürlich sehr schnelle Tonfolgen programmieren, random oder an oder absteigend, also so etwas wie einen sehr stufigen Pitch Envelope.
Ich hatte mir ein paar Tasten als Klaviatur programmiert und ein paar Tasten als Sondertasten, wo dann so eine brutzelnde Tonfolge abgefeuert wurde :)
Man konnte also zu einem gewissen Grad jammen, allerdings mit sehr viel Latenz verbunden.
 
Goto war böse, Gosub gut. Das liegt daran, dass du in Basic die Pointer verspringen lassen kannst und SPRINGEN ist böse. Dabei ist in Assembler springen total normal und die eigentliche "Struktur" besteht oder sagen wir bestand aus "Springen".
Ein bisschen fallabhängiger ist es schon, Springen ist nicht prinzipiell böse, ist halt immer die frage, woher, wohin und zu welchem Zweck. Will sagen: innerhalb einer Funktion im Fehlerfall and Ende zu springen mit entsprechendem Rückgabewert ist im Prinzip die Vorstufe der Exception und nicht böse. Aber mit dem Springen ist es wie überall sonst auch bei den Menschen: manche können sich nicht zügeln, halten sich an keine guten Regeln und dann gibt es die rechte Front ... äh, Spaghetticode.

Ich weiß gar nicht mehr, Basic hat mich nach 3 Wochen oder so gelangweilt ... gab es Basicvarianten, in denen man eigene Funktionen definieren konnte? GuSub würde es ja vermuten lassen und das ist letztendlich natürlich auch die Lösung.

Petition für ein LOCAL OLNY GOTO!
 
Genau für diese Nostalgie habe ich hier noch meine Basic-Computer, beide um die 40 Jahre alt und voll funktionstüchtig.
Laufen beide mit einem frühen Microsoft-Basic.
- natürlich mit Zeilennummern :cool:
Die Bilder erinnern mich ein wenig an den Amstrad NC100 der auch BASIC kann und hier auch noch irgendwo liegt...

ChinnyVision - Ep 163 - The Amstrad NC100 Notepad Computer Review
 
Heute muss das alles nebenläufig sein und so weiter.. Scala, Haskell und sowas wären heute vielleicht interessanter - für uns aber wohl nicht sooo sehr, glaube Audio geht damit nicht so perfekt.

Ich finde die Idee der Nebenläufigkeit, wie sie in Chuck gelöst wurde, höchstinteressant"
"...
ChucK supports sample-synchronous, non-preemptive concurrency. Via the timing mechanism. any number of programs/shreds can be automatically shreduled and synchronized use the timing information.A shreduler in the virtual machine does the shreduling. The concurrency is 'sample-synchronous', meaning that inter-process audio timing is guaranteed to be precise to the sample. Note that each process/shred does not necessarily need to know about each other - it only has to deal with time locally. The virtual machine will make sure things happen correctly "across the board". Finally, concurrency - like timing - is deterministic in ChucK.
..."

Grüße
Omega Minus
 
Ich bin ja immer wieder erstaunt, WIE VOLL Youtube tatsächlich ist von irgendwelchen Projekten, die sich mit alten Computern und Hardware beschäftigen, und das auch fernab der bekannten Kanäle wie Linux Tech Talk etc. Ist ja alles irgendwie ein Jahrzehnt an mit vorbei gegangen. Aber jetzt ... back to the roots!

Ich würde meinen, Python ist das heutige Basic ... ;-)

 
n denen man eigene Funktionen definieren konnte? GuSub würde es ja vermuten lassen und das ist letztendlich natürlich auch die Lösung.
Ja, natürlich gab es das - mit Fehlerfanganlage und so weiter ab Atari ST und GFA/Omikron war das dann auch möglich.
Bei den Zeilennummern und Heimcomputern / 8 Bit inkl QL war das noch kein Thema - aber natürlich ist das sogar sinnvoll damit der Rechner nicht reinfriert wenn es dann doch mal passiert. Aber deshalb gab und gibt es ja die neueren Sprachen, die viel mehr auf sowas achten mussten und müssen und verteilter sind und so weiter - Die Geschwindigkeit der Zeilennummern-BASIC Rechner war quasi Nebensache - als dann die Compiler-Basic Varianten kamen war das schon deutlich optimiert und wie schon gesagt - das ähnelte dann Pascal und Co - natürlich keine Zeigerspielerei und Stacks - aber Funktionen, Subroutinen mit Namen und so weiter - das war schon alles da.

Dieser Satz hat mich fasziniert:

To spork means to shredule a new shred.
Das ist wie in Mastodon einen Tröt absetzen.
Gleichzeitigkeit ist bei Musik ja leider noch Kleinteiliger - aber man könnte Stimmen so absichern und laufen lassen oder Samples.
Dinge die mit Zeit zu tun haben müssten eigentlich ein OS haben wo Timing eine Rolle spielt und es wäre unfassbar cool wenn wir für Musiker und Video gf. auch ein Art-OS kriegen würden wo das alles optimiert ist und wo man so richtig alles raus holen kann.

Das wäre wirklich noch eine gute Chance - allerdings eine besondere und teuere, weil das natürlich nur kleine Firmen machen können.
Der Ansatz das generell zu tun ist schon gut und richtig, aber das OS kann natürlich nicht alles frei verteilen - da ist das OS ja noch der Chef.
Und die Nerdigkeit der User ist verschieden.
 
Dinge die mit Zeit zu tun haben müssten eigentlich ein OS haben wo Timing eine Rolle spielt und es wäre unfassbar cool wenn wir für Musiker und Video gf. auch ein Art-OS kriegen würden wo das alles optimiert ist und wo man so richtig alles raus holen kann.
Gab es da nicht vor Jahren Bemühungen auf Realtime Linux-Basis? Ich meine mich zu entsinnen, einige Distros gesehen zu haben, ohne dass ich sie mir damals genauer angesehen hätte. Aber das ging vermutlich mehr so Richtung Audio-Workstation ...

Aber wir kommen vom Pfad ab ... und da lauern ja bekanntlich immer Trolle.
 
gab es Basicvarianten, in denen man eigene Funktionen definieren konnte?

Osborne 1 (Z80, 64kb RAM, CP/M), da habe ich mit CBASIC programmiert:
"...
CBASIC erforderte außer für numerische Sprungmarken keine Zeilennummern und erlaubte nicht nur die Nutzung von Subroutinen mit dem Basic-Befehl GOSUB, sondern auch die Verwendung von selbst definierten Funktionen. Ein weiterer Vorteil war die Verwendung von 14-stelligen reellen Zahlen.
..."

Hatte zwei Bücher mit Spielen in Basic. Leider so eine krude Variante für irgendeinen speziellen Computer. Habe dann analysiert, was das Spiel machen solte und
komplett neu implementiert. Kann mich noch erinnern, es war Sommer, ich habe auf der Terasse programmiert. Damals, '82 oder '83.

Grüße
Omega Minus
 
Gab es da nicht vor Jahren Bemühungen auf Realtime Linux-Basis? Ich meine mich zu entsinnen, einige Distros gesehen zu haben, ohne dass ich sie mir damals genauer angesehen hätte. Aber das ging vermutlich mehr so Richtung Audio-Workstation ...

Aber wir kommen vom Pfad ab ... und da lauern ja bekanntlich immer Trolle.

Wenn man es so ernst nimmt wie ich es meinte - nein.
Das ist dann schon eine andere Welt. Es gibt natürlich ALSA und Linux und spezielle Ausgaben "für Musik" oder Sound - aber Linux ist selbst ja auch nur ein normales Unix mit der Art wie man sonst damit umgeht.
Es gibt in Autos und Raumschiffen ein sehr auf Echtzeit und Sicherheit ausgelegtes System - was aber auch eher dafür gemacht ist. Und ansonsten - würde ich sagen - nein, für genau unsere Zwecke ist das nicht wirklich bereit. Ja, der Pfad ist ja vintage - und ich sehe nur BeOs und Co als einen Versuch an, der aber auch mit Atari ST und MIDI einfach nur ein Entgegenkommen ist - aber made für art ist ja nicht mehr so in - Apple ist ohne Jobs auch total weg von dieser Idee - da erwarte ich nichts - und ja, sicher kann man das alles auch so mit dem Standard OS machen - Windows, Linux, MacOS - die können schon genug - aber es wird da wohl nie optimierung geben und das wäre ggf. auch sinnvoll. Vielleicht sogar so, dass man die Dinge die für uns wichtig sind einbaut und in ein Subsystem integriert was eben sehr exakt sein kann und die Technik darauf hinaus aufgebaut hat.
Das ist natürlich nicht so - schon allein USB oder sowas - ist nicht gerade perfekt dafür gemacht.

Das ist nur ein kleiner Exkurs - eigentlich ging es mir hier ja in der Tat nur um BASIC und Retro und das man es mal wieder tun kann - macht Spaß.
Aber man stößt dann auch an alles was man kennt - Grenzen.
heute kann man natürlich auch direkt sich was suchen was schneller ist und das ist natürlich dann mit compiler - was ja schon zu ST Zeiten so lief - und dann wird alles wesentlich schneller - auch BASIC. Aber trotzdem ist es irgendwie schön.
Es ist eigentlich Kindheit bei mir - und mit meinen eigenen Experimenten zusammen ein Block mit Erinnerungen.
Man könnte und kann noch immer ein bisschen was machen - Kunst aber auch Blödsinn.

Ich glaube mit sowas im Hintergrund wären auch manche Synth-Sequencer-Sachen leichter zu bauen.
Max und Co sind ja auch nicht direkt optimal und irgendwie auch Krücken.
Vor 1Mio Jahren hab ich mal mit CSound und sowas rumgespielt.
Das war schon spannend.
Computermusiker heute werden und sein - ist eigentlich auch noch immer Reizvoll. Ich mein auf so einer WDR-Studio für E-Musik Idee heraus.
Das alles kommt bei mir durch das was ich in den News über Atari und Soundchips schrieb - ist noch nicht so lang her..
Wenn man das alles selbst baut hat man einfach andere Zugänge.
Und das im Zeitalter von Groovebox und Modularsystem. Vielleicht ein bindendes Glied.

Und in meinem Thread gibts keine Trolle, ich hab ja die KON-Troll-e und schieb die dann auf ein eigenes Gleis.
Was aber zu Basic noch zu sagen ist -
es gibt ja wirklich tolle Basic Dialekte - die späten Basic Rechner waren ja wirklich sehr komfortabel mit Basic, und wenn man das alles heute mit heutigem Interface und so bauen würde - wäre das auch nicht schlecht - das gibt es natürlich alles auch - Visual Basic bis zu Pure Basic oder eben das von mir hier gezeigte eher an Altapple orientierte Chipmunk (und der ist ein Interpreter) Basic, was eher "Spielerei" ist oder für olle Mathematiker oder so ausreicht. Rumspielen aber nicht mit Musik oder so.

Anders gesagt - Basic ist tot. Ist aber auch von Bill. Vielleicht müssen wir es jetzt auch einfach loslassen.
 
Zuletzt bearbeitet:
Oh ja BASIC!
Das waren noch Zeiten! Bessere Zeiten? Vom Alter her ja, von der Technik her sicher nicht. Ich habe aber schon immer mehr in die Zukunft geschaut und viele neue Entwicklungen oft sehnlichst erwartet und begrüßt. Zum Thema: BASIC habe ich das erste Mal auf dem C64 ausprobiert, zuerst das V2 von Microsoft und dann das Modul Simons Basic, da hier auch schicke Grafikbefehle dabei waren. Auf dem AtariST hatte ich mir dann GFA-Basic gekauft und damit ein wenig probiert. Mandelbrot, Feigenbaum und 3D Wireframe war auch dabei, wenn ich mich recht erinnere. Dann fällt mir noch AmigaBasic ein, das ich auch kurz probierte. Der Amiga war aber dann doch mit Assembler wesentlich interessanter zu programmieren.
 
Ich glaube mit sowas im Hintergrund wären auch manche Synth-Sequencer-Sachen leichter zu bauen.
Ein Musiker-OS ... hmmmm, die Idee finde ich reizend ... ich muss mal in mich gehen, da findet noch ein innerer Kampf statt, ob ich überhaupt nochmal größere Dinge progammieren möchte.

Aber die ESP32 RP2040 Kombi reizt mich derzeit auch ein wenig ... aber der Pfad....
 
Totaler Quatsch. Die Galaxien hat 4 Quadranten.

Per Definitionem, weil Quadrant einfach 'Viertel' bedeutet.

Bei Spielen kümmert man sich nicht darum. Ich kann bei Diablo 2 einen Axt-Barbaren spielen mit 7k Damage, der in wenigen Hieben einen Endboss niedermetzelt, aber eine kleine Kiste aus dünnem Holz, die verschlossen ist, geht nicht ohne Schlüssel auf.

Grüße
Omega Minus
 
... aber eine kleine Kiste aus dünnem Holz, die verschlossen ist, geht nicht ohne Schlüssel auf.
Es gibt noch immer Menschen, die immer noch Diablo 2 spielen? Bewundernswert. Aber ich kann es verstehen nach dem Diablo4-Mobile Fiasko. Und weil Pixelgrafik einen Charm hat, den berechnete Grafik einfach nicht hat (Die hat natürlich andere Vorzüge.).

Mit geringen Wahrscheinlichkeiten kann man also das Leben von Menschen teilweise vereinnahmen ... ach ja, Lotto. Ich danke meinem Lehrer im Mathe Leistungskurs, dem einzigartigen Herrn Preiß, dass er uns das mit den Wahrscheinlichkeiten so gut nahebringen konnte, dass ich lebenslang keine Notwendigkeit darin gesehen habe, Lotto zu spielen.

Back to the BASICs...
 
Das leer Blatt und der blinkende Cursor - Mach was mit mir!
BASIC war auch ursprünglich als Education Tool gedacht. Es ist schon krass, wenn man sich alte Computer-Sendungen anschaut, da gab es ja doch den Anspruch „wir holen euch alle an Bord“ und faszinieren und befähigen euch, weil das am Ende gut ist für alle. Wie Sesamstraße, aber für Computer.

Ein groß aufgezogenes „Computer Literacy Project“ für die Bevölkerung bräuchten wir jetzt dringender als jemals zuvor.
 
Was mich bei denen immer enttäuscht hat war, dass sie einfach bestimmte Rechner besonders oft und andere gar nicht gemacht haben. Anders gesagt - Windows TV. Später Linux ist das einzig wahre. Das ist ein bisschen zu eng.

Beim Thema Basic ist natürlich alles davor wichtig.
Die haben damals auch versucht alles in einen Code zu bringen - VideoDat und das alles - hatte natürlich niemand. Aber die Idee war schon ganz süß.
Das DIY Ding war gut. Tja.
Aber BASIC und Computer-lernen ist ggf. wirklich wieder da - aber ohne diesen Logo Unsinn. das war ein bisschen zu flach.
Immerhin waren diese Schachteln ja meine Kindheit und irgendwie war mit IBM Kompatible nie so nah, falsches Lager irgendwie.
Die Rechner mit eigenem OS und mit dem nicht so Pro Ruf waren für die meisten Spielegeräte - aber sie haben die Basis gebracht.

Heute würde man wohl mit dem weiter machen was eh überall läuft wie C++ und Co.
Aber irgendwie fehlt dann das berühmte einfache Plot, Draw und Co - womit "es" meist irgendwie beginnt.
Na, wenn man sich das Webzeug ansieht gibt es genau das nicht, Sprites, Soundkram auf kleiner Ebene und diese einfachen Mal-Flächen Sachen.
Eigentlich schade. Damit ging es einfach leicht mal irgendwo anzufangen.

Es stimmt, dass es unfassbar viele Leute gibt, die meist in "unserem Alter" sind und mit diesen Teilen rumbasteln.
 
Zuletzt bearbeitet:
Heute würde man wohl mit dem weiter machen was eh überall läuft wie C++ und Co.
Aber irgendwie fehlt dann das berühmte einfache Plot, Draw und Co - womit "es" meist irgendwie beginnt.
Na, wenn man sich das Webzeug ansieht gibt es genau das nicht, Sprites, Soundkram auf kleiner Ebene und diese einfachen Mal-Flächen Sachen.
Mit Python und PyGame geht vieles sehr sehr einfach. Ich hätte mir damals gewünscht so einfach einen Einstieg zu haben. Meist muss man dazu nur einen Browser aufrufen und kann das ganze Online machen ohne was zu instellieren. Beim Webzeug geht mit Javascript und dem HTML5 Canvas auch schon eine ganze Menge, bis hin zu OpenGL ala WebGL.
 


Neueste Beiträge

News

Zurück
Oben