LLM lernen in dem man ihnen einen Text gibt und das letzte Wort dieses Textes „erraten“ lässt. Beispiel: Im Bach fließt … Die richtige Antwort kann die Software überprüfen.
Auch wenn's wie Haarspalterei wirkt: Es gibt da einen entscheidenenden Unterschied zwischen richtig/falsch und wahrscheinlich/unwahrscheinlich. Durch die zweite Brille betrachtet, ist die Funktionsweise weniger magisch. Cool finde ich, dass Claude quasi Lookahead benutzt. Um die Wahrscheinlichkeit zu erhöhen, beim Output synthetisieren einem roten Faden zu folgen. Wir haben ebenfalls gelernt, dass es Schwellenwerte für Datensatzgrößen und Anzahl von Mustererkennungs-Iterationen gibt, um die Wahrscheinlichkeit von stimmigem Output zu erhöhen.
Und ja: bei LLMs haben wir noch keinen Weg, um jede Synthese-Operationen nachzuvollziehen (wofür es physische Limitationen gibt, zB Arbeitsspeicher)—Es beruht alles auf Code, Mathe, Logik, Heuristk und Wiederholungen.
Insofern ist es keine Überraschung, dass so ein System mit hoher Wahrscheinlichkeit Hautkrebs identifizieren kann. Das war im wissenschaftlichen Raum von Anfang an klar. Da der Output sich auf eine konkrete Zahl runterbrechen lässt: xx,xx% Krebswahrscheinlichkeit (inkl Referenzmarker). Da rennt niemand rum, und fragt sich, warum das funktioniert.
Gleichzeitig ist auch klar: Um zu überprüfen, ob der Output eines LLMs in Kontext einer
offenen Fragestellung mit allen darunterliegenden Annahmen des Nutzers 'richtig' ist, kann so ein System nicht leisten können. Dafür wäre notwendig, dass ein LLM erstmal ausschliesslich von allen Experten in allen Feldern benutzt wird. Um 90% von 100% Stimmigkeit zu unterscheiden. Um auch nur ansatzweise "Erfahrung" in das System zu bekommen. Was die Wissenschaft bis dato für eine Aufgabe hält, die sich nicht durch Skalierung lösen lässt.
Bis wir dieses grundsätzliche Problem gelöst haben, können LLM's nur der Typ sein, der vermeindlich alles weiß. Und nix versteht. Was im wissenschaftlichen Rahmen auch klar wie Kloßbrühe ist. Alles andere ist irgendwo zwischen PR und Aberglaube. Und unserer gesellschaftlichen Angst davor, dass wir etwas kreieren, was uns umbringt. Die ich gar nicht abwerten will. #Atombombe
Am Ende trifft sie ja sogar irgendwie zu: Damit ein Claude so schnell Output generiert, verbraucht's eine absurde Menge Watt pro Kopf... Das sollten wir bei jeder Interaktion mit generativer "AI" zum Spaß im Hinterkopf behalten. Ob und wie sich diese ganzen Spaß-Tools auf Dauer rentieren sollen, ist auch noch 'ne relevante Frage. Im Zweifelsfall wird uns die Natur einen Riegel davor schieben.
Um zurück zum Thema zu kommen: "AI" zum Musik machen—Zu welchem Preis?