Und die überwiegende Mehrheit der Programmierer, die das in VST-PlugIns gießen, und der Firmen, die das verkaufen, auch nicht!
man kann es immerhin lesen und interpretieren wenn es nicht gerade assembly ist. insofern ist es für den, der es codet, eher noch keine "black box".
beim ausführlichen herleiten und erklären der algorithmen wird es dann schon schwieriger. das kann dann nur noch der mathe prof; der software ingenieur ist da schon raus.
dennoch, mindestens der ursprüngliche erfinder weiß es ja und hat es irgendwo publiziert. insofern "weiß man es".
oder sagen wir mal... man könnte es wissen. wenn man wirklich ganz viel bock zum lesen hat.
dass zu viele leute, die nicht mal wissen wie gleitkomma-arithmetik funktioniert, software machen, da bin ich ganz bei dir. aber es gibt zum glück auch noch ein paar leute, die wissen, was sie tun, und von denen die anderen dann klauen können und das neuverpacken...
auch danreed:
Die spannenden Fragen sind vielmehr:
- wie verbessere (beschleunige) ich den Trainingsprozess?
- wie stelle ich sicher, dass mein Trainingsmaterial alle Fälle gleichmäßig abdeckt?
- wie finde ich die beste Netztopologie zur jeweiligen Aufgabe?
es gibt da eigentlich nur zwei möglichkeiten:
entweder ein komplett spezifisches design inclusive der möglichkeit, dass der user auf einer steuerbaren ebene selbst eingreifen kann.
die andere möglichkeit ist mehr speicher, mehr CPU cycles und mehr trainingsmaterial.
aktuell klingt das alles nach 12 bit und 512 fast fourier bins, aber wir sind auch schneller von GPT 2 zu GPT 4 gekommen als wir dachten und da liegen auch welten dazwischen.
ich kann mich noch gut erinnern wie der kollege @ neuronaut im jahr 1998 (?) den ersten vorläufer von
sonicworx isolate und das
pandora plug-in vorgestellt hat. letzteres kam dann sogar raus.
keine 27 jahre später und das AI zeug aus dem weltnetz klingt immer noch nach mpeg und funktioniert nur halb.
aber: die grundlagen dafür das jetzt bald mit relativ wenig zusätzlichem aufwand hochzubohren und 100 verschiedene versionen davon zu erstellen, sind jetzt da und im prinzip für jeden verfügbar.
-------------------------------
Ein LLM baut keine Wörter aus Buchstaben.
du liest nicht mal was er schreibt und meinst schon wieder ihm irgendwas zusammengooglen und "erklären" zu müssen, was gar keine sinnvolle antwort auf das von ihm gesagte darstellt.
selbstverständlich muss erst mal eine software da sein, die erkennt, was ein zeichen ist, und natürlich besteht die eingabe (sowohl als auch das trainingsmaterial) aus einzelnen zeichen.
keine textprogramm funktion - kein LLM.
ob und wie und dass die KI dann mit worten oder ganzen sätzen operiert, dieses muster hat sie für sich alles ganz alleine herausgefunden, nachdem sie zuvor hinreichend mit einzelnen zeichen gefüttert wurde.
Ist das jetzt Ironie? Ich komme nicht mehr mit. Meinst du LLMs mit Chatbots? Ich kann dazu gar nix mehr sagen. Entweder du verarscht mich oder du hast keine Ahnung was LLMs können. Kann ich vielleicht mit diesem Artikel weiterhelfen
dass gemini mit wolfram trainiert wurde sagt dir notfalls sogar gemini. und manuell. und mit büchern und webseiten über mathematik.
in diesem artikel steht über trainingsmethode und -inhalte rein garnichts drin (wie nicht anders zu erwarten, wenn du eine "quelle" für irgendwas postest)
LLMs sind keine Spielerei, du weißt nicht wovon du redest.
genau, wir sind alle blöd. hier und in allen anderen threads.
Schau, wenn keiner es nachvollziehen kann, nicht mal die Programmierer und selbst wenn sie sich Monate hinsetzen würden und die Parameter studieren,
du sagst es ja selbst: man kann es zwar nicht unmittelbar nachvollziehen, aber man könnte es analysieren, indem man hineinschaut.
ob man das jetzt blackbox nennt oder nicht blackbox nennt ist onanie.
ich google jetzt auch mal.... frau google erklärt es hier eigentlich ganz gut:
wer aufgepasst hat, wird sich an meine argumentation erinnern, dass exakt genau das gleiche auch für jegliche andere software gilt.
daher stellt sich hier die frage, warum dir diese feststellung eigentlich so furchtbar wichtig ist.
was genau hat die frage ob das eine black box ist damit zu tun, wie man das zum musikmachen einsetzen kann.
dann ist es eine Blackbox. Es ist belustigend, weil ich habe mir das mit der Blackbox ja nicht ausgedacht, sondern das ist Konsens unter Wissenschaftlern die sich mit dem Thema befassen (ja auch denen die staatlich bezahlt werden, also richtige Wissenschaftler im Sinne dieses Forums). Jetzt fragt man sich, wie ein ganzes Forum der Meinung seien kann, der Begriff Blackbox und AI sei Schwachsinn. Es scheint hier im Forum eine Zusammenkunft der Allwissenden zu geben, die alle eine gegenteilige Meinung haben.
auch das hast du dir schon fast selbst beantwortet, nämlich als du eingeräumt hast, dass es neben LLMs auch noch andere anwendgunen gibt, die unter "AI" fallen.
vielleicht stößt du deswegen auch wenig gegenliebe, weil LLMs halt verhältnismäßig wenig mit "AI zum musikmachen" zu tun hat?
wenn ich über "AI zum musikmachen" diskutiere, dann denke ich dabei an die anwendungen die ich so kenne und benutze (oder, im falle von super-einfachen netzwerken für ein paar tausend einzelne werte, selbst erstelle) und dann kommst du mit deinem chatbot und sumo scheiß an, wo natürlich ein paar dinge wieder anders sind und dann passt das natürlich nicht mehr zusammen.
aber vielleicht erübrigt sich die ganze diskussion auch in ein paar jahren, wenn die systeme dann noch 100 mal größer sind als die heutigen und trotzdem lokal auf dem iphone laufen.