Einsatz von AI zum Musik machen

a.E. Ich glaube nicht, dass es eine Rolle spielt, aber vielleicht wäre ein echter Zufall der Schlüssel zu AGI? Nur Spaß.
Das hat nix mit Glauben zu tun, wenn da bei einem Modell irgendwas mit Zufall stattfindet kann das Aufgrund der Technik nur vom Programmierer gewollt sein.
 
Das ist auch genau meine Beobachtung. Es gibt Beispiele, bei denen geht alles gut (vermutlich stammen sie aus dem Trainingsmaterial des jeweiligen Systems), aber real-world klingen doch immer einige Stems ganz unglaublich schlecht. Ähnlich wie mp3 mit 64kBit, aber schlechter.


Will auch keiner, muss auch keiner. Weiß auch jeder, der sich damit auskennt, denn diese Information wäre völlig unerheblich, denn
1) bereits beim nächsten kompletten Trainingslauf wäre wieder alles ganz anders und
2) die Vorstellung, dass irgendwelche ganz bestimmten Nodes irgendein klar identifizierbares Wissen beinhalten, trifft nicht zu. Das gesamte trainierte Wissen verteilt sich ineinander verschachtelt und überlagert auf das komplette Netz. Natürlich gibt es dann irgendwelche Regionen im Netz, die besonders aktiv bei bestimmten Wortfeldern sind, aber was nützt mir die Information, wenn sich eh alles neu organisiert beim nächsten Trainingslauf.


Nein, es gibt schon seit mehr als 2 Jahrzehnten den Konsens, keine Visualisierungsversuche zu unternehmen (es sei denn, sie sollen den Medien als "Futter" dienen für "aufregende" Berichte). Er gibt bereits bei einfachsten Neuronalen Netzen keinen Erkenntnisgewinn durch Visualisierung. Sind sie zu einfach, begreift jeder, wie sie funktionieren (ähnlich einer Linearen Regression), aber sobald mehr als ca. 20 Neuronen mit allen Verbindungen beteiligt sind, wird das Ganze unübersichtlich und ist vor allem bei jedem Trainingslauf anders, da es meistens kein globales Optimum gibt, sondern statt dessen viele lokale. Und bei jedem Trainingslauf landet das Netz in einem anderen lokalen Optimum (das mal weiter mal weniger weit vom Optimum entfernt ist).

Die spannenden Fragen sind vielmehr:
- wie verbessere (beschleunige) ich den Trainingsprozess?
- wie stelle ich sicher, dass mein Trainingsmaterial alle Fälle gleichmäßig abdeckt?
- wie finde ich die beste Netztopologie zur jeweiligen Aufgabe?
- ...

Das ist 1) alles nicht so einfach, 2) alles nicht so neu, 3) alles nicht so gut, wie man als Laie zunächst annimmt.

Das ist ungefähr das was ich seit mehreren Seiten versuche zu erklären. Wobei EAI sehr wohl ein großes Thema war um 2023 und manche Firmen wie Anthropic daran forschen, ob nur für die Show oder ob sie wirklich eine Idee haben, kann man natürlich nicht sagen. a.E. Behalte ich den gleichen Seed, sollte das Netz reproduzierbar sein (sieht man mal von irgendwelchen GPU Floating-Point-Rundungsfehlern oder asynchroner Berechnungen). Lösche ich nun einen Trainingssatz so kann ich diesen Trainingssatz bestimmten Parameterveränderungen zuordnen im finalen Model. Nicht realistisch durchführbar, aber wäre eine Möglichkeit ;-) Es wäre interessant was für Ansätze Anthropic hat, aber die werden sie wahrscheinlich nicht verraten.
 
Zuletzt bearbeitet:
Das hat nix mit Glauben zu tun, wenn da bei einem Modell irgendwas mit Zufall stattfindet kann das Aufgrund der Technik nur vom Programmierer gewollt sein.

Der Seed, also die Parameter vor dem ersten Training sind zufällig gewählt und die Reihenfolge der Trainingsdaten kann zufällig variiert werden. Alleine der Zufall im Seed kann ein völlig anderes Modell ergeben, welches auch andere Antworten gibt, weil es eine andere Lösungsstrategie gefunden hat. Man trainiert also verschiedene Modelle mit verschiedenen Seeds, aber gleichen Trainingsdaten und nimmt das was die besten Ergebnisse zeigt (sehr vereinfacht). Manchmal macht man auch Ensembles (a.E.) oder vielleicht hat ein Modell ne geile Strategie gefunden um Algebra zu lösen, ist aber sonst ziemlich unfähig, dann könnte man dieses Modell für Algebra nehmen und ein anderes für Poetry-Slams?
 
Der Seed, also die Parameter vor dem ersten Training sind zufällig gewählt und die Reihenfolge der Trainingsdaten kann zufällig variiert werden. Alleine der Zufall im Seed kann ein völlig anderes Modell ergeben, welches auch andere Antworten gibt, weil es eine andere Lösungsstrategie gefunden hat. Man trainiert also verschiedene Modelle mit verschiedenen Seeds, aber gleichen Trainingsdaten und nimmt das was die besten Ergebnisse zeigt (sehr vereinfacht). Manchmal macht man auch Ensembles (a.E.) oder vielleicht hat ein Modell ne geile Strategie gefunden um Algebra zu lösen, ist aber sonst ziemlich unfähig, dann könnte man dieses Modell für Algebra nehmen und ein anderes für Poetry-Slams?
Sieht man davon ab dass du diesen Zufallsfaktor dann nur ein einziges mal hättest, spielt an diesem Punkt die von mir erwähnte Evolution eine Rolle, die Software gibt vor in welche Richtung sie die K.I. entwickeln soll. Du siehst, wir drehen uns schon wieder im Kreis, dir fehlen zum Verständnis vielleicht so ein paar Semster Grundlagen der Informatik ;-)
 
Sieht man davon ab dass du diesen Zufallsfaktor dann nur ein einziges mal hättest, spielt an diesem Punkt die von mir erwähnte Evolution eine Rolle, die Software gibt vor in welche Richtung sie die K.I. entwickeln soll. Du siehst, wir drehen uns schon wieder im Kreis, dir fehlen zum Verständnis vielleicht so ein paar Semster Grundlagen der Informatik ;-)

Ich bin nicht sicher, was du genau mit ‚Evolution‘ meinst oder wie die Software selbst eine Richtung vorgeben sollte. Bei einem LLM bestimmt letztlich der Trainingsprozess – also die Daten und die Optimierungsfunktion – wie sich das Modell entwickelt. Die Software selbst enthält keine eigenen Ziele, sie ist nur ein Werkzeug, das die Parameter so anpasst, dass der Fehler auf den Trainingsdaten minimiert wird.
 
Ich bin nicht sicher, was du genau mit ‚Evolution‘ meinst oder wie die Software selbst eine Richtung vorgeben sollte.

Prinzipbedingt läuft der Lernprozess der K.I. evolutionär ab, in der Natur bestimmt die Umgebung die Resultate während bei einer K.I. Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden. Man hat also die Wahl an diesen beiden Stellschrauben (Code/Lerndaten) zu drehen um ein bestimmtes Ergebnis zu erreichen - beim LLM könnte das auch ein Bereich sein, vielleicht weil Sprache etwas sehr subjektives ist - wie man unter anderem bei unsere Diskussion merkt.
 
Die Wirtschaft ist enttäuscht und stampft 40% ihrer AI-Projekte ein, während die Halluzinationsrate mit der Weiterentwicklung wieder zunimmt; Zweifel, ob die derzeitigen Modelle der Weg zur generellen AI sind:


 
Die Wirtschaft ist enttäuscht und stampft 40% ihrer AI-Projekte ein, während die Halluzinationsrate mit der Weiterentwicklung wieder zunimmt; Zweifel, ob die derzeitigen Modelle der Weg zur generellen AI sind:



Ist leider hinter einer Paywall. Deutschland und Europa ist ja komplett abgehängt was KI angeht, ist halt auch ein demographisches Problem, zu viele alte Menschen, die an alten Konzepten hängen. Damit verliert man aber auch den Einfluss auf die Steuerbarkeit der Entwicklung. Aufhalten wird man die Entwicklung nicht können, auch nicht wenn man die Augen verschliesst wie Kevinside.

Falls es in dem Artikel um irgendwelche Aussagen von Apple geht, die habens ja auch verschlafen und stehn vor dem aus.
 
@Summa
„ Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden“

Du musst halt mal näher ausführen, weil so wird halt nicht klar, ob du den Unterschied zu einem gewöhnlichen Programm verstanden hast und warum man davon spricht, dass ein neuronales Netz nicht programmiert wurde, sondern lernt. Natürlich ist es am Ende Software/Code/Variablen, aber es geht doch darum verständlich zu machen, dass es eben einen Unterschied zu einem gewöhnlichen Programm gibt. Die Software gewichtet zwar die Trainingsdaten, aber eben alle Trainingsdaten nach dem gleichen Prinzip. Wie eine Backform, der Kuchen hat zwar die selbe Form aber je nach Zutaten ist er ein Schokoladenkuchen oder ein Zitronenkuchen.
 
Du musst halt mal näher ausführen, weil so wird halt nicht klar, ob du den Unterschied zu einem gewöhnlichen Programm verstanden hast und warum man davon spricht, dass ein neuronales Netz nicht programmiert wurde, sondern lernt.
Darwin und Evolutionstheorie ist hoffentlich klar und wie die Umwelt einen Einfluss auf die Entwicklung der Arten hat und bei der K.I. könnte man das was die Software macht vielleicht Guided Learning nennen ;-)
 
Die Software gewichtet zwar die Trainingsdaten, aber eben alle Trainingsdaten nach dem gleichen Prinzip. Wie eine Backform, der Kuchen hat zwar die selbe Form aber je nach Zutaten ist er ein Schokoladenkuchen oder ein Zitronenkuchen.
Was ist die Zielvorgabe für die K.I. alle Kuchen die man mit den Zutaten backen kann oder sich mit dir über Kuchen zu unterhalten?
 
Zuletzt bearbeitet:
Was ist die Zielvorgabe für die K.I. alle Kuchen die man mit den Zutaten backen kann oder sich mit dir über Kuchen zu unterhalten?

Es gibt keine Zielvorgabe in der Software, sie ist ne Backform, je nach dem was für Zutaten du reinmachst kommt nen anderer Kuchen raus, aber die Backform bleibt immer die selbe. Die Zutaten sind die Texte in den Trainingsdaten und diese Texte enthalten sowohl die Frage (Input), als auch die Antwort (Ziel). Wenn du den Satz hast "Die Katze frisst Fisch" als Trainingsdaten nutzt, dann kannst du für den Input "Fisch" löschen und hast "Die Katze frisst" was du vorne ins Netz einspeist und hinten überprüft die Software, ob das Netz "Fisch" ausgibt, wenn nicht wird es neu eingestellt. a.E. man kann es sich wie eine Entschlüsselung/Verschlüsselung und Kompression vorstellen. Aus den Billionen an Texten werden die Muster extrahiert, in der Sprache eines neuronalen Netzes gespeichert und dadurch komprimiert, am Output wird das dann wieder in unsere Sprache übersetzt.

Darwin und Evolutionstheorie ist hoffentlich klar und wie die Umwelt einen Einfluss auf die Entwicklung der Arten hat und bei der K.I. könnte man das was die Software macht vielleicht Guided Learning nennen ;-)

Es ist im Prinzip wie ein Lehrer der nicht lehrt und nichts erklärt und auch nicht vorgibt was gelernt werden soll, sondern nur überprüft, ob die Kinder die richtige Antwort geben (die er selbst nur abliest und nicht versteht) und wenn nicht, müssen sie weiter im Buch (Trainingsdaten) lesen.

Es ist kein Evolution, denn es wird nicht zufällig ein Wert verändert und dann geschaut was besser ist, sondern eine Backpropagation des Zielwerts. Aber das nur ein Detail, sehr abstrakt zur besseren Vorstellung kann man auch von Evolution sprechen.

Hier mal eine Vorlesung von einem Nobelpreisträger der gleich am Anfang erklärt warum ein evolutionärer Ansatz sehr langsam und ineffizient ist.
 
Zuletzt bearbeitet:
Nur kurz, weil ich gerade auf dem Sprung bin;
Es gibt keine Zielvorgabe in der Software, sie ist ne Backform, je nach dem was für Zutaten du reinmachst kommt nen anderer Kuchen raus, aber die Backform bleibt immer die selbe.
Warum sollte man dann eine K.I. Programmieren? Selbst wenn du einem Menschen etwas beibringst hast musst du ihm an irgend einem Punkt sagen wenn das Ergebnis deinen Vorstellungen entspricht, ansonsten kann er ja nur raten was er machen soll und da wunderst du dich dass die Ergebnisse der Reihenfolge deiner Eingabe entsprechen.
Die Zutaten sind die Texte in den Trainingsdaten und diese Texte enthalten sowohl die Frage (Input), als auch die Antwort (Ziel).
Das Training ist es der K.I. den Unterschied zwischen gewünschtem und unerwünschtem Output zu zeigen, die Evolution besteht darin mit jedem neuen Input weniger Fehler bei der Erkennung der gesuchten Daten zu machen, damit die K.I. die Arbeit schneller und effizienter als ein Mensch machen kann.
 
Das ist auch genau meine Beobachtung. Es gibt Beispiele, bei denen geht alles gut (vermutlich stammen sie aus dem Trainingsmaterial des jeweiligen Systems), aber real-world klingen doch immer einige Stems ganz unglaublich schlecht. Ähnlich wie mp3 mit 64kBit, aber schlechter.
Ich habe mit Spectralayers schon gute Resultate erzielt. Perfekt waren sie zwar nicht, aber brauchbar. Hängt natürlich viel vom Ausgangsmaterial ab. Sollte in guter Qualität sein und am besten mit konventionellen Instrumenten (Drums, Bass, Gitarre, Piano, Stimme) und nicht zu viele Effekte haben.
 



Zurück
Oben