Einsatz von AI zum Musik machen

a.E. Ich glaube nicht, dass es eine Rolle spielt, aber vielleicht wäre ein echter Zufall der Schlüssel zu AGI? Nur Spaß.
Das hat nix mit Glauben zu tun, wenn da bei einem Modell irgendwas mit Zufall stattfindet kann das Aufgrund der Technik nur vom Programmierer gewollt sein.
 
Das ist auch genau meine Beobachtung. Es gibt Beispiele, bei denen geht alles gut (vermutlich stammen sie aus dem Trainingsmaterial des jeweiligen Systems), aber real-world klingen doch immer einige Stems ganz unglaublich schlecht. Ähnlich wie mp3 mit 64kBit, aber schlechter.


Will auch keiner, muss auch keiner. Weiß auch jeder, der sich damit auskennt, denn diese Information wäre völlig unerheblich, denn
1) bereits beim nächsten kompletten Trainingslauf wäre wieder alles ganz anders und
2) die Vorstellung, dass irgendwelche ganz bestimmten Nodes irgendein klar identifizierbares Wissen beinhalten, trifft nicht zu. Das gesamte trainierte Wissen verteilt sich ineinander verschachtelt und überlagert auf das komplette Netz. Natürlich gibt es dann irgendwelche Regionen im Netz, die besonders aktiv bei bestimmten Wortfeldern sind, aber was nützt mir die Information, wenn sich eh alles neu organisiert beim nächsten Trainingslauf.


Nein, es gibt schon seit mehr als 2 Jahrzehnten den Konsens, keine Visualisierungsversuche zu unternehmen (es sei denn, sie sollen den Medien als "Futter" dienen für "aufregende" Berichte). Er gibt bereits bei einfachsten Neuronalen Netzen keinen Erkenntnisgewinn durch Visualisierung. Sind sie zu einfach, begreift jeder, wie sie funktionieren (ähnlich einer Linearen Regression), aber sobald mehr als ca. 20 Neuronen mit allen Verbindungen beteiligt sind, wird das Ganze unübersichtlich und ist vor allem bei jedem Trainingslauf anders, da es meistens kein globales Optimum gibt, sondern statt dessen viele lokale. Und bei jedem Trainingslauf landet das Netz in einem anderen lokalen Optimum (das mal weiter mal weniger weit vom Optimum entfernt ist).

Die spannenden Fragen sind vielmehr:
- wie verbessere (beschleunige) ich den Trainingsprozess?
- wie stelle ich sicher, dass mein Trainingsmaterial alle Fälle gleichmäßig abdeckt?
- wie finde ich die beste Netztopologie zur jeweiligen Aufgabe?
- ...

Das ist 1) alles nicht so einfach, 2) alles nicht so neu, 3) alles nicht so gut, wie man als Laie zunächst annimmt.

Das ist ungefähr das was ich seit mehreren Seiten versuche zu erklären. Wobei EAI sehr wohl ein großes Thema war um 2023 und manche Firmen wie Anthropic daran forschen, ob nur für die Show oder ob sie wirklich eine Idee haben, kann man natürlich nicht sagen. a.E. Behalte ich den gleichen Seed, sollte das Netz reproduzierbar sein (sieht man mal von irgendwelchen GPU Floating-Point-Rundungsfehlern oder asynchroner Berechnungen). Lösche ich nun einen Trainingssatz so kann ich diesen Trainingssatz bestimmten Parameterveränderungen zuordnen im finalen Model. Nicht realistisch durchführbar, aber wäre eine Möglichkeit ;-) Es wäre interessant was für Ansätze Anthropic hat, aber die werden sie wahrscheinlich nicht verraten.
 
Zuletzt bearbeitet:
Das hat nix mit Glauben zu tun, wenn da bei einem Modell irgendwas mit Zufall stattfindet kann das Aufgrund der Technik nur vom Programmierer gewollt sein.

Der Seed, also die Parameter vor dem ersten Training sind zufällig gewählt und die Reihenfolge der Trainingsdaten kann zufällig variiert werden. Alleine der Zufall im Seed kann ein völlig anderes Modell ergeben, welches auch andere Antworten gibt, weil es eine andere Lösungsstrategie gefunden hat. Man trainiert also verschiedene Modelle mit verschiedenen Seeds, aber gleichen Trainingsdaten und nimmt das was die besten Ergebnisse zeigt (sehr vereinfacht). Manchmal macht man auch Ensembles (a.E.) oder vielleicht hat ein Modell ne geile Strategie gefunden um Algebra zu lösen, ist aber sonst ziemlich unfähig, dann könnte man dieses Modell für Algebra nehmen und ein anderes für Poetry-Slams?
 
Der Seed, also die Parameter vor dem ersten Training sind zufällig gewählt und die Reihenfolge der Trainingsdaten kann zufällig variiert werden. Alleine der Zufall im Seed kann ein völlig anderes Modell ergeben, welches auch andere Antworten gibt, weil es eine andere Lösungsstrategie gefunden hat. Man trainiert also verschiedene Modelle mit verschiedenen Seeds, aber gleichen Trainingsdaten und nimmt das was die besten Ergebnisse zeigt (sehr vereinfacht). Manchmal macht man auch Ensembles (a.E.) oder vielleicht hat ein Modell ne geile Strategie gefunden um Algebra zu lösen, ist aber sonst ziemlich unfähig, dann könnte man dieses Modell für Algebra nehmen und ein anderes für Poetry-Slams?
Sieht man davon ab dass du diesen Zufallsfaktor dann nur ein einziges mal hättest, spielt an diesem Punkt die von mir erwähnte Evolution eine Rolle, die Software gibt vor in welche Richtung sie die K.I. entwickeln soll. Du siehst, wir drehen uns schon wieder im Kreis, dir fehlen zum Verständnis vielleicht so ein paar Semster Grundlagen der Informatik ;-)
 
Sieht man davon ab dass du diesen Zufallsfaktor dann nur ein einziges mal hättest, spielt an diesem Punkt die von mir erwähnte Evolution eine Rolle, die Software gibt vor in welche Richtung sie die K.I. entwickeln soll. Du siehst, wir drehen uns schon wieder im Kreis, dir fehlen zum Verständnis vielleicht so ein paar Semster Grundlagen der Informatik ;-)

Ich bin nicht sicher, was du genau mit ‚Evolution‘ meinst oder wie die Software selbst eine Richtung vorgeben sollte. Bei einem LLM bestimmt letztlich der Trainingsprozess – also die Daten und die Optimierungsfunktion – wie sich das Modell entwickelt. Die Software selbst enthält keine eigenen Ziele, sie ist nur ein Werkzeug, das die Parameter so anpasst, dass der Fehler auf den Trainingsdaten minimiert wird.
 
Ich bin nicht sicher, was du genau mit ‚Evolution‘ meinst oder wie die Software selbst eine Richtung vorgeben sollte.

Prinzipbedingt läuft der Lernprozess der K.I. evolutionär ab, in der Natur bestimmt die Umgebung die Resultate während bei einer K.I. Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden. Man hat also die Wahl an diesen beiden Stellschrauben (Code/Lerndaten) zu drehen um ein bestimmtes Ergebnis zu erreichen - beim LLM könnte das auch ein Bereich sein, vielleicht weil Sprache etwas sehr subjektives ist - wie man unter anderem bei unsere Diskussion merkt.
 
Die Wirtschaft ist enttäuscht und stampft 40% ihrer AI-Projekte ein, während die Halluzinationsrate mit der Weiterentwicklung wieder zunimmt; Zweifel, ob die derzeitigen Modelle der Weg zur generellen AI sind:


 
Die Wirtschaft ist enttäuscht und stampft 40% ihrer AI-Projekte ein, während die Halluzinationsrate mit der Weiterentwicklung wieder zunimmt; Zweifel, ob die derzeitigen Modelle der Weg zur generellen AI sind:



Ist leider hinter einer Paywall. Deutschland und Europa ist ja komplett abgehängt was KI angeht, ist halt auch ein demographisches Problem, zu viele alte Menschen, die an alten Konzepten hängen. Damit verliert man aber auch den Einfluss auf die Steuerbarkeit der Entwicklung. Aufhalten wird man die Entwicklung nicht können, auch nicht wenn man die Augen verschliesst wie Kevinside.

Falls es in dem Artikel um irgendwelche Aussagen von Apple geht, die habens ja auch verschlafen und stehn vor dem aus.
 
@Summa
„ Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden“

Du musst halt mal näher ausführen, weil so wird halt nicht klar, ob du den Unterschied zu einem gewöhnlichen Programm verstanden hast und warum man davon spricht, dass ein neuronales Netz nicht programmiert wurde, sondern lernt. Natürlich ist es am Ende Software/Code/Variablen, aber es geht doch darum verständlich zu machen, dass es eben einen Unterschied zu einem gewöhnlichen Programm gibt. Die Software gewichtet zwar die Trainingsdaten, aber eben alle Trainingsdaten nach dem gleichen Prinzip. Wie eine Backform, der Kuchen hat zwar die selbe Form aber je nach Zutaten ist er ein Schokoladenkuchen oder ein Zitronenkuchen.
 
Du musst halt mal näher ausführen, weil so wird halt nicht klar, ob du den Unterschied zu einem gewöhnlichen Programm verstanden hast und warum man davon spricht, dass ein neuronales Netz nicht programmiert wurde, sondern lernt.
Darwin und Evolutionstheorie ist hoffentlich klar und wie die Umwelt einen Einfluss auf die Entwicklung der Arten hat und bei der K.I. könnte man das was die Software macht vielleicht Guided Learning nennen ;-)
 
Die Software gewichtet zwar die Trainingsdaten, aber eben alle Trainingsdaten nach dem gleichen Prinzip. Wie eine Backform, der Kuchen hat zwar die selbe Form aber je nach Zutaten ist er ein Schokoladenkuchen oder ein Zitronenkuchen.
Was ist die Zielvorgabe für die K.I. alle Kuchen die man mit den Zutaten backen kann oder sich mit dir über Kuchen zu unterhalten?
 
Zuletzt bearbeitet:



Zurück
Oben