Einsatz von AI zum Musik machen

Die KI kann googlen ;-) Das tut sie auch, noch nicht Chatgpt ausprobiert?
Die Aussage war im Zusammenhang mit dem Lernprozess gemeint, eigentlich klar - Daten aus dem Internet würden die Verarbeitungszeit extrem erhöhen, abgesehen von den rechtlichen Problemen, noch so ein Nebelkerze? Ablenkung, du willst unbedingt gewinnen?
 
Kurz reingeschaut, dass erklärt K.I. für Noobs.

Ich habe echt keinen Plan woher du diese Überheblichkeit nimmst.

Die Aussage war im Zusammenhang mit dem Lernprozess gemeint, eigentlich klar - Daten aus dem Internet würden die Verarbeitungszeit extrem erhöhen, abgesehen von den rechtlichen Problemen, noch so ein Nebelkerze? Ablenkung, du willst unbedingt gewinnen?

Woher kommen die Daten? Also für Noobs wie mich kommen sie aus einer Mischung öffentlich verfügbarer Texte (z. B. Websites, Bücher, Wikipedia). Später kommen dann noch annotierte (also gelabelte) Texte beim Finetuning dazu. Für Profis wie dich kommen sie woher?
 
Ich habe echt keinen Plan woher du diese Überheblichkeit nimmst.
Das war eine realistische Einschätzung der Zielgruppe der Videos.
Woher kommen die Daten? Also für Noobs wie mich kommen sie aus einer Mischung öffentlich verfügbarer Texte (z. B. Websites, Bücher, Wikipedia). Später kommen dann noch annotierte (also gelabelte) Texte beim Finetuning dazu. Für Profis wie dich kommen sie woher?
Aber woher holt sich die K.I. in dieser Geschwindigkeit die Daten, was denkst du?
 
Das war eine realistische Einschätzung der Zielgruppe der Videos.

Aber woher holt sich die K.I. in dieser Geschwindigkeit die Daten, was denkst du?

Ok, du hast gewonnen, die Trainingsdaten sind in einer Datenbank gespeichert.

Das hat zwar nix mit der eigentlichen Diskussion zu tun...aber wenn es dich glücklich macht.

Ich hoffe du verstehst, dass diese Datenbank nicht Teil der fertigen AI ist.

Du kannst uns ja jetzt mal erklären was Backpropagation ist, damit wir an deinem Profiwissen teilhaben können.
 
Eine Leseempfehlung:
David Kriesel: Neuronale Netze

Ist echt gut für alle Grundlagen. Denn da das Thema durchaus kompliziert werden kann und hier schon mal Missverständnisse über Begriffe und Zusammenhänge herrschen. Ich jedenfalls hatte beim Lesen das eine oder andere Aha-Erlebnis.

Es lohnt sich wirklich, sich ein paar Tage hinzusetzen und das durchzulesen.

Manche kennen David Kriesel vielleicht von Vorträgen vom CCC.
 
Zuletzt bearbeitet:
Eine Leseempfehlung:
David Kriesel: Neuronale Netze

Ist echt gut für alle Grundlagen. Denn da das Thema durchaus kompliziert werden kann und hier schon mal Missverständnisse über Begriffe und Zusammenhänge herrschen. Ich jedenfalls hatte beim Lesen das eine oder andere Aha-Erlebnis.

Es lohnt sich wirklich, sich ein paar Tage hinzusetzen und das durchzulesen.

Manche kennen David Kriesel vielleicht von Vorträgen vom CCC.

Der Text ist von 2007? Das wäre dann schon ein wenig veraltet. Google Transformer ist von 2017 und seit dem hat das Ganze Quantensprünge gemacht. Ob das noch mit einem Text zu vergleichen ist von 2007 weiß ich nicht. Backpropagation wirds schon gegeben haben, denn das ist schon seit den 80er im Einsatz. Aber 2007 ist auch lange vor AlexNet von 2012, was quasi die Grundlage aller modernen Deep Learining AI ist. Der Backbone heutiger LLMs ist Google Transformer und Backpropagation.



Bist du sicher dass die Daten darin nicht schon gewichtet sind?

Hatte ich doch weiter oben schon von 'ner Website zitiert, ich kann wenn du willst noch weitere Quellen zitieren.

Nein, die Daten sind darin nicht gewichtet. Das wäre wahrscheinlich auch nicht möglich, denn dann müsste ja jemand von Hand diese Daten gewichten. Es kann sein, dass bereits relativ früh, im Verhältnis sehr wenige Daten, inhaltlich bearbeitet werden. Es wird auch versucht minderwertige, doppelte oder Hetztexte vor dem Training zu entfernen. Aber wie gesagt, dass ist nicht der zentrale Mechanismus. Der Witz ist ja gerade, dass es schwer nachzuvollziehen ist, dass nur durch das Lernen der Vorhersage des nächsten Wortes aus random Texten sowas wie Chatgpt entsteht. Ich glaube, das ist schwer mit nem menschlichen Gehirn zu erfassen wie das gehen soll und warum es funktioniert und so richtig verstehts halt auch noch keiner (klar den Programmcode versteht man, bitte nicht wieder alles von Vorne).
 
Auch eher für die Noobs, aber vielleicht findet es jemand spannend.


Und um diese dämlich Diskussion ein für alle mal abzuschließen hier ein Video von 2 Personen, die definitiv mehr von AI verstehen, als jeder hier im Forum und sie sagen genau das, was ich hier gebetsmühlenartig wiederhole, aber von den Profis hier als Unsinn abgetan wird:



Transkript: "we don't fundamentally know why these AIs do the things they do. We don't fundamentally know whats going on inside in that sort of mathematical sense or in a larger sense. And thats why all these mysteries still remain."
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: oli
Nein, die Daten sind darin nicht gewichtet. Das wäre wahrscheinlich auch nicht möglich, denn dann müsste ja jemand von Hand diese Daten gewichten.
Jemand oder etwas ;-)
Es kann sein, dass bereits relativ früh, im Verhältnis sehr wenige Daten, inhaltlich bearbeitet werden. Es wird auch versucht minderwertige, doppelte oder Hetztexte vor dem Training zu entfernen. Aber wie gesagt, dass ist nicht der zentrale Mechanismus.
Eine Datenbank mit den von dir angegebenen "Billionen Wörtern" ohne irgend eine Ordnung wär' ne ganz blöde Idee, das wäre so als wenn du eine Nadel im Heuhaufen suchst ;-) So lange die K.I. auf einem binären Rechner läuft wird sich sich zwangsweise an bestimmte Regeln halten müssen.
Der Witz ist ja gerade, dass es schwer nachzuvollziehen ist, dass nur durch das Lernen der Vorhersage des nächsten Wortes aus random Texten sowas wie Chatgpt entsteht. Ich glaube, das ist schwer mit nem menschlichen Gehirn zu erfassen wie das gehen soll und warum es funktioniert und so richtig verstehts halt auch noch keiner (klar den Programmcode versteht man, bitte nicht wieder alles von Vorne).
Noch sind die Mechanismen die eine K.i. verwendet nur von der Arbeisweise eines bilogischen neuronalen Netz inpririert, schon wegen der von mir genannten Beschränkung binärer Computersysteme.
Auch eher für die Noobs, aber vielleicht findet es jemand spannend.


Und um diese dämlich Diskussion ein für alle mal abzuschließen hier ein Video von 2 Personen, die definitiv mehr von AI verstehen, als jeder hier im Forum und sie sagen genau das, was ich hier gebetsmühlenartig wiederhole, aber von den Profis hier als Unsinn abgetan wird:



Transkript: "we don't fundamentally know why these AIs do the things they do. We don't fundamentally know whats going on inside in that sort of mathematical sense or in a larger sense. And thats why all these mysteries still remain."

Muss das sein? Videos sind ein ziemlicher Zeitklau, die lassen sich so schlecht Querlesen ;-) Die Überschrift suggerriert ja schon die Überlegung einer Möglichkeit, das würde ich auch nicht in Abrede Stellen wollen. Sind das die Macher von Claude, das System hattest du schon vorne erwähnt, das ist laut Wikipedia eine vortrainierte K.I., das würde auch zu deinen Beobachtungen passen.
 
Zuletzt bearbeitet:
hier ein Video von 2 Personen, die definitiv mehr von AI verstehen, als jeder hier im Forum und sie sagen genau das, was ich hier gebetsmühlenartig wiederhole,

Beide von Anthropic, der links vom Communications Department, der rechts von 'alignment science', also beide eher PR, Marketing, Planung. Im Sofa-Gespräch wimmelt es daher von 'could be', 'would', 'possibly', 'crazy'. Die machen ihren Job.

Nur mal zur Quelleneinschätzung.

Auch vor 60 Jahren war die conscious general AI ja nur einen Fingerschnips entfernt, samt Übernahme der Welt.
 
Jemand oder etwas ;-)

Es wird lächerlich. Diese Haarspalterei ist sinnlos.

Eine Datenbank mit den von dir angegebenen "Billionen Wörtern" ohne irgend eine Ordnung wär' ne ganz blöde Idee, das wäre so als wenn du eine Nadel im Heuhaufen suchst ;-) So lange die K.I. auf einem binären Rechner läuft wird sich sich zwangsweise an bestimmte Regeln halten müssen.

Strohmann oder Dummheit? Nach seitenlanger Diskussion so eine Antwort. Irgendwann wirds peinlich. Informiere dich halt selbst. Die „Ordnung“ steckt in den Sätzen.



Beide von Anthropic, der links vom Communications Department, der rechts von 'alignment science', also beide eher PR, Marketing, Planung. Im Sofa-Gespräch wimmelt es daher von 'could be', 'would', 'possibly', 'crazy'. Die machen ihren Job.

Nur mal zur Quelleneinschätzung.

Auch vor 60 Jahren war die conscious general AI ja nur einen Fingerschnips entfernt, samt Übernahme der Welt.

Yep, ob Nobelpreisträger oder AI-Forscher, das Forum weiß es besser. Wenn du so gut weißt wie es funktioniert, versuche es uns doch mal zu erklären, gerne auch in Profisprache, ich versteh das schon.
 
  • Daumen hoch
M.i.a.u.: oli
Strohmann oder Dummheit? Nach seitenlanger Diskussion so eine Antwort. Irgendwann wirds peinlich. Informiere dich halt selbst. Die „Ordnung“ steckt in den Sätzen.
Datenbanken war Teil meines Informatik Studiums, daher mein Einwand. Eine große Datenbank braucht zwangsweise eine Struktur um nutzbar zu sein.
Es wird lächerlich. Diese Haarspalterei ist sinnlos.
Nicht wirklich, in den Artikeln zur A.I wird ein überwachtes lernen erwähnt, auch wenn das nicht ganz so effizient sein soll.
 
Was ist denn jetzt eigentlich genau die Frage, um die es hier noch geht?

Es geht darum, ob LLMs eine Blackbox sind. Ob wir wissen, warum „Next word prediction“ mit Millionen von Texten am Ende solche Fähigkeiten wie Chatgpt entwickelt. Und ob wir noch nachvollziehen können warum LLMs auf einen bestimmten Promt eine bestimmte Antwort geben.
 
Datenbanken war Teil meines Informatik Studiums, daher mein Einwand. Eine große Datenbank braucht zwangsweise eine Struktur um nutzbar zu sein.

Nicht wirklich, in den Artikeln zur A.I wird ein überwachtes lernen erwähnt, auch wenn das nicht ganz so effizient sein soll.

Wie genau die Datenbank der Trainingsdaten aufgebaut ist kann ich dir nicht sagen. Zunächst werden sicherlich erstmal alle Texte gesammelt. Dann werden sie in Token zerlegt. Das zerlegen ist wichtig um Platz zu sparen in der Embedded Matrix, weil es ja dort einen Eintrag pro Token gibt. Zum Beispiel unbrauchbar und ungesund könnte man zerlegen in un / brauchbar und un / gesund, un ist ein Token und gesund und brauchbar je ein Token. Wie das dann in der Datenbank strukturiert ist weiß ich nicht. Wenn du willst frage ich Chatgpt.
 
Es geht darum, ob LLMs eine Blackbox sind. Ob wir wissen, warum „Next word prediction“ mit Millionen von Texten am Ende solche Fähigkeiten wie Chatgpt entwickelt. Und ob wir noch nachvollziehen können warum LLMs auf einen bestimmten Promt eine bestimmte Antwort geben.
Dazu hatte ich ja schon weiter vorne was gepostet, aber das waren ja nur die Leute vom Frauenhofer Institut ;-)
Weitere Quellen:
 
Ob wir wissen, warum „Next word prediction“ mit Millionen von Texten am Ende solche Fähigkeiten wie Chatgpt entwickelt.
Was Chatgpt betrifft:
 
Zuletzt bearbeitet:
Es geht mir eher ums Guided Learning ;-)
 
Es geht mir eher ums Guided Learning ;-)

Ja, Finetuning findet mit gelabelten Daten statt. Aber das sind nur sehr kleine Datensätze. Ich könnte mir aber vorstellen, dass Batches (ein LLM wird hintereinander mit verschieden Batches an Daten trainiert) labelt. Also das man zum Beispiel ein Batch hat nur mit wissenschaftlichen Texten und denen dann das Gesamt-Label Wissenschaft gibt.

Zu dem Datenbankformat sagt mir Chatgpt, dass für das Kerntraining nur reiner nicht formatierter Text genutzt wird und für das Finetuning dann Json genutzt wird. Beispiel:

{"messages": [{"role": "system", "content": "Du bist ein hilfreicher Assistent."}, {"role": "user", "content": "Was ist die Hauptstadt von Deutschland?"}, {"role": "assistant", "content": "Die Hauptstadt von Deutschland ist Berlin."}]}
{"messages": [{"role": "system", "content": "Du bist ein hilfreicher Assistent."}, {"role": "user", "content": "Erkläre, warum der Himmel blau ist."}, {"role": "assistant", "content": "Der Himmel erscheint blau, weil die Luftmoleküle das Sonnenlicht streuen und das blaue Licht stärker gestreut wird als andere Farben."}]}
{"messages": [{"role": "system", "content": "Du bist ein hilfreicher Assistent."}, {"role": "user", "content": "Erzähl mir einen Witz."}, {"role": "assistant", "content": "Warum können Skelette nicht tanzen? Weil sie keinen Rhythmus im Blut haben!"}]}
{"messages": [{"role": "system", "content": "Du bist ein hilfreicher Assistent."}, {"role": "user", "content": "Schreibe einen Satz mit dem Wort 'Hund'."}, {"role": "assistant", "content": "Der Hund schläft friedlich im Garten."}]}
{"messages": [{"role": "system", "content": "Du bist ein hilfreicher Assistent."}, {"role": "user", "content": "Was ist 5 + 7?"}, {"role": "assistant", "content": "5 + 7 ist 12."}]}
 
Zuletzt bearbeitet:
hmm ...

1753448300463.png

Bonus:

1753448352342.png
1753448399085.png

nicht sicher, ob lustig ... 🤔
 
Ja, Finetuning findet mit gelabelten Daten statt. Aber das sind nur sehr kleine Datensätze. Ich könnte mir aber vorstellen, dass Batches (ein LLM wird hintereinander mit verschieden Batches an Daten trainiert) labelt. Also das man zum Beispiel ein Batch hat nur mit wissenschaftlichen Texten und denen dann das Gesamt-Label Wissenschaft gibt.

Zu dem Datenbankformat sagt mir Chatgpt, dass für das Kerntraining nur reiner nicht formatierter Text genutzt wird und für das Finetuning dann Json genutzt wird.
Das mit dem "Guided Learning" (jetzt von menschlichen Lernprozessen übernommen) bezieht sich auf die Klickarbeiter in Kenia und Kolumbien oder denkst du das sind Fake News? Dürfte zeigen dass das Training noch nicht ohne Menschliche Intervention/Unterstützung funktioniert, was an sich verständlich ist, weil die Worte für die K.I. erst mal keine Bedeutung haben.
 
Das mit dem "Guided Learning" (jetzt von menschlichen Lernprozessen übernommen) bezieht sich auf die Klickarbeiter in Kenia und Kolumbien oder denkst du das sind Fake News? Dürfte zeigen dass das Training noch nicht ohne Menschliche Intervention/Unterstützung funktioniert, was an sich verständlich ist, weil die Worte für die K.I. erst mal keine Bedeutung haben.

Nein, du missverstehst das. Es geht nur ums Finetuning, damit die KI nicht auf "Du Arschloch" mit "Du Idiot" antwortet, was nämlich viele Menschen so machen würden. Im Prinzip sucht ein Computer nach auffälligen Wörtern, diese Texte werden dann nach Kenia geschickt, wo ein Mensch beurteilt, ob der Text wirklich anstößig ist und dann wird der Text gelabelt. Die Bedeutung der Worte erlernt das Netz aus dem Kontext der Sätze. Es lernt keine einzelnen Worte, sondern es lernt die features (schau dir die Vorlesung für Noobs vom Nobelpreisträger an) die ein Wort hat, wie es im Kontext zu allen anderen Wörtern steht. Das ist ja der Witz warum ich dir das hier so lange erklären muss. Es lernt quasi "Hund" hat ne Beziehung zu "Tier", "Katze", "der", "bellen" und auch zu allen anderen Wörtern mit einer bestimmten Gewichtung. Aus der Beziehung aller Wörter zueinander und deren Position im Satz (oder ganzem Text), ergibt sich die Voraussage für das nächste Wort. Wir können aber nicht mehr entschlüsseln wie jedes Wort zu jedem Wort in Beziehung steht, denn das ist im NN verschlüsselt. Rein theoretisch müsste es möglich sein, so wie du es sagst, es sind ja nur Bits und Bytes, aber praktisch ist eben (noch?) nicht möglich. Und wenn wir es noch nicht mal in einem digitalen System können, bei dem wir alle Parameter kennen, dann können wir das für unser Gehirn komplett vergessen.

Also, ja, es gibt gelabelte Daten, die spielen auch eine Rolle und sie verbessern die Modelle beim Finetuning, du hast recht. Aber der Grundmechanismus funktioniert ohne jedes Labeling.
 
Ich hätte den Text von der ARD von Tagesschau.de zuerst verlinken sollen, da wird das etwas genauer erklärt was die Dienstleister so machen:

Trainingsdaten für künstliche Intelligenz​


Fred ist Teil einer weltweiten Industrie, die sogenannte Trainingsdaten für die Entwicklung von Künstlicher Intelligenz bearbeitet. SWR2 Wissen hat über mehrere Monate mit einem Dutzend dieser Klickarbeiterinnen und -arbeiter gesprochen. Im Podcast kritisieren die allermeisten ihre Arbeitsbedingungen sehr deutlich - sprechen mitunter von Ausbeutung. Dabei macht ihre Tätigkeit KI erst wirklich intelligent.


Mit den von ihnen annotierten Daten - vor allem Bildern - lernen beispielsweise KI-Systeme beim autonomen Fahren, Schilder oder Ampeln zu erkennen. Oder eben intelligente Drohnen, Pakete abzulegen.
 


Neueste Beiträge


Zurück
Oben