Einsatz von AI zum Musik machen

Ich hätte den Text von der ARD von Tagesschau.de zuerst verlinken sollen, da wird das etwas genauer erklärt was die Dienstleister so machen:

Du kannst das ja mal den Medizin-Studenten sagen, die ohne Bezahlung hier bei uns Tumore markieren ;-) Aber im Ernst, self-supervised-learning ist der Kern moderner Modelle, auch bei Bild-KI. Wenn du es mir nicht glaubst, frag halt jemand anderen. Ich weiß, ist etwas schwieriger zu begreifen, aber es lohnt sich es zu versuchen es zu verstehen, bleib dran. Die heutigen Modelle sind nur möglich durch die gigantische Menge an ungelabelten Daten.
 
self-supervised-learning ist der Kern moderner Modelle
Ist der Kern ganz bestimmter Modelle für eine beschränkte Art von Anwendungen, den Link hatte ich hier auch schon gepostet:

Was sind Vorteile von Unsupervised Learning?​

  • Keine gelabelten Daten erforderlich: Im Gegensatz zum Supervised Learning sind keine gelabelten Trainingsdaten erforderlich. Dies kann sehr nützlich sein, wenn es schwierig oder teuer ist, gelabelte Daten zu beschaffen.
  • Erkennung verborgener Muster: Unsupervised Learning kann verborgene Muster und Strukturen in Daten erkennen, die auf den ersten Blick nicht offensichtlich sind. Dies kann dazu beitragen, neue Erkenntnisse und Einsichten zu gewinnen, die sonst nicht entdeckt worden wären.
  • Erkennung von Anomalien: Unsupervised Learning kann Anomalien oder Ausreißer in Daten erkennen, die auf Probleme oder Abweichungen hinweisen können. Dies kann in vielen Anwendungen wie Betrugserkennung, Sicherheit oder Gesundheitsüberwachung nützlich sein.
  • Flexibilität: Unsupervised Learning ist flexibel und kann auf viele verschiedene Arten angewendet werden. Dies macht es zu einem vielseitigen Werkzeug für die Datenanalyse und das maschinelle Lernen.
  • Skalierbarkeit: Unsupervised Learning kann auf große Datensätze angewendet werden und ist in der Regel skalierbar, was bedeutet, dass es auch für komplexe Probleme und große Datenmengen eingesetzt werden kann.
Insgesamt bietet Unsupervised Learning eine effektive Möglichkeit, Daten zu analysieren und Muster zu erkennen, die zur Lösung von komplexen Problemen beitragen können.
 
Ich würde es toll finden, wenn alle Formen von AI Code und Programmen usw. Open Source wären, damit eben jeder (Skeptiker. Befürworter und all die Graustufen dazwischen...) Zugriff hat...
Für mich persönlich ist es schon interessant, mit welchen Daten diese ganzen "Konstrukte" trainiert wurden... Eine Transparenz wäre meiner Meinung nach eine gute Idee... Aber das wird wohl an den gewinnorientierten Firmen scheitern...schade
 
Ich würde es toll finden, wenn alle Formen von AI Code und Programmen usw. Open Source wären, damit eben jeder (Skeptiker. Befürworter und all die Graustufen dazwischen...) Zugriff hat...
Für mich persönlich ist es schon interessant, mit welchen Daten diese ganzen "Konstrukte" trainiert wurden... Eine Transparenz wäre meiner Meinung nach eine gute Idee... Aber das wird wohl an den gewinnorientierten Firmen scheitern...schade

Das ist gut und sinnvoll und wir haben einige Open-Source Modelle und die Texte sind einfach alle Texte, die es frei verfügbar gibt. Du kannst dir z.B. vorstellen, dass alle Texte die jemals auf Twitter geschrieben wurden von Musks-AI genutzt werden. Man denkt jetzt zwar: Wirklich? Der ganze Schrott von Twitter, Instagram und Facebook wird genutzt? Ja, weil es verschiedene Ebenen gibt, erstmal lernen die Modelle generelle Beziehungen zwischen den Wörtern und da ist es egal, wo die Texte herkommen, es müssen nur möglichst viele sein, später wird dann versucht mit wissenschaftlichen Texten und hochwertigen Texten der AI die Dummheit wieder auszutreiben. Und das schöne ist, so nen LLM vergisst halt auch, wenn man es mit zusätzlichen Daten füttert.
 
Wie genau die Datenbank der Trainingsdaten aufgebaut ist kann ich dir nicht sagen. Zunächst werden sicherlich erstmal alle Texte gesammelt. Dann werden sie in Token zerlegt. Das zerlegen ist wichtig um Platz zu sparen in der Embedded Matrix, weil es ja dort einen Eintrag pro Token gibt. Zum Beispiel unbrauchbar und ungesund könnte man zerlegen in un / brauchbar und un / gesund, un ist ein Token und gesund und brauchbar je ein Token. Wie das dann in der Datenbank strukturiert ist weiß ich nicht. Wenn du willst frage ich Chatgpt.
Bei einer Datenbank wie du sie beschreibst kann die K.I. am Ende wahrscheinlich nur bestimmen wie die Worte zusammengehören, das funktioniert maximal bei Aufgaben bei dem die K.I. nicht viel mehr machen muss als Sätze zu vervollständigen, für eine Muster Erkennung dieser Art reicht dann wahrscheinlich auch das unbetreute lernen, denn genau für Anwendungen dieser Art ist sie prädestiniert. Die K.I. kann vielleicht noch selbstständig gewichten wie häufig auf eine ähnlich aufgebaute Frage eine bestimmte Antwort gegeben wurde und vielleicht (damit es lebensechter wirkt) per Pseudozufall "gleichtwertige" Antworten variieren. Man könnte das flapsig unter dem Oberbegriff nachplappern zusammenfassen ;-)
 
Ich habe mal für FICTIONALIVE (CH) von Stephen Pressinger eine erste "Kritik" formuliert.
Vielleicht interessiert das hier jemanden - Stephen Pressinger arbeitet auch mit der KI.


Ich vergleiche das mit dem "Kino und der Schauspielerei"

Hier der text:
"Ich frage mich ja schon seid längerem:

Was ist das eigentlich was der kerl da macht und warum muss/kann man das ernst nehmen.
Obwohl man nicht weiss wieviel "truth" und wieviel "fake" dahinter steckt!

Ich denke es ist wahrscheinlich beides! und eigentlich will ich es auch garnicht wissen, damit der "traum/plot" nicht zerplatzt/auffliegt.

Ich denke so geht es vielen deiner hörer!?

Du hast eigentlich hier so eine art "huckepack"-prinzip: Durch deine "tiefen" texte verhilfst du musikern auch zu mehr aufmerksamkeit - die sie sonst nicht hätten.

Ich für mich hab das so aufgelöst (und das löst auch das problem was kritiker mit der KI haben):

Für mich hat das etwas mit Kino und Schauspielerei zu tun: Einen actor fragt man ja auch nicht und beurteilt man ja auch nicht danach, ob er das, was er da gerade darstellt, auch selber mal wirklich erlebt hat - Sondern man (der zuschauer) lässt sich tragen und geht mit oder auch nicht.

Das gleiche ist hier der fall...

Man fragt ja auch nicht, ob der film schonmal das erlebt hat, was er da gerade zeigt.
... und die frage nach der authentizität stellt sich ja seid Marcel Duchamp´s "Ready Mades" sowieso nicht mehr.

Text: Kritiker N°1"
 
Bei einer Datenbank wie du sie beschreibst kann die K.I. am Ende wahrscheinlich nur bestimmen wie die Worte zusammengehören, das funktioniert maximal bei Aufgaben bei dem die K.I. nicht viel mehr machen muss als Sätze zu vervollständigen, für eine Muster Erkennung dieser Art reicht dann wahrscheinlich auch das unbetreute lernen, denn genau für Anwendungen dieser Art ist sie prädestiniert. Die K.I. kann vielleicht noch selbstständig gewichten wie häufig auf eine ähnlich aufgebaute Frage eine bestimmte Antwort gegeben wurde und vielleicht (damit es lebensechter wirkt) per Pseudozufall "gleichtwertige" Antworten variieren. Man könnte das flapsig unter dem Oberbegriff nachplappern zusammenfassen ;-)

Wenn du das so siehst. Einfach mal Chatgpt nutzen und dann siehst du wie es „nachplappert“.
 
Wenn du das so siehst. Einfach mal Chatgpt nutzen und dann siehst du wie es „nachplappert“.
Hatte ehrlich gesagt bisher kein Bedarf an ChatGPT, aber ich sehe an der Google K.I. dass sie mit meinen Suchstrategien oft nicht sonderlich gut harmoniert, von daher harre ich auf das was da noch kommen mag ;-)
Quelle: https://dorik.com/blog/how-does-chatgpt-work
ChatGPT's Unique Blend of Supervised and Unsupervised Learning

Chatgpt works with this combination of supervised and unsupervised learning which increases its power of adaptability.

  • During its initial training, ChatGPT receives vast amounts of internet text in an unsupervised manner. It becomes a language expert, soaking in the nuances of human expression.
  • Then comes the supervised learning phase, where ChatGPT refines its skills for specific tasks or domains. It's like taking that newfound language proficiency and tailoring it to excel in specific scenarios.
  • This combined approach is what makes ChatGPT a versatile conversational AI, which can understand versatile user inputs and deliver relevant answers.
 



Zurück
Oben