Einsatz von AI zum Musik machen

Sei mir nicht böse wenn ich mich an dieser Stelle ausklinke, irgendwelche Javascript Seiten auf meinem Rechner öffnen fällt mir nicht im Traum ein und eine Katze frisst nicht nur Fisch.
 
@einseinsnull

Du postest genau das, was du für deine Argumentation brauchst und bist dir nicht mal zu schade, alles aus dem Kontext zu reißen...

der kontext lautete "KI zum musikmachen" - und du reduzierst das auf webspielereien der marke "sumo", ergänzt das thema dann um chatbots und setzt chatbots mit hitler gleich, aber ich reiße die dinge aus dem kontext?

Blabla, Unterhaltung auf Verschwörungstheoretiker-Niveau. Ich bin weder für noch gegen AI, darum ging es überhaupt nicht.

es ging darum, dass du ausgerechnet amodei bemüht hast - als beispiel für einen experten, der vor den gefahren warnt.

dass der mann damit sein geld verdient und ganze bücher vor allem vor allem auch über die chancen geschrieben hat, die in der technologie liegen, das weißt du entweder nicht oder ignorierst es sogar bewusst.

nur sind die gefahren, die von großkonzernen für die gesellschaft ausgehen für das schaffen von künstlern, musikern oder wissenschaftlern mithilfe von KI software vollkommen irrelevant.

wenn du vor den gefahren warnen willst, dann macht dir entweder mal eigene gedanken dazu oder such dir einen besseren prophetenstrohmann aus als ausgerechnet den.

der mann ist wissenschaftler, dass er sowohl die gefahren als auch die chancen sieht liegt in der natur der sache.

Der Mensch stellt nur die Input-Daten mehr nicht und diese sind und können im Prinzip kaum noch handselektiert sein.

das ist einfach sachlich falsch. praktisch jeder, der professionell KI systeme einsetzt trainiert seine systeme auch selbst.

das ist der punkt, den du genauso wenig zu kapieren scheinst wie kevinside auch.

wenn ich eiweißverbindungen erforsche, tierstimmen interpretrieren oder die echtheit eines gemäldes überprüfen will, dann geht das nicht mit GPT oder sumo, sondern dann muss ich die dazu notwendigen daten selbst eingeben.

der output eines solches systems wirkt dann quasi nur wie nicht-deterministisch, ist es im kern aber.
 
Zuletzt bearbeitet:
der kontext lautete "KI zum musikmachen" - und du reduzierst das auf webspielereien der marke "sumo", ergänzt das thema dann um chatbots und setzt chatbots mit hitler gleich, aber ich reiße die dinge aus dem kontext?



es ging darum, dass du ausgerechnet amodei bemüht hast - als beispiel für einen experten, der vor den gefahren warnt.

dass der mann damit sein geld verdient und ganze bücher vor allem vor allem auch über die chancen geschrieben hat, die in der technologie liegen, das weißt du entweder nicht oder ignorierst es sogar bewusst.

nur sind die gefahren, die von großkonzernen für die gesellschaft ausgehen für das schaffen von künstlern, musikern oder wissenschaftlern mithilfe von KI software vollkommen irrelevant.

wenn du vor den gefahren warnen willst, dann macht dir entweder mal eigene gedanken dazu oder such dir einen besseren prophetenstrohmann aus als ausgerechnet den.

der mann ist wissenschaftler, dass er sowohl die gefahren als auch die chancen sieht liegt in der natur der sache.



das ist einfach sachlich falsch. praktisch jeder, der professionell KI systeme einsetzt trainiert seine systeme auch selbst.

das ist der punkt, den du genauso wenig zu kapieren scheinst wie kevinside auch.

wenn ich eiweißverbindungen erforsche, tierstimmen interpretrieren oder die echtheit eines gemäldes überprüfen will, dann geht das nicht mit GPT oder sumo, sondern dann muss ich die dazu notwendigen daten selbst eingeben.

der output eines solches systems wirkt dann quasi nur wie nicht-deterministisch, ist es im kern aber.

Hä? Es ging einzig und alleine darum, dass das Netz ne Blackbox ist, weil @Summa das bis jetzt nicht versteht und das sagt dir jeder der halbwegs Ahnung von LLMs hat.

Was meinst du mit -trainiert seine KI-Systeme „selbst“?- Von Hand oder was? Natürlich kann man das Netz mit bestimmten Input/Output-Paaren manipulieren, ändert aber nichts an der Blackbox.

Sei mir nicht böse wenn ich mich an dieser Stelle ausklinke, irgendwelche Javascript Seiten auf meinem Rechner öffnen fällt mir nicht im Traum ein und eine Katze frisst nicht nur Fisch.

Verstehe schon, du willst es gar nicht verstehen ;-)
 
Verstehe schon, du willst es gar nicht verstehen ;-)
Wir drehen uns im Kreis, den Bereich hatten wir doch bereits diskutiert (ich hatte den Vergleich mit einem VA gebracht) und ich riskiere nicht die Sicherheit meines PCs.
 
Zuletzt bearbeitet:
Nutze sowas schon und beobachte das sehr gespannt.
Gerade der Bereich Stem Separation hat gute Fortschritte gemacht, erfüllt aber noch nicht meine Erwartungen.

Ich muss mich auch mal bezüglich AI Vocals informieren. Das wäre endlich mal die Möglichkeit Gesang zu bekommen, ohne auf die Befindlichkeiten von irgendwelchen Leuten Rücksicht zu nehmen. Natürlich arbeite ich super gern im Team, aber bisher hat das nicht gut funktioniert. Mein letzter Sänger ist kurz nachdem wir einen richtig guten Song am Start hatten flügge geworden und dann stand wieder alles bei Null.
 
Nutze sowas schon und beobachte das sehr gespannt.
Gerade der Bereich Stem Separation hat gute Fortschritte gemacht, erfüllt aber noch nicht meine Erwartungen.

Ich muss mich auch mal bezüglich AI Vocals informieren. Das wäre endlich mal die Möglichkeit Gesang zu bekommen, ohne auf die Befindlichkeiten von irgendwelchen Leuten Rücksicht zu nehmen. Natürlich arbeite ich super gern im Team, aber bisher hat das nicht gut funktioniert. Mein letzter Sänger ist kurz nachdem wir einen richtig guten Song am Start hatten flügge geworden und dann stand wieder alles bei Null.

Es gibt meines Wissens im Moment 2 Optionen um an AI-Vocals zu kommen. Einmal mit Suno, jedoch generiert Suno dir eine beliebige Melodie für die Vocals und du kannst das nicht steuern. Du kannst in gewissen Rahmen Tonart und BPM versuchen einzuschränken. Es ist also sinnvoller sich einen Song mit Suno generieren zu lassen, die Stems der Vocals zu nehmen und darum einen eigenen Backtrack zu bauen. Eine andere Option ist die Vocals selbst einzusingen mit Melodyne oder ähnlichem auf die richtige Tonhöhe zu bringen und auf Seiten wie Kits.ai oder audimee in professionelle Vocals konvertieren zu lassen.
 
Wir drehen uns im Kreis, den Bereich hatten wir doch bereits diskutiert (ich hatte den Vergleich mit einem VA gebracht) und ich riskiere nicht die Sicherheit meines PCs.

Der Vergleich mit dem VA zeigt, dass du das Prinzip eines neuronalen Netzes noch nicht verstanden hast. Es ist schon etwas billig zu sagen, dass du dir keine Videos anschaust und kein Javascript html im Browser öffnen möchtest. Klingt mir eher so als, ob du lieber nicht verstehen willst. Aber hier mal das wesentliche in Bildern

Vor dem Training mit zufälligen Startwerten.
1752965754999.png


Nach einem kompletten Training (erster Versuch)
1752965522389.png

Nach einem Reset und Neustart: Nach einem kompletten Training (zweiter Versuch)
1752965961593.png

Du siehst, das entstandene Netz ist beide Male komplett anders führt aber zum selben Ergebnis. Es ist also nicht wie dein VA-Beispiel, wo der Output immer anders ist. Nach unzählbaren Sätzen und Texten mit denen das System gefüttert wird kann keiner mehr entschlüsseln welche Nodes was bedeuten, denn jeder Node wurde von Billionen Texten variiert. In einem Node stecken also Milliarden an Informationen die aber nur in Kombination mit den anderen Billionen Nodes einen Sinn ergeben. Ab einer gewissen Menge an Informationen scheint so ein Netz völlig automatisch so etwas wie Intelligenz zu entwickeln und ihm unbekannte Aufgaben zu lösen. Das könnte bedeuten, dass das was wir Intelligenz nennen auch nichts weiter ist als der Abgleich unseres neuronalen Netzes mit dem in ihm enthaltenen Informationen und das es gar kein "Verstehen" gibt. "Verstehen" ist nur eine Illusion. Ein LLM predicted immer nur das best mögliche nächste Wort in einem Text/Code, es versteht gar nix. Vielleicht verstehen wir auch gar nix und haben nur furchtbar viele Informationen gesammelt die uns erlauben eine intelligente nächste Handlung durchzuführen?

Was auch immer, jedenfalls ist es nicht möglich vollständig zu sagen was in einem solchen Netz schlummert und welche Antwort wir bekommen wenn wir ihm eine bestimmte Frage stellen.

man erklärt martin, dass KI mehr als sprachmodelle ist - und martin erklärt dir, dass es doch nur sprachmodelle sind.

Du bist verwirrt oder willst irgendwelchen blöden Derails betreiben. Habe ich keine Lust drauf. Erzähl was du damit meinst die KI "selbst" zu trainieren, dann können wir darüber reden, aber immer irgendwelche Strohmänner aufbauen und random irgendwas einzuwerfen ist irgendwie auf Verschwörungstheoretiker-Niveau.
 
@einseinsnull

Interessant...Ich habe Chatbots nie mit Hitler gleichgesetzt...Das. was ich meinte, war der Chatbot von Elon Musk, der eben Hitler verherrlicht hat und sonst auch nur irgendeine Musk konforme Antwort gegeben hat...
Elon Musk´s Chatbot Grok war nicht nur antisemitisch, sondern sogar rechtsradikal...
Naja diese blöde KI hat leider falsche Parameter von uns bekommen, laut Entwickler...
Tja; Wie intelligent ist eine Ki wirklich, wenn einige wenige Parameter reichen, um einen Massenmörder hochleben zu lassen.... Das ist KI? Wunderbar

Ich denke; Wir werden bei dieser Thematik keinen Konsens finden...
Aber das ist ok...
Ich werde dir nicht mehr antworten, denn dieses passiv aggresive Getue finde ich nicht nur kindisch, sondern geradezu pubertär...

Sry... Jetzt kannst du gerne dein gesamtes Arsenal auf mich abfeuern... Es ist so unwichtig, uninteressant und egal... Und das ist das Gute daran... :)
 
Zuletzt bearbeitet:
Der Vergleich mit dem VA zeigt, dass du das Prinzip eines neuronalen Netzes noch nicht verstanden hast.
Du hast afair weiter vorne von etwas gesprochen dass auf den selben Input jeweils einen anderen Output reagiert, jetzt erklärst du mir was das auf unterschiedlichen Wegen zum selben Output kommt.
Du siehst, das entstandene Netz ist beide Male komplett anders führt aber zum selben Ergebnis.
Natürlich kommt man auf ganz unterschiedlichen Wegen Problemlos zum selben Ergebnis, was genau soll das beweisen? Wie dein Neuronale Netz die jeweiligen Daten/Zustände bewertet kann ich Anhand deiner Bilder und Beschreibungen nicht erkennen, es entstehen Daten beim Lernprozess und müssen ja irgendwo gespeichert werden.
Es ist ja jetzt keine neue Erkenntnis dass man auf unterschiedlichen Wegen zum selben Ziel kommen kann. Ich bringe mal wieder ein Beispiel aus dem Sound Bereich, ich kann den selben Sound auf ganz unterschiedliche Arten erzeugen und trotzdem analysieren wie der Sound gebaut wurde.
Was auch immer, jedenfalls ist es nicht möglich vollständig zu sagen was in einem solchen Netz schlummert und welche Antwort wir bekommen wenn wir ihm eine bestimmte Frage stellen.
Zumindest nicht ohne die Daten die du entweder nicht kennst oder verschweigst.
 
Zuletzt bearbeitet:
@Martin Kraken

Aber wir haben eben einen Vorteil, der so massiv ist...
Die emotionale Komponente... Daraus ergibt sich ein Gewissem...
Eine jetzige KI kann ich trainieren wie ich will, sie wird immer eine Variatiom kreieren aus dem Fundus meines "Trainings"...
Deswegen ist es ja so einfach, Chatbots zu überlisten, weil diese eben nicht selber denken sondern nur mit dem trainierten Wissen agieren...Das gilt auch für die ganzen Musik AI Tools...
Die Ki hat keinen freien Willen... Wenn ich ein Modell nur mit rechtradikalen Websites,Texten usw. trainiere, ist sie der perfekte Nazi... Die KI hinterfragt nicht, reflektiert nicht...
Und das ist aber ein fundemantaler Punkt in unserer gesamten Entwicklung...oder nicht?
 
@Summa
Gibt es eigentlich schon KI Modelle für Sounddesign...Ich hab mal diese Waves Geschichte Illugen ausprobiert...
Trotz gleichen "Prompt" Beschreibung, waren die Ergebnisse immer unterschiedlich...Warum?
 
Zuletzt bearbeitet:
@Summa
Gibt es eigentlich schon KI Modelle für Sounddesign...
Ich halte meine Augen und Ohren offen, aber der Soundbau ist bei mir Teil des kreativen Prozesses beim Musik machen, von daher bin ich vielleicht eher als Trainer und weniger als User einer solchen Software interessant.
Ich hab mal diese Waves Geschichte Illugen ausprobiert...
Trotz gleichen "Prompt" Beschreibung, waren die Ergebnisse immer unterschiedlich...Warum?
Aus den FAQs der Software: ILLUGEN is designed to keep things fresh. Even if you use the exact same prompt, the results will always be slightly different. You might get something similar, but never an identical sound.
 
Du bist verwirrt oder willst irgendwelchen blöden Derails betreiben. Habe ich keine Lust drauf. Erzähl was du damit meinst die KI "selbst" zu trainieren, dann können wir darüber reden, aber immer irgendwelche Strohmänner aufbauen und random irgendwas einzuwerfen

Hmm, das scheint mir eine gute Beschreibung Deiner anekdotischen Einwürfe hier zu sein - von 'Intelligenz, Verstehen' bis zu Kindernetzwerken in HTML. Ganz zu schweigen von den persönlichen Beleidigungen, die Du immer häufiger einstreust, wenn jemand Deine (Dir so erscheinenden) Wahrheiten nicht teilt.

Dafür, dass sie die Energie einer mittleren Großstadt brauchen und mehr Transistoren enthalten als unser Hirn Neuronen, können die AI ganz schön wenig, halluzinieren zT grotesk (siehe mein obiges Beispiel) und versagen, wenn das Datenmaterial zu einer Aufgabe gering ist (dto.).

Also bitte etwas mehr Selbstbeherrschung; tut auch Fanboys gut.

---

Wieso glauben übrigens alle, dass Intelligenz beliebig nach oben skalierbar ist? Dass die derzeitigen Modelle diejenigen sind, die demnächst eine Strong AI (oder gar, für Fanboys, 'Singularität') werden?
 
@Summa
Gibt es eigentlich schon KI Modelle für Sounddesign...Ich hab mal diese Waves Geschichte Illugen ausprobiert...
Trotz gleichen "Prompt" Beschreibung, waren die Ergebnisse immer unterschiedlich...Warum?
Jede KI oder auch neuronales Netz hat einen zufällige Komponente. Da wird von vornherein festgelegt, dass berechneten Werten diese Komponente hinzugefügt wird. Das macht das Ganze dann am Ende in einem bestimmte Maße variabel.

Und der Grund ist, dass die KI damit anpassungsfähiger wird. Wenn man diese Komponente nicht hätte, würde sie zwar für Trainingsdaten ideal passen. Sobald aber leicht andere Daten verwendet werden, sind die Ergebnisse nicht mehr so gut.

Mit der variablen Komponente hingegen erhält sie die Fähigkeit, auch bei unerwarteten Daten sinnvolle Ergebnisse auszugeben. Und das ist auch das Spannende: Warum das funktioniert.

Daneben ist das auch ein gewünschtes Verhalten. Der Zufall wirkt natürlicher. Menschen antworten auf dieselbe Frage auch nie 100% gleich. Aber inhaltlich ist es doch jedesmal sehr ähnlich.

Eigentlich ist das Thema total interessant, aber hier herrscht ein Ton, wie auf dem Schulhof. Verstehe nicht, warum diese Diskussion hier immer wieder so abdriften muss. Kann doch nicht so schwer sein, einen anderen Standpunkt anzuerkennen, ohne persönlich zu werden? Der andere Standpunkt hat ja irgendeinen Grund und der wurde nicht ausgewürfelt.

Nun ja, ich glaub ich klink mich dann aus.

Schade. Aber dennoch schon mal einen entspannten Sonntag!
 
Hmm, das scheint mir eine gute Beschreibung Deiner anekdotischen Einwürfe hier zu sein - von 'Intelligenz, Verstehen' bis zu Kindernetzwerken in HTML. Ganz zu schweigen von den persönlichen Beleidigungen, die Du immer häufiger einstreust, wenn jemand Deine (Dir so erscheinenden) Wahrheiten nicht teilt.

Dafür, dass sie die Energie einer mittleren Großstadt brauchen und mehr Transistoren enthalten als unser Hirn Neuronen, können die AI ganz schön wenig, halluzinieren zT grotesk (siehe mein obiges Beispiel) und versagen, wenn das Datenmaterial zu einer Aufgabe gering ist (dto.).

Also bitte etwas mehr Selbstbeherrschung; tut auch Fanboys gut.

---

Wieso glauben übrigens alle, dass Intelligenz beliebig nach oben skalierbar ist? Dass die derzeitigen Modelle diejenigen sind, die demnächst eine Strong AI (oder gar, für Fanboys, 'Singularität') werden?

Wow, das hatte jetzt mal Substanz. Applaus. Ein wahrer Informationsgewinn deinen Text, er zeugt von hoher Intelligenz und viel Datenmaterial.
 
Du hast afair weiter vorne von etwas gesprochen dass auf den selben Input jeweils einen anderen Output reagiert, jetzt erklärst du mir was das auf unterschiedlichen Wegen zum selben Output kommt.

Natürlich kommt man auf ganz unterschiedlichen Wegen Problemlos zum selben Ergebnis, was genau soll das beweisen? Wie dein Neuronale Netz die jeweiligen Daten/Zustände bewertet kann ich Anhand deiner Bilder und Beschreibungen nicht erkennen, es entstehen Daten beim Lernprozess und müssen ja irgendwo gespeichert werden.
Es ist ja jetzt keine neue Erkenntnis dass man auf unterschiedlichen Wegen zum selben Ziel kommen kann. Ich bringe mal wieder ein Beispiel aus dem Sound Bereich, ich kann den selben Sound auf ganz unterschiedliche Arten erzeugen und trotzdem analysieren wie der Sound gebaut wurde.

Zumindest nicht ohne die Daten die du entweder nicht kennst oder verschweigst.

Wenn du die Parameter/Variablen meinst dann habe ich die im HTML/Javascript für jeden Knoten ausgegeben, wollte hier nur nicht zig Bilder hochladen. Soweit ich das verstehe ist dein Argument, dass wir alle Parameter der Knoten kennen und somit auch verstehen und nachvollziehen können wie ein LLM denkt und warum auf Frage X Antwort Y folgt und das man mit der Software entscheiden kann was das LLM „denkt“. Man also gezielt bestimmte Parameter einstellen kann, so dass man Antwort Z erhält.

Ziemlich viele kluge Köpfe zerbrechen sich gerade die Köpfe wie wir das erreichen können was du dir vorstellst, bis jetzt hat es noch keiner geschafft.
 
@Martin Kraken

Aber wir haben eben einen Vorteil, der so massiv ist...
Die emotionale Komponente... Daraus ergibt sich ein Gewissem...
Eine jetzige KI kann ich trainieren wie ich will, sie wird immer eine Variatiom kreieren aus dem Fundus meines "Trainings"...
Deswegen ist es ja so einfach, Chatbots zu überlisten, weil diese eben nicht selber denken sondern nur mit dem trainierten Wissen agieren...Das gilt auch für die ganzen Musik AI Tools...
Die Ki hat keinen freien Willen... Wenn ich ein Modell nur mit rechtradikalen Websites,Texten usw. trainiere, ist sie der perfekte Nazi... Die KI hinterfragt nicht, reflektiert nicht...
Und das ist aber ein fundemantaler Punkt in unserer gesamten Entwicklung...oder nicht?

Wenn man in einem kleinen Dorf in Sachsen aufwächst ist die Wahrscheinlichkeit auch höher ein Nazi zu werden. Ob wir einen freien Willen haben ist auch stark umstritten. Ist halt auch die Frage, was ein freier Wille überhaupt ist. Wo vor die AI Kritiker Angst haben ist ja, dass die AI einen „freien Willen“ hat und Dinge macht die uns umbringen. Bei einer AI wissen wir mit Sicherheit, dass ihr „freier Wille“ nur ein Mix aus der Kombination aller Informationen und Zufall ist.
 
Ganz zu schweigen von den persönlichen Beleidigungen, die Du immer häufiger einstreust, wenn jemand Deine (Dir so erscheinenden) Wahrheiten nicht teilt.
ist doch wirklich nix neues....gähn.

vielleicht sollte er seinen eigenen "ich" fred aufmachen mit ki als antwort bot... :frolic:
 
Zuletzt bearbeitet:
Wenn du die Parameter/Variablen meinst dann habe ich die im HTML/Javascript für jeden Knoten ausgegeben, wollte hier nur nicht zig Bilder hochladen. Soweit ich das verstehe ist dein Argument, dass wir alle Parameter der Knoten kennen und somit auch verstehen und nachvollziehen können wie ein LLM denkt und warum auf Frage X Antwort Y folgt und das man mit der Software entscheiden kann was das LLM „denkt“. Man also gezielt bestimmte Parameter einstellen kann, so dass man Antwort Z erhält.

Ziemlich viele kluge Köpfe zerbrechen sich gerade die Köpfe wie wir das erreichen können was du dir vorstellst, bis jetzt hat es noch keiner geschafft.
Prinzipbedingt läuft der Lernprozess der K.I. evolutionär ab, in der Natur bestimmt die Umgebung die Resultate während bei einer K.I. Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden. Man hat also die Wahl an diesen beiden Stellschrauben (Code/Lerndaten) zu drehen um ein bestimmtes Ergebnis zu erreichen - beim LLM könnte das auch ein Bereich sein, vielleicht weil Sprache etwas sehr subjektives ist - wie man unter anderem bei unsere Diskussion merkt.
Das es K.I. Modelle gibt bei der (laut Wikipedia Eintrag zu einer von dir in einem Zitat erwähnten K.I.) ein anderes Modell während des Lernprozess sowas wie eine Überwacher K.I. einsetzt um bei das Ergebnis zu kontrollieren hatte ich weiter vorne schon geschrieben.
Ich nehme an du nutzt Software die du selbst nicht geschrieben/codiert hast und wunderst dich über die Ergebnisse? ;-)
 
ist doch wirklich nix neues....gähn.

vielleicht sollte er seinen eigenen "ich" fred aufmachen mit ki als antwort bot... :frolic:

Na jetzt aber mit vereinten Kräften, hihi.

Prinzipbedingt läuft der Lernprozess der K.I. evolutionär ab, in der Natur bestimmt die Umgebung die Resultate während bei einer K.I. Software/Code bestimmt wie die Daten verarbeitet und gewichtet werden.

Bei beiden gibt es zwei Ebenen. Einmal den Bauplan nach dem gelernt wird (Gehirn/Software), das entscheidende für das Resultat ist aber die andere Ebene, das paar aus Input und Ziel. Beim Menschen ist der Input die Umwelt, die wir mit unseren Sinnen wahrnehmen und das Ziel ist intrinsisch codiert in unserer DNA (z.B. Schmerzrezeptoren etc.). Bei einem LLM ist Input UND Ziel in den Texten mit denen das LLM gefüttert wird codiert. Nicht in der Software! Die entscheidenden Faktoren für ein LLM sind also Input/Ziel/Zufall.

Für die Software ist das Netz auch eine Blackbox, deshalb kann man den Loss nach einem Epoch nicht sofort auf 0 setzen (ist jetzt sehr vereinfacht ausgedrückt)

. Man hat also die Wahl an diesen beiden Stellschrauben (Code/Lerndaten) zu drehen um ein bestimmtes Ergebnis zu erreichen -

Der Code selbst enthält keine Zielvorgaben. Das ist der Unterschied zu einem klassischen Programm, deshalb spricht man auch davon, dass ein LLM nicht programmiert ist.

Ich nehme an du nutzt Software die du selbst nicht geschrieben/codiert hast und wunderst dich über die Ergebnisse? ;-)

Was willst du damit zum Ausdruck bringen, dass die die LLMs programmiert haben wissen warum jeder Parameter im Netz einen bestimmten Wert hat, weil man ja einfach nur den Code analysieren muss? Ein neuronales Netz ist kein klassisches Programm. Nach dem Training kann man einfache Netze in klassische Programme umwandeln, verstehen kann man sie dann trotzdem nicht, denn das „Geheimnis“ steckt in der Kombinatorik der einzelnen Variablen. Es ist ja nicht so, dass ich das erfunden habe, dass das NN eine Art Blackbox ist, die man vielleicht theoretisch entschlüsseln könnte, dies aber praktisch nicht geht.
 


Neueste Beiträge


Zurück
Oben