Eine KI hat keine Seele und kommt auch nicht in den Himmel, wenn sie mal stirbt, da die Server abgeschaltet werden...
So einfach ist das...
Wenn man mal vom Offernsichtlichen ausgeht und theoretische Konzepte wie Seele oder Himmel ausser Acht lässt, ist auch bei uns Schluss wenn mal der Server abgeschaltet wird.
Von Wunschdenken versuche ich jetzt mal Abstand zu halten und das, was gerade passiert, möglichst objektiv zu beurteilen.
Ich glaube viele haben immer noch nicht richtig verstanden wohin uns die Technik gerade führt.
Wie verschlüsselt und sendet denn das menschliche Gehirn eine Message, und wie entschlüsselt es der Empfänger?
Zuerst mal brauchen beide denselben Code.... Sprache, kultureller Hintergrund etc...
Dann will der Sender eine Nachricht senden... lassen wir in der Musik die Qualität der Message mal ausser Acht, geht das von "Hoch die Tassen Drecksauparty" bis hin zu epischen Stücken ganz ohne Worte, die einfach nur auf die Gefühlswelt zielen.
Wir dürfen nicht vergessen dass wir im Moment bei Musik-KI noch zwei verschiedene KIs beteiligt haben, einen "Texter" ( meist ChatGPT ) und einen "Komponisten" ( also Udio, Suno... ) und beide sich über die zu erstellende Musik einig sein müssen. Das klappt, wenn man nicht durch Prompts irgendetwas anderes will ( also z.B. dediziert einen fröhlichen Text auf Deprimierende Musik ), schon erstaunlich gut.
Das menschliche Gehin, auch nur eine "Maschine" ( allerdings deutlich komplizierter und fähiger... noch ) ist bei Geburt erstmal blank. Es lernt dann Stück für Stück, in einem Prozess der Jahre dauert, seinen Code.
Natürlich in jeder Beziehung des Lebens, nicht nur Musik oder Video ( wie die spezialisierten KIs der aktuellen Ausbaustufe ).
Die "Message" die wir in einem Musikstück verpacken ist eine Exzerpt aus unserem Gelernten, unseren Erfahrungen, dem was uns "beschäftigt" ( also meist den ungelösten Problemen mit denen unsere Schaltkreise gerade noch kämpfen ).
Diese "Message" die wir so codieren, kommt natürlich bei jenen am Besten an die den übereinstimmendsten Code zum Entschlüsseln besitzen.... also am ehesten diejenigen die eine ähnliche Lern- und Erfahrungskurve hatten und derer Schaltkreise gerade mit denselben Problemen beschäftigt sind. Die können diese "Message" am besten decodieren.
Aus dieser Kommunikation kann jetzt durch leicht verschiedene Interpretation und "Impfung" des Empfängers bei diesem neue Musik entstehen, wenn er Musiker ist.
Allerdings braucht er dazu nicht nur das gesendete Stück, sondern alle Stücke die er vorher schon gelernt ( gehört ) hat, auch und besonders welche die der Sender gar nicht kannte, als er sein eigenes codiert hat.
Der Empfänger wird dann wiederrum zum Sender und "impft" andere.
KIs können IM MOMENT nur senden. Eine KI kann noch nicht beurteilen ob ein Musikstück gut oder schlecht ist, weil die entsprechende Empfängercodierung fehlt.
Nehmen wir jetzt an, auch das wird demnächst in eine KI eingearbeitet ( was durchaus möglich ist, mit entsprechendem Aufwand ).
ich könnte beispielsweise einer KI sagen "du bist jetzt ein durchschnittlicher grenzdebiler mittelalter Volksfestbesucher und willst laut mitgrölen, beurteile bitte meinen gewollt sexistischen Song ob der da zündet"
Oder "du bist jetzt ein mit MDMA vollgestopfter Jugendlicher in einer Disco", "Du bist 17, sitzt daheim, dine Umgebung ist soundso, dein Viertel eher Getto, Liebeskummer" etc.
Solche Ansätze werden bereits durchaus verfolgt, um KIs das "Halluzinieren" auszutreiben.
Dieser KI könnte jetzt eine andere KI einen Song vorspielen ( die codierung und gewünschte entcodierung unscharf mitgeschickt ), und daraus wiederrum lernen.
KIs könnten somit unabhängiger vom "erstmaligen" Training ( oder Prägung wie wir das bei Menschen nennen würden ) durch interaktion neue Stücke generieren.
Im Augenblick sieht das noch so aus, dass Udio z.B. in einem ersten Schritt das Feedback dadurch bekommt und weiter lernt, indem die menschlichen Hörer/Ersteller dadurch Feedback geben dass sie bestimmte erstellte Stücke veröffentlichen und dann andere diese bewerten.
Was jetzt fehlt, möchte man meinen, ist die Empfängercodierung.
Aber... Google hat deine Empfängercodierung ziemlich genau wenn du dich z.B. mit deinem Googleaccount einloggst. Genauso wie Facebook. Die wissen mehr über dich als jeder menschliche Empfänger.
Eine Google KI KÖNNTE Musik, Texte, Videos auf dich genauso zuschneiden wie Werbung.... und diese Musik mit subtiler Werbung "impfen" und sich dadurch monetarisieren.
Diese KI KÖNNTE auch andere Botschaften verstecken. und nicht nur Musik, auch Video, Texte könnten noch EXAKTER auf dich zugeschnitten werden. Nicht nur dass dir Youtube/Tictoc/Facebook jetzt schon fast ausschliesslich Inhalte die du wahrscheinlich mögen wirst zeigt die von anderen erstellt wurden, in Zukunft wird irgendwann eine KI diese Inhalte instantan auf dich zugeschnitten produzieren.
Weshalb sind es denn genau diese Plattformen die hinter jeder grösseren KI stehen?
Dass KI das jetzt noch nicht tut, ist nur ein aktueller Zustand der Technik.
Eine KI hat das theoretische Potential, besser als jeder menschliche Komponist einen Song auf den Hörer zuzuschneiden. Einen Song erstellen zu können der EXAKT wie eine bestimmte Band klingt, wie DM aus dem Beispiel, ist eher ein Unfall.
Statt jetzt einem Sender/Codierer ( aktuell einem oder mehrerer Musiker ) der seinen eigenen Code einarbeitet und hofft möglichst viele Empfänger damit zu erreichen, werden die Empfänger mit EXAKT dem bedient werden können was sie im Moment erwarten/brauchen. Das ist dann das, was menschliche Musiker, die NICHT Live spielen, komplett überflüssig machen würde.
Ob das jetzt GUT ist, ist eine völlig andere Frage ( und sicher zu verneinen ), aber darum geht es jetzt ja hier nicht. Im Moment nehmen wir ja nur erstmal auf was gerade passiert und mögliche Auswirkungen.
Der grösste Vorteil den wir haben werden sind Live Performances, das wird keine KI so rüberbringen können. Auf absehbare Zeit.
Und darauf sollten wir uns konzentrieren.