Ist die KI eine Bedrohung für Musiker?

Klar, das „falls zutreffend“ bezog sich auf das „mit Absicht“.
Falls nur Programmierung, dann keine echte, zur Entwicklung/ Selbstoprimierung fähige KI.
 
Die Pflanze hat zB physischen Stress durch Fraß, und sondert Pheromone ab die Insekten anlocken die den Fraßfeind wiederum attackieren.
Du kannst ja nicht wissen, ob die Pflanze absichtsvoll "handelt". Vielleicht reagieren die Insekten auf die Stresspheromone der Pflanze, da sie ihnen den Aufenthaltsort ihrer Beute verraten. Dass diese Pflanzen einen Selektionsvorteil haben, da sie so von Fraßfeinden befreit werden, ist dann eine Sache von Ursache und Wirkung.

Genauso ist unsere natürliche Intelligenz stark triebgesteuert und damit abhängig von Umwelteinflüssen. Sie ist nicht dazu geeignet, echte KI hervorzubringen, eher dazu, sich einzubilden, dass ihre Funktion und ihre Werke irgendwas mit Magie zu tun haben.

Aber wir Menschen wissen wirklich enttäuschend wenig über die Zusammenhänge unserer Ökosysteme. Ökologen meine ich damit nicht. Dass Ökologie ein Spezialfach ist, das ist der Fehler. Biologie/Ökologie müsste genauso wichtig sein im Schulkanon wie Deutsch und Mathematik. Scheiß auf Zitronensäurezyklus und ATP/ADP-Kreislauf, das ist wieder zu detailliert. Das könnte uns eher retten als Windrad und mit hybriden SUVs die Straßen zu verstopfen.

Dass Erich Honecker in seiner Rede bei Apple mit keinem Wort die Arbeiter und Bauern oder irgendein Fünfjahresplanziel erwähnt, ist bemerkenswert. ChatGPT ist halt darauf programmiert und trainiert, Scheinwissen zu verlautbaren. Könnte man sie auch fragen, ob ihr selber auffällt, was für nen Quark sie schreibt?

ChatGPT-Texte zu posten ist halt wie Inzest: Die nächste Generation KI-Lernbots wird mit einem erhöhten Anteil von KI-generierten Texten gefüttert sein. Rechnet selber hoch wohin das führt.
 
Vielleicht reagieren die Insekten auf die Stresspheromone der Pflanze, da sie ihnen den Aufenthaltsort ihrer Beute verraten. Dass diese Pflanzen einen Selektionsvorteil haben, da sie so von Fraßfeinden befreit werden, ist dann eine Sache von Ursache und Wirkung.
ja das lässt sich nicht trennen in einen Akteur und Aktiviertem. usw
So meinte ich das auch.

Und ich denke auch dass in der Schule andere Dinge anders gelehrt werden müssten.
Die nächste Generation KI-Lernbots wird mit einem erhöhten Anteil von KI-generierten Texten gefüttert sein. Rechnet selber hoch wohin das führt.

Es werden sich evtl wohl neue sprachliche Eigenheiten entwickeln.
ZB haben ja alle Sprachen ihre spezielle Art, die sich auch im Satzbau, in der Art der Aufteilung in Sätze und nicht zuletzt in dem was überhaupt gesagt wird zeigen.

Genauso wenig wie ein Übersetzter das immer perfekt unter einen Hut kriegt kann das die KI die allenfalls zum selben Schluss kommen kann.
Deswegen wandern dann Eigenheiten der KI in die Sprache, statt Germanismen und Anglizismen AI- ismen.

Interessant finde ich dass man das Problem jetzt schon sieht, denn man lässt die Artikel zum Thema eben genau von der KI schreiben die dann die gelernte 0815 Propaganda vom Journalisten den sie nur unterstützt enthält.
Von den ganzen Problematiken die wir hier finden keine Rede.
Deutlicher könnte der Journalist der sich da im Sessel zurücklehnt seine Obsoleszenz gar nicht zeigen. Nur merken tut er nix.
 
Zuletzt bearbeitet von einem Moderator:
ChatGPT-Texte zu posten ist halt wie Inzest: Die nächste Generation KI-Lernbots wird mit einem erhöhten Anteil von KI-generierten Texten gefüttert sein. Rechnet selber hoch wohin das führt.
Daher find ich die Überlegungen zur Kennzeichnungspflicht für KI erstellte Werke, gar nicht mal so verkehrt, auch wenn sich dies natürlich nur schwer bzw gar nicht in der Praxis umsetzen lässt.
 
Nicht dass das gleiche passiert wie mit dem " made in Germany ".
Was als Bestrafung der Alliierten gedacht war, wurde zu einem Synonym für Qualität.

Vielleicht ist eines Tages made by KI ein Qualitätssiegel, das automatisch menschengemachte Musik abwertet?
 
Weiss auch gar nicht was Du @Cee meinst ehrlich gesagt.

Mir ist nur ein merkwürdiges Deutsch ("ich bin der Treibende Kraft") aufgefallen, das nicht zum sonst ziemlich einwandfreien Sprachoutput des Bots* passt. Da dann mit Allgemeinplätzen ('Fehler passieren nunmal") oder offensichtlichem Unfug ('der Kraft' sei halt Genitiv) herzukommen, nervt nur, das ist Gelaber.

* ChatGPT stammt aus einer Serie von Language Models und könnte uns über die Grammatik einer Nominalphrase zutexten, bis uns schwindlig wird
 
meines Wissens, und ich denke das ist eben auch was @schnuffke2 zu vermitteln sucht,
haben diese Art von Sprachmodellen mit expliziter Grammatik gar nicht so viel zu tun.

Genau so wie die advancten Go Programme von heute eben gar keine Regeln für Go abgespeichert haben.

Auch ein Musikprogramm, um ein bisschen zum Thema zurückzukommen, muss keine Tonarten oder Takte kennen.
Es reichen die Beziehungen zwischen vorangegangenen und folgenden Noten.

Diese ganzen Bildsynthesen kennen auch keine Theorie zur Bildkomposition und berechnen keine vorprogrammierten goldenen Schnitte, die lernen sie aber aus dem Trainingsnaterial.
Wenn das keine goldenen Schnitte sondern nur Schachbrettmuster hat kommen da auch keine raus.

Oben hatte @Moogulator ein Programm verlinkt dass mit Stable Diffusion Musik machen soll, also mit einer Bildsynthese Engine.
Die weiss zB gar nix von Musik. Die analysiert und synthetisiert 2D Arrays.
Kanten, Flächen, Verläufe, Linien, das ist was im ersten Layer da analysiert wird zB, und auch was synthetisiert wird.
Hört sich nur "zufällig" wie Musik an weils halt mit Spektrogrammen und nicht Picasso gefüttert wurde.
 
Ein NN kann man auch als eine u.U. (in diesem Fall ganz sicher) extrem komplexe Funktion (es ist ein riesiges Gleichungssystem, dessen einzelne Gleichungen zwar simpel sind, das seine Komplexität aber aus der schieren Anzahl von diesen erhält) ansehen, welche zu einem Input den "passenden" Output herausgibt. Die internen Parameter dieser Funktion werden durch vielfaches Austesten des Netzes nebst Auswertung des Outputs schrittweise so justiert, dass sich ein immer "passenderer" Output ergibt. Die Justierung erfolgt selbständig nach einem Algorithmus. Das nennt man Training.

Auch wenn der Großteil der Ausgaben hier grammatikalisch korrekt ist, so ist die gesamte Funktion doch dermaßen komplex, dass es bei bestimmten Konstellationen immer noch zu Fehlern kommen wird. Das könnte einfach an so etwas Blödem wie einer bestimmten Formulierung bei der Eingabe liegen, woraufhin vllt. Teile der Funktion verbunden werden, die noch nicht gut "zusammenarbeiten". Es sind halt längst nicht alle internen Parameter von GPT optimal angepasst. Dem Netz kann gerne mal ein Lapsus unterlaufen, welcher dann eben negativ hervortritt.

Da dann mit Allgemeinplätzen ('Fehler passieren nunmal") oder offensichtlichem Unfug ('der Kraft' sei halt Genitiv) herzukommen, nervt nur, das ist Gelaber.
Beide Zitate sind eine Verballhornung meiner Aussagen und entspringen in dieser Form deiner Phantasie.

Ich schrieb, dass solche Fehler bei NNs technisch bedingt seien, was ich eben nochmal etwas näher beschrieben habe. Frage das nächste Mal doch einfach nach, wenn Du etwas nicht verstehst (Was meinst Du mit "technisch bedingt"?), statt gleich auf Konfrontation zu gehen.

In den Genitiv gesetzt, heißt es "der Kraft". Es gibt also viele Textstellen in der weiten Textlandschaft, an denen die beiden Wörter "der" und "Kraft" zusammenstehen und beim Training vom NN auch zusammen verarbeitet werden. Wann es "die Kraft" und wann "der Kraft" heißt, muss von Fall zu Fall (hier sogar wörtlich gemeint) entschieden werden. Dabei kann es - wie hier geschehen - zu Fehlern kommen.
 
Zuletzt bearbeitet:
meines Wissens, und ich denke das ist eben auch was @schnuffke2 zu vermitteln sucht,
haben diese Art von Sprachmodellen mit expliziter Grammatik gar nicht so viel zu tun.

Genau so wie die advancten Go Programme von heute eben gar keine Regeln für Go abgespeichert haben.

Auch ein Musikprogramm, um ein bisschen zum Thema zurückzukommen, muss keine Tonarten oder Takte kennen.
Es reichen die Beziehungen zwischen vorangegangenen und folgenden Noten.

Diese ganzen Bildsynthesen kennen auch keine Theorie zur Bildkomposition und berechnen keine vorprogrammierten goldenen Schnitte, die lernen sie aber aus dem Trainingsnaterial.
Wenn das keine goldenen Schnitte sondern nur Schachbrettmuster hat kommen da auch keine raus.

Oben hatte @Moogulator ein Programm verlinkt dass mit Stable Diffusion Musik machen soll, also mit einer Bildsynthese Engine.
Die weiss zB gar nix von Musik. Die analysiert und synthetisiert 2D Arrays.
Kanten, Flächen, Verläufe, Linien, das ist was im ersten Layer da analysiert wird zB, und auch was synthetisiert wird.
Hört sich nur "zufällig" wie Musik an weils halt mit Spektrogrammen und nicht Picasso gefüttert wurde.
Vorsicht an alle - was alles so als KI oder ML läuft ist halt nicht immer das was maximal denkbar ist.
Und die Technik dazu ist massivst verschieden - so passt auch der Vergleich zu Eliza in verschiedenen Versionen bis hin zu Big Data Stacks und ML Kram, was auch eher Big Data viel reinwerfen ist und Mustererkennung bis hin zu Neuronalen Netzen und reinen Logikdatenbanken wie etwa in Lisp und anderen "KI-Sprachen".
Das Level ist also nicht gleich - und natürlich ist sowas wie Arper und Co keine KI sondern eine simple Mechanik - es geht hier natürlich schon um einfach massiv viele Daten und Anweisungen oder besser Verknüpfungen und Regeln.
Die sind nur komplexer und wirken manchmal "intelligenter" - aber es sind meist doch Bausteine und Elemente aus Datensätzen.

Daher antwortet die KI auch sehr gern "nachvollziehbar" und mit Trick noch mit Variation.
 
Stichwort algorithmische "KI Sprache": PROLOG.
Faktenbasiertes Expertensystem, dafür geschaffen und eingesetzt worden z.B. um Kernschmelzen zu verhindern. Theoretisch. Und aber keine KI.
 
Expertensysteme sind halt auch eher Logik-Datensätze und Regeln.
Das fand ich bereits sehr spannend in meiner Computerjugend.
Aber heute macht man das auch anders und nutzt halt auch andere Begriffe.

Prolog gehört eher zu "old school" und genau zu dem Zweck - denke openAI ist auch eher sowas.
Das macht aber trotzdem Dinge hier und da besser als Siri jetzt. Das ist als Wikipedia quasi schon ganz gut und als Hilfe wie man vorgehen kann so man eben davon aus gehen kann, dass das Teil schon genug Optionen kennt.

Heisenbergkompensatoren
EPS Verteiler
Plasmarelais
 

Prolog gehört eher zu "old school" und genau zu dem Zweck - denke openAI ist auch eher sowas.
Prolog oder besser die Programmierung von Expertensystemen ist eindeutig dem Gebiet "Künstliche Intelligenz" zuzuordnen, auch wenn das zur Zeit vllt. nicht en vogue ist.

OpenAI ist ein Unternehmen, welches den Einsatz von Neuronalen Netzen für verschiedene Aufgabenstellungen erforscht. Deren Produkte unterscheiden sich deutlich von der "old school".
 
Das ist was man bisher als KI bezeichnet, aber das was man als Intelligenz bezeichnet sollte man eben nicht auf zu hohe Glocken hängen. Ja, sehe das genau so, meine Beiträge zeigen hoffentlich, dass man diese Dinge deutlich unterscheiden kann und sollte. Expertensysteme ist das klassische KI Ding - aber eben in einer "älteren" Form.

Es gibt eine noch größere Reihe von Lösungen und Ansätzen, die eben mir noch keinen Schauer entlocken - aber die ggf. in der richtigen Hand auch nicht gut genutzt werden kann oder könnte.
 
In den Genitiv gesetzt, heißt es "der Kraft". Es gibt also viele Textstellen in der weiten Textlandschaft, an denen die beiden Wörter "der" und "Kraft" zusammenstehen und beim Training vom NN auch zusammen verarbeitet werden. Wann es "die Kraft" und wann "der Kraft" heißt, muss von Fall zu Fall (hier sogar wörtlich gemeint) entschieden werden. Dabei kann es - wie hier geschehen - zu Fehlern kommen.

Siehst Du, deswegen bleibe ich beim Picard. Denn entweder heißt es "der treibenden Kraft" oder "die treibende Kraft", aber nicht "der treibende Kraft" (und natürlich wird "treibende" kleingeschrieben).

Im Englischen macht er die typischen Forumsfehler (there und their verwechseln, nicht wissen, wann it's und wann its verwendet wird, falsche Vergangenheitsformen usw.) nicht. Das wird offenbar beim Training (und bei der Ausgabe sowieso) abgefangen. KIs erzählen gern mal Stuss, aber in guter Grammatik. Aber nicht andersrum...

Daher meine Verwunderung über sein Deutsch. Weiß leider auch nicht mehr über den Aufbau von ChatGPT als Du.
 
Ich fass es für Dich ganz grob zusammen:
hier wird AI mit AI in einen Toof geworfen.
Und zwar AI zur Steuerung von autonomen Robotern mit AI von Chatbots.
Weil beides zusammenwächst.

Die Bedrohung wird nicht darin gesehen dass die AI Bewusstsein hätte.
Das wird auch gar nicht behauptet.
Sondern darin dass sie unberechenbar und autonom ist, und mit ( potentiellen ) Waffen ausgestattet.
Die Bewusstseinsfrage (die sich so gar nicht entscheiden lässt, siehe die Diskussionen über Bewusstsein anderer Lebewesen) spielt dafür genau gar keine Rolle.

Hat eine Hornisse Bewusstsein, oder ein Hai? Abgesehen davon dass das auch eine Begriffsdefinitionsfrage ist, spielt das bei der Gefahr nur eine untergeordnete Rolle.

Und eine AI kann auch OHNE Bewusstsein zu dem Schluss kommen dass es sinnvoll ist zu töten oder zu lügen. So wie die OpenAI AI das oben im Video unerwarteter Weise macht.

Es gibt ernsthafte Untersuchungen zu dem Thema die zu eben dem Schluss kommen
dass eine AI das tun wird, wenn Anreize dazu da sind, und Anreize dazu können immer da sein, nur nicht immer offensichtlich.


Hab mir jetzt nur die ersten zwei Minuten vom zweiten Video angeschaut
Hast Du Chat GPT mal ausprobiert?
 
Zuletzt bearbeitet von einem Moderator:
Ich fass es für Dich ganz grob zusammen:
hier wird AI mit AI in einen Toof geworfen.
Und zwar AI zur Steuerung von autonomen Robotern mit AI von Chatbots.
Weil beides zusammenwächst.

Die Bedrohung wird nicht darin gesehen dass die AI Bewusstsein hätte.
Das wird auch gar nicht behauptet.
Sondern darin dass sie unberechenbar und autonom ist, und mit ( potentiellen ) Waffen ausgestattet.
Die Bewusstseinsfrage (die sich so gar nicht entscheiden lässt, siehe die Diskussionen über Bewusstsein anderer Lebewesen) spielt dafür genau gar keine Rolle.

Hat eine Hornisse Bewusstsein, oder ein Hai? Abgesehen davon dass das auch eine Begriffsdefinitionsfrage ist, spielt das bei der Gefahr nur eine untergeordnete Rolle.

Und eine AI kann auch OHNE Bewusstsein zu dem Schluss kommen dass es sinnvoll ist zu töten oder zu lügen. So wie die OpenAI AI das oben im Video unerwarteter Weise macht.

Es gibt ernsthafte Untersuchungen zu dem Thema die zu eben dem Schluss kommen
dass eine AI das tun wird, wenn Anreize dazu da sind, und Anreize dazu können immer da sein, nur nicht immer offensichtlich.

Einen Bot so zu programmieren, dass er die Asimov’schen Gesetze einhält, indem ein gegenteiliges Ergebnis eines Neuronales Netz ignoriert wird, ist ja wohl das allerkleinste Problem bei der Entwicklung des Bots. Wer das nicht versteht und dann aus dem GPT-Nachplappern von Sci-Fi irgendwelche Horrorszenarien entwickelt, den kann ich einfach nicht ernst nehmen, sorry. Das ist was von Bewusstsein geschrieben habe, hängt damit zusammen, dass nach meiner Interpretation von dem Wort genau solches notwendig wäre, um evtl. die Asimov'schen Gesetze umgehen zu können (wobei ist selbst da skeptisch bin, solange dem Bot nicht die Möglichkeit gegeben wird, sich komplett umzuprogrammieren), und das reine Berechnen von Funktionen (und nichts anderes passiert ja) kein Bewusstsein darstellt. Aber okay, darüber, was Bewusstsein nun wirklich ist, kann man nun natürlich sehr lange philosophieren. Mal abgesehen davon halte ich das Ausrüsten von Bots mit Waffen für eine extrem dumme Idee, denn das Bots von Menschen umprogrammiert werden können, steht natürlich ausser Frage.

Hast Du Chat GPT mal ausprobiert?

Ja, wie schon mehrfach im Thread erwähnt, incl. kopierten Dialogen. Ich habe sogar ein emacs package installiert, um direkt von Emacs auf dieses beim programmieren sehr hilfreiche Tool zugreifen zu können. Und beruflich auch schon ein wenig mit Deep Learning und insgesamt mehr mit ML im allgemeinen zu tun gehabt (allerdings nicht mit Transformern). Warum fragst Du?
 
Einen Bot so zu programmieren, dass er die Asimov’schen Gesetze einhält, indem ein gegenteiliges Ergebnis eines Neuronales Netz ignoriert wird, ist ja wohl das allerkleinste Problem bei der Entwicklung des Bots.
interessant dass du das glaubst, da fragt man sich wozu überhauot NNs.
Ich wüsste zB nicht wie man einen Bot regelbasiert so programmieren könnte dass der Strohmann im nächsten Satz erkannt wird.
Oder auch nur das Trolley Problem.
Ich denke du bist da etwas fundamentalem auf der Spur.^^

Wer das nicht versteht und dann aus dem GPT-Nachplappern von Sci-Fi irgendwelche Horrorszenarien entwickelt, den kann ich einfach nicht ernst nehmen,
und ich kann Leute die in Serie Strohmannargumente aufbauen nicht nur nicht ernst nehmen, die plonke ich wenn das anhält. Sry.
 
Wenn AI so programmiert wurde, dass sie auf Belohnungen reagiert (das Prinzip des lernens) dann wird sie unweigerlich den Programmierer = Mensch töten.
Dazu gab es erste Untersuchungen und Warnungen:
https://www.forschung-und-wissen.de...ligenz-wird-den-menschen-ausloeschen-13376678

Wer des Angelsächsischen hinreichend mächtig ist und seine Wetware mal anregen möchte:

Insbesondere der Vergleich mit dem Hund, der 'Sitz' macht auf Kommando ...

Grüße
Omega Minus
 
interessant dass du das glaubst, da fragt man sich wozu überhauot NNs.
Ich wüsste zB nicht wie man einen Bot regelbasiert so programmieren könnte dass der Strohmann im nächsten Satz erkannt wird.
Oder auch nur das Trolley Problem.
Ich denke du bist da etwas fundamentalem auf der Spur.^^
Mmm, wenn Du so kommst: Vom programmieren hast Du nicht wirklich Ahnung oder? Wo soll das Problem daran liegen, dass ein System überprüft ob das NN auf einen Menschen schiessen will, und dies unterbindet, weil es eine höhere Priorität hat? Aber klar, Dinge nicht verstehen (wollen?) und dann einfach behaupten, es wäre ein Strohmann Argument. Super Diskussionsstil.
und ich kann Leute die in Serie Strohmannargumente aufbauen nicht nur nicht ernst nehmen, die plonke ich wenn das anhält. Sry.
Wenn Du mit plonken die ursprüngliche Bedeutung meinst dann bitte ich doch sehr darum, dass Du mich plonkst, zumindest wenn Du ernsthaft meinst, das wäre ein angemessener Stil.
 


News

Zurück
Oben