Ist die KI eine Bedrohung für Musiker?

Hype ist also Unsinn, ChatGPT ist *keine* generelle AI. Und selbst seine Erfinder sagen, dass es Unsinn wäre, ihn für Wichtiges (wie zB Medizin) einzusetzen. Weil er halt nicht weiß, worüber er textet und zudem oft frei halluziniert...
KI bedeutet nicht ChatGPT. Es gibt noch mehr NNs, darunter auch welche, die in der Medizin eingesetzt werden.

Übrigens reichen wenige Minuten Spielerei mit ChatGPT aus, um an diverse Grenzen zu stoßen. Keine Ahnung, warum Du das Offensichtliche hier ohne Unterlass als große Neuigkeit verkaufst.
 
Gibt es da überhaupt anderslautende Meinungen?

(Die Grenzen von GPT sind so offensichtlich, dass ich diese auch eher faktisch vorhanden nennen würde.)
 
Zuletzt bearbeitet:
Okay ... dann reden wir, was den Begriff "Hype" oder überhaupt die Einschätzung des Themas KI angeht, aneinander vorbei, glaube ich.
Weiß nicht. Ob das Thema KI gehypet wird oder nicht, ob wirklich was hinter dem Hype steckt oder nicht -- die Art und Weise, wie sich so viele Menschen danach sehnen, dass ihnen die Maschine auch noch das letzte Fitzelchen geistige Tätigkeit erleichtert, veranlasst mich zynisch zu werden und zu denken, dass es doch im Prinzip gar nicht so schlecht wäre, wenn das alles mit Pauken und Trompeten den Bach runtergeht. Schade, dass ich mir Genugtuung nicht werde leisten können, da ich zu gegebener Zeit auch mit Überleben und Todesangst beschäftigt sein werde.

Profaner Einzeltod oder kollektiver Weltuntergang ist für jeden Betroffenen doch eh einerlei. Aber wenigstens hat er oder sie noch nett mit ChatGPT geplauscht.

Wir werden es weder mitkriegen noch verhindern können, wenn KIs ihr eigenes Zeug wiederkäuen. Die Qualität ihres Outputs muss über kurz oder lang stagnieren, und abnehmen. Diese Stagnation rechtzeitig zu erkennen, würde Klugheit voraussetzen, die aber nicht mehr in genügender Menge vorliegt.
 
Gibt ja Unternehmen die auf riesigen Bergen aus menschgemachtem Content aus vor KI Zeit sitzen.
Häufig wurde gefragt was deren Geschäftsmodell eigentlich ist.
Vielleicht haben die das Problem ja vorausgesehen.
 
Der Unterschied zwischen "bis heute nicht" und "niemals" sollte eigentlich nicht erklärungsbedürftig sein.

Mal abgesehen davon, ist ein übliches NN keine Simulation eines biologischen Gehirns, weshalb Vergleiche eh müßig sind. Viele Aufgaben, die ein Gehirn erledigt, muss so ein Netz gar nicht beherrschen.

wenn es darum geht es zu ersetzen, muss es genau das eben schon.

wenn es nur um 3 + 3 = 8 geht (oder waren es 9?), dann sind rechner in der tat schon fast 80 jahre schneller wie unser gehirn.

von NN hat auch niemand etwas gesagt. und wenn solche software schon alles könnte, was wir von ihnen haben wollten, dann hätten wir sicher keine neuromorphen chips gebaut. die können das nämlich viel besser als andere chips, mit klassischen halbleitern kommt man bei der musterkennung nicht sehr weit.

der wesentliche unterschied ist vor allem das lerntempo. bring mal einem computer bei seine hände so zu bewegen wie ein mensch es kann, damit wir atonome roboter bauen können. da forschen wir jetzt seit zig jahren dran. ein kind lernt das von ganz alleine, ohne dass man ihm das zeigen muss.
 
mein Verstand sagt mir daß die Köche vieeel mehr verdienen! (so passts besser)

dein verstand kann die realität aber nicht ersetzen. die kann man nur durch erfahrung kennenlernen.

in der gastronomie gitl der grundsatz je beser du kochst, desto weniger verdienst du.

ab einem gewissen namen des hauses gehen die jungen leute dort nur für das zeugnis arbeiten, und dafür, dass sie dort sehr viel lernen. bis sie dann irgendwann merken, dass diese "chance" nichts weiter als ein trick ist.

in den neunziger jahren hatten wir nicht mal einen manteltarifvertrag und davor lagen die löhne für gesellen bei 2700 DM brutto. LKW Fahrer verdienen das doppelte. und die haben keine 1000 DM und mehr an werbungskosten.

wenn du in der gastromie geld verdienen willst musst du in ein steakhaus in einer touristenhochburg gehen. da hast du dann als küchenleister schon mal deine 10,000 netto. allerdings ist auch das keine 35-stundenwoche.

inzwischen haben sich die löhne verdoppelt - was bei 40% personalmangel auch die letzte chance für das gewerbe ist.


aber dein verstand sagt dir ja auch wie sich die zukunft der KI entwickeln wird.

du bist also sogar schlauer wie eine glaskugel. oder vielleicht sogar schlauer wie eine KI?


"das stimmt ja gar nicht" oder "das geht ja gar nicht" ist ja around here sowieso die standard antwort auf alles. man sollte wohl einfach aufhören andere von der realität überzeugen zu wollen.

das macht jetzt ChatGPT.

"Hallo ChatGPT, wieviel Uhr haben wir?"

"Hallo User. Ur ist eine der ältesten bekannten Stadtgründungen im Zentrum von Mesopotamien im Gebiet des heutigen Irak. Es wurde von den Sumerern als Handelplatz benutzt. Insofern kann ich sie Frage danach, wieviele es davon gibt, nicht korrekt beantworten. Möchtest du meine Schokolade kaufen?"



1679264723858.png
 
Zuletzt bearbeitet:
Eine Gefahr bei ChatGPT & Co sehe ich vor allem bei den massiven Urheberrechts- und Lizenzverletzungen.
Nehmen wir mal ChatGPT als Programmcode-Generator.
Welchen massiven Input an Programmcode kann ChatGPT wohl gehabt haben?
Die benötigten gigantischen Mengen an Trainingsdaten für ein derartiges Large Language Model können ganz offensichtlich nur aus dem Programmcode gewonnen werden, der offen im Netz zugänglich ist.
Es handelt sich also sehr wahrscheinlich um den Open Source Code auf github und bei ähnlichen Anbietern.
Typischerweise darf solcher Code nur unter Verweis auf die jeweilige Lizenz wiederverwendet werden. Nicht selten ist er aber sogar mit einer Copyleft-Lizenz (wie GPL) versehen und darf daher nur wiederverwendet werden, wenn dies erneut quelloffen und unter einer kompatiblen Lizenz geschieht.
Nun kann man ChatGPT bitten, zum Beispiel ein Gerüst für einen Compressor in JUCE zu schreiben.
JUCE hat eine duale Lizenz, Programme, die quelloffen im Netz stehen, nutzen zwangsläufig die GPL-Lizenz von JUCE und stehen daher selbst unter der GPL.
ChatGPT kann also seine Fähigkeiten, Programmcode für JUCE zu erzeugen, ausschließlich aus GPL-lizenzierten Quellen erlangt haben.
Aber wird es den Nutzer, der sich einen Compressor in JUCE erzeugen lässt, darauf hinweisen, dass dieser Code nur quelloffen genutzt werden darf?
Nein, wird es nicht.
D.h. ChatGPT stellt derzeit eine Hintertür dar, um Inhalte, die unter einer Copyleft-Lizenz stehen, in closed-source-Programmcode überführen zu können, oder generell um Urheberrechts- und Lizenzverletzungen jeder Art zu kaschieren.
Ich finde dies höchst problematisch.
Das obige Beispiel mit JUCE ist nur eines von vielen, und lässt sich über das Thema Programmcode-Generierung hinaus auch auf die textuellen Inhalte im Web übertragen, die Werke mit einer bestimmten Urheberschaft und unter einer definierten Lizenz darstellen.
Zudem sollte klar sein, dass jeder Gedanke, den jemand von uns öffentlich (wie z.B. hier) in Zukunft äußert, in das Language Model einer AI eingehen kann und wird, die diese Inhalte dann in anonymer Form an zahlende Nutzer weitergibt, die sich dieser Ideen frei bedienen und sie als die eigenen ausgeben können.
 
Zuletzt bearbeitet:






 
Zuletzt bearbeitet:
Ich denke ja.
Nicht für mich weil ich ki meine Musik nie machen lassen werde aber es wird noch leichter sein anderen ihren Ideen zu klauen.
Aber bis jetzt fand ich die ki Kopien die ich so hörte beschießen klingend von Kraftwerk oder DM und anderen.
War irgendwie ein komischer Sound von dem ki Programm.
 
We introduce MusicLM, a model generating high-fidelity music from text descriptions such as "a calming violin melody backed by a distorted guitar riff". MusicLM casts the process of conditional music generation as a hierarchical sequence-to-sequence modeling task, and it generates music at 24 kHz that remains consistent over several minutes. Our experiments show that MusicLM outperforms previous systems both in audio quality and adherence to the text description. Moreover, we demonstrate that MusicLM can be conditioned on both text and a melody in that it can transform whistled and hummed melodies according to the style described in a text caption.
 
We introduce MusicLM, a model generating high-fidelity music from text descriptions such as "a calming violin melody backed by a distorted guitar riff". MusicLM casts the process of conditional music generation as a hierarchical sequence-to-sequence modeling task, and it generates music at 24 kHz that remains consistent over several minutes. Our experiments show that MusicLM outperforms previous systems both in audio quality and adherence to the text description. Moreover, we demonstrate that MusicLM can be conditioned on both text and a melody in that it can transform whistled and hummed melodies according to the style described in a text caption.

Wie funktioniert sowas eigentlich technisch? Werden da erstmal MIDI-Sequenzen generiert und dann über irgendeinen Synth /Sampler wiedergegeben?!

Ernstgemeinte Frage. Wie ist der technische Ansatz?
 
weiss ich nicht, vielleicht steht mehr dazu auf der Seite.
ich vermute dass tatsächlich alles aus Neuronalen Netzen kommt, auch der Sound.
 
Was ich auch erschreckend finde ist das die mit ki ganz leicht fake Bilder in Welt setzen können.
Grad ne Duko gesehen drüber.
 
In der Unendlichen Geschichte von Michael Ende, die bis heute in meinem Bücherregal steht und zu meinen liebsten Werken gehört, geht es um das sogenannte Nichts, das Phantásien auflöst. Wer darin verschwindet, wird zur Lüge. Das Nichts ist eigentlich synonym Alles, das der Mensch mithilfe der KI hervorbringen kann: Lügen.

Materie -- Antimaterie.
Energie -- negative Energie.
Wahrheit -- Lüge.

Prophetisch. Kinderliteratur? Mitnichten.
 
Dir geht es darum , dass die heutigen KIs nur sogenannte KI sind, es also noch nichts gibt, was das "Versprechen" der Namensgebung hält. Das ist soweit mir bekannt richtig und da kann ich nicht widersprechen. (Ich glaube allerdings, dass es nur eine Frage der Zeit ist, bis dieses Versprechen eingelöst wird.)
Das menschliche Gehirn entwickelt sich durch seine Interaktion mit der Umwelt. Wie man weiß, beginnt dieser Prozess bereits im Bauch der Mutter. Danach folgt die bewusste Nutzung der Sinnesorgane, usw. Bereits ein kleines Kind ist zu erstaunlichen Dingen fähig, in dem es Dinge erkennt und einordnen kann - und es entwickelt Kreativität und ist in der Lage, Dingen neue Bedeutungen zuzuordnen. Ehrlicherweise wüsste ich nicht, wie das ein "Geist in der Maschine" können sollte, da ihm ja der ganze Weg zur "Menschwerdung" fehlt.
 
der ganze Weg zur "Menschwerdung" fehlt.
Was dieser Weg sein soll weiß ja keiner.
Ist das menschliche Wesen einfach nur ein Haufen Neuronen der wahnsinnig viel Input kriegt? Dann müsste man das mit einem groß genugen Computer nachbilden können.
Oder gibt es eine Seele und der Computer hat sowas nicht? Oder entsteht eine Seele auch im Computer, wenn er nur komplex genug ist?

Diese Frage beschäftigt Philosophen und Theologen. Und selbst wenn wir einen Computer bauen der groß genug ist wüssten wir immer noch nicht, ob er tatsächlich Bewusstsein und Seele und Intelligenz hat, oder ob es nur so aussieht.
 
weiss ich nicht, vielleicht steht mehr dazu auf der Seite.
ich vermute dass tatsächlich alles aus Neuronalen Netzen kommt, auch der Sound.

Habe das zugehörige Paper überflogen. Sie generieren wirklich Audiodaten, ohne den Umweg über Sequenzen in MIDI o.ä. Das Ganze basiert zwar irgendwie schon auf Millionen antrainierten Audiobeispielen, aber die Ausgabe ist wohl echtes generiertes Audio und kein Übereinanderschachteln irgendwelcher Audio-Snippets. Durch einen supereffizienten Kompressionsalgorithmus müssen sie aber nur verhältnismäßig wenig Daten generieren und in den Codec einfüttern um einen relativ hochwertigen Audio-Output zu erhalten. So in etwa verstehe ich das jedenfalls nach 20 Minuten Beschäftigung mit dem Thema...

Hier noch eine Grafik mit den 3 Generierungskomponenten von MusicLM. SoundStream ist dieser Superkompressions-Codec:

3CBE4310-8EB2-4032-B456-40C7A10E8D5B.jpeg

Mehr dazu im Paper: https://arxiv.org/pdf/2301.11325.pdf S. 4 ff.
Ich verstehe da aber ehrlich gesagt nicht allzu viel.
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: Cee
Inzwischen lässt sich eine textbasierte KI (ähnlich ChatGPT) auch lokal nutzen (ohne Internet).
Das Ganze läuft sogar auf ziemlich normalen Gurken und benötigt nicht all so viel CPU/GPU-Power.

 
So, die neue Bitwig Version mit "KI"

Screenshot 2023-04-01 103233.jpg

 


News

Zurück
Oben