Einsatz von AI zum Musik machen

Wir wissen nicht wie eine KI zum Beispiel Hautkrebs erkennt.
Das eine ist die Muster Erkennung in Bildern, das andere die Ähnlichkeiten in den Muster zu finden und mit anderen "negativen" und "positiven" Ergebnissen zu vergleichen. Der Mensch macht sowas mit Erfahrungswerten, die K.I. wendet hier eher Brute Force mit unzähligen Daten an. Ähnliches gabs afair schon Anfang der 90er, wo defekte Dachziegel anhand ihres Klangs von einem Expertensystem erkannt wurde.
Mustererkennung ist praktisch sowas die Kernkompetenz eines Datenverarbeitungssystems, auch wenn die Kombination von unterschiedlichen Funktionen auf den ersten Blick erstaunliche Ergebnisse liefern kann.
 
Das eine ist die Muster Erkennung in Bildern, das andere die Ähnlichkeiten in den Muster zu finden und mit anderen "negativen" und "positiven" Ergebnissen zu vergleichen. Der Mensch macht sowas mit Erfahrungswerten, die K.I. wendet hier eher Brute Force mit unzähligen Daten an. Ähnliches gabs afair schon Anfang der 90er, wo defekte Dachziegel anhand ihres Klangs von einem Expertensystem erkannt wurde.
Mustererkennung ist praktisch sowas die Kernkompetenz eines Datenverarbeitungssystems, auch wenn die Kombination von unterschiedlichen Funktionen auf den ersten Blick erstaunliche Ergebnisse liefern kann.

Das ist nicht der Punkt. Stell dir eine autonome Handy-Fabrik vor. Eine KI entwirft alles, das Handy, die Maschinen die für die Produktion benötigt werden. Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt. Die Menschheit gibt ihr Wissen aus der Hand.
 
Das ist nicht der Punkt. Stell dir eine autonome Handy-Fabrik vor. Eine KI entwirft alles, das Handy, die Maschinen die für die Produktion benötigt werden. Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt. Die Menschheit gibt ihr Wissen aus der Hand.
Das sind mir jetzt zu viele "was wäre wenn" Szenarios, in den div. Serien passieren meist irgendwelche Katastrophen bevor das Wissen in Vergessenheit gerät. Hier im Forum gibt's ja genügen alte Herren die Sachen bauen die man von der Stange viel günstiger und leistungsfähiger bekommen könnte. In der Realität entspricht das in etwa dem Brand der Bibliothek von Alexandria, dabei soll der Menschheit auch 'ne Menge an Wissen verloren gegangen sein, von daher kein reines K.I. Problem.
 
Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt.
Das kann in einer Utopie (z.B. Iain Banks: Culture, Asimov: Spacer) oder Distopie (Philip K. Dick: Autofab, Idiocracy) enden.
Ich neige im Moment dazu, letzteres für wahrscheinlicher zu halten (allerdings eher in der Geschmacksrichtung Terminator meets Mad Max).
 
  • Gute Idee
M.i.a.u.: oli
Das sind mir jetzt zu viele "was wäre wenn" Szenarios, in den div. Serien passieren meist irgendwelche Katastrophen bevor das Wissen in Vergessenheit gerät. Hier im Forum gibt's ja genügen alte Herren die Sachen bauen die man von der Stange viel günstiger und leistungsfähiger bekommen könnte. In der Realität entspricht das in etwa dem Brand der Bibliothek von Alexandria, dabei soll der Menschheit auch 'ne Menge an Wissen verloren gegangen sein, von daher kein reines K.I. Problem.

Genau deshalb wird das Ganze sehr gefährlich, weil Leute es nicht verstehen und es sehr schleichend passieren wird.

Ich tippe auf idiocracy...

Das glaube ich auch, wenn wir nicht aktiv dagegen steuern. Aber schleichende Prozesse sind schwer aufzuhalten. Es wird nicht auffallen, wenn die letzten mit einem bestimmten Wissen sterben, die KI regelt. Es ist ja jetzt schon problematisch Tests für KIs zu entwickeln, weil wie soll man Tests entwickeln für etwas, was schlauer ist als man selbst.
 
  • Daumen hoch
M.i.a.u.: oli
Genau deshalb wird das Ganze sehr gefährlich, weil Leute es nicht verstehen und es sehr schleichend passieren wird.
Ich hab' eher das Gefühl dass viele Menschen die K.I. für gefährlich halten, weil sie keine Ahnung davon haben wie sie funktioniert. Ich hatte schon an anderer Stelle geschrieben, dass ich mehr Angst vor Menschen (z.B. Autokraten, Großkonzerne etc.) hab' die K.I. für ihre Zwecke nutzen als vor der Technologie selbst. Das ist ein Werkzeug, kein Hexenwerk.
 
Nur durch geschicktes Formulieren Musik zu erzeugen, halte ich allerdings für würdelos.
Allerdings. Ein Prompt ist ein fürchterliches user interface. Ich will Knöpfe haben und Schalter. Am Besten so, dass ich drehen kann, während das Ding nudelt.

Ich hätte nichts dagegen, KI einzusetzen. Im Gegenteil, neue Technik hat immer zu neuer Musik geführt. Jetzt wäre die Zeit, etwas Neues mit der neuen Technik zu machen. Etwas eigenes, selbstverständlich. Nach Jahren habe ich endlich sowas wie "meinen Sound" gefunden, den werde ich nicht leichtfertig an einen Prompt delegieren.

Eigentlich müßte ich mir Tensorflow oder ein anderes KI-packe installieren und sehen, was sich damit anstellen läßt. Ein bisschen programmieren kann ich. Dann wäre es meins. Die Crux an der KI sind ihre Halluzinationen - für Musik wäre mir das recht. :mrgreen: Oben hieß es KI produziere noch glitches und Artefakte. Ja! Ist doch gut. Bitte mehr! Ich hätte auch nicht vor, die KI komplette Tracks bauen zu lassen. Eher Schnippsel und sounds, mit denen ich dann meinen üblichen Stiefel mache: live jams. Denn ich glaube nicht, dass prompt engineering mir ähnlich viel Freude bereiten würde als an Knöpfen zu schrauben und Schalter umzulegen.

Aber egal. Werde ich nicht tun, weil das nach sehr viel Arbeit klingt, ein paar Mannmonate. Da mach ich erstmal die Stücke fertig, die noch unfertig sind. Das sind viele. *seufz* Ich bin mir aber sicher, dass einige Leute ebenso denken wie ich - und das umsetzen.
 
Ich hab' eher das Gefühl dass viele Menschen die K.I. für gefährlich halten, weil sie keine Ahnung davon haben wie sie funktioniert. Ich hatte schon an anderer Stelle geschrieben, dass ich mehr Angst vor Menschen (z.B. Autokraten, Großkonzerne etc.) hab' die K.I. für ihre Zwecke nutzen als vor der Technologie selbst. Das ist ein Werkzeug, kein Hexenwerk.

Es ist definitiv kein gewöhnliches Werkzeug. Wir wissen nicht wie eine AI funktioniert, wir können nicht in sie rein schauen, sie ist kein Taschenrechner. Es ist eine Blackbox die wir mit Daten füttern und deren Output wir werten. Wie und warum sie bestimmte Entscheidungen trifft können wir nicht nachvollziehen. Natürlich können wir wie bei einem Kind versuchen sie zum Richtigen zu erziehen, aber wir können nicht wissen, ob sie uns etwas vorspielt oder die Wahrheit sagt. Dies ist genauso wenig möglich wie bei einem Menschen. Jedoch glaube ich, dass der Sicherheitsfokus genau auf diesem Aspekt besonders hoch sein wird. Bereits die heutigen Model werden ja in einer Art Gefängnis gehalten und der Output reguliert. Aber wie gesagt, die Angst geht um, wer die generelle AI als erstes hat, hat die Macht und angeblich geht es da um Stunden, denn dieser Vorsprung reicht bei der Selbstoptimierung aus, um immer ein Schritt weiter zu sein. Sagt die Menschen aus der KI-Welt und die sollten ja wissen worüber sie reden.
 
Die "KI Welt" ist da aber doch gespalten. Das Lager, das vor dem Untergang warnt und das, das überzeugt ist, es kontrollieren zu können. Mal liest man etwas von der einen Seite und mal von der anderen. Und es sind meist Menschen, die bei OpenAI, Anthropic, etc. arbeiten oder gearbeitet haben.

Sehr gut nachvollziehen kann ich die Argumente beider Seiten und halte sie für möglich.

Ich denk mal, ein super Thema, um darüber zu philosophieren. Aber wissen, was passiert, das tut man halt nicht.

(Gut so, denn sonst müsst ich vorm Wochenende noch größer Nahrungsmittel einkaufen ... :D)
 
Wir wissen nicht wie eine AI funktioniert, wir können nicht in sie rein schauen, sie ist kein Taschenrechner.
Wer ist wir? Also ich hab' schon eine Idee davon wie eine K.I. funktioniert ;-) Wir nutzen so einiges was wir nicht vollständig verstehen, du musst auch kein Automechaniker sein um ein PKW zu nutzen, selbst keine Ahnung davon haben wie man Audio Plugins programmiert um sie einzusetzen. Je komplexer eine Maschine wird, desto komplizierte wird es sie zu verstehen und größer wird die Wahrscheinlichkeit von möglichen Fehlerquellen.
 
Ich vermute, was Martin beschreibt, ist, dass komplexe Systeme von zwar prinzipiell beschreibbar sind. Aber eben nicht im Detail. Es kann eine "kleine, unbedeutend aussehende", Variable leicht anders sein, und die Aussage, die das System am Ende ausgibt, kippt in eine vollständig andere Richtung.

Und man kann, wenn man die KI analysiert, nicht sagen, welche Variable das genau war.

Das geht momentan prinzipiell nicht. Man forscht daran und vielleicht wird man da besser. Stand der Dinge aber eben nicht.
 
Wer ist wir? Also ich hab' schon eine Idee davon wie eine K.I. funktioniert ;-) Wir nutzen so einiges was wir nicht vollständig verstehen, du musst auch kein Automechaniker sein um ein PKW zu nutzen, selbst keine Ahnung davon haben wie man Audio Plugins programmiert um sie einzusetzen. Je komplexer eine Maschine wird, desto komplizierte wird es sie zu verstehen und größer wird die Wahrscheinlichkeit von möglichen Fehlerquellen.

ALLE Maschine die wir bis jetzt haben verstehen wir. Es gibt Menschen die Wissen wie eine Auto funktioniert und sei es noch so kompliziert, wir haben diese Maschinen konstruiert. Aber wir wissen nicht wie und warum open AI o3 bestimmte Antworten gibt. Es ist eine Blackbox, wir können nicht reinschauen. Wir wissen mit was wir eine AI füttern und wir wissen was sie ausgibt, aber dazwischen ist eine Blackbox, so wie das menschliche Gehirn.
 
  • Daumen hoch
M.i.a.u.: oli
ALLE Maschine die wir bis jetzt haben verstehen wir. Es gibt Menschen die Wissen wie eine Auto funktioniert und sei es noch so kompliziert, wir haben diese Maschinen konstruiert. Aber wir wissen nicht wie und warum open AI o3 bestimmte Antworten gibt. Es ist eine Blackbox, wir können nicht reinschauen. Wir wissen mit was wir eine AI füttern und wir wissen was sie ausgibt, aber dazwischen ist eine Blackbox, so wie das menschliche Gehirn.
Natürlich kennen wir das wie und das warum, aber durch die Masse an Trainingsdaten können wir das Ergebnis nicht 100%ig bestimmen, wie so oft bei komplexen Maschinen. Zumindest nicht innerhalb unserer Lebenszeit ;-)
 
Natürlich kennen wir das wie und das warum, aber durch die Masse an Trainingsdaten können wir das Ergebnis nicht 100%ig bestimmen, wie so oft bei komplexen Maschinen. Zumindest nicht innerhalb unserer Lebenszeit ;-)

Es ist nicht die Komplexität der Trainingsdaten. Die Google-Suche hat ähnlich komplexe Trainingsdaten und da wissen wir warum sie wie welche Ergebnisse ausspuckt, weil diese Suche programmiert wurde. Eine AI ist nicht klassisch programmiert, es ist ein Programm das lernt über die Verknüpfung und Gewichtung von Billionen an Knotenpunkten. Selbst bei neuronalen Netzen mit ein paar Millionen Knotenpunken kann keiner mehr nachvollziehen warum die KI auf "Wie gehts dir" mit "Gut" oder "Schlecht" antwortet.
 
  • Daumen hoch
M.i.a.u.: oli
Es ist nicht die Komplexität der Trainingsdaten. Die Google-Suche hat ähnlich komplexe Trainingsdaten und da wissen wir warum sie wie welche Ergebnisse ausspuckt, weil diese Suche programmiert wurde. Eine AI ist nicht klassisch programmiert, es ist ein Programm das lernt über die Verknüpfung und Gewichtung von Billionen an Knotenpunkten. Selbst bei neuronalen Netzen mit ein paar Millionen Knotenpunken kann keiner mehr nachvollziehen warum die KI auf "Wie gehts dir" mit "Gut" oder "Schlecht" antwortet.
Natürlich lassen sich Programme aufrollen, nur durch die Menge an Daten bräuchte man ein Leben +X um das zu schaffen und genau das hab' ich geschrieben. Ist anzunehmen dass die ganze menschliche Interaktion darauf ausgelegt ist eine ansprechende Benutzeroberfläche zu generieren, die Antwort der Befindlichkeit spielt für das was im Inneren der K.I. passiert bzw. die Verarbeitung der Daten wahrscheinlich keine entscheidende Rolle.
 
Natürlich lassen sich Programme aufrollen, nur durch die Menge an Daten bräuchte man ein Leben +X um das zu schaffen und genau das hab' ich geschrieben. Ist anzunehmen dass die ganze menschliche Interaktion darauf ausgelegt ist eine ansprechende Benutzeroberfläche zu generieren, die Antwort der Befindlichkeit spielt für das was im Inneren der K.I. passiert bzw. die Verarbeitung der Daten wahrscheinlich keine entscheidende Rolle.

Somit bleibt es eben eine Blackbox und der Kreis schliesst sich. Wir wissen nicht wie diese Blackbox funktioniert oder wie sie zu bestimmten Antworten kommt. Es kann zum Beispiel sein das Modelle die mit den gleichen Trainingsdaten gefüttert wurden und den gleichen Programmcode haben unterschiedliche Lösungsstrategien haben und unterschiedliche Antworten geben, weil sich eben ein anderes neuronales Netz gebildet hat.

 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: oli
Somit bleibt es eben eine Blackbox und der Kreis schliesst sich.
Mir erschließt sich gerade nicht wie du angesichts meiner Antwort auf diese Schlussfolgerung kommst - ließt du überhaupt was ich schreibe, die sozialen Interaktionen werden wahrscheinlich eher sowas wie eine besonders fortschrittliche Version von Eliza sein. Dann angelehnt an typische Floskeln innerhalb der menschlichen Interaktion, man merkt die antrainierten Floskeln bei Demenz Patienten einem noch sehr lange den Eindruck einer funktionierenden Persönlichkeit vermitteln.
Sei mir nicht böse wenn ich mich hier nicht mit Youtube Video beschäftigen will, da könnte ich auch gleich meinen Nachbarn zum Thema K.I. fragen, ich hab zumindest in den 90ern mal 'ne Vorlesung zu dem Thema besucht.
 
Mir erschließt sich gerade nicht wie du angesichts meiner Antwort auf diese Schlussfolgerung kommst - ließt du überhaupt was ich schreibe, die sozialen Interaktionen werden wahrscheinlich eher sowas wie eine besonders fortschrittliche Version von Eliza sein. Dann angelehnt an typische Floskeln innerhalb der menschlichen Interaktion, man merkt die antrainierten Floskeln bei Demenz Patienten einem noch sehr lange den Eindruck einer funktionierenden Persönlichkeit vermitteln.
Sei mir nicht böse wenn ich mich hier nicht mit Youtube Video beschäftigen will, da könnte ich auch gleich meinen Nachbarn zum Thema K.I. fragen, ich hab zumindest in den 90ern mal 'ne Vorlesung zu dem Thema besucht.

Du solltest dir aber mal ihr Video anschauen, da macht sie sich lustig über Leute, die meinen sie wüssten mehr über AI als der CEO von Anthropic. Ich habe eher den Eindruck, du verhältst dich wie ein erweitertes Model von Eliza ;-)

Die Frage, ob LLM wirklich „verstehen“ was man sie fragt, ist einfach eine schlechte Fragestellung, weil wir nicht mal definieren können was „Verstehen“ überhaupt ist. Du versuchst meinen Text zu verstehen in dem du die Information in dein neuronales Netz schickst. Was darin passiert weisst du nicht. Dein neuronales Netz generiert eine Antwort. Dann wird dir die Antwort bewusst und du sprichst sie aus. Bei dir kann es zum Beispiel sein, dass dein neuronales Netz über keine aktuellen Informationen verfügt und du deshalb deine Antwort auf Informationen aus einer Vorlesung in den 90ern stützt, plus deine Kenntnisse über Programmieren und wie Programme funktionieren ergibt dann deine Antwort. Da du dich weigerst neuere Informationen zu verarbeiten bist du im Prinzip wie Eliza, du verstehst zwar die einzelnen Worte und kannst auch passende Antworten generieren, verstehen tust du von dem was ich geschrieben habe nix. Wir reden also aneinander vorbei.

Um nochmal das erste Video aufzugreifen. Es illustriert sehr schön was auch un unserem Gehirn passiert. Erst findet unser neuronales Netz eine Antwort, dann generiert es die passende Sprache dazu und lässt uns denken (,dass wir denken).
 
Zuletzt bearbeitet:
Ich habe eher den Eindruck, du verhältst dich wie ein erweitertes Model von Eliza ;-)
Ich versuche zumindest nicht mich hinter irgendwelche schwarzen Kisten zu verstecken, nur weil ich etwas nicht verstehe und lasse mich nicht von div. Social Media Trends unnötig beängstigen.
Du versuchst meinen Text zu verstehen in dem du die Information in dein neuronales Netz schickst. Was darin passiert weisst du nicht.
Ich hab' mich ja auch nicht selbst programmiert, man sollte berücksichtigen dass Neuronale Netze zwar vom menschlichen Gehirn inspiriert wurden und nur zum Teil nachbilden können, die fehlende Komplexität wird durch ein enormes "Gedächtnis" ersetzt.
 
du musst dich also "nicht rechtfertigen", gut, dass du das noch mal klargestellt hast, nchdem das niemand von dir eingefordert hat.

du musst nur alle anderen dafür angreifen, was die anderen tun. :)

Ich denke; Mein Standpunkt ist klar... Ich lehne AI in jeglichem Bereich ab...

damit weichst du nur meinen argumenten aus - aber erzeugst nicht mehr verständnis für deine jetzt "besser erklärten" standpunkt.

KI kann zur synthese, zum erstellen von samples, zum komponieren, für die katalogisierung, für scrum management und vieles mehr benutzt werden.

KI wird bereits heute aktiv und sinnvoll eingesetzt um zum beipiel auch zu notieren oder für OCR verfahren zum einlesen von notenblättern.

KI wird bereits genutzt um tiefe wasserzeichen zu produzieren, die urheberrechte schützen können, und die auch verarbeitung und kompression überleben.

KI wird bereits vom frauenhofer institut benutzt um audiodaten bis zu 10 mal kleiner zu komprimieren als mpeg es kann.

bei dir liest sich das dann so:


Hitler als den Retter Deutschlands preist und die Blaue Flut mit Höcke

Ich brauch kein Embryo Skynet, was nur dazu da ist aus gestohlenen Material eine Variation zu generieren.

die Hitler verherrlicht


Wer verlernt, selber zu denken, hat verloren und tut mir leid...

wenn sie der Droge KI völlig verfällt...

du klingst genau wie die leute, die im jahr 1450 gegen den buchdruck gewettert haben, weil das ja ermöglicht, dass ketzer und hexen dann auch ihre meinung verbreiten können.

als ob sie das nicht auch hätten mündlich tun können.
 
Zuletzt bearbeitet:
ALLE Maschine die wir bis jetzt haben verstehen wir.

kein mensch versteht, wie man bei einem iphone 11 die batterie austauscht oder warum die gummis der porsche 924 heckklappe immer wieder rausrutschen wenn man sie reindrückt.

Es gibt Menschen die Wissen wie eine Auto funktioniert

es gibt auch menschen die wissen wie computerprogramme funktionieren.

im kern ist eine KI viel einfacher als cubase oder photoshop, die zu erstellen erst mal ein grundverständis für höhere mathematik und eine stringente logik und diverse andere softskills erfordert.

Aber wir wissen nicht wie und warum open AI o3 bestimmte Antworten gibt.

natürlich weiß man das. das verfahren ist grundsätzlich immer gleich, das ist ja das schöne daran.
 
und du glau8bst du wissen, was der CEO von anthropic denkt... weil du was? ein propaganda interview im business insider von ihm gelesen hast? ;-)

Niemand weiß was im neuronalen Netz des Anthropic-CEO vorgeht. Vielleicht ist er ja ein Wunderkind und weiß was im neuronalen Netz von Claude vorgeht, er behauptet jedenfalls es nicht zu wissen und er behauptet sogar niemand weiß es. Aber vielleicht lügt er, denn hier in einem kleinen Musikforum scheint es ein paar schlaue Köpfe zu geben, die genau wissen wie es läuft.
 



Zurück
Oben