Einsatz von AI zum Musik machen

Wir wissen nicht wie eine KI zum Beispiel Hautkrebs erkennt.
Das eine ist die Muster Erkennung in Bildern, das andere die Ähnlichkeiten in den Muster zu finden und mit anderen "negativen" und "positiven" Ergebnissen zu vergleichen. Der Mensch macht sowas mit Erfahrungswerten, die K.I. wendet hier eher Brute Force mit unzähligen Daten an. Ähnliches gabs afair schon Anfang der 90er, wo defekte Dachziegel anhand ihres Klangs von einem Expertensystem erkannt wurde.
Mustererkennung ist praktisch sowas die Kernkompetenz eines Datenverarbeitungssystems, auch wenn die Kombination von unterschiedlichen Funktionen auf den ersten Blick erstaunliche Ergebnisse liefern kann.
 
Das eine ist die Muster Erkennung in Bildern, das andere die Ähnlichkeiten in den Muster zu finden und mit anderen "negativen" und "positiven" Ergebnissen zu vergleichen. Der Mensch macht sowas mit Erfahrungswerten, die K.I. wendet hier eher Brute Force mit unzähligen Daten an. Ähnliches gabs afair schon Anfang der 90er, wo defekte Dachziegel anhand ihres Klangs von einem Expertensystem erkannt wurde.
Mustererkennung ist praktisch sowas die Kernkompetenz eines Datenverarbeitungssystems, auch wenn die Kombination von unterschiedlichen Funktionen auf den ersten Blick erstaunliche Ergebnisse liefern kann.

Das ist nicht der Punkt. Stell dir eine autonome Handy-Fabrik vor. Eine KI entwirft alles, das Handy, die Maschinen die für die Produktion benötigt werden. Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt. Die Menschheit gibt ihr Wissen aus der Hand.
 
Das ist nicht der Punkt. Stell dir eine autonome Handy-Fabrik vor. Eine KI entwirft alles, das Handy, die Maschinen die für die Produktion benötigt werden. Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt. Die Menschheit gibt ihr Wissen aus der Hand.
Das sind mir jetzt zu viele "was wäre wenn" Szenarios, in den div. Serien passieren meist irgendwelche Katastrophen bevor das Wissen in Vergessenheit gerät. Hier im Forum gibt's ja genügen alte Herren die Sachen bauen die man von der Stange viel günstiger und leistungsfähiger bekommen könnte. In der Realität entspricht das in etwa dem Brand der Bibliothek von Alexandria, dabei soll der Menschheit auch 'ne Menge an Wissen verloren gegangen sein, von daher kein reines K.I. Problem.
 
Die Menschen verwenden die Handys (oder irgendein Produkt der Zukunft) aber keiner weiß mehr wie man sie baut, weil alles von der KI gemacht wird. Die Menschen vergessen wie man Handys baut, weil dieses Wissen nicht mehr gebraucht wir (weil die KI entwirft und baut die Handys), aber im Gegensatz zu dem vergessen Wissen über den Bau der Pyramiden, werden diese Gegenstände immer noch gebaut und genutzt.
Das kann in einer Utopie (z.B. Iain Banks: Culture, Asimov: Spacer) oder Distopie (Philip K. Dick: Autofab, Idiocracy) enden.
Ich neige im Moment dazu, letzteres für wahrscheinlicher zu halten (allerdings eher in der Geschmacksrichtung Terminator meets Mad Max).
 
Das sind mir jetzt zu viele "was wäre wenn" Szenarios, in den div. Serien passieren meist irgendwelche Katastrophen bevor das Wissen in Vergessenheit gerät. Hier im Forum gibt's ja genügen alte Herren die Sachen bauen die man von der Stange viel günstiger und leistungsfähiger bekommen könnte. In der Realität entspricht das in etwa dem Brand der Bibliothek von Alexandria, dabei soll der Menschheit auch 'ne Menge an Wissen verloren gegangen sein, von daher kein reines K.I. Problem.

Genau deshalb wird das Ganze sehr gefährlich, weil Leute es nicht verstehen und es sehr schleichend passieren wird.

Ich tippe auf idiocracy...

Das glaube ich auch, wenn wir nicht aktiv dagegen steuern. Aber schleichende Prozesse sind schwer aufzuhalten. Es wird nicht auffallen, wenn die letzten mit einem bestimmten Wissen sterben, die KI regelt. Es ist ja jetzt schon problematisch Tests für KIs zu entwickeln, weil wie soll man Tests entwickeln für etwas, was schlauer ist als man selbst.
 
Genau deshalb wird das Ganze sehr gefährlich, weil Leute es nicht verstehen und es sehr schleichend passieren wird.
Ich hab' eher das Gefühl dass viele Menschen die K.I. für gefährlich halten, weil sie keine Ahnung davon haben wie sie funktioniert. Ich hatte schon an anderer Stelle geschrieben, dass ich mehr Angst vor Menschen (z.B. Autokraten, Großkonzerne etc.) hab' die K.I. für ihre Zwecke nutzen als vor der Technologie selbst. Das ist ein Werkzeug, kein Hexenwerk.
 
Nur durch geschicktes Formulieren Musik zu erzeugen, halte ich allerdings für würdelos.
Allerdings. Ein Prompt ist ein fürchterliches user interface. Ich will Knöpfe haben und Schalter. Am Besten so, dass ich drehen kann, während das Ding nudelt.

Ich hätte nichts dagegen, KI einzusetzen. Im Gegenteil, neue Technik hat immer zu neuer Musik geführt. Jetzt wäre die Zeit, etwas Neues mit der neuen Technik zu machen. Etwas eigenes, selbstverständlich. Nach Jahren habe ich endlich sowas wie "meinen Sound" gefunden, den werde ich nicht leichtfertig an einen Prompt delegieren.

Eigentlich müßte ich mir Tensorflow oder ein anderes KI-packe installieren und sehen, was sich damit anstellen läßt. Ein bisschen programmieren kann ich. Dann wäre es meins. Die Crux an der KI sind ihre Halluzinationen - für Musik wäre mir das recht. :mrgreen: Oben hieß es KI produziere noch glitches und Artefakte. Ja! Ist doch gut. Bitte mehr! Ich hätte auch nicht vor, die KI komplette Tracks bauen zu lassen. Eher Schnippsel und sounds, mit denen ich dann meinen üblichen Stiefel mache: live jams. Denn ich glaube nicht, dass prompt engineering mir ähnlich viel Freude bereiten würde als an Knöpfen zu schrauben und Schalter umzulegen.

Aber egal. Werde ich nicht tun, weil das nach sehr viel Arbeit klingt, ein paar Mannmonate. Da mach ich erstmal die Stücke fertig, die noch unfertig sind. Das sind viele. *seufz* Ich bin mir aber sicher, dass einige Leute ebenso denken wie ich - und das umsetzen.
 
Ich hab' eher das Gefühl dass viele Menschen die K.I. für gefährlich halten, weil sie keine Ahnung davon haben wie sie funktioniert. Ich hatte schon an anderer Stelle geschrieben, dass ich mehr Angst vor Menschen (z.B. Autokraten, Großkonzerne etc.) hab' die K.I. für ihre Zwecke nutzen als vor der Technologie selbst. Das ist ein Werkzeug, kein Hexenwerk.

Es ist definitiv kein gewöhnliches Werkzeug. Wir wissen nicht wie eine AI funktioniert, wir können nicht in sie rein schauen, sie ist kein Taschenrechner. Es ist eine Blackbox die wir mit Daten füttern und deren Output wir werten. Wie und warum sie bestimmte Entscheidungen trifft können wir nicht nachvollziehen. Natürlich können wir wie bei einem Kind versuchen sie zum Richtigen zu erziehen, aber wir können nicht wissen, ob sie uns etwas vorspielt oder die Wahrheit sagt. Dies ist genauso wenig möglich wie bei einem Menschen. Jedoch glaube ich, dass der Sicherheitsfokus genau auf diesem Aspekt besonders hoch sein wird. Bereits die heutigen Model werden ja in einer Art Gefängnis gehalten und der Output reguliert. Aber wie gesagt, die Angst geht um, wer die generelle AI als erstes hat, hat die Macht und angeblich geht es da um Stunden, denn dieser Vorsprung reicht bei der Selbstoptimierung aus, um immer ein Schritt weiter zu sein. Sagt die Menschen aus der KI-Welt und die sollten ja wissen worüber sie reden.
 
Die "KI Welt" ist da aber doch gespalten. Das Lager, das vor dem Untergang warnt und das, das überzeugt ist, es kontrollieren zu können. Mal liest man etwas von der einen Seite und mal von der anderen. Und es sind meist Menschen, die bei OpenAI, Anthropic, etc. arbeiten oder gearbeitet haben.

Sehr gut nachvollziehen kann ich die Argumente beider Seiten und halte sie für möglich.

Ich denk mal, ein super Thema, um darüber zu philosophieren. Aber wissen, was passiert, das tut man halt nicht.

(Gut so, denn sonst müsst ich vorm Wochenende noch größer Nahrungsmittel einkaufen ... :D)
 
Wir wissen nicht wie eine AI funktioniert, wir können nicht in sie rein schauen, sie ist kein Taschenrechner.
Wer ist wir? Also ich hab' schon eine Idee davon wie eine K.I. funktioniert ;-) Wir nutzen so einiges was wir nicht vollständig verstehen, du musst auch kein Automechaniker sein um ein PKW zu nutzen, selbst keine Ahnung davon haben wie man Audio Plugins programmiert um sie einzusetzen. Je komplexer eine Maschine wird, desto komplizierte wird es sie zu verstehen und größer wird die Wahrscheinlichkeit von möglichen Fehlerquellen.
 
Ich vermute, was Martin beschreibt, ist, dass komplexe Systeme von zwar prinzipiell beschreibbar sind. Aber eben nicht im Detail. Es kann eine "kleine, unbedeutend aussehende", Variable leicht anders sein, und die Aussage, die das System am Ende ausgibt, kippt in eine vollständig andere Richtung.

Und man kann, wenn man die KI analysiert, nicht sagen, welche Variable das genau war.

Das geht momentan prinzipiell nicht. Man forscht daran und vielleicht wird man da besser. Stand der Dinge aber eben nicht.
 
Wer ist wir? Also ich hab' schon eine Idee davon wie eine K.I. funktioniert ;-) Wir nutzen so einiges was wir nicht vollständig verstehen, du musst auch kein Automechaniker sein um ein PKW zu nutzen, selbst keine Ahnung davon haben wie man Audio Plugins programmiert um sie einzusetzen. Je komplexer eine Maschine wird, desto komplizierte wird es sie zu verstehen und größer wird die Wahrscheinlichkeit von möglichen Fehlerquellen.

ALLE Maschine die wir bis jetzt haben verstehen wir. Es gibt Menschen die Wissen wie eine Auto funktioniert und sei es noch so kompliziert, wir haben diese Maschinen konstruiert. Aber wir wissen nicht wie und warum open AI o3 bestimmte Antworten gibt. Es ist eine Blackbox, wir können nicht reinschauen. Wir wissen mit was wir eine AI füttern und wir wissen was sie ausgibt, aber dazwischen ist eine Blackbox, so wie das menschliche Gehirn.
 
ALLE Maschine die wir bis jetzt haben verstehen wir. Es gibt Menschen die Wissen wie eine Auto funktioniert und sei es noch so kompliziert, wir haben diese Maschinen konstruiert. Aber wir wissen nicht wie und warum open AI o3 bestimmte Antworten gibt. Es ist eine Blackbox, wir können nicht reinschauen. Wir wissen mit was wir eine AI füttern und wir wissen was sie ausgibt, aber dazwischen ist eine Blackbox, so wie das menschliche Gehirn.
Natürlich kennen wir das wie und das warum, aber durch die Masse an Trainingsdaten können wir das Ergebnis nicht 100%ig bestimmen, wie so oft bei komplexen Maschinen. Zumindest nicht innerhalb unserer Lebenszeit ;-)
 


Neueste Beiträge


Zurück
Oben