Einsatz von AI zum Musik machen

Sei mir nicht böse wenn ich mich an dieser Stelle ausklinke, irgendwelche Javascript Seiten auf meinem Rechner öffnen fällt mir nicht im Traum ein und eine Katze frisst nicht nur Fisch.
 
@einseinsnull

Du postest genau das, was du für deine Argumentation brauchst und bist dir nicht mal zu schade, alles aus dem Kontext zu reißen...

der kontext lautete "KI zum musikmachen" - und du reduzierst das auf webspielereien der marke "sumo", ergänzt das thema dann um chatbots und setzt chatbots mit hitler gleich, aber ich reiße die dinge aus dem kontext?

Blabla, Unterhaltung auf Verschwörungstheoretiker-Niveau. Ich bin weder für noch gegen AI, darum ging es überhaupt nicht.

es ging darum, dass du ausgerechnet amodei bemüht hast - als beispiel für einen experten, der vor den gefahren warnt.

dass der mann damit sein geld verdient und ganze bücher vor allem vor allem auch über die chancen geschrieben hat, die in der technologie liegen, das weißt du entweder nicht oder ignorierst es sogar bewusst.

nur sind die gefahren, die von großkonzernen für die gesellschaft ausgehen für das schaffen von künstlern, musikern oder wissenschaftlern mithilfe von KI software vollkommen irrelevant.

wenn du vor den gefahren warnen willst, dann macht dir entweder mal eigene gedanken dazu oder such dir einen besseren prophetenstrohmann aus als ausgerechnet den.

der mann ist wissenschaftler, dass er sowohl die gefahren als auch die chancen sieht liegt in der natur der sache.

Der Mensch stellt nur die Input-Daten mehr nicht und diese sind und können im Prinzip kaum noch handselektiert sein.

das ist einfach sachlich falsch. praktisch jeder, der professionell KI systeme einsetzt trainiert seine systeme auch selbst.

das ist der punkt, den du genauso wenig zu kapieren scheinst wie kevinside auch.

wenn ich eiweißverbindungen erforsche, tierstimmen interpretrieren oder die echtheit eines gemäldes überprüfen will, dann geht das nicht mit GPT oder sumo, sondern dann muss ich die dazu notwendigen daten selbst eingeben.

der output eines solches systems wirkt dann quasi nur wie nicht-deterministisch, ist es im kern aber.
 
Zuletzt bearbeitet:
der kontext lautete "KI zum musikmachen" - und du reduzierst das auf webspielereien der marke "sumo", ergänzt das thema dann um chatbots und setzt chatbots mit hitler gleich, aber ich reiße die dinge aus dem kontext?



es ging darum, dass du ausgerechnet amodei bemüht hast - als beispiel für einen experten, der vor den gefahren warnt.

dass der mann damit sein geld verdient und ganze bücher vor allem vor allem auch über die chancen geschrieben hat, die in der technologie liegen, das weißt du entweder nicht oder ignorierst es sogar bewusst.

nur sind die gefahren, die von großkonzernen für die gesellschaft ausgehen für das schaffen von künstlern, musikern oder wissenschaftlern mithilfe von KI software vollkommen irrelevant.

wenn du vor den gefahren warnen willst, dann macht dir entweder mal eigene gedanken dazu oder such dir einen besseren prophetenstrohmann aus als ausgerechnet den.

der mann ist wissenschaftler, dass er sowohl die gefahren als auch die chancen sieht liegt in der natur der sache.



das ist einfach sachlich falsch. praktisch jeder, der professionell KI systeme einsetzt trainiert seine systeme auch selbst.

das ist der punkt, den du genauso wenig zu kapieren scheinst wie kevinside auch.

wenn ich eiweißverbindungen erforsche, tierstimmen interpretrieren oder die echtheit eines gemäldes überprüfen will, dann geht das nicht mit GPT oder sumo, sondern dann muss ich die dazu notwendigen daten selbst eingeben.

der output eines solches systems wirkt dann quasi nur wie nicht-deterministisch, ist es im kern aber.

Hä? Es ging einzig und alleine darum, dass das Netz ne Blackbox ist, weil @Summa das bis jetzt nicht versteht und das sagt dir jeder der halbwegs Ahnung von LLMs hat.

Was meinst du mit -trainiert seine KI-Systeme „selbst“?- Von Hand oder was? Natürlich kann man das Netz mit bestimmten Input/Output-Paaren manipulieren, ändert aber nichts an der Blackbox.

Sei mir nicht böse wenn ich mich an dieser Stelle ausklinke, irgendwelche Javascript Seiten auf meinem Rechner öffnen fällt mir nicht im Traum ein und eine Katze frisst nicht nur Fisch.

Verstehe schon, du willst es gar nicht verstehen ;-)
 
Verstehe schon, du willst es gar nicht verstehen ;-)
Wir drehen uns im Kreis, den Bereich hatten wir doch bereits diskutiert (ich hatte den Vergleich mit einem VA gebracht) und ich riskiere nicht die Sicherheit meines PCs.
 
Zuletzt bearbeitet:
Nutze sowas schon und beobachte das sehr gespannt.
Gerade der Bereich Stem Separation hat gute Fortschritte gemacht, erfüllt aber noch nicht meine Erwartungen.

Ich muss mich auch mal bezüglich AI Vocals informieren. Das wäre endlich mal die Möglichkeit Gesang zu bekommen, ohne auf die Befindlichkeiten von irgendwelchen Leuten Rücksicht zu nehmen. Natürlich arbeite ich super gern im Team, aber bisher hat das nicht gut funktioniert. Mein letzter Sänger ist kurz nachdem wir einen richtig guten Song am Start hatten flügge geworden und dann stand wieder alles bei Null.
 
Nutze sowas schon und beobachte das sehr gespannt.
Gerade der Bereich Stem Separation hat gute Fortschritte gemacht, erfüllt aber noch nicht meine Erwartungen.

Ich muss mich auch mal bezüglich AI Vocals informieren. Das wäre endlich mal die Möglichkeit Gesang zu bekommen, ohne auf die Befindlichkeiten von irgendwelchen Leuten Rücksicht zu nehmen. Natürlich arbeite ich super gern im Team, aber bisher hat das nicht gut funktioniert. Mein letzter Sänger ist kurz nachdem wir einen richtig guten Song am Start hatten flügge geworden und dann stand wieder alles bei Null.

Es gibt meines Wissens im Moment 2 Optionen um an AI-Vocals zu kommen. Einmal mit Suno, jedoch generiert Suno dir eine beliebige Melodie für die Vocals und du kannst das nicht steuern. Du kannst in gewissen Rahmen Tonart und BPM versuchen einzuschränken. Es ist also sinnvoller sich einen Song mit Suno generieren zu lassen, die Stems der Vocals zu nehmen und darum einen eigenen Backtrack zu bauen. Eine andere Option ist die Vocals selbst einzusingen mit Melodyne oder ähnlichem auf die richtige Tonhöhe zu bringen und auf Seiten wie Kits.ai oder audimee in professionelle Vocals konvertieren zu lassen.
 
Wir drehen uns im Kreis, den Bereich hatten wir doch bereits diskutiert (ich hatte den Vergleich mit einem VA gebracht) und ich riskiere nicht die Sicherheit meines PCs.

Der Vergleich mit dem VA zeigt, dass du das Prinzip eines neuronalen Netzes noch nicht verstanden hast. Es ist schon etwas billig zu sagen, dass du dir keine Videos anschaust und kein Javascript html im Browser öffnen möchtest. Klingt mir eher so als, ob du lieber nicht verstehen willst. Aber hier mal das wesentliche in Bildern

Vor dem Training mit zufälligen Startwerten.
1752965754999.png


Nach einem kompletten Training (erster Versuch)
1752965522389.png

Nach einem Reset und Neustart: Nach einem kompletten Training (zweiter Versuch)
1752965961593.png

Du siehst, das entstandene Netz ist beide Male komplett anders führt aber zum selben Ergebnis. Es ist also nicht wie dein VA-Beispiel, wo der Output immer anders ist. Nach unzählbaren Sätzen und Texten mit denen das System gefüttert wird kann keiner mehr entschlüsseln welche Nodes was bedeuten, denn jeder Node wurde von Billionen Texten variiert. In einem Node stecken also Milliarden an Informationen die aber nur in Kombination mit den anderen Billionen Nodes einen Sinn ergeben. Ab einer gewissen Menge an Informationen scheint so ein Netz völlig automatisch so etwas wie Intelligenz zu entwickeln und ihm unbekannte Aufgaben zu lösen. Das könnte bedeuten, dass das was wir Intelligenz nennen auch nichts weiter ist als der Abgleich unseres neuronalen Netzes mit dem in ihm enthaltenen Informationen und das es gar kein "Verstehen" gibt. "Verstehen" ist nur eine Illusion. Ein LLM predicted immer nur das best mögliche nächste Wort in einem Text/Code, es versteht gar nix. Vielleicht verstehen wir auch gar nix und haben nur furchtbar viele Informationen gesammelt die uns erlauben eine intelligente nächste Handlung durchzuführen?

Was auch immer, jedenfalls ist es nicht möglich vollständig zu sagen was in einem solchen Netz schlummert und welche Antwort wir bekommen wenn wir ihm eine bestimmte Frage stellen.

man erklärt martin, dass KI mehr als sprachmodelle ist - und martin erklärt dir, dass es doch nur sprachmodelle sind.

Du bist verwirrt oder willst irgendwelchen blöden Derails betreiben. Habe ich keine Lust drauf. Erzähl was du damit meinst die KI "selbst" zu trainieren, dann können wir darüber reden, aber immer irgendwelche Strohmänner aufbauen und random irgendwas einzuwerfen ist irgendwie auf Verschwörungstheoretiker-Niveau.
 
@einseinsnull

Interessant...Ich habe Chatbots nie mit Hitler gleichgesetzt...Das. was ich meinte, war der Chatbot von Elon Musk, der eben Hitler verherrlicht hat und sonst auch nur irgendeine Musk konforme Antwort gegeben hat...
Elon Musk´s Chatbot Grok war nicht nur antisemitisch, sondern sogar rechtsradikal...
Naja diese blöde KI hat leider falsche Parameter von uns bekommen, laut Entwickler...
Tja; Wie intelligent ist eine Ki wirklich, wenn einige wenige Parameter reichen, um einen Massenmörder hochleben zu lassen.... Das ist KI? Wunderbar

Ich denke; Wir werden bei dieser Thematik keinen Konsens finden...
Aber das ist ok...
Ich werde dir nicht mehr antworten, denn dieses passiv aggresive Getue finde ich nicht nur kindisch, sondern geradezu pubertär...

Sry... Jetzt kannst du gerne dein gesamtes Arsenal auf mich abfeuern... Es ist so unwichtig, uninteressant und egal... Und das ist das Gute daran... :)
 
Zuletzt bearbeitet:
Der Vergleich mit dem VA zeigt, dass du das Prinzip eines neuronalen Netzes noch nicht verstanden hast.
Du hast afair weiter vorne von etwas gesprochen dass auf den selben Input jeweils einen anderen Output reagiert, jetzt erklärst du mir was das auf unterschiedlichen Wegen zum selben Output kommt.
Du siehst, das entstandene Netz ist beide Male komplett anders führt aber zum selben Ergebnis.
Natürlich kommt man auf ganz unterschiedlichen Wegen Problemlos zum selben Ergebnis, was genau soll das beweisen? Wie dein Neuronale Netz die jeweiligen Daten/Zustände bewertet kann ich Anhand deiner Bilder und Beschreibungen nicht erkennen, es entstehen Daten beim Lernprozess und müssen ja irgendwo gespeichert werden.
Es ist ja jetzt keine neue Erkenntnis dass man auf unterschiedlichen Wegen zum selben Ziel kommen kann. Ich bringe mal wieder ein Beispiel aus dem Sound Bereich, ich kann den selben Sound auf ganz unterschiedliche Arten erzeugen und trotzdem analysieren wie der Sound gebaut wurde.
Was auch immer, jedenfalls ist es nicht möglich vollständig zu sagen was in einem solchen Netz schlummert und welche Antwort wir bekommen wenn wir ihm eine bestimmte Frage stellen.
Zumindest nicht ohne die Daten die du entweder nicht kennst oder verschweigst.
 
Zuletzt bearbeitet:
@Martin Kraken

Aber wir haben eben einen Vorteil, der so massiv ist...
Die emotionale Komponente... Daraus ergibt sich ein Gewissem...
Eine jetzige KI kann ich trainieren wie ich will, sie wird immer eine Variatiom kreieren aus dem Fundus meines "Trainings"...
Deswegen ist es ja so einfach, Chatbots zu überlisten, weil diese eben nicht selber denken sondern nur mit dem trainierten Wissen agieren...Das gilt auch für die ganzen Musik AI Tools...
Die Ki hat keinen freien Willen... Wenn ich ein Modell nur mit rechtradikalen Websites,Texten usw. trainiere, ist sie der perfekte Nazi... Die KI hinterfragt nicht, reflektiert nicht...
Und das ist aber ein fundemantaler Punkt in unserer gesamten Entwicklung...oder nicht?
 
@Summa
Gibt es eigentlich schon KI Modelle für Sounddesign...Ich hab mal diese Waves Geschichte Illugen ausprobiert...
Trotz gleichen "Prompt" Beschreibung, waren die Ergebnisse immer unterschiedlich...Warum?
 
Zuletzt bearbeitet:
@Summa
Gibt es eigentlich schon KI Modelle für Sounddesign...
Ich halte meine Augen und Ohren offen, aber der Soundbau ist bei mir Teil des kreativen Prozesses beim Musik machen, von daher bin ich vielleicht eher als Trainer und weniger als User einer solchen Software interessant.
Ich hab mal diese Waves Geschichte Illugen ausprobiert...
Trotz gleichen "Prompt" Beschreibung, waren die Ergebnisse immer unterschiedlich...Warum?
Aus den FAQs der Software: ILLUGEN is designed to keep things fresh. Even if you use the exact same prompt, the results will always be slightly different. You might get something similar, but never an identical sound.
 
Du bist verwirrt oder willst irgendwelchen blöden Derails betreiben. Habe ich keine Lust drauf. Erzähl was du damit meinst die KI "selbst" zu trainieren, dann können wir darüber reden, aber immer irgendwelche Strohmänner aufbauen und random irgendwas einzuwerfen

Hmm, das scheint mir eine gute Beschreibung Deiner anekdotischen Einwürfe hier zu sein - von 'Intelligenz, Verstehen' bis zu Kindernetzwerken in HTML. Ganz zu schweigen von den persönlichen Beleidigungen, die Du immer häufiger einstreust, wenn jemand Deine (Dir so erscheinenden) Wahrheiten nicht teilt.

Dafür, dass sie die Energie einer mittleren Großstadt brauchen und mehr Transistoren enthalten als unser Hirn Neuronen, können die AI ganz schön wenig, halluzinieren zT grotesk (siehe mein obiges Beispiel) und versagen, wenn das Datenmaterial zu einer Aufgabe gering ist (dto.).

Also bitte etwas mehr Selbstbeherrschung; tut auch Fanboys gut.

---

Wieso glauben übrigens alle, dass Intelligenz beliebig nach oben skalierbar ist? Dass die derzeitigen Modelle diejenigen sind, die demnächst eine Strong AI (oder gar, für Fanboys, 'Singularität') werden?
 



Zurück
Oben