Einsatz von AI zum Musik machen

Mal offtopic:

Keine Ahnung wer mit "keiner " gemeint ist..jedoch glaube ich nicht dass du tatsächlich den globalen Musikmarkt damit meinen kannst weil es eben nach wie vor Absatzmärkte für "echte" Medien gibt, tendenziell im Genres wo Bands spielen, gerade bei Live Konzerten werden die dann auch verkauft etc etc...

Mir ist klar dass die aktuelle Popkultur nur clicks verkauft...na toll, kann ich meiner Tochter mal meine Musiksammlung auf ner konservierten festpladde, die im safe liegt vererben...ganz ehrlixh, da pfeif ich auf die sogenannte klick and buy Musikindustrie und kaufe weiter vinyl

Natürlich gibt es noch ein paar CDs insbesondere bei größeren Acts, Schlager oder wo halt noch so alte Menschen unterwegs sind. Aber meine Kinder hören mit Sicherheit kein Pop und die haben nicht mal nen CD-Player, nicht mal mehr am PC. Ich kenne auch keinen von den jungen Leuten, der Zuhause noch nen CD-Player hat. Auch ich besitze schon seit 20 Jahren keinen CD-Player mehr Zuhause, im Büro habe ich einen, aber benutze ihn quasi nie. "Keiner" ist wie du schon sagst sicherlich falsch, aber CDs spielen wirklich kaum noch eine Rolle, viel mehr die Selbstvermarktung über Spotify.
 
Davon habe ich leider überhaupt keine Ahnung und kann das dementsprechend auch nicht promt-optimieren. Wenn ich das einfach so eingebe, dann kommt das:

Hier beim ersten habe ich nen paar mal piano geschrieben, weil bei den anderen so wenig piano war ;-)

Anhang anzeigen 258299

Anhang anzeigen 258300
Anhang anzeigen 258301
Anhang anzeigen 258302
Danke dafür.
Das hat mit dem Gesuchten nur am Rande und auch nur vom ersten Klangeindruck her zu tun.
Insgesamt ist das viel zu gefällig, unterkomplex, hat viel zu wenig Dynamik und ist die falsche Epoche (zu früh, wahrscheinlich wurde hauptsächlich mit Mozart trainiert ;-) aber auch dagegen ist es flach).
Auch ist es kaum mehrstimmig und die einzelnen Instrumente sind als solche nicht gut unterscheidbar.
Das mit dem Klavier hat nur im zweiten Beispiel halbwegs funktioniert.
Trotzdem kann man sich natürlich vorstellen, dass bei mehr Training in Zukunft bessere Ergebnisse herauskommen könnten.

Nur so zum Vergleich:
 
Was ich mir schon vorstellen kann: der KI zu sagen sie möge mir ne 70ties Disco strings solo spur liefern..

Wäre dann noch immer genug kreativer Platz um sich was aus der spur rauszusamplen und in einem (natürlich selbst gebauten) Track zu verwenden..

Aber ich sehe schon...wer sich der techniken des Untergangs bedient, ist schließlich ein Beteiligter am babylonischen Untergang
 
  • Daumen hoch
M.i.a.u.: oli
Also, der Gesang ist KI-basiert, aber er stammt ursprünglich aus Aufnahmen von meiner Freundin und mir. Mit diesen Daten wird das KI-Modell gefüttert, das dann den finalen Gesang rendert.
Es gibt mittlerweile einige Tools auf dem Markt – ich nutze zum Beispiel gerne SoundID VoiceAI, oder wir lassen das Ganze direkt bei uns zuhause auf dem Server laufen.


Suno und Co. sind für mich tolle Sampler-Lieferanten und auch echte Inspirationsquellen.
Gerade nach dem Kauf der Browser-DAW bin ich gespannt, was da noch alles kommt – die Stimmspuren lassen sich inzwischen wirklich gut separieren, was das Sample-Schneiden deutlich erleichtert.


Für mich ist KI in der Musik ein großartiges Werkzeug – natürlich wird am Ende trotzdem alles sauber von Hand ausproduziert.
 
KI zerstört die Leidenschaft und die Menschlichkeit und die emotionale Beziehung zur Musik an sich...
Meine Helden werden bleiben und meine Kreativität auch...
Wenn es gerade Mode ist, sich selbst zu vernichten, kann ich das nicht ändern...
Freut euch auf die Konsequenz...

 
Danke dafür.
Das hat mit dem Gesuchten nur am Rande und auch nur vom ersten Klangeindruck her zu tun.
Insgesamt ist das viel zu gefällig, unterkomplex, hat viel zu wenig Dynamik und ist die falsche Epoche (zu früh, wahrscheinlich wurde hauptsächlich mit Mozart trainiert ;-) aber auch dagegen ist es flach).
Auch ist es kaum mehrstimmig und die einzelnen Instrumente sind als solche nicht gut unterscheidbar.
Das mit dem Klavier hat nur im zweiten Beispiel halbwegs funktioniert.
Trotzdem kann man sich natürlich vorstellen, dass bei mehr Training in Zukunft bessere Ergebnisse herauskommen könnten.

Nur so zum Vergleich:


Das Problem ist wahrscheinlich das Promting. Er hat wahrscheinlich jetzt halt irgendein piano-quartet gemacht. Man müsste halt genau wissen was man will, ohne jetzt den Namen des Künstlers, das funktioniert nämlich nur bedingt. Ich glaube auch nicht, dass die KI trainiert wurde genau so zu klingen wie xy. Sondern eben neue Sachen zu machen.
 
KI zerstört die Leidenschaft und die Menschlichkeit und die emotionale Beziehung zur Musik an sich...
Meine Helden werden bleiben und meine Kreativität auch...
Wenn es gerade Mode ist, sich selbst zu vernichten, kann ich das nicht ändern...
Freut euch auf die Konsequenz...



Die Musik … großes Kino … da fliegt einem das Blech weg … oder was auch immer die jungen Leute heut dazu sagen würden.
Da muss man sich danach emotional erstmal wieder sortieren …
 
Die Musik … großes Kino … da fliegt einem das Blech weg … oder was auch immer die jungen Leute heut dazu sagen würden.
Da muss man sich danach emotional erstmal wieder sortieren …
Das folgende ist deutlich weniger komplex, aber diese Dichte an Emotion zu transportieren ist aus meiner Sicht das Größte, was Musik und Musiker leisten können.

Mir, der ich seit vielen Jahren mit neuronalen Netzen arbeite, ist völlg klar, dass KI-Output und richtige Musik nicht nur Welten, sondern Universen trennen:


 
Auch ein wirklich tolles Beispiel!

Nun, vielleicht ist es in den beiden letzten Videos auch nicht ausschließlich die Musik. Man sieht auch die Gesichter der Menschen und wie sie in den Klängen versinken. Man sieht und hört das Glück. Die Traurigkeit. Vielleicht ist es die Tatsache, dass das alles Dinge ausdrückt, die man selbst nicht ausdrücken kann. Und das Wichtigste: Das Gefühl, du bist nicht allein! In deinem Glück, deinem Leid.

Ob KI das alles imitieren kann? Vielleicht. Irgendwann.
Ob das authentisch dieses Gefühl vermitteln kann? Vermutlich nicht.
 
Ich denke, daß keine Maschine in der Lage ist z.B. Arvo Pärts Fratres zu imitieren, mit all seinen Dynamikstufen, Tempowechseln und Emotionen. Falls es doch einmal so weit sein sollte, dann fände ich das bedenklich.





p.s.: Die beiden Versionen habe ich absichtlich gewählt, damit man auch mal sieht, wie unterschiedlich Instrumentierung und Interpretation desselben Stücks ausfallen können.
 
p.s.: Die beiden Versionen habe ich absichtlich gewählt, damit man auch mal sieht, wie unterschiedlich Instrumentierung und Interpretation desselben Stücks ausfallen können.
Die erste Version find ich von der Intonation der Violine manchmal was anstrengend, die zweite ist von der Performance und FX eher streamlined, typisch für Filmmusik.
Viele hier sind (verständlicherweise) für mein Geschmack zu sehr fixiert auf die Performance der Künstler und zu wenig auf die Wirkung auf das Publikum. Die selbe Diskussion hatten wie schon vor Jahrzehnten beim Einsatz von Synthesizern:dunno:
 
Die erste Version find ich von der Intonation der Violine manchmal was anstrengend, die zweite ist von der Performance und FX eher streamlined, typisch für Filmmusik.
Das war auch genau meine Intention.

Was die Intonation angeht, habe ich auch absichtlich genau diese Version gewählt, weil da ganz einfach viel Mensch drinsteckt.
 
Ich denke, daß keine Maschine in der Lage ist z.B. Arvo Pärts Fratres zu imitieren, mit all seinen Dynamikstufen, Tempowechseln und Emotionen. Falls es doch einmal so weit sein sollte, dann fände ich das bedenklich.
Warum sollte eine Maschine das unbedingt können? Eine Synthesizer ist kein Cello, ein Foto ist kein Ölgemälde. Das ist einfach was anderes. Und so wird es auch seine Berechtigung haben: als eigenständiges Kompositionswerkzeug. Das man so selbstverständlich nutzen kann, wie einen Hammer. Nägel drückt man ja auch nicht mit der Hand in die Wand.

Das ist momentan wie mit den Webseiten und Desktop-Publishing Programmen damals: alles bunt, alles blinkt, aber nachher hat man gelernt, wie man damit umgeht.

Ansonsten weiß ich bis jetzt noch nicht, wo Seele und Kreativität im Gehirn sitzen - da werkelt Chemie und Physik, mehr nicht. Aber keine Metaphysik. Nur werkelt das auf eine Elend komplexe weise, die wir noch nicht in Ansätzen nachvollziehen können (zur Zeit kann man das winzige Nervensystem von Coenorhabdtis elegans mit seinen 260 oder so Neuronen ja noch nicht mal vernünftig simulieren). Von daher möchte ich nicht ausschließen, dass eine KI in ferner Zukunft durchaus Kreativität zeigen kann. Mit "niemals" wäre ich vorsichtig. Es kann ja auch kein Objekt fliegen, das schwerer ist als Luft...
 
Anderes Beispiel: Medizin.

KI ist angeblich jetzt schon in der Beurteilung von Hautveränderungen jedem Hautarzt überlegen.

Aber aus Laborbefunden eine Kausalität abzuleiten und nicht nur eine Korrelation, das klappt noch nicht so recht (Spektrum der Wissenschaft 5/25: "KI lernt Kausalität") .

Auch in der Mathematik wird mittlerweile KI eingesetzt (Spektrum der Wissenschaft 2/2025).

Das ist ein Werkzeug. Geschickt eingesetzt, kann es sicher tolle Sachen. Aber zu erwarten oder glauben, dass es einem das Denken abnimmt, das ist derzeit wohl etwas viel verlangt.
 
  • Daumen hoch
M.i.a.u.: oli
Das war auch genau meine Intention.

Was die Intonation angeht, habe ich auch absichtlich genau diese Version gewählt, weil da ganz einfach viel Mensch drinsteckt.
Ich bin in der Beziehung halt was empfindlich, daher gehe ich mittlerweile auch Synths aus dem Weg die man erst 'ne Weile warm laufen lassen und stimmen/tunen lassen muss ;-) Bei einer Violine natürlich verständlich, (als Beispiel) sicher leichter wahrzunehmen als div. Variationen in der Klangfarbe abhängig von der Spielweise eines Instruments, letzteres würde ich aber bevorzugen - genau wie bei Synths.
 
Ich bin in der Beziehung halt was empfindlich, daher gehe ich mittlerweile auch Synths aus dem Weg die man erst 'ne Weile warm laufen lassen und stimmen/tunen lassen muss ;-) Bei einer Violine natürlich verständlich, (als Beispiel) sicher leichter wahrzunehmen als div. Variationen in der Klangfarbe abhängig von der Spielweise eines Instruments, letzteres würde ich aber bevorzugen - genau wie bei Synths.
Ist natürlich verständlich. Mir ist vieles mittlerweile einfach zu glatt gebügelt, zu perfekt. Gerade auch die meisten KI-Sachen.

Mir fehlt zu oft der Faktor Mensch und ein gewisses Maß an Ungenauigkeit, Lebendigkeit und nicht geplanter Zufall.
 
Ich denke, daß keine Maschine in der Lage ist z.B. Arvo Pärts Fratres zu imitieren, mit all seinen Dynamikstufen, Tempowechseln und Emotionen. Falls es doch einmal so weit sein sollte, dann fände ich das bedenklich.





p.s.: Die beiden Versionen habe ich absichtlich gewählt, damit man auch mal sieht, wie unterschiedlich Instrumentierung und Interpretation desselben Stücks ausfallen können.


Ich bin mir relativ sicher, dass es völlig unproblematisch für eine KI ist das zu imitieren. Was wir zum Beispiel mit Suno haben ist eine allgemeine KI für Musik, die kann auch nicht "Alle meine Entchen" furzen und sei es noch so banal. Warum sollte Tempowechsel und Dynamikstufe irgendein Problem für die KI darstellen? Vom Nachmachen haben sich die KI-Entwickler doch längst verabschiedet, darum gehts doch gar nicht mehr.
 



Zurück
Oben