SUNO 5 verändert die Musikwelt

Keine Samples, keine Audios (wenns keine eigenen sind), keine Templates, kein Abgreifen von Irgendwoher, natürlich keine Sequenzen, kein garnix,
nur hinten heraus perfekte Musik. Find ich absolut top, aber mir wird bei bestem Willen nicht klar, woher das immense Soundmaterial herkommt.
Ein Sampler kennt kein Piano, trotzdem will es mit solch einem gefüttert werden, erst dann hat man Piano.
KI ist nat. kein Sampler, aber wo sind die Rippen, wo das ganze Hörbare her geschnitten wird? Betriebsgeheimnis? Wo hat der Frosch die (G)Locken?
 
Auch Midi Dateien? Habe ich nicht gelesen. Nur Suno Studio? Oder auch die Pro Version?
Scheint auch aus dem Editor (in Pro) heraus zu klappen.
Bin noch manchmal etwas lost in dem ganzen Ding.
Denke, die werden noch einiges verschlanken und sauberer dokumentieren.
Derzeit noch eine Menge Versuch und Irrtum.
Aber macht gewaltig Spass, seine alten Sachen wieder damit anzufassen.
 
Gibt es irgendwo Beispiele, wo man sieht was, wie eingegeben wurde und dabei rauskommt?

Bzw. wie man dann zu dem gewünschten Ergebnis kommt oder es beschreiben muss das es wie erwünscht ist?
 
Die KI hebt die Live Musiker in den Himmel mit der Zeit. Denn wenn weniger Leute wissen wie man noch oldschool per Hand Musik macht, so werden die bewundert die noch in der Lage sind ohne KI Musik zu machen. So wie man die bewundert die ihre Kleidung noch selbst nähen oder selbst ihr Haus bauen können usw.

Das hier ist der wichtigste Satz des ganzen Threads.

Und das ist keine verbohrte Nostalgiethese! Ich war am letzten Jugendkulturfestival hier in der Gegend regelrecht geschockt, nicht nur wo die ganzen teils blutjungen Acts herkamen, die da auf mehreren Bühnen unfassbar viel Publikum gezogen haben – und mit einer stilistischen Variation, die es noch vor 10 Jahren so nicht gegeben hat – sondern vor allem, wie viel eigentliche Laptop-Acts (ob früher damit gesehen oder generell von der Machart her) plötzlich mit Freunden auf der Bühne standen und fast schon bluesige, retro-rockige Versionen ihres Synthpops gespielt haben – oder gleich Unplugged Sets, alles mit minutenlangen Jams. Das war im Vergleich zu 2023 derart handgemacht, dass es fast schockiert hat – und fast 500 Leute vor einer instrumentalen Gniedel-Mathcore-Band auf einer Nebenbühne um Mitternacht hab ich auch noch nie gesehen.
 
Das hier ist der wichtigste Satz des ganzen Threads.

Und das ist keine verbohrte Nostalgiethese! Ich war am letzten Jugendkulturfestival hier in der Gegend regelrecht geschockt, nicht nur wo die ganzen teils blutjungen Acts herkamen, die da auf mehreren Bühnen unfassbar viel Publikum gezogen haben – und mit einer stilistischen Variation, die es noch vor 10 Jahren so nicht gegeben hat – sondern vor allem, wie viel eigentliche Laptop-Acts (ob früher damit gesehen oder generell von der Machart her) plötzlich mit Freunden auf der Bühne standen und fast schon bluesige, retro-rockige Versionen ihres Synthpops gespielt haben – oder gleich Unplugged Sets, alles mit minutenlangen Jams. Das war im Vergleich zu 2023 derart handgemacht, dass es fast schockiert hat – und fast 500 Leute vor einer instrumentalen Gniedel-Mathcore-Band auf einer Nebenbühne um Mitternacht hab ich auch noch nie gesehen.
Das ist ja beruhigend. Ich habe am Wochenende noch mit ein paar Freunden und Bekannten zusammen gesessen, alles Musiker oder sehr musikinteressiert, und von deren Kindern im Alter von 16 bis Mitte 20 hat sich keines so wirklich für Musik interessiert geschweige denn selbst Musik gemacht - ich hatte daher schon befürchtet, dass das allgemein kein Thema mehr für die Jugend ist.
 
Irgendwie ist das doch alles wie Mahlen nach Zahlen. Als auf Udio diese Depeche Mode AI Tracks veröffentlicht wurde, hörten die sich durchaus cool an. Aber irgendwo kommt man - oder zumindest ich - an den Punkt, dass ich Kunst von Menschen möchte und die zuvor coolen Ergebnisse doch eher seelenlos waren. Es ist überhaupt kein Problem, technische Entwicklungen zu nutzen, das ist jedem Künstler freigestellt. Wenn ein Künstler AI, Random und andere Tools nutzt, aber die Schnipsel selbst nach seiner Entscheidung zusammensetzt, dann erstellt er ein Werk nach seinem Geschmack und es ist ein Teil des Künstlers.

Selbst eine immer perfektere AI gibt nicht das was mir ein Werk eines Menschen geben kann, weil in meinem Kopf diese Schere ist, die ich aber auch nicht entfernen möchte.

Wenn man überlegt, wie in meiner 80s Jugend oder in den 70s Musik als ein verbindender Indikator funktioniert hat, ist dieses heutige DIY-AI-Soundlike-Gedöns sowohl gesellschaftlich als auch kulturell eine Bankrotterklärung.

Und ich dachte in den 90s Barby Girl wäre das Ende des Abendlandes.
 
Eine Definition von Kunst waere: grandiose handwerkliche Fahigkeiten
eine ander waere: wenn es jemand Kunst nennt ist es Kunst.
oder:
wenn es das auslöst, was der Schaffende auslösen wollte.
oder oder oder...

ich möchte das nur noch mal zitieren um es zu pushen, weil ich das für die richtige antwort auf die gestellte frage halte.
 
nur hinten heraus perfekte Musik. Find ich absolut top, aber mir wird bei bestem Willen nicht klar, woher das immense Soundmaterial herkommt.

das ist eigentlich schon drei mal beantwortet worden, aber vielleicht nicht konkret genug.

KI automaten bestehen hauptsächlich aus einem relativ simplen mechanismus, der nichts weiter tut, als trainingmaterial danach zu analysieren wie hoch die übergangswahrscheinlichkeiten von einem wert zum nächsten sind.

nicht anders als die wikipediaartikel, die ein chatbot einst gelehrt bekam um daraus neue sätze zu basteln, was dir dann so vorkommt, als ob er denken und sprechen könnte...

1759180432438.png

... oder ein bildgenerator, der 385,000 bilder von klavieren als futter bekam, und daher jetzt weiß, wie ein klavier aussieht und dass sie meistens in zimmern stehen und meistens fotographiert werden wenn die sonne scheint...

1759180527137.png

...weiß so ein KI automat eben auch wie ein klavier klingt, weil er zuvor tausende von samples von klavieren als futter bekam - und dazugesagt bekam (mit verschlagwortung durch klickarbeiter aus entwicklungsländern), dass es sich um sounds von klavieren handelt.

ein klaviersample besteht wie alle anderen dateien aus nichts weiter als einer reihe von binären werten, die man auch hexadezimal oder dezimal oder als buchstaben decodieren könnte, und im falle von text oder audio ist das auch tatsächlich nur eine eindimensionale reihe (während es bei bildern 2-dimensional ist und es bei finanzdaten mehrdimensional wird)


ein sampler nimmt einen klaviersound auf, der z.b. aus den werten 0.4 0.5 0.9 -0.1 0.0 -0.7 besteht, und gibt den dann so wieder. wie er reinkam.

ein KI automat bekommt 30000 verschiedene samples gefüttert, und dazu gesagt "das ist ein klavier".
wenn dann jemand darum bittet "klavier" zu erzeugen, dann stehen in der "datenbank" der KI alle diese daten in form von übergangswahrscheinlichkeiten zur verfügung, und die werden dann, sagen wir mal vereinfacht, zufällig ausgelesen, wobei für die eingabe "klavier" der weg durch das netz ein anderer ist wie für die eingabe von "klafünf".

der output ist dann tendenziell so ungefähr der durchschnitt der samplewerte aller input samples und das wird dann von dir wieder als klaviersound wahrgenommen, obwohl es aktuell immer noch ein paar fehler enthalten kann.

es ist nur die halbe warhheit, aber um dir ein grobes bild zu machen schau dir mal an, wie ein simple markov kette funktioniert (wie sie manche komponisten schon seit den achtzigern für midi verwenden)


der einzige teil der daran schwierig zu verstehen ist sind nur die auswirkungen der tatsache, dass heutzutage die datenmenge und die rechengeschwindigkeit so irrsinnig hoch sind, dass man sich das nicht mehr vorstellen kann.


DU erkennst ja auch, dass auf dem bild oben ein klavier ist, nicht wahr? und? kannst du auch erklären WIE du das erkennst? siehst du, und bei KI ist das genauso.
 
Zuletzt bearbeitet:



Zurück
Oben