KI vs Arpeggiator vs Gema vs Der Tag vor der Zukunft.

Was noch kommt wissen wir ja nicht - und haben das auf kreative Dinge begrenzt,
Die wenigste Musik würde ich Kreativität zuordnen.
"Kreativität ist die Fähigkeit, etwas zu erschaffen, was neu oder originell und dabei nützlich oder brauchbar ist."
Soviel neue Musik gibt es hier und da draußen aber nicht zu hören.
 
Die wenigste Musik würde ich Kreativität zuordnen.
"Kreativität ist die Fähigkeit, etwas zu erschaffen, was neu oder originell und dabei nützlich oder brauchbar ist."
Soviel neue Musik gibt es hier und da draußen aber nicht zu hören.

Musste kurz überlegen, aber du hast da wohl recht.

Wer´s nicht glaubt, sollte sich mal die Zeit nehmen und Playlisten kreuz und Quer hören.

Mal PLaylist Charts 202Xer ne Weile und danach Playlist 80s. Das ist schon ein krasser Kontrast,
nicht nur klanglich, sondern allein schon inhaltlich.

Ansonsten geht auch Oldschool Techno vs Techno 2024 oder so

Es hat ja nicht nur eine klangliche Annäherung stattgefunden, sondern der Inhalt hat sich insgesamt reduziert
und an diesen reduzierten Inhalt hat man sich anggeglichen und feiert es als "genial".

Die Folgefrage ist total berechtigt, ob es in dieser Situation angemessen ist, Angst vor KI zu haben, weil man
weniger Kreativität befürchte. Aus der Perspektive wirkt das Argument ... schwachsinnig

Könnte also sein, dass KI, insb. für elektronische Musik eine Chance ist, weil Einheitsbrei inflationär untergeht
und zu den Perlen einen deutlicheren Konstrast bildet. Möglich ?!
 
Die ganzen "langweiligen" Studioarbeiten wie Mixing, Mastering durch KI ( im Beitrag ist LNDR erwähnt ) zu ersetzen ist für sage ich mal 80% der Musik heute schon absolut ausreichend.

Bei den Bildgeneratoren ist es so, dass man für jeden Stil mittlerweile ein darauf eigens trainiertes Modell findet.
sogenannte "loras" können noch zusätzlich benutzt werden, die das Modell noch weiter spezifizieren.

Ich könnte KI generierte Musik in diese Richtung gehen sehen...
Das würde zwar heissen dass sich durch besonders beliebte Modelle generierte Musik recht ähnlich anhört... aber das ist auch kein Unterschied zu dem was heute so in der Fläche zu hören ist.

Die Produzenten die sich darüber echauffieren dass dann ihr Lebenbsunterhalt nicht mehr bestreitbar ist sind grösstenteils dieselben, die sich die Orchestermusiker sparen und durch samples ersetzen....
Oder grundsätzlich alle Handgemachte Musik durch Sequencer und Synths, zur KI ist es nur noch ein kleiner Step.
In Stable Diffusion kann ich mit Img2Img ein bvestehendes Bild nehmen und die KI was grösseres daraus machen lassen.
Genauso könnte ich dann irgendein Riff nehmen das mir gerade eingefallen ist, und der KI sagen "vervollständige das zu einem Song im Stil von XY, mit diesen und jenen Instrumenten, das soll so und so lang werden und die und die Gliederung haben...." und Wumms, Song fertig. Wenn ich den Song bereits im Kopf habe wird das ziemlich genau hinhauen, die ganze mühselige Handarbeit wird dann genauso wegfallen wie früher das Streichorchester.

Bei den Gema-Gebühren sehe ich auch differenzierte Probleme:
Wenn ich heute als Band mit ausschliesslich selbstgeschriebenen Songs und nicht als Gema-Mitglied ein konzert gebe, muss der Veranstalter keine Gema bezahlen, sonst schon ( vereinfacht ).
Solange sich an den Gesetzen nichts ändert, will die Gema auch weiterhin jeden Club und jedes Konzert abkassieren falls auch nur ein fitzelchen Gema-Autor dabei ist, diese Gebühren sind auch nicht ohne...

Wenn ich heute KI Modelle zur Musikgeneration erstelle und diese ausschliesslich mit Opensource oder anderen "freien" ( zumindest Gema-frei ) Musikstücken trainiert wird, kann die damit generierte Musik durchaus nur den Lizenzen der im Training verwerteten Musikstücke unterliegen....
Käme ich jetzt auf die Idee, eine Soundcloud/Bandcamp ähnliche Plattform kostenlos anzubieten ( nur gegen die Auflage, dass die Musikstücke Gema-frei sind und dann zum Training einer Musik-KI genutzt werden darf ). könnte das funktionieren.
Oder Soundcloud/Bandcamp kommen selbst auf die Idee das zu tun und mal eben das Kleingedruckte zu ändern..
Irgendwer, der schlau genug ist, wird auch Diskotheken / und deren notorisch klammen Besitzen ) die Idee verkaufen können, dass sie sich einen Tausender Gema im Monat sparen können, wenn sie ausschliesslich generierte Musik spielen...
Wenn die Qualität des Umpf-Umpf im Hintergrund gut genug wird ( und das ist nur eine Frage der Zeit ), kann man für bestimmtes Publikum durchaus einen ganzen Abend nur einen "Generator" laufen lassen, und dann brauchst du auch keine DJane mehr die ja eh grösstenteils nix mehr macht ausser blinde knöpfe zu drehen und die Möpse hüpfen zu lassen, da kannst du auch deine lokalen knapp ( oder nicht ) bekleideten Tanzmäuse nehmen.
Auch Restaurants nutzen heute schon GEMA-freie Hintergrundmusik um keine Gebühren bezahlen zu müssen.
Das nächste Problem wird dann: wenn ich dann Musik generiere kann mir sicher niemand nachweisen welches Modell ich benutze, ob Gema-frei trainiert oder nicht ( wenn wir mal davon ausgehen dass die GEMA einen Weg findet das zu bepreisen ).
Ich kann auch locker behaupten dass mein Stück das ich gerade veröffentliche, entweder nicht KI generiert ist ( also mir die Komposition auf die Fahne schreiben ) oder einfach behaupten "ja, ist KI generiert, aber mit freien Modellen"....
wer will das nachweisen?

Im Prinzip spekuliere ich wird die Gema ( die ja mit dem Staat verbandelt ist ) irgendwann exakt das gleiche tun wie die GEZ: wenn irgendwann nicht mehr genug nachweisbare Aufführungen stattfinden, kommt eine Flatrate. Dann wird einfach jeder Club, Veranstalter und Radiosender eine feste Summe abdrücken müssen.

Aber, grob gesagt: die Musikindustrie hat heute die Probleme noch nicht gelöst, die schon vor 20 Jahren entsanden sind. Ich sehe schwarz, dass da in endlicher Zeit was ordentliches kommt. Das einzige was die kennen ist "Deckel drauf, verbieten, bestrafen". Die Argumentation könnte sein "da nicht nachzuweisen ist ob ein stück mit lizenzfreier KI erstellt wurde, oder ohne KI ( wie willst du das nachweisen... ) und die Möglichkeit besteht dass zum Training Modelle Stücke von Gema Autoren verwendet wurden, muss jetzt für jede aufführung bezahlt werden".
Hat ja die GEZ auch so ähnlich gemacht.
 
Zuletzt bearbeitet:
Ich vertraue nur der KI, die ausschließlich mit meinen eigenen Werken trainiert wurde. :P Da kann man sich auch mal ein Jahr Urlaub gönnen, ohne dass die Fans merken, dass mich die KI vertreten hat ...
 
Sollte ich jemals Musik gut finden ohne zu bemerken dass das nicht von einem Menschen gemacht wurde, werde ich mich verarscht, beschmutzt und betrogen fühlen.
Wenn eine KI mit Techniken traniert wurde die mir zusagen, bestimmte Kadenzen, Arrangement, eine bestimmte Soundästhetik, dann bin ich mir sicher dass ich die KI Musik vielleicht sogar besser finden werde als die von einem Menschen. Ganz einfach aus dem Grunde, weil bei den Menschen gemachten Sachen mir meist nicht alles gefällt. Die KI könnte es schaffen viel mehr Musik so zu machen, dass sie für mich perfekt klingt. Das könnte sie sicher auch dynamisch machen, je nach meiner Stimmung. Diese linearen Musikstücke könnten bald langweilig werden und vielleicht gibt es bald Dynamische Musik, die man eben nicht mal so in ein WAV umwandeln kann, da dies immer nur eine Momentaufnahme wäre. Diese Dynamische personalisierte Musik wird dann live von der Spotify App erzeugt und kann auf keine Schallplatte usw. gepresst werden.

Mit KI ist so viel möglich, von dem wir wahrscheinlich noch nicht mal zu träumen wagen.

Es wird aber sicher auch immer Leute geben die dann noch oldschool mäßig Musik produzieren, wie hoch der Anteil da sein wird, wird man sehen.
 
Zuletzt bearbeitet:
Sind es drei unterschiedliche Topics? Wir machen bestimmte Dinge auf Grund unserer Biologie, wie zum Beispiel soziale Interaktion.

wenn für dich die soziologie, die psychologie und die biologie das gleiche ist, warum willst du diese dann unbedingt vom geistigen oder vom logisch-mathematischen in der musik trennen? dann ist das doch auch alles das gleiche.

und wenn das eh alles das gleiche ist, dann behaupte ich jetzt einfach, dass der zusammenhang umgekehrt ist: gesellschaft ist auch nur musik. und jetzt?
 
Zuletzt bearbeitet:
Mit KI ist so viel möglich, von dem wir wahrscheinlich noch nicht mal zu träumen wagen.

KI modelle, mit den so etwas möglich ist, haben aber als grundvorrausetzung, dass man erst mal überhaupt musik tief genug analysieren kann.

ich habe mir erst neulich wieder einen wolf geklickt um auf der basis von melodyne ein mehrstimmiges spinett stück korrekt einzulesen.
und ich brauchte nur die note ons - und ich verstehe genug von DSP und hör audio gut genug um mir die passen pre-filter dafür selbst zu bauen. im endeffekt musste ich aber dann doch noch überall die transienten/attacks manuell festlegen.
mit intonationskennlinien ist mehrstimmigem material mit derzeitiger technik nicht wirklich beizukommen, und wenn ich erst gar keine modelle habe, dann nützt mir auch die schnellste KI GPU nix.
 
nur weil das brot im supermarkt voller gift ist, ist die idee brot aus weizen herzustellen nicht grundsätzlich falsch und vor allem können das die bauern, die müller und die bäcker dann eben doch besser als die innenarchitekten.

Vielseitigkeit hat weder was mit Brot, noch mit Äpfeln und schon gar nicht mit Birnen zu tun.
 
wenn für doch die soziologie, die psychologie und die biologie das gleiche ist, warum willst du diese dann unbedingt vom geistigen oder vo, logisch-mathematischen in der musik trennen? dann ist das doch auch alles das gleiche.

und wenn das eh alles das gleiche ist, dann behaupte ich jetzt einfach, dass der zusammenhang umgekehrt ist: gesellschaft ist auch nur musik. und jetzt?
Musst du näher erklären, jetzt wird es philosophisch? Das ist auch nicht so meins. Geht das so in die Richtung "Wir existieren, um zu musizieren"? Ich bin eher so "Musik hat eine evolutionären Vorteil, weil es die Sozialstruktur der Menschen stärk und deswegen machen Menschen Musik".
 
Musst du näher erklären, jetzt wird es philosophisch? Das ist auch nicht so meins. Geht das so in die Richtung "Wir existieren, um zu musizieren"? Ich bin eher so "Musik hat eine evolutionären Vorteil, weil es die Sozialstruktur der Menschen stärk und deswegen machen Menschen Musik".

ach jetzt soll ich dir das erklären? ich dachte du wärst jetzt mal dran.

ich sach ja, du sprichst dem werk sein eigenständiges wesen ab.
 
ach jetzt soll ich dir das erklären? ich dachte du wärst jetzt mal dran.

Bitte nochmal genau die Frage stellen, du hast mich auf halben Weg verloren. Wie gesagt, meine Ebene ist so die biologische Evolutionssicht, alles hat irgendwo die Basis darin. Dem Überleben der Species ist alles untergeordnet. Wenn Musik keinen evolutionären Vorteil hätte, dann würden wahrscheinlich nicht so viele Menschen Musik machen. Das bedeutet nicht, das Musik essentiel zum Überleben ist, es bedeutet nur, dass es irgendwie hilfreich ist und sich deshalb etabliert hat. Geht es dir überhaupt um die Ebene, die ich gemeint habe oder auf was zielst du ab. Mich interessieren eher so Fakten und weniger so soziale Ränkespielchen. Was nicht bedeutet, meine Ansicht wäre richtig oder die einzige oder sonstwas, es ist nur eine Erklärung warum ich bestimmte Dinge so schreibe wie ich sie schreibe.
 
das brot im supermarkt ist genauso wenig richtiges brot wie die musik aus dem supermarkt keine richtige musik ist.

das ändert aber nichts daran, was und wie brot eigentlich sein sollte, und dass für brot die regeln für brot gelten.

Darum geht es doch gar nicht, sondern es ging um die Vielseitigkeit. Die Vielseitigkeit in den Charts und die Vielseitigkeit
innerhalb von Genren.

Du bgist da irgendwo falsch abgebogen.
 
KI modelle, mit den so etwas möglich ist, haben aber als grundvorrausetzung, dass man erst mal überhaupt musik tief genug analysieren kann.

ich habe mir erst neulich wieder einen wolf geklickt um auf der basis von melodyne ein mehrstimmiges spinett stück korrekt einzulesen.
und ich brauchte nur die note ons - und ich verstehe genug von DSP und hör audio gut genug um mir die passen pre-filter dafür selbst zu bauen. im endeffekt musste ich aber dann doch noch überall die transienten/attacks manuell festlegen.
mit intonationskennlinien ist mehrstimmigem material mit derzeitiger technik nicht wirklich beizukommen, und wenn ich erst gar keine modelle habe, dann nützt mir auch die schnellste KI GPU nix.
Ich sag jetzt mal Bilder zu analysieren, die Regeln zu verstehen und dann eine KI so damit zu trainieren dass diese täuschend echte Bilder generieren kann, ist jetzt im Prinzip auch nicht einfacher oder schwerer... die Datenmengen sind anders, dazu später.
Die KI lernt ja nicht die Regeln.... die ist eher wie ein kleines Kind, verarbeitet Beispiele mit Text/Bild Paaren und lernt aus den richtig/falsch Ergebnissen...
Durch eine eine grosse Menge an Bildern erkennt die KI immer wiederkehrende Strukturen setzt diese Muster ein und "lernt" aus den Ergebnissen. Verschiedene Modelle haben verschiedene Themen ( die Bibliothek an Bildern von denen sie lernt ) und deshalb können verschiedene Modelle manche Themen besser, manche schlechter.

Die KI ist bei Bildern jetzt soweit weil da einfach schon sehr lange und intensiv daran geforscht wurde. Wenn man den selben Aufwand in Musik stecken würde, wäre da sicher auch bald mit Ergebnissen zu rechnen.
Die Datenmenge bei Bildern ist halt sehr viel kleiner als bei Musik, und es gibt viel mehr! Deshalb bot sich das an das zu nehmen. Aber das Prinzip ist dasselbe!!!

Stable Diffusion wurde mit etwa 5 Milliarden Bildern trainiert, die inklusive dazugehörigem Text aus dem Internet gezogen wurden... deshalb kann stable diffusion Text den Bildern zuordnen.

Es ist recht kompliziert was da passiert, aber einem Bild wird ganz einfach erklärt "Rauschen" hinzugefügt und dann wieder subtrahiert, und dadurch lernt die KI
Sie würde "Rauschen" zur Musik hinzufügen und wieder abziehen... genauso wie bei Bildern.
Die automatische Text-Zuordnung würde tricky, und die Menge an Musik ist auch nicht so gross wie die an Bildern.... aber, jetzt schau mal auf Soundcloud/Bandcamp, da hast du immer die zugehörigen Tags zur Musik... deshalb wäre das durchaus eine extrem interessante Quelle... wie oben geschrieben warte ich auf die Änderung im Kleingedruckten.
Weil die Datenmengen bei Musik so gross sind und die ersten "Tests" deshalb immer mit niedrig aufgelösten MP3s gefahren wurden, hören die sich halt jetzt an wie die sich anhören... eher so naja. Dass die Bilder-KI mit grossteils stark komprimierten Jpegs trainiert wurden sieht man nicht, aber durch die schlechten MP3s weiss die Musik KI gar nicht wie sich qualitativ gute Musik anhören sollte....

Also wenn ich die Bilder-KI auf Musik übertrage, lernt die einfach "vom Hören" wie sich ein gutes Musikstück anhören muss ohne die Theorie zu kennen... sie entwickelt einen "Geschmack" in einem bestimmten Modell.
Es gäbe, wie bei Bildern, ein generelles Modell das nix ganz gut kann, aber dann ein Modell mit Klassik, eins mit Rock, eins mit Pop, ein mit Jazz und so weiter.... und je nachdem was ich brauche kann ich ein Rock-Modell nehmen, mit einem Klassik Modell "verschmelzen" ( das geht bei Bildermodellen ), ein kleines LoRa Modell mit Pink Floyd, Kansas und Tangerine Dream füttern und dann mal laufen lassen... voilà, spuckt 70er Prog Rock aus.

Um das kontinuierlich zu machen ( also quasi zu streamen ) bräuchte ich aber wahrscheinlich mindestens eine NVidia Tesla T4 und ein SSD Array das die dann Terabyte-grossen Musik-Modelle schnell genug bereitstellen kann... zuhause einfach so geht da nix. Da ist noch lang nichts in Sicht.
 
Zuletzt bearbeitet:
Ein Bild ist ja statische Information. Musik ist ja fließend, wenn ich das mal so als Laie ausdrücken darf. Die Frage ist, ob wir überhaupt KI in dieser Form brauchen. Beispiel, ein C-Dur Melodie Generator könnte man durch einen sehr einfachen algo. erstellen. Du analysierst 1.000 Midi-Files mit Melodien, schaust wie häufig welche Noten vorkommen und setzt dann mit dieser Wahrscheinlichkeit die Noten. Wir haben die Musik so gut mathematisch zerlegt, dass wahrscheinlich eine KI gar nicht nötig ist. Im Prinzip ist der magix music maker sowas wie eine musikalische AI. Der Sprung ist also nicht besonders groß, den ich mit einer AI erreichen kann. Eine AI auf dem Level von Midjourney würde in der Musik keinen großen Vorteil bringen. Ein Midjourney-Bild ist besser als viele Profizeichner, wenn ich mir ein paar Loops kaufe, dann klinge ich wie ein Profimusiker. Wir haben also in der Musik schon Tools die auf ähnlich hohem Niveau sind, einfach zu bedienen und dazu noch fexibler als eine AI. Oder zum Beispiel sowas wie die Elektronkisten, da könnte auch Hans-Wurst mit seinem dritten Arm etwas eingeben und es würde sich am Ende gut anhören. Alleine durch Quantisierung, Tonleiter-Fixierung, passenden Chordseets hört sich fast jede Eingabe, und selbst wenn es ein Drittklässler machen würde, gut an.
 
Alleine durch Quantisierung, Tonleiter-Fixierung, passenden Chordseets hört sich fast jede Eingabe, und selbst wenn es ein Drittklässler machen würde, gut an.
Naja gut anhören im Sinne von nicht falsch klingen vielleicht. Sehr belanglose generisch klingende Elektromusik oder auch ganz simple RockPop Songs schafft auch ein Algo. Aber sobald es darum geht, die Sounds wirklich gut aufeinander abzustimmen oder auch eine Dramaturgie im Song aufzubauen, ist da eine Grenze erreicht.
Diese Grenze kann KI noch ein Stück verschieben, je besser sie ist desto weiter.

Wenn ich als Mensch eine Tonfolge suche, probiere 3 davon aus (die mein innerer Algo sozusagen nach bestehender Theorie vorgeschlagen hat) und eine davon berührt mich emotional am meisten, wähle ich diese aus. Das wird dann auch eine KI nicht so schnell können.
Eine andere Frage wieder ist allerdings, ob die Hörer das dann genauso empfinden oder die Auswahl auch hätte zufällig sein können.
Aber ich denke schon, dass auf diese Weise ein Künstler eine individuelle Färbung einbringt.

Eine KI kann man damit auch füttern, so dass sie solche individuellen Präferenzen und Färbungen nachahmen kann, zu einem gewissen Grad.
Zumindest das was in Abgrenzung zum Algo heute landläufig KI genannt wird, auch wenn man es auch als komplexen Algo bezeichnen könnte.

Ein großer Sprung wie du schreibst mag da nicht gleich da sein, aber mit zunehmender Verbesserung der Technologie werden die Ergebnisse erstaunlicher und "menschlicher" erscheinen, das denke ich schon. Das heißt, das geht über die bloße Anwendung von musikalischen Regeln hinaus.
 
Bitte nochmal genau die Frage stellen, du hast mich auf halben Weg verloren. Wie gesagt, meine Ebene ist so die biologische Evolutionssicht, alles hat irgendwo die Basis darin. Dem Überleben der Species ist alles untergeordnet. Wenn Musik keinen evolutionären Vorteil hätte, dann würden wahrscheinlich nicht so viele Menschen Musik machen. Das bedeutet nicht, das Musik essentiel zum Überleben ist, es bedeutet nur, dass es irgendwie hilfreich ist und sich deshalb etabliert hat. Geht es dir überhaupt um die Ebene, die ich gemeint habe oder auf was zielst du ab. Mich interessieren eher so Fakten und weniger so soziale Ränkespielchen. Was nicht bedeutet, meine Ansicht wäre richtig oder die einzige oder sonstwas, es ist nur eine Erklärung warum ich bestimmte Dinge so schreibe wie ich sie schreibe.

das ist der teil, den du erklären müsstest: was ist die "biologische evolutionssicht", inwieweit kann man diese sicht auf das thema kunst, KI und urheberrecht anwenden, und was hat biologie mit sozialen beziehungen und identität zu tun?

verstanden habe ich im prinzip bis jetz nur, dass deine perspektive irgendwo ganz weit weg vom eigentlichen thema ist.
 
Hm. mal ganz einfach: Musik so mathematisch aufzuschlüsseln dass du automatisch einen Hit landest wurde seit Jahrzehnten versucht. Die sogenannte Hit-Formel gibt es nicht.
Was es stattdessen gibt sind einfach manche Produzenten die das im "Gefühl" haben einen Hit nach dem anderen rauszuhauen. Und genau da kommt KI ins Spiel.
Das wird auch irgendwann die Schwierigkeit bei der Musik-KI.... wie bringe ich der KI bei was "gute" und "schlechte" Musik ist. Aus den selben 4 Akkorden und mathematisch ähnlichen Abläufen können unsterbliche Hits oder Grottenschlechte Fahrstuhlmusik entstehen... die KI soll die Muster erkennen die den Unterschied machen... und zwar ohne sofort als Kopie wahrgenommen zu werden, das heisst sie muss auch vermeiden zu sehr nach einem bestimmten Song zu klingen, da könnten dann nämlich Urheberrechtsverletzungen im Raum stehen...
Das wird herausfordernd. Bei Bildern ist das anders, ich kann exakt dasselbe Bild wie ein schon existierendes Bekanntes, am selben ort, mit denselben Einstellungen und nur mit einer anderen Person machen und es ist keine Urheberrechtsverletzung. Es gibt keine Rechte auf Positionierung im Raum, Hintergründe ( vom Eiffelturm mal abgesehen) etc... Bei Musik hätte ich sofort die Anwälte am Hals.
Übertragen auf Musik, wenn es wäre wie bei Bildern: ich könnte einfach einen anderen Sänger nehmen für einen Song und schon ist es meiner.
Aber erstmal muss die KI überhaupt was hörbares auf die Beine bekommen. Das wird noch ein weiter Weg.

Wir machen bei uns ein interessantes KI-Projekt in dem es darum geht Unfälle "vorherzusagen". Und Mathematik spielt dabei eher keine Rolle, es geht um Mustererkennung...
Eigentlich, wie Moogulator im Bericht angesprochen hat, eher "Big-Data" aber mit einem extra Step. Welche Muster häufen sich vor einem Unfall, und wenn die KI diese Muster sieht schlägt sie Alarm und verhindert den Unfall.
Zumindest soll sie das irgendwann mal tun....
 
Zuletzt bearbeitet:
Hm. mal ganz einfach: Musik so mathematisch aufzuschlüsseln dass du automatisch einen Hit landest wurde seit Jahrzehnten versucht. Die sogenannte Hit-Formel gibt es nicht.

Der laplacesche Dämon hat überall seine Pfoten drin. Daran ist Einstein schon gescheitert.

Weltformel .... pfff ... So ein Humbug.

Musik ist Zufall und zwar der quantenmechanische Zufall, der im Gehirn des Musikers entsteht und in letzter Instanz immer der Zufall über Entscheidungen entscheidet, aber die Vorarbeit durch Erfahrung, Wissen, Gefühle, hormonelle und geistige Zustände, sowie äußere Einflüsse gefiltert wird.

Die KI wird es schwer haben, allein schon wegen der Filter. Weltformel? Das ist eine Sackgasse und ich bin sehr gespannt, ob es den Wert großartiger Musiker steigen lässt
und ob das was wir populär kennen oder auch die Musik, die wir hier alle machen dagegen überhaupt Bestand hätte.

Oder gibts hier wen, der ausnahmslos großartigste Musik macht?

Nichtmal der Martin kann das

Gott würfelt eben!
 
Hm. mal ganz einfach: Musik so mathematisch aufzuschlüsseln dass du automatisch einen Hit landest wurde seit Jahrzehnten versucht. Die sogenannte Hit-Formel gibt es nicht.
Was es stattdessen gibt sind einfach manche Produzenten die das im "Gefühl" haben einen Hit nach dem anderen rauszuhauen. Und genau da kommt KI ins Spiel.
Das wird auch irgendwann die Schwierigkeit bei der Musik-KI.... wie bringe ich der KI bei was "gute" und "schlechte" Musik ist. Aus den selben 4 Akkorden und mathematisch ähnlichen Abläufen können unsterbliche Hits oder Grottenschlechte Fahrstuhlmusik entstehen... die KI soll die Muster erkennen die den Unterschied machen... und zwar ohne sofort als Kopie wahrgenommen zu werden, das heisst sie muss auch vermeiden zu sehr nach einem bestimmten Song zu klingen, da könnten dann nämlich Urheberrechtsverletzungen im Raum stehen...
Das wird herausfordernd. Bei Bildern ist das anders, ich kann exakt dasselbe Bild nur mit einer anderen Person machen und es ist keine Urheberrechtsverletzung. Es gibt keine Rechte auf Positionierung im Raum etc.
Übertragen auf Musik, wenn es wäre wie bei Bildern: ich könnte einfach einen anderen Sänger nehmen für einen Song und schon ist es meiner.
Aber erstmal muss die KI überhaupt was hörbares auf die Beine bekommen. Das wird noch ein weiter Weg.

Wir machen bei uns ein interessantes KI-Projekt in dem es darum geht Unfälle "vorherzusagen". Und Mathematik spielt dabei eher keine Rolle, es geht um Mustererkennung...
Eigentlich, wie Moogulator im Bericht angesprochen hat, eher "Big-Data" aber mit einem extra Step. Welche Muster häufen sich vor einem Unfall, und wenn die KI diese Muster sieht schlägt sie Alarm und verhindert den Unfall.
Zumindest soll sie das irgendwann mal tun....
Es ist wohl eher die Frage, wie oft ich auf den Reloadbutton drücken muss bis ich einen Hit habe, eine KI wird nicht das Hit-Muster erkennen, weil das gibt es nämlich nicht. Die Muster die es gibt sind hinreichend bekannt, sonst würde die Musikindustrie keinen „Hit“ nach dem anderen „erschaffen“.

das ist der teil, den du erklären müsstest: was ist die "biologische evolutionssicht", inwieweit kann man diese sicht auf das thema kunst, KI und urheberrecht anwenden, und was hat biologie mit sozialen beziehungen und identität zu tun?

verstanden habe ich im prinzip bis jetz nur, dass deine perspektive irgendwo ganz weit weg vom eigentlichen thema ist.

Die Perspektive kann von keinem Thema weit weg sein, denn sie ist die Grundlage von allem. Das ist der Witz der Biologie, sie die Grundlage für alles was wir tun.

Naja gut anhören im Sinne von nicht falsch klingen vielleicht. Sehr belanglose generisch klingende Elektromusik oder auch ganz simple RockPop Songs schafft auch ein Algo. Aber sobald es darum geht, die Sounds wirklich gut aufeinander abzustimmen oder auch eine Dramaturgie im Song aufzubauen, ist da eine Grenze erreicht.
Diese Grenze kann KI noch ein Stück verschieben, je besser sie ist desto weiter.

Wenn ich als Mensch eine Tonfolge suche, probiere 3 davon aus (die mein innerer Algo sozusagen nach bestehender Theorie vorgeschlagen hat) und eine davon berührt mich emotional am meisten, wähle ich diese aus. Das wird dann auch eine KI nicht so schnell können.
Eine andere Frage wieder ist allerdings, ob die Hörer das dann genauso empfinden oder die Auswahl auch hätte zufällig sein können.
Aber ich denke schon, dass auf diese Weise ein Künstler eine individuelle Färbung einbringt.

Eine KI kann man damit auch füttern, so dass sie solche individuellen Präferenzen und Färbungen nachahmen kann, zu einem gewissen Grad.
Zumindest das was in Abgrenzung zum Algo heute landläufig KI genannt wird, auch wenn man es auch als komplexen Algo bezeichnen könnte.

Ein großer Sprung wie du schreibst mag da nicht gleich da sein, aber mit zunehmender Verbesserung der Technologie werden die Ergebnisse erstaunlicher und "menschlicher" erscheinen, das denke ich schon. Das heißt, das geht über die bloße Anwendung von musikalischen Regeln hinaus.

Ja, aber wie lange hält ein Trend in der Musik? Mal abgesehen von uns alten Menschen die irgendwie in den 80ern festhängen. Wenn jetzt alle eingeben „Mach mir ein Hit wie Depeche Mode“ oder XY…dann ist das zwar perfekt für dieses Forum (alter Wein in neuen Schläuchen), ob das aber so auch von anderen honoriert wird, muss man sehen.

Es wird wohl noch eine Weile dauern, bis wir alle Hits von der KI machen können und dann wirds wohl vielleicht so sein, dass da Millionen vor ihrem Rechner sitzen und auf den Reload-Button drücken.
 
Die Muster die es gibt sind hinreichend bekannt, sonst würde die Musikindustrie keinen „Hit“ nach dem anderen „erschaffen“.

Der Spruch aus Scheiße Gold zu machen liegt nicht am besonders ausgeklügelten Produkt, sondern am ausgeklügelten Marketing.

Alles weitere ist blabla für die Chartshow ....
 
Zuletzt bearbeitet:
ich kann exakt dasselbe Bild wie ein schon existierendes Bekanntes, am selben ort, mit denselben Einstellungen und nur mit einer anderen Person machen und es ist keine Urheberrechtsverletzung.

ganz so einfach ist es nicht, zwar iegt die beweislast dafür, dass du kein zugang zum "orignal" hattest im zweifelsfalle nicht bei dir, aber falls du es doch abgemalt und nicht selbst konstruiert hattest, dann hast du auch die idee kopiert und gegen das urheberrecht verstoßen.

damit sprichst du aber das real existierende problem des musikurheberrechts an, wo man von anfang versucht hat das alles bis ins letzte detail zu regeln und wo schon lange und bis heute die veröffentlichung via verwertungsgesellschaft quasi der hebel ist, allen anderen später nachweisen zu können, dass ihre kopie eine kopie ist, da sie ja theoretisch zugang zum original gehabt haben.

Es gibt keine Rechte auf Positionierung im Raum, Hintergründe

selbstverständlich sind gemälde, zeichnungen, digitale bilder, skulpturen, mode usw. genauso rechtlich geschützt wie alle anderen persönlichen geistigen schöpfungen.

es gibt hat nur nicht diesen registrierungswahn wie bei musik-kompositionen, wo sich leute nachher darum streiten ob irgendein beat aus 12 ereignissen aber fast so ähnlich ist wie ein anderer oder nicht und ob das klauen halt zur hiphop kunst dazugehört oder man idioten aus rödelheim schon mal aus prinzip wegen jedem scheiß verklagt.

was es bei den bildenden künsten eher gibt ist eine regulierung durch den markt: wer nur werke anderer kopiert wird erst gar keine galerie finden, die das verkaufen möchte. :)
 
Ist das Produkt einer Heimorgel mit Einfingerbegleitautomatik quantenmechanischer Zufall, der im Gehirn des Musikers entsteht?

Natürlich. Zum Einen die Entscheidung welchen einen Finger du nun betätigst, bis hin zu der Bauentscheidung, welche Patterns die Automatik beinhalten soll.

Das kannst du beliebig weit herunterbrechen und du wirst immer an Entscheidungspunkte geraten, die nicht logisch, sondern zufällig gewählt wurden oder denen Zufälle vorausgingen.
 
KI modelle, mit den so etwas möglich ist, haben aber als grundvorrausetzung, dass man erst mal überhaupt musik tief genug analysieren kann.
Solange es sich um Elektronische Musik handelt, die ja nun wirklich das Billigste vom Billigen ist, so wie Lidl Klamotten, sollte das doch machbar sein. Erkennen von Noten könnte wieder eine andere KI machen, denke mal die ist da besser für geeignet als die ünliche Algorithmik und DSP.
 


Zurück
Oben