"A ChatGPT for Music Is Here. Inside Suno, the Startup Changing Everything"

Nachdem ich gestern von den musikalischen Ergüssen SUNOs durch die Bank weg eher enttäuscht wurde - quasi nie wurde das Genre richtig getroffen, abgenudelte 4-taktige, repetierte Harmonieschemata brachten mich zur Verzweiflung und die holprige Versmetrik tat ihr übriges dazu, von den meist trotz Aufforderung fehlenden Endings ganz zu schweigen - entschloss ich mich heute während des Frühstücks dazu, einen Workaround für Kraftausdrücke im Liedtext zu erdenken, auch um meiner angestauten Frustration etwas Linderung zu verschaffen...

Gesagt, getan:

Anhang anzeigen Ein Ah Schloch - Bossanova (2) - WOW, DuDu-Gesang und passendem Ending.mp3
Anhang anzeigen Ein Ah Schloch - Jazz (1) - WOW, Roger Cicero, seltsame Metrik aber saucool, mit furiosem Ending.mp3
Anhang anzeigen Ein Ah Schloch - Oper (1) - Coloraturgesang, Text unverständlich, Ending hängt harmonisch in d...mp3
Anhang anzeigen Ein Ah Schloch - Gregorian Chant (4) - WOW, Metrik gut, Ending vorhanden.mp3

Endlich sind Endings zu hören, wenn auch die Textverständlichkeit hier und da (z.B. beim Operngesang) noch etwas Potential zur Verbesserung hat. ;-)
 
Zuletzt bearbeitet:
Hatte zwischen Frühstück und Spitzmorchelsuche noch etwas Zeit und daher SUNO beauftragt, ein Aachener Volkslied neu zu interpretieren, und zwar im Gewand eines Bossanova:

Anhang anzeigen Öscher Jonge V2 - Bossanova - (2)- WOW, vergleichsweise gute Versmetrik, absolut brauchbar, to...mp3

Zum Vergleich hier das Original (inkl. eingeblendetem Tex):




Ich finde es immer wieder interessant, Liedtexte die bereits in vertonter Form vorliegen und man daher eine feste Assoziation des Textes mit der Melodie verinnerlicht hat, von SUNO neu interpretieren zu lassen. In 90% der Fälle kommt dabei zwar Unbrauchbares heraus, weil die Verteilung der Silben auf die Einzeltöne der Melodie (ich nenne es Versmetrik) holprig bis grauenhaft ist, aber bei obigem Bossanova war's eigentlich ganz o.k. .

Was meint Ihr?

Achso: Eins noch. Man kann SUNO zur Erzeugung eines Endings anregen (zwingen wäre übertrieben), indem man ans Ende des Prompts [Ending] (evtl. mit etwas Liedtext dahinter) anfügt.

PS:
Funk-Jazz geht natürlich auch (ist so wie Hering mit Himbeersauce...) ;-)
Anhang anzeigen Öscher Jonge V2 - Funk-Jazz - (2)- WOW, cool, mit Ending.mp3
 
Zuletzt bearbeitet:
Hab' mich heute bei UDIO angemeldet und die ersten Gehversuche gestartet. Mein erster Eindruck:

WOW!
Die Extension-Funktion ist wesentlich zielgerichteter, als bei SUNO. Es werden grundsätzlich 33-sekündige Ergebnisse erstellt, die aber nach Belieben erweitert werden können. Man kann entscheiden, ob man vor dem selektierten Part ein Intro einfügen, oder ob man dahinter einen weiteren 33-sekündigen Part anfügen möchte, oder ein Ending. Dabei kann man wählen ob mit oder ohne Gesang, oder man lässt die KI entscheiden, wie's weitergeht. Die Ergebnisse fühlen sich für meinen Geschmack musikalischer an, als bei SUNO und die Audio-Qualität ist ebenfalls besser (MP3 320kBit/s). Beachtlich finde ich auch, wie gekonnt die KI die einzelnen 33-Sek.-Segmente ineinanderfügt.

Ich kann nur allen SUNO-frustrierten empfehlen, UDIO auszuprobieren.

Hier ein erstes Ergebnis, feinster Fusion-Jazz mit dem Arbeitstitel "Silken Hues ext. v2.2.2.2.1" :


Anhang anzeigen Silken Hues ext v2.2.2.2.1.mp3
 
Zuletzt bearbeitet:
Die grundsätzliche Fragestellung ist ja auch.... ich habe ein bestimmtes stück musik im Kopf.
Alle neuerungen der letzten.... 40 ... Jahre dienten ja dazu, es dem Musiker möglichst einfach zu machen, diesen Sound auf Platte(CD/Band/Festplatte) zu kriegen.

Musste ich vor 1980 noch alle Instrumente eigenhändig auf ein 8 Spur Band spielen, wurde es danach stück für Stück einfacher.... DAWs mit Pianorolls, Drumcomputer, sequencer....
Statt ein Orchester zu engagieren kamen Sampler, etc...
Das alles dient ja zuerst mal dazu erforderliches Können und manuelle Schritte zu eliminieren. Welcher Produzent kann denn schon Oboe, Flügelhorn, Querflöte spielen.

Wenn ich jetzt heute in einer DAW Noten in die Pianoroll schreibe und dann die 100 installierten VST instrumente durchprobiere was als nächstes dem Klang entspricht den ich will bis ich dann die entsprechenden Kombinationen rausgefieselt habe, bin ich ein erfolgreicher hochgelobter Produzent ( siehe auch software vs. Hardware Thread ).

Wenn irgendwann die KI genau das noch besser hinbekommt, also wenn ich ihr exakt sagen kann was ich wie wann haben will, die Umsetzung dessen was ich gerade im Kopf habe, dann sind auch rein softwareorientierte Produktionsumgebungen hinfällig.

Dann noch den Bandkontext zu übernehmen, sprich einzelne Parts zu verbessern wie es z.B. dein Gitarrist, Drummer oder Bassist machen würden mit den Parts die du für sie geschrieben hast, , wäre dann noch das Tüpfelchen auf dem I.
Stell dir vor du gibst der KI einen Song in Auftrag, indem du einfach mal alles vorgibst was du so im kopf hast und dann sagen kannst "jetzt nimm Jon Lord an der Orgel, Jimi Hendix an der Gitarre, Mike Portnoy an den Drums und Jack Bruce am Bass und arbeite ihre Parts so aus wie sie es tun würden"....
Die perfekte Umsetzung dessen was bei dir im Kopf ist, ist ja das Endziel. Und du hast IMMER Vorbilder im Hinterkopf, auch unbewusst, die dir da etwas Vorgeben... Sound, Spielweise, Arrangements....
 
Zuletzt bearbeitet:
"jetzt nimm Jon Lord an der Orgel, Jimi Hendix an der Gitarre, Mike Portnoy an den Drums und Jack Bruce am Bass und arbeite ihre Parts so aus wie sie es tun würden"
Klar, so würde man es sich wünschen, aber:
Die KIs reagieren (neuerdings?) bei der Nennung von Namen (mehr oder weniger) bekannter Musiker/Komponisten ziemlich trotzig und verweigern die Umsetzung der Prompts, die diese Namen enthalten. Anfangs (vor einigen Wochen, also zu Beginn des SUNO-Fiebers) konnte ich noch eingeben "a crossover between Bach's BWV 846 prelude in c-major and Bach's BWV 999 prelude in c-minor played on a harpsichord" und das wurde klaglos angenommen und auch umgesetzt (bis auf das Cembalo...), jedenfalls klingt das Ergebnis eindeutig nach Bach:

Anhang anzeigen Prelude in Contrasting Keys - a crossover between Bach's BWV 846 prelude in c-major and Bach's...mp3

Dennoch:
Da ich beide Präludien seit meinem 17. Lebensjahr spiele, also genauestens kenne, schwebte mir mit der Umschreibung "a crossover between..." eine ganz simple Umsetzung in der Form vor, dass dem C-Dur-Präludium die melodisch-rhythmische Auflösung des C-Moll-Präludiums aufgeprägt werden könnte, oder andersherum man unter Beibehaltung der Akkordprogression des C-Moll-Präludiums man den Fingersatz (gemeint: die arpeggierende Akkordauflösung) des C-Dur-Präludiums verwenden könnte. Beides habe ich als Klavierschüler seinerzeit spaßeshalber gemacht und wenn man beide Präludien verinnerlicht hat, fluppt das auch ohne großartig Nachzudenken... Stattdessen klaute sich SUNO lediglich irgendwelche Fragmente aus Bachs "wohltemperiertem Klavier" zusammen und verpfriemelte diese zu einem Bach-ähnlichen Machwerk.

Wenige Wochen später wollte ich das Thema nochmal aufgreifen, da war SUNO anscheinend aber schon mit erweiterten Eingabefiltern aufgerüstet worden und lehnte den Namen "Bach" im Eingabeprompt ab. Um diese Namensangabe verringert, wurde aus dem von mir gewünschten "a c-major prelude" aber folgendes:

Anhang anzeigen Sunlit Reverie - a c-major prelude (1) Bach abgelehnt, klingt wie Richard Keliderschrank.mp3

Für mich klingt das überhaupt nicht mehr nach J.S.Bach, sondern eher nach Richard Kleiderschrank™. ;-)

Die Konsequenz hieraus kann eigentlich nur bedeuten, dass man als Anwender seine Fähigkeiten, die Spielweise, den Stil, die Stimmung usw. der angestrebten Musik bzw. des zu imitierenden Künstlers so präzise wie möglich zu beschreiben, perfektionieren muss. Es wird früher oder später vielleicht den Beruf des "Prompters" geben. Oder aber, man löst sich von dieser Vorgabe und nutzt die KI lediglich als Ideenquelle, indem man nur ganz grob das Genre vorgibt und sich überraschen lässt.

Im Prinzip könnte man auch "so etwas wie" eine Band-Situation simulieren, indem man die KI anweist einen "track-minus-one" also quasi ein "play-along" zu generieren und man steuert selbst dann sozusagen seinen kreativen Part bei, indem man ihn selbst hinzukomponiert (wie altmodisch... ;-) ).

Man erkennt unschwer, dass neben dem rein repetitiven, nachahmenden Einsatz der KI im Bereich der Musik auch ein hybrider, von Synergismen geprägter denkbar ist.

Ick jlobe, ditt muss ick ürjentwann ma ausprobian, wa? ;-)
 
Zuletzt bearbeitet:
Heute den Test mit UDIO bezüglich der Erwähnung von Bach im Prompt gemacht. Der Prompt lautete wieder (s.o.):

"a crossover between Bach's BWV 846 prelude in c-major and Bach's BWV 999 prelude in c-minor played on a harpsichord"


Reaktion:
1714113632991.png

Wie bitteschön soll ein seit über 270 Jahren verstorbener Komponist den Betreibern einer KI-Plattform seine Erlaubnis erteilen, in seinem Stil Musik zu generieren? Da könnten doch allerhöchstens die leiblichen Nachfahren ihr Veto einlegen...

Egal, es kam jedenfalls das dabei heraus (3 Durchläufe: je einer für Mittelteil, Intro und Outro):

Anhang anzeigen Baroque%20Fusion%20ext%20v2.1.mp3

In der Tat sehr barocklastig, auch das Cembalo wurde brav umgesetzt, aber ist das so richtig Bach-typisch?
 
Wenn ein Künstler ein altes Stück bearbeitet, gilt er als Urheber der Neuinterpretation und hat Anspruch auf Tantiemen.
Ich zitiere mal: Selbst bei strengen Partituren bedarf die Realisierung des Werkes doch der Interpretation durch Musiker und Sänger und damit der ästhetischen Auslegung der Noten, auch wenn die Grenzen eng gesetzt sind.
Die GEMA presst einem grundsätzlich den Zehnt raus, egal ob Ernte oder nicht.
 
Auch ein wenig rumgespielt... Drums ,Klavier und Synths hab ich selbst nur soft dazu arrangiert. Bischen was melodisches dazu klimpern hätte noch gefehlt..

Schon interessant was da so geht und noch gehen wird.. UDIO habe ich jetzt noch nicht ausprobiert.

Unterm Strich super tools..

und da ich eh auf einem heartvibe trip bin.. Hab ich dem Text ein paar Stichwörter gegeben...und wow..


Anhang anzeigen gravity love.mp3
 
Zuletzt bearbeitet:
und da der Song mich total geflasht hat, habe ich noch ein kleine Animation versucht zu machen ...Ist jetzt nur solala..und alles Heute, sprich vorhin spontan entstanden..
 
Zuletzt bearbeitet:
Diese Maschine wird wohl aber keine Genres erfinden sondern sie aktuell nur dehnen und rekombinieren. Ein Maler könnte eben auch mal irgendwann auf die Idee kommen nicht mehr photorealistisch zu sein und das fehlt noch. Kubistisch sein ohne das es das je vorher gab. Die echten Grenzen ausloten.
Ich frag mich ja, ob das nur eine Frage der Betrachtung ist. Anders formuliert: Angenommen die Tools erfinden bereits neue Genres. Würden Menschen es überhaupt erkennen? Für jemanden, der sein leben lang nur Country hört und dann doch ein einziges Mal mit einem House und einem Techno Track konfrontiert wird - wäre der Unterschied zwischen den Genres überhaupt offensichtlich?

Nehmen wir mal an, es gibt zwei dominante Tools für KI-generierte Musik, die uns ein Jahrzent lang im Alltag beschallen. Wir würden vielleicht alle Experten werden, die den Unterschieden zwischen den Tools große Bedeutung beimessen und benennen (Voila - das Genre ist geboren) und eine Präferenz entwickeln.
 
Zuletzt bearbeitet:
Ich frag mich ja, ob das nur eine Frage der Betrachtung ist. Anders formuliert: Angenommen die Tools erfinden bereits neue Genres. Würden Menschen es überhaupt erkennen?
Wäre das überhaupt wichtig oder irgendwie von Bedeutung?
 
Zuletzt bearbeitet:
Wäre das überhaupt wichtig oder irgendwie von Bedeutung?
Für mich subjektiv schon.

Innovation hat mich immer motiviert, Musik zu machen. Im Licht der aktuellen Entwicklungen scheint das Streben nach Innovation lächerlich. Innovation wäre dann nur noch das Ausführen eines Tools, dass bereits jetzt verfügbar ist und - bei Bedarf - sicherlich auch auf radikalere Innovation optimiert werden kann.

Wie gesagt, ich glaube nicht, dass der Mensch sofort eine Innovation erkennt. Ähnlich wie Anfangs niemand das Potenzial der 303 erkannt hat. Wenn es jetzt aber dazu kommt, dass wir über längere Zeit diesen innovativen Ideen ausgesetzt sind, werden wir es als Innovation wahrnehmen.

Für den Konsumenten ist die Quelle der Innovation unerheblich. Da hilft es auch nichts, den KI-Output nur als Grundlage für etwas Neues zu nutzen. Innovation ist Innovation und definiert sich ja gerade darüber, dass es aufgrund der Neuheit nicht in "gut" oder "schlecht" einsortiert werden kann.

Entsprechend kann sich zwar auch die Qualität der menschliche Innovation nicht reduzieren. Aber der Schaffensprozess wirkt wie aus der Zeit gefallen - und damit das, worüber ich mich als Musikmachender definiere.

Jetzt kann man Musik noch aus Freude am Prozess machen. Aber das hat dann auch was komisches (im sozialen Kontext). Ungefähr so, als als würde man in seiner Freizeit Zahlen für die Erstellung eines Sudoku ohne Hilfe eines Computers ausknobeln oder auf dem Pferd zum Büro pendeln.
 
Zuletzt bearbeitet:
Genres sind Schubladen. Kategorien nach denen man Musik sortiert. Ich schreibe ihnen keine große Bedeutung zu.

Aber der Schaffensprozess wirkt wie aus der Zeit gefallen - und damit das, worüber ich mich als Musikmachender definiere.
Wie sieht denn der Schaffensprozess bei dir aus?
 
Genres sind Schubladen. Kategorien nach denen man Musik sortiert. Ich schreibe ihnen keine große Bedeutung zu.


Wie sieht denn der Schaffensprozess bei dir aus?
Ist für mich eine Frage des Betrachtungszeitpunkts. Wenn ein Begriff neu ist, ist es für mich Synonym für eine Innovation. Wenn ein Genre ein paar Jahre existiert, verliert der jeweilige Begriff auch an Bedeutung für mich.

Zum Schaffensprozess .. Puh ist schon sehr abstrakt ..
Kurz gesagt: sehr bottup up; viele Ideen mehr oder weniger isoliert sammeln und dann kreative Wege finden, die Ideen mit einander zu integrieren und unkonventionelle Wege finden, (Ent-)spannung über die Zeit zu schaffen.

Etwas detaillierter: Ich versuche ganz unterschiedliche Ideen zu sammeln (Sounddesign mit verschiedenen Syntheseformen, Einspielen von improvisierte Keyboardlines und Akkorde, um meine Emotionen festzuhalten, neue Effekte als Instrument definieren und spielen...), lass das ganze in meinem Unterbewusstsein etwas wachsen und editiere dann von Zeit zu Zeit immer wieder meine Ideen in der DAW. Wenn ich genug Material zusammen habe, versuche ich Wege zu finden, alles in Einklang zu bringen und mit den ausgeloteten Parametern über den Verlauf des Tracks Spannung/Entspannung zu erzeugen. Da der Vorgang sehr bottom up ist kommt eigentlich nie etwas raus, was ich einem konkreten Genre zuordnen kann.
 
Das sich die KI-Generierung schon jetzt ganz praktisch auswirkt habe ich gestern bei einem Kunden erlebt.
Es geht um einen Kinospot von 60 Sekunden, Bild wurde fertig angeliefert, Ton hat der Kunde bei mir erstellt, dann gestern abgeliefert.
Der Produzent rief dann heute an und meinte, dass das ja alles ganz prima wäre, aber er möchte dass mein Kunde auf das Urheberrecht verzichtet (er ist Mitglied der Gema), sonst würde er doch lieber die KI-Musik nehmen die er selber mal eben erstellt hatte, das wäre sonst in der Nutzung zu teuer. Wir kannten ihm nur entgegnen, dass die Musik von Udio ect. nicht ihm gehört, sondern laut AGB der Firma. Er meinte aber, das sei kein Problem, er hätte einen Bezahlaccount und da würden alle Rechte ihm gehören.
Egal wie sich jetzt mein Kunde mit dem Auftraggeber einigt, da geht gerade ein ganzer Berufstand von Musik-Zulieferen dahin....
 
Wir kannten ihm nur entgegnen, dass die Musik von Udio ect. nicht ihm gehört, sondern laut AGB der Firma. Er meinte aber, das sei kein Problem, er hätte einen Bezahlaccount und da würden alle Rechte ihm gehören.

Udio hat bisher keinen Bezahlaccount, die beta ist kostenlos und man darf die Songs die man selber erstellt halt kommerziell nutzen.

Ist denn die Audioqualität von Udio kinogeeignet?

Das ist ziemlich wechselhaft. Die Vocals klingen schon ziemlich gut, die Instrumentals ähnlich wie bei Suno noch eher wie eine recht schlechte mp3, ist aber auch Genreabhänging habe ich das Gefühl. Mit etwas Nacharbeit kann das schon reichen, als Hintergrundmusik in einem Trailer oder Film allemal.
 
Zuletzt bearbeitet:
Vorigen Sonntag kam mir beim Wandern durch die Drover Heide ein beklopptes Wortspiel in den Sinn aus dem ich Tage später einen kleinen Liedtext gebastelt habe und diesen mittels UDIObeta vertonen ließ. Der Text lautete:

[Verse 1]
Die Natur, ja die Natur
ist die Königin aller Gene
Die Natur, ja die Natur
Allergene in Bratwurst und im Kakao
Sie ist die Königin aller Gene
Ja die Natur, die Natur
Allergene im Brathering und den Nüssen,
den Gummibärchen und beim Küssen

[Verse 2]
Beim Küssen und in Flüssen
Allergene überall, (überall)
Die Natur, ja die Natur
ist die Königin aller Gene
Die Natur, ja die Natur
Allergene in Klamotten, im Klo
ja sowieso!

[Verse 3]
Mmmmmmhhh, Oh yeah!
Mmmmmhh, fapp fapp fadubiduh
Die Natur, ja die Natur
ist die Königin aller Gene
Wah wah wahwah, fadubiduh
Mmmmmmh, yeah yeah yeah

[Outro=Fadeout]
Allergene, Allergene
Allergene in Bratwurst und im Klo
Im Klo ja sowieso

mmmmh, oh jeah!

Das Bemerkenswerte ist, dass UDIObeta den Text für das Intro eigenständig dazugebastelt hat und es erstmal ziemlich seriös nach einem Loblied auf die Natur klingt... ;-)

Hier das Ergebnis:

Anhang anzeigen Königin derr Gene.mp3
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: oli
Ist denn die Audioqualität von Udio kinogeeignet?
Wenn ich mir die Kinospots so im Mittel anschaue, die ja auch meistens kleinere örtliche Unternehmen bewerben, ist die Audioqualität manchmal deren kleinstes Problem.
Je weniger Instrumente Udio einbaut, desto klarer wird es. Die KI hat auch noch Probleme Instrumente die selbst per definition starke artefakte haben ( wie shredder-gitarren bei metal-stücken ) richtig hinzukriegen.
 
Ich bin mittlerweile auch recht fasziniert davon was rauskommt wenn du die KI einfach mal machen lässt.

Das hier sind fast 6 Minuten generativ, Text und Musik alles von der KI


Ist jetzt sicher noch verbesserungswürdig, aber das ist jetzt erstmal die Beta. Bin schon auf die nächste Version gespannt.
 
"Hören wir dann auf, sie „Künstliche Intelligenz“ zu nennen, und nennen wir sie das, was sie ist und tut, „Plagiatssoftware“, denn „Sie erschafft nichts, sondern kopiert bestehende Werke bestehender Künstler und verändert sie so weit, dass sie den Urheberrechtsgesetzen des Autors entgeht.“
Es handelt sich um den größten Diebstahl geistigen Eigentums seit der Ankunft europäischer Siedler auf dem Land der amerikanischen Ureinwohner. "
Noam Chomsky, New York Times
 
Weil du dich angesprochen fühlst.


Weiß nicht, hab es mir nicht angehört.


Findest du heraus wenn du reingehört hast.
Nein. Ich fühle mich nicht angesprochen, sondern belästigt. Niemand findet irgendetwas heraus, weil er sich das anhört. Wem soll ich zu seinem Song gratulieren? Musik ist Austausch zwischen Menschen. Das, was aus den Automaten kommt ist Maschinenlärm, der sich als Musik tarnt. DAS soll mich berühren? DAVON soll ich träumen? Wo bleibt Butler?

 
Zuletzt bearbeitet:
Nein. Ich fühle mich nicht angesprochen, sondern belästigt.
Wie ist denn das passiert?

Musik ist Austausch zwischen Menschen.
Nicht mehr.. :guckstdu:

Der Anspruch an die Musik ist in den letzten Jahrzehnten drastisch gesunken. Spätestens als sich Autotune (als Stilmittel bei Leuten die nicht singen können) und Möchtegern-Rap ohne Sinn und Verstand bei den Jugendlichen fest etabliert haben, ging die Welt zu Grunde.
Meine Hoffnung liegt darin, dass die KI bessere Musik generieren wird, als sie diese Trottel machen.
 
Zuletzt bearbeitet:
kopiert bestehende Werke bestehender Künstler und verändert sie so weit, dass sie den Urheberrechtsgesetzen des Autors entgeht.“

Also so, wie geschätzt 80% aller Unterhaltungsmusik der letzten 40 Jahre geschaffen wurde. Niemand der tiefer mit Musik zu tun hat kann das negieren.

Nehmen wir ein bisschen was Bekanntes davon und ein bisschen was davon, bauen das so um dass es nicht mehr komplett geklaut ist, legen irgendeinen belanglosen text darunter bei dem das einzig positive ist dass er sich irgendwie reimt und dass man sich den hook auch noch bei 2 promille merken kann, und dann suchen uns ein Mopshaserl das das dazu die Lippen bewegen kann. Am besten beide Sätze, das öffnet dann Mallorca und bringt publicity. Oder irgendeinen Gameshowteilnehmer, ist ja egal. Dss machen wir 10-20 mal im Monat, werfen es auf den Markt und schauen mal was kleben bleibt.

Dass das jetzt automatisiert funktioniert ist ein logischer Schritt, der die überflüssigen Macher überflüssiger Musik letztendlich ganz überflüssig macht.

Schauen wir doch mal woher die "geklauten" Trainingsdaten kommen.
Youtube ( also Google ) behält sich das Recht vor "to distribute, re-purpose, make derivative works of, reproduce, and display” bei den Videos die hochgeladen werden.
Also wenn irgendetwas auf Youtube hochgeladen wurde, kann Google das als Trainingsdaten verwenden... "re-purpose". Ich glaube nicht dass es relevante Musik gibt die nicht auf Youtube liegt.
Google entwickelt selbst eine Video AI und wird die genau damit trainieren.
Hast du ein Video auf Youtube hochgeladen? Dumm gelaufen. Hat dein Verlag dein Video auf Youtube hochgeladen? Genauso dumm gelaufen.

Udio wurde erst im Dezember gegründet und besteht grösstenteils aus ehemaligen Google Mitarbeitern.
Ein grosser Investor ist United Masters, ein relativ neuer Musikvertrieb.
Der wurde wiederrum bei der Gründung finanziert grösstenteils von Alphabet ( also... Google ) und 21st Century Fox ( die wiederrum erst von Disney gekauft wurden ).

Disney wiederrum hat mit der Disney Music Group selber eine Menge Rechte rumliegen, und verkauft gerade den gesamten Queen Katalog für 1,2 Milliarden an Universal.

Ich glaube nicht, dass die paar Hanseln in 3 Monaten so ein Konstrukt auf die Beine gestellt haben, ohne tatkräftige Unterstützung einiger Miteigentümer ( wenn auch über Ecken ) wie Google und Disney.

Soviel zu Udio. Bei Suno ist das nicht wirklich so offensichtlich wo die die Trainingsdaten herhaben. da könnte tatsächlich irgendwas angreifbar sein.
Aber die haben Jahre gebraucht um das so hinzustellen, nicht nur 3 Monate. Auch bei denen wird wohl irgendeine Methode zu Training dahinterstehen die irgendwie legal ist.
Aber Udio... in 3 Monaten von Null auf Beta Release sammeln die nicht erstmal Trainingsmaterial. Die hatten das schon.

Audio KI wird nicht einfach wieder verschwinden.
Wenn ich Musik nicht mache um Geld zu verdienen kann mir das herzlich egal sein, ich muss halt wissen dass ich, wenn ich Musik bei Youtube ( oder vielleicht Bandcamp, Soundcloud ) hochlade ( oder mein Verlag so etwas tut ) tatsächlich keine hundertprozentige Kontrolle mehr habe wofür die verwendet wird.
Wenn ich mit Musik mein Geld verdiene ist es höchste Zeit da mal draufzuschauen, und mir dann Gedanken zu machen ob es mich betrifft und wie ich zukünftig damit umgehe.
 
Zuletzt bearbeitet:


Neueste Beiträge

News

Zurück
Oben