No sense of humour…DM vs Internet

Ich finde, daß auch auf den prä 93 Alben genug mittelprächtiger "Füllstoff" vorhanden ist. (meine persönlichem Ausnahmen sind Violator und SOFAD, wo für mich fast ausschließlich Kracher drauf sind)
Der wesentliche Unterschied ist für mich, daß dieser Füllstoff damals halt hervorragend produziert war.

Aber mal ganz ehrlich. Ein Violator schafft eine Band schlicht und ergreifend nur einmal in ihrem Leben. Was soll da eine KI noch besseres hinzufügen?

Von mir aus ein Experiment, was so mit der neuen Technik möglich sein kann. Grundlegend empfinde ich es als inflationäre Entwertung des Schaffens von DM.
 
Von mir aus ein Experiment, was so mit der neuen Technik möglich sein kann. Grundlegend empfinde ich es als inflationäre Entwertung des Schaffens von DM

Der Ritterschlag war ja das „Original“ als Vorgabe. Ob von Menschen gemacht oder mit Maschine, ein DM inspirierter Titel hat immer das Original als Inspiration…also unterm Strich abgewandelte Kopie. Man könnte auch sagen: „Sind wir alle nicht ein bisschen Behringer?“ :)
 


2x kurz angehört… Eher weniger DM typisch, zu stromlinienförmig… hat aber immer wieder gute Momente, sei es ein Break, die Pads und in Teilen die Melodien, den ersten Refrain finde ich nett.

Diese KI ist derzeit eher eine Ideen-Fundgrube, die man wie andere „Randomizer“ mehrfach anwerfen kann und sich von den Ideen inspirieren kann. Wüsste nun nicht dass man nun Copyright Probleme habe, würde ich ein Teilstück nachstellen oder wären nun nicht auch das Audio als Samples frei verwendbar? Letztes weiß ich adhoc nicht, aber wenn ich mir 3 Drumgrooves a la Kraftwerk basteln lasse bekomme ich von Herrn Hütter keine Post.

Mir gefällt das Teil aktuell immer besser, auch weil es Künstler wie DM oder Kraftwerk (derzeit) nicht ersetzt.
 
Da wird sicher noch was gehen in der Zukunft, zB Einflußnahme auf das Versmaß, Taktung der Reime etc.

Was wir heute als DAW kennen und wir „unsere“ Komposition einspielen könnte in 10-20 Jahren mit KI dann ganz anders aussehen.
Es werden im Schwerpunkt nur noch eine Menge Restriktionen vergeben und Vergleichsmuster herangezogen. Also eigentlich wie das schon Vorhandene nur mit viel mehr Stellschrauben.

Duett Michel Jackson mit Whitney Houston, Hook naive Vince Clarke Melodie, das Backing im Death-Metal Fundament mit virtuosem Alphorn-Solo im C Teil.
 
Zuletzt bearbeitet:
Was wir heute als DAW kennen und wir „unsere“ Komposition einspielen könnte in 10-20 Jahren mit KI dann ganz anders aussehen.
Nimm die Null hinten bei den Zahlen weg und du bist dicht dran.

Duett Michel Jackson mit Whitney Houston, Hook naive Vince Clarke Melodie, das Backing im Death-Metal Fundament mit virtuosem Alphorn-Solo im C Teil.
Im Bildbereich habe ich mir einen Workflow gebaut, in dem ich vorhandene Bilder als Beispiel vorgeben und mir andere Motive im gleichen Stil erstellen lassen kann. Funktioniert mittlerweile sehr gut.
Es wir nicht mehr lange dauern (Glaskugel an: max. 6 Monate) und die Swifties zum Beispiel können ein Stück hochladen und sich genau in diesem Stil was Neues Anderes erzeugen lassen. Design, Namen, Text usw. kann man schützen, Stil nicht.
 
Nimm die Null hinten bei den Zahlen weg und du bist dicht dran.
Bauchgefühl sagt mir, dass hier in 3 bis 5 Jahre Möglichkeiten bestehen, die wir uns ansatzweise vorstellen können. Im Einzelfall natürlich schneller... Die Entwicklung verläuft ja bekanntlich nicht linear, aber ich glaube wenn Dinge nicht ganz so schnell gehen, dann hat das weniger mit Technik oder Fortschritt zu tun, da spielen noch andere Interessen eine Rolle. Auf jeden Fall ist das hier auch nicht das Ende des Abendlandes.
 
Im Grunde wird ja damit das Prinzip „unsterblich durch Musik“ auf ein neues Level gehievt - post mortem wird es ständig neue Musik von DM geben. ..
Man kann sich auch genauso zusätzlich eine recht gegensätzliche Variante vorstellen, nämlich dass niemand mehr Musik machen möchte, weil die Hürde, eine solche perfekt arbeitende KI einfach so hoch sein wird, dass man nur noch mit komplett neuen Dingen überhaupt eine Chance auf Erfolg hätte, da die ewigen musikalischen Helden von gestern durch die KIs so sehr ins neue Rampenlicht gesetzt werden, dass da für andere kaum noch ein Markt bleibt.

Man muss sich halt nur vorstellen, dass das Lernen aus vorhandenen Datenbergen nur der erste Schritt ist. Wenn man danach anfängt diese gezielt und vorsichtig zu manipulieren, kommen u.U. auch noch neue Variationen heraus. Das große Problem dabei ist, dass es so ein bisschen den ganzen Sinn des Tuns auffressen könnte. Die Zukunft wird es zeigen, aber wohin diese auch führen mag, im digitalen Raum führt sie anscheinend immer unweigerlich zur Bildung von Giganten (Monopolen), egal worum es sich handelt. Und das ist i.d.R. ganz und gar nicht gut.
 
Das erste mal, dass ich unbedingt möchte, dass meine für mich "most hatet Berufsgruppe" massenweise, erfolgreich tätig wird.
Naja, die gibt es ja bei rechtlichen Streitigkeiten i.d.R. auf beiden Seiten. Aber ansonsten unterschreibe ich die "Most hated..."-Aussage.
 
... Allerdings kann KI nichts wirklich neues erschaffen, nichts was es nicht schon gibt. Dafür braucht es immer noch den menschlichen Input.
Das mit dem "wird nichts neues erschaffen" ist meiner Meinung nach, so nicht richtig, oder wird nicht richtig sein. Das ist eine der Änderung der vorhandenen Parameter einer bestehenden KI und das wird kommen, und dann erst wird es richtig gruselig. Das ist ja momentan alles noch Forschungsfeld, aber andererseits wird es da auch unweigerlich zu Fortschritten kommen, weil ein großer Wille da ist, eben nicht nur aus vorhandenen Daten zu lernen. Das wird so sein, mag noch 1-2 oder 3 Jahrzehnte dauern, aber es wird kommen. Könnte ich meine Hand ins Feuer legen für, dass es kommt.
 
Die KI hat diese Rueckmeldung nicht, die geht da mehr "statistisch" vor.
Momentan ist da so, ja. Aber wer hindert die Entwickler daran, da einige künstliche Augen und Ohren dran zu pappen, die KI in eine menschliche Gestalt zu stecken und sich eben so wie ein Musiker zu verhalten, inklusive Feedback (falls du jetzt als Feedback die Reaktionen von anderen Personen meinen solltest).

Im anderen Fall: Emotionen sind "auch nur" Vorgänge im Gehirn, das wird irgendwann enträtselt werden, noch mehr, als es das derzeit eh schon ist. Und wenn man weiß, wie es funktioniert, kann man es nachbilden, so funktioniert die ganze Welt. Das wird sicherlich noch ein wenig dauern, aber auch das wird vermutlich kommen.
 
Die o. a. Beispiele finde ich gut, ich höre sie mir gerade auch häufig an und das passt auch. Nichts davon kann mich bisher aber auf einem Level "Music for the Masses" oder "Violator" abholen. Aber mich holt DM schon lange nicht mehr ab, man merkt aber noch einen großen Abstand aus kompositorischer Sicht, vermutlich holt die KI sehr schnell auf.

Trotzdem finde ich - auch wenn KI der heiße Scheiß ist und sowas hier schon beeindruckt - es nicht neu, die Technik für sich arbeiten zu lassen. Kritisieren wir Brian Eno noch für seine generative Musik? Schauen wir den Musiker schief an, der sich Versatzstücke aus der Sample-CD in den Digitakt läd und abfeuert, finden wir es Murks dass wir smart mit der DAW arbeiten, mit flexibel manipulierbaren Audio-Files anstatt zurück zu gehen zu Amiga Zeiten oder zum Tape.

Solange eine technische Entwicklung dazu führt, dass alle uniformiert vonstatten geht, dass man nicht mehr die Künstler unterscheiden kann, aber sofort hört, dass ist Preset 7 aus dem Serum, dann läuft es falsch. Vereinfachungen von Workflows, die man aber weiterhin als Mensch und Künstler in das eigene Korsett packt, das finde ich wiederum hervorragend.
 
Momentan ist da so, ja. Aber wer hindert die Entwickler daran, da einige künstliche Augen und Ohren dran zu pappen, die KI in eine menschliche Gestalt zu stecken und sich eben so wie ein Musiker zu verhalten, inklusive Feedback (falls du jetzt als Feedback die Reaktionen von anderen Personen meinen solltest).
Für Bilder funtioniert das schon lokal, ein LLM schaut sich das errechnete Bild an und bewertet nach Komposition, Emotionalität, Originalität und mehr und wenn das Bild einen gewünschten Geasmtscore nicht erreicht, wird es in einen anderen Ordner abgelegt.


Man kann sich auch genauso zusätzlich eine recht gegensätzliche Variante vorstellen, nämlich dass niemand mehr Musik machen möchte, weil die Hürde, eine solche perfekt arbeitende KI einfach so hoch sein wird, dass man nur noch mit komplett neuen Dingen überhaupt eine Chance auf Erfolg hätte, da die ewigen musikalischen Helden von gestern durch die KIs so sehr ins neue Rampenlicht gesetzt werden, dass da für andere kaum noch ein Markt bleibt
Irgendwo habe ich mal gelesen, das es immer Menschen geben wird, die Sachen welche von Menschen gemacht sind, immer vorziehen. Genauso wie es Menschen gibt, die lieber Vinyl als MP3 nutzen. Auch wird es immer neue Stars geben, egal jetzt ob da ein Roboter performt oder ein Mensch, für beide werden sich Fangruppen finden.

Ich hatte das in einem Betrag schon geschrieben, der Markt wird nicht verschwinden, sondern nur sehr sehr klein werden weil die Hürde hoch ist. Wer kein Star wird und Konzerte gibt um Einnahmen zu generieren, darf gerne als KI Content Zuspieler arbeiten wenn es denn unbedingt Musik als Beruf sein muss. Es wird 'Freetify' geben, da gibt es dann nur KI Musik mit Werbung und es wird 'Starify Premium' geben, wo nur Handgemachtes von Menschen gespielt wird, natürlich gegen Aufpreis. Und noch so viel mehr.

In Folge kann man das so sehen, die KI bereinigt den Markt und sie wird 100% nicht mehr verschwinden.
 
Nuja, vieles hört sich aber einfach total "verschmiert" an. So als ob es durch einen billigen Timestretch gelaufen wäre.
 
Genau das ist wohl eindeutig das was die Big-Data Technik eben auch macht, besonders Metal-Gitarren werden dadurch künstlicher.
Das wird sicher irgendwann auch angegangen und verbessert. Man muss am Ende irgendwann weg von der Depeche Mode Platten in den Trichter kippen bis man diese nachbauen kann - Methode.

Das man trainiert und zusammenführt ist der erste Schritt, es wird in 10 Jahren oder so einen neuen Ruck geben den dann alle Firmen bewerben werden, nur einige machen das gut, andere labern. So wie hier auch.
 
Mir ist auch immer noch nicht ganz klar, auf welche Weise der Klang erzeugt wird. Sicherlich ja nicht mit Plugins, Samples oder sowas. Welche Syntheseform steckt dahinter?
 
Mir ist auch immer noch nicht ganz klar, auf welche Weise der Klang erzeugt wird. Sicherlich ja nicht mit Plugins, Samples oder sowas. Welche Syntheseform steckt dahinter?
Ich vermute mal, gar keine.
Es wird analog zur Bilderzeugung wahrscheinlich das "Bild" einer z.B. WAV Datei aus einem weißen Rauschen "herausgeschält" bis sie so ähnlich aussieht wie Bilder der WAV Dateien aus dem Trainingsmaterial, die der eingegebenen Beschreibung entsprechen.
 
Mir ist auch immer noch nicht ganz klar, auf welche Weise der Klang erzeugt wird. Sicherlich ja nicht mit Plugins, Samples oder sowas. Welche Syntheseform steckt dahinter?
Klanglich wäre für mich der erste Ansatz, zum Ursprung zu gehen, sprich Sinuswellen Additiv, durch entsprechende Berechnungen vorher (Fourier auf die vorhandenen Klänge), vielleicht so ähnlich oder auch anders, wie derzeit Make Noise Spectraphon zu funktionieren scheint? Genug Rechenpower vorausgesetzt, und da das noch nicht in Echtzeit passiert, dürfte die auch da sein, sollte damit jeder Klang abbildbar sein, selbst die Änderungen des Klanges innerhalb der Zeit.
 
Mir ist auch immer noch nicht ganz klar, auf welche Weise der Klang erzeugt wird. Sicherlich ja nicht mit Plugins, Samples oder sowas. Welche Syntheseform steckt dahinter?
Keine, das ist quasi die Vermorphung der Daten. Es wird am Ende vielleicht sogar wirklich das Audiofile sein, also wenn du ALLE DM Alben und Songs zusammenwirfst, kannst du dir ein Bild von deren Machart machen. Das wird dann kein DAW Recreate-Ding sondern ist typisch für Big Data so eine seltsame Verbindung von vielem die quasi zu einem werden kann mit Schwerpunkten und ggf. sogar Random, die Sprachmodelle sind so, die Musikmodelle vermutlich auch.

Das ist natürlich ungenau erklärt, aber es ist am Ende in der Folge ähnlich. Wer mehr weiss, poste bitte sehr gern die genaueren Informationen. Wäre spannend.
Diese Art wie Songs analysiert und zerlegt werden wenn das so überhaupt passiert - die kenne ich auch nicht, also wo das Atom dieser Neuronen ist und wie sie wirklich arbeiten.
Denke ähnlich wie Katzen erkennen. Wobei die Methoden auch unterschiedlich sind, so wie zB Abspielmethoden von Tönen und Transposition in Samplern sich unterschiedlich anhören, war das zwar trivialer und einfacher zu beschreiben, aber klang aus klaren Gründen verschieden.
 
KI erkennt Muster. Darum muss der Algorithmus diese Muster an Hand von bestehender Musik erlernen. Und dann geht es auch noch um Wahrscheinlichkeiten, die in dem Muster stecken.
 
Deswegen auch meine Mutmaßung mit dem Runterbrechen auf Sinuswellen auf Klangebene. Alles andere sind ja dann nur noch diverse Parameter, zeitliche und Vektoren für die Zusammensetzung. Vielleicht geht es auch einfacher, aber damit müsste Vieles möglich sein, in Abhängigkeit von der Rechenpower.
 
Deswegen auch meine Mutmaßung mit dem Runterbrechen auf Sinuswellen auf Klangebene. Alles andere sind ja dann nur noch diverse Parameter, zeitliche und Vektoren für die Zusammensetzung. Vielleicht geht es auch einfacher, aber damit müsste Vieles möglich sein, in Abhängigkeit von der Rechenpower.
Hm ich glaube nicht, denn das wäre ja eine Synthese und KI funktioniert hier anders.
 
Hm ich glaube nicht, denn das wäre ja eine Synthese und KI funktioniert hier anders.
Ich glaube wir reden hier gehörig aneinander vorbei. Sicherlich funktioniert KI anders, sie baut aber auf Eingangsdaten auf. Die Eingangsdaten sind das Audiomaterial. Sinnvollerweise wird dieses vorher in die einzelnen Parts zerlegt. Danach Fast Fourier. Der Rest ist mir gerade zu müßig, aber gern ein andermal.
 
Mich würde auch mal interessieren wie die KI da genau arbeitet.

Auch seitens der Reihenfolge. Wird hier auf bestehende -bereits erlernte- Daten zugegriffen oder beschäftigt sich das System erst anhand des „Suchbegriffs“ mit der Materie?

Beim Erstgenannten würde ich die KI aktuell noch auf Grundschul-Niveau verorten, da sicher noch nicht alles erlernt/analysiert.
 
Mir ist auch immer noch nicht ganz klar, auf welche Weise der Klang erzeugt wird. Sicherlich ja nicht mit Plugins, Samples oder sowas. Welche Syntheseform steckt dahinter?
Ich vermute mal, gar keine.
Es wird analog zur Bilderzeugung wahrscheinlich das "Bild" einer z.B. WAV Datei aus einem weißen Rauschen "herausgeschält" bis sie so ähnlich aussieht wie Bilder der WAV Dateien aus dem Trainingsmaterial, die der eingegebenen Beschreibung entsprechen.
Genau so. Hier eine Zusammenfassung in Englisch. Suno ist aus 'Bark' hervorgegangen, ein txt2speech Program (Bark kann man sich lokal mit Pinokio installieren). Noch mehr gibt es auf Arxiv zu Bark.
 
Was habt ihr denn alle? So lapidar heißt es doch immer "Konkurrenz belebt das Geschäft"! Ich habe allerdings den Eindruck, dass es KI generiert Musik schon seit vielen Jahren gibt. Auf Arbeit läuft meistens Sunshine Live. Das Vormittagsprogramm, welches ich mir dort zwangsläufig (nymphomanisch ;-) anhören musste, bot lediglich steriles - ich nenne es - "Mark Förster Gejaule". Autogetuntes, lebloses, monotones, einfallsloses Geräusch. Kann nur schlechte KI-Musik gewesen sein. Seit ich vor einem halben Jahr den Lautsprecher an meinem Arbeitsplatz abgeklemmt habe, bin ich jedoch nicht mehr up to date....
SCNR
 
Chat GTP:
Künstliche Intelligenz (KI) kann Audio oder Musik auf verschiedene Weisen erzeugen, wobei verschiedene Techniken und Algorithmen verwendet werden. Hier sind einige der gängigsten Ansätze:
  1. Generative Modelle: Generative Modelle sind Algorithmen, die lernen, Daten zu generieren, die ähnlich zu den Trainingsdaten sind. Bei der Erzeugung von Audio oder Musik können generative Modelle wie Generative Adversarial Networks (GANs) oder Variational Autoencoders (VAEs) verwendet werden. Diese Modelle können lernen, Audiosignale oder Musikstücke zu erzeugen, indem sie Muster und Strukturen aus einem großen Datensatz von Audioaufnahmen oder Musikstücken lernen.
  2. Rekurrente Neuronale Netze (RNNs) und LSTM: RNNs und LSTM (Long Short-Term Memory) sind neuronale Netzwerkarchitekturen, die speziell für die Verarbeitung von Sequenzen entwickelt wurden. Sie können verwendet werden, um Audio oder Musik zu erzeugen, indem sie Sequenzen von Klängen oder Noten generieren, die auf den vorherigen Elementen in der Sequenz basieren.
  3. WaveNet: WaveNet ist ein tiefes neuronales Netzwerk, das von DeepMind entwickelt wurde und in der Lage ist, Audio auf einer Wellenformebene zu generieren. Es arbeitet durch die Vorhersage der nächsten Abtastung in einer Audiodatei basierend auf den vorherigen Abtastungen.
  4. Symbolische Musikgenerierung: Bei der symbolischen Musikgenerierung werden Algorithmen verwendet, um Musik auf einer symbolischen Ebene zu erzeugen, zum Beispiel durch die Generierung von MIDI-Daten oder Musiknotationen. Diese Ansätze können auf regelbasierten Systemen oder auf maschinellem Lernen basieren.
Bei all diesen Ansätzen werden KI-Modelle zunächst mit einem ausreichenden Datensatz trainiert, der aus Audioaufnahmen oder Musikstücken besteht. Während des Trainings lernt das Modell die Muster und Strukturen dieser Daten und kann dann verwendet werden, um neue, ähnliche Audiodaten oder Musikstücke zu erzeugen. Der erzeugte Klang oder die erzeugte Musik kann je nach Anwendungsfall variieren, von der musikalischen Komposition über Soundeffekte bis hin zur Sprachsynthese.
 
Für alle, die die Grundlage und Neurons bis Mustererkennung im Grundsätzlichen mal kennen lernen wollen, gibt es das hier

Nicht so, dass hier alles sofort klar ist - aber auf dem Level kann man eher verstehen, was auf großer Ebene passieren könnte.
So wie man sich den JPG Algo anschaut, wenn man wissen will wie man Bilder klein kriegt, so passt das hier vielleicht ein bisschen.

Ja, bisschen nerdig isses.
 
Schönes Tutorial, das Du da rausgesucht hast!

Ich würde so gerne mal ein Tutorial auf dem Niveau und Umfang sehen, das sich nicht mit
befasst, sondern mit Generieren. Also, ein kleiner Datensatz zum Trainieren eines generativen Modells (oder RNNs, ...) und wie es typischerweise trainiert wird...
 
Ja, ich auch - aber kommt vielleicht noch. Sprachmodelle find ich sehr spannend, Musik natürlich auch.
Aber alles was wirklich klug ist wäre echt genau was mich interessiert wie das "Verstehen" überhaupt entsteht und wieso und wo die Grenzen sind - abgesehen von dem was man sehen kann. Auch, damit man die Stellen finden kann - was aber dann doch Job derer ist die das wirklich aktiv betreiben. Es gibt ja viel im Bereich Neuronal-Berechnung.
Das ist sogar normaler als man denkt. Aber etwas weiter oben kam die Frage auf, wie das generell funktioniere. Das hier hilft ein bisschen.
 


Zurück
Oben