Microsoft Deep Singer - KI singt chinesische Chansons - ziemlich gut

Microsoft Deep Singer ist eine Machine Learning KI, also eine die vorher eine massive Anzahl von Songs "angelernt" hat und das Ergebnis ist das das hier


Ich hoffe übrigens, dass jeder weiss, was Machine Learning ist - also davor muss man keine Angst haben. Es ist eine Art besserer Mittelwert aus eine Riesenmenge von Beispielen zu ziehen. Hätte man also 20000 Bilder von Katzen, versucht das System die Katze so zu finden. Ist kein Bild einer Katze mit viel Rauschen und so im Bild dabei, kann es sein, dass das Kätzchen mit Störungen nicht mehr so gut erkannt wird. So ist es auch beim erfinden von Melodien. Die sind so wie https://www.sequencer.de/synthesizer/threads/aehnlichkeiten-melodien.154279/ eher dieses. Auch wenn in feinerem Maßstab.

MS - nicht Apple oder Google.
Es gibt so viele Sachen die ich mit ML auch mal probieren wollte. Manchmal kommen da ja auch interessante Erkenntnisse zutage. Bei Musik könnte es schwerer werden, sowas zu finden. Sie haben sie aber nicht Skinny Puppy oder das neue Haus Arafna Album hören lassen.
 
Zuletzt bearbeitet:
Da wird in Zukuft sicherlich einiges gehen, selber was einsingen, die KI weiß was den Gesang von sagen wir Rihanna ausmacht und überträgt das auf die eigene Stimme, kein Problem wenn genügend Daten vorliegen.
Oder zumindest erstmal allgemein was den Unterschied ausmacht zwischen männlicher und weiblicher Stimme und dann wird das jeweils andere drauß gemacht.
 
Da wird in Zukuft sicherlich einiges gehen, selber was einsingen, die KI weiß was den Gesang von sagen wir Rihanna ausmacht und überträgt das auf die eigene Stimme, kein Problem wenn genügend Daten vorliegen.
Oder zumindest erstmal allgemein was den Unterschied ausmacht zwischen männlicher und weiblicher Stimme und dann wird das jeweils andere drauß gemacht.
Ja, daran wird eigentlich bei Yamaha glaube ich schon insoweit in der Zielgebung daran in der Formant-Synthese gearbeitet, dass Timbre etwaiger Sänger synthetisieren zu können. Zumindest möchte man genau dahin.
Das bisher größte Problem der vocaloiden Vocal-Synthese waren Dinge wie Belting, Shouten, souliges Humming etc. dass man mit der Vocaloid V5-Serie allerdings schon ziemlich gut hinbekommen hat.
 
Die mathematischen Konzepte dahinter sind größtenteil 100 Jahre und älter. Viele davon sind hier vor Ort entstanden.

Was den Systemen jedoch (derzeit noch) abgeht ist der fehlende Hang zur Nicht-Linearität, was ja einen Großteil der künstlerischen Kreativität ausmacht. Das Unverhergesehene vorherzusagen ist ja die eigentliche Herausforderung. Wenn ein Algorithmus das mal schaffen sollte, ist der Komponist quasi arbeitslos.
 
Da wird in Zukuft sicherlich einiges gehen, selber was einsingen, die KI weiß was den Gesang von sagen wir Rihanna ausmacht und überträgt das auf die eigene Stimme, kein Problem wenn genügend Daten vorliegen.
Oder zumindest erstmal allgemein was den Unterschied ausmacht zwischen männlicher und weiblicher Stimme und dann wird das jeweils andere drauß gemacht.
Naja, man könnte und soll ja quasi alle Stimmen sammeln, also DaveGahan, Rihanna, Kirchenchor, The Smiths und Skinny Puppy aber auch Adele - alle rein.
Das das Prinzip "alt" ist - ist bekannt und hat mit KI auch nicht wirklich zu tun, klingt nur gut. Es ist ML - Maschine Learning - das ist der aktuelle Name dafür. Das rotiert nach Mode schonmal.
 


News

Zurück
Oben