Augmented Creativity

Augmented Creativity

  • nutze ich bereits

    Stimmen: 2 15,4%
  • möchte ich bald nutzen

    Stimmen: 4 30,8%
  • möchte ich nicht nutzen

    Stimmen: 7 53,8%

  • Umfrageteilnehmer
    13
Auf der Seite https://www.flow-machines.com/ gab es früher Beispiele und auch Screenshots,
haben sie leider gelöscht, hier gibts noch zwei https://soundcloud.com/user-547260463

Das System ist aber interaktiv, dh man kann einzelne Noten ändern (und die Maschine passt dann den ganzen Song an).

Das gibts noch https://www.aiva.ai/

https://www.youtube.com/watch?v=6FxPJD0JZQo


https://www.youtube.com/watch?v=m9kwUbDgpw0



https://www.youtube.com/watch?v=QiBM7-5hA6o



https://www.youtube.com/watch?v=v69KcJBrpuo
 
Du meinst damals gab es schon Digitalrechner mit neuronalen Netzen? Gloobick nich.
 
wie meinen? Definition von was? Interessiert mich das überhaupt? :denk: Ich denke nein.
 
Die Frage ist doch letztlich, was der Zweck von Musik ist.

Ist Musik ein Produkt welches konsumiert werden soll, dann ist die KI ein Werkzeug zur Produktion,
wie eine Maschine die Hamburger-Buns, Schrauben, oder irgendein anderes Produkt herstellt.
Sie wird Arbeitsabläufe verkürzen oder gar die Arbeit fast komplett automatisieren.
Das Produkt dieser Arbeit wäre dann eine möglichst genaue Ausfertigung eines vordefinierten Ergebnisses.

Oder ist Musik ein Mittel der Kommunikation und Interaktion von Menschen miteinander.
Dann ist KI eher störend, weil sie entweder den Ausdruck des Musizierenden verändert oder gar verfälscht,
oder ein Ergebnis vordefiniert werden muss.

Produktion oder Musizieren/Jammen?
Beides hat seine Berechtigung.
 
Je nach dem wie man es einsetzt glaube ich.

Es spricht für mich nichts dagegen das Ergebnis ein Stück weit vorzudefinieren.

Wenn ich eine Symphonie schreibe oder ein komplexeres Gemälde anfertige tue ich das ja auch.

Mir geht es hauptsächlich um den Fall, in dem alle Trainingsdaten von mir selber stammen.

Ich sehe ein so trainiertes neuronales Modell auch eher als sowas wie eine Langzeitbelichtung.

Der Input ist immer noch von mir, und das Modell fügt dem nichts hinzu.
 
Ja gut, wenn das ein "autarkes System" wäre und ausschliesslich mit deinem Neuronalen System verknuepft und nicht global an einer Datencloud haengt waere das ja irgendwie halbwegs legitim.
Wobei es dann auch Richtung binärem Doping geht.
Nix mehr die Nase hoch, einfach per App und Wlan NeuroTransponder!

Meine Definition von KI ist unter anderem; eine globale Cloud aus der bestimmte Daten herangezogen werden.

Naja, ich geh in die Sonne, das ist mein Betriebssystem das mich auf Hochtouren bringt.
Vitamin D.

Saludo
 
Zuletzt bearbeitet von einem Moderator:
habs nur druchgeskipt, daß Logic schon einen AI Drummer hat wusste ich nicht.

Ich denke andere DAWs werden nachziehen.
 
ja die waren nur am labern... das mit AI drummer wusste ich auch nicht, naja who cares:)
Aber einen Punkt haben sie noch gebracht...

AI in ambient music. Also ambient wirklich "ambient" und ambient im Sinn von generische Backgroundmusik. Entweder
für Videospiele, oder aber das sage ich jetzt für generische Filmscores. Ich denke da an Netflix die nach Schema F irgendwelche Serien drehen und dazu könnte ne AI auch den Score liefern.
 
Wobei es dann auch Richtung binärem Doping geht.
Ja.
Oben hieß es daß Musik Interaktion ist, aber was ist wenn ich mit der von mir trainierten AI sozusgen mit einer Kopie meiner selbst interagiere?
Oder zumindest mit einer verzögerten Version?

Ich find das ganz interessant, ist natürlich sehr egozentrisch auf ne Art.

Aber, man könnte so in Zukunft mit Modellen die mit Daten von berühmten Musikern trainiert wurden interagieren.

Das wird kommen, wenn nicht offiziell, dann wird das jemand inoffiziell machen.
Alle Platten mit Pat Metheny analysieren, usw.

Was passiert wenn ich den virtuellen Metheny mit einem anderen virtuellen Musiker spielen lasse der total den konträren Style hat?

Das wird wohl so kommen. Auch ohne daß die Leute wissen was sie da tun, und das wird die Musik beeinflussen.
 
AI in ambient music. Also ambient wirklich "ambient" und ambient im Sinn von generische Backgroundmusik.
Ja. Kaufhausmusik. Vogelgezwitscher mit Wassergeräuschen die subtile Harmonien mit subliminale Messages weben.

Bei welchem Sound wird am meisten gekauft? Kann man heute ja alles auf die Sekunde genau messen.
 
Ja. Kaufhausmusik. Vogelgezwitscher mit Wassergeräuschen die subtile Harmonien mit subliminale Messages weben.

Bei welchem Sound wird am meisten gekauft? Kann man heute ja alles auf die Sekunde genau messen.

standardnachrichten werden auch schon von AI geschrieben.
Aber bis ne AI einen bedeutungsvollen Kommentar hinbekommt wird es noch lange dauern mein ich.
Wenn das mit Sprache passsiert wird es in der Musik so weit sein.
 
Oben hieß es daß Musik Interaktion ist, aber was ist wenn ich mit der von mir trainierten AI sozusgen mit einer Kopie meiner selbst interagiere?
Oder zumindest mit einer verzögerten Version?

Ich mein, das geht doch heute schon bzw wurde mit der Erfindung der Bandmaschine bequem moeglich.
Oder heutzutage per DAW bzw MIDI.
Der Jam mit sich Selbst.
Gut, ist was anderes, und nicht das was du dir vorstellst. Versteh ich.

So ein Realtime JamGenerator, der nicht starr wie ein Begleitautomat den eigenen Harmonien folgt sondern interagiert.
Das waere in der Tat phät, und dann noch ein MotionFeel Template von Frusciante oder so.

Aber, man könnte so in Zukunft mit Modellen die mit Daten von berühmten Musikern trainiert wurden interagieren

Siehe oben. :)

Was passiert wenn ich den virtuellen Metheny mit einem anderen virtuellen Musiker spielen lasse der total den konträren Style hat?

Das erinnert mich jetzt etwas an diese Mash Ups, aber ich verstehe die Komplexitaet die KI evtl moeglich macht. Ganz was anderes.

Wenn zb Himi Hendrix die Skills von Paco haette... und sowas als KI Template in einer RealTime Jam Follower App... uiuiui :D
 
So ein Realtime JamGenerator, der nicht starr wie ein Begleitautomat den eigenen Harmonien folgt sondern interagiert.

für kurze kadenzen ist das nicht sonderlich kompliziert.

interessant wird es, wenn eine rechenmaschine aus eigener entscheidung ein ganzes kunstwerk so kreiert wie es ihr selbst am besten gefällt, um und damit etwas zu sagen.

folgt man meiner these aus dem singularitätsthread von vor einem jahr, kann diese form der geistigen(/künstlerischen/philosophischen) singularität aber niemals erreicht werden, was sich mit dem zustand der geworfenheit (heidegger) erklärt, in dem sich auch die rechenmaschine befindet.
 
Automation - ja - ich würde eh sagen man kann das als erweiterte Automation bezeichnen - was heute so läuft - bis hin zu nicht mehr selbst spielen müssen - ggf auch weil es nicht so exakt wäre ..
 
für kurze kadenzen ist das nicht sonderlich kompliziert.

interessant wird es, wenn eine rechenmaschine aus eigener entscheidung ein ganzes kunstwerk so kreiert wie es ihr selbst am besten gefällt, um und damit etwas zu sagen.

folgt man meiner these aus dem singularitätsthread von vor einem jahr, kann diese form der geistigen(/künstlerischen/philosophischen) singularität aber niemals erreicht werden, was sich mit dem zustand der geworfenheit (heidegger) erklärt, in dem sich auch die rechenmaschine befindet.

Mit Jam mein ich musikalische Interaktion, da geht es um Frage/Antwort Spielchen Verzierungen Phrasierungen von spontanen Melodien, Folgen, Vorgeben, Syncronitaet und das wichtigste, sich Selbst auch mal zuruecknehmen und sich ganz leise machen um den Anderen Raum zu geben.

Solche Jams macht man in der Regel mit musikalischen Mitmenschen.
Manchmal harmoniert es, manchmal auch nicht. Grundlage ist ein gemeinsamer musikalischer Terminus, manche haben den drauf, manche nicht.
Dabei ist es eine universelle "Sprache" die International verstaendlich ist. :D

Rein Elektronische Jams hatte ich auch schon, manche waren extrem fuerchterlich, andere sind legendaer.

Was ich damit sagen will:

So eine Ki MotionFeel spontinious Jam Follower App sollte in der Lage sein zu interagieren. Wenn ich zb C D E F anspiele, dann sollte der KI Automat zb mit C D E F > H A antworten und nicht mit C D E F > G und dann bloed warten und hektisch blinken wie R2D2. ?

Naja! Alles Wunschdenken irgendwie.
Ich bleib da bei meinem KI Looper bzw geh ich hin und wieder zu Jam Sessions. Da lernt man auch viel Neues Gruppendynamisch im Kollektiv, was ja dann auch irgendwie ein intelligentes Netzwerk ist und eben KEINE künstliche Intelligenz.

Immer zu Hause im Kaemmerlein zu rocken, find ich ehrlich gesagt nicht erstrebenswert, aber immerhin besser als Garnichts und so ein echten -Jam RealTime MotionFeel Spontanious Follower- mit der Moeglichkeit -Human Templates- zu laden fänd ich Spitzenmaessig.

Die JamWuerze liegt darin das man freudig harmonisch ueberrascht wird und auchbgerne mal folgt, wenn ein Automat das, fernab der konservativen Quintenzirklerei hinbekommt, waere das Super.



schönenSo
 
Zuletzt bearbeitet von einem Moderator:
Automation nervt, weil sie unberechenbar ist, es sei denn man passt sich ihr an und selbst wenn sie dazu lernt,
was man am wahrscheinlichsten täte, wird es immer maßgeblich zum Punkt kommen an dem sie nervt.

Das sind banale Dinge, wie Autokorrektur, Assistenzsysteme, Sprachsteuerungen, etc.

Sofern es mir möglich ist, schalte ich den Mist ab !

Das einzige was taugt, sind Regen- und Helligkeitssensoren und die daraus folgende
Scheibenwischer- bzw Scheinwerferregelungen.

Meine Erfahrung.

Digitalisierung presst das unvorhersehbare menschl. Verhalten in eine Form, daraus entsteht Stress.

Stress passt nicht zum kreativen Prozess.
 
da geht es um Frage/Antwort Spielchen

ja, genau das habe ich dabei auch im kopf.

und ob live oder als kompositionstechnik ist ja egal.

So eine Ki MotionFeel spontinious Jam Follower App sollte in der Lage sein zu interagieren. Wenn ich zb C D E F anspiele, dann sollte der KI Automat zb mit C D E F > H A antworten und nicht mit C D E F > G

versuche mal kurz zu erfassen, wie unglaublich komplex das ist, was bei einem mitmusiker aus fleisch und blut alles im kopf vorgeht, wenn der sowas macht. man schafft es kaum das in worte zu fassen, weil einem immer noch was und noch was dazu einfällt - und es ist ja auch bei jedem anders.

dann erahnt man wie schwieirg (oder wie unmöglich) es ist, einen perfekten automaten danach zu modellieren.

aber immerhin: auf dem weg von der begleitautomatik aus dem patternsequenzerpreset und einer kompositions- oder musiker-KI geht es täglich voran.

Immer zu Hause im Kaemmerlein zu rocken, find ich ehrlich gesagt nicht erstrebenswert, aber immerhin besser als Garnichts und so ein echten -Jam RealTime MotionFeel Spontanious Follower- mit der Moeglichkeit -Human Templates- zu laden fänd ich Spitzenmaessig.

hm, wie der bot im "mehrspieler"modus eines spiels, was man alleine spielt.

den vergleich mit der sexpuppe erspare ich uns an dieser stelle.
 
versuche mal kurz zu erfassen, wie unglaublich komplex das ist, was bei einem mitmusiker aus fleisch und blut alles im kopf vorgeht, wenn der sowas macht. man schafft es kaum das in worte zu fassen, weil einem immer noch was und noch was dazu einfällt - und es ist ja auch bei jedem anders.

dann erahnt man wie schwieirg (oder wie unmöglich) es ist, einen perfekten automaten danach zu modellieren.


FLOW.

Wenn ein Musiker im Flow ist, zuvor die Hausaufgaben auch gemacht wurden, ist so ein Jam ein tatsaechlich ein Selbstlaeufer. Man ueberlegt nicht wirklich viel, es sprudelt aus einem heraus.
Wenn du bei einem Jam nachdenkst was du spielen sollst, dann verpasst du den Anschluss oder man ist halt, sorry, leider nicht gut genug (Hausaufgaben nicht gemacht).

Bei Jams ruft man zu 80% seine musikalisvlchen Konditionierungen ab und laesst es einfach "laufen".


Aber ich versteh dich schon; das duerfte auch das schwierigste sein, ein Automat zu entwickeln der Selbststaendig flow't... find ich eher eine ulkige Vorstellung aber irgendwie auch denkbar, wenn in Zukunft eine KI der dritten oder vierten Generation "Selbststaendig" die die Technologien fuer die KI Folgegenerationen entwickelt.

Das Problem:

Wenn der Mensch dabei die maximale Knotrolle bzw Dominanz verliert, dann sehen wir uns alle wieder in der Matrix.

Aber hey, ich hab noch 20-40 Lebensjahre (so Gott will) vor mir, schaumermal... ich gehe nicht davon aus das ich die Maschinenherrschaft erleben werde, viel wahrscheinlicher ist das MadMax Mittelalter Szenario innmitten von Europa.

Saludos
 
Zuletzt bearbeitet von einem Moderator:
So sehr ich dir recht gebe, mit dem was Du schreibst ... Flow ist etwas, was wir wahrnehmen. Es ist nicht das, was im Gehirn/Geist passiert.

Musikalische Konditionierungen sind übrigens tadsaaa: Muster/Pattern. Beim Spielen kommen dann noch „Motorpattern“ dazu, eintrainierte Bewegungsabläufe.

Ohne vorher eintrainierte Muster würden wir nichtmal Musik als solche erkennen können. Ganz das neuronale Netzwerk eben. :) Hören wir uns unbekannte Musik, findet ein Vergleich mit den antrainierten Mustern statt, danach entscheidet sich, ob uns etwas gefällt oder nicht.
 
Zuletzt bearbeitet:
Musikalische Konditionierungen sind übrigens tadsaaa: Muster/Pattern.

konditionierungen? :) das ist doch viel mehr: menschen, die musik hören, sehen bilder, assoziieren worte, fühlen sich an vergangene momente erinnert, versuchen das vom kollegen gespielte auf verschiedenen ebenen zu erfassen, denken darüber nach, wie der andere wohl gerne weitermachen würde, sind dann überrascht, wenn der doch anders reagiert wie erwartet usw usf.

da kommen schon ein paar daten zusammen, die man da speichern und verarbeiten muss, will man so etwas auch nur von der grundstruktur her programmieren. die leute, die bilderkennungssoftware gemacht haben, die frauengesichter von männern oder hunde von katzen unterscheiden kann, haben da 10 jahre dafür gebraucht.

hinzu kommt, dass ein mensch seine eigene improvisation dann auch noch davon abhängig macht, wie er sein instrument beherrscht, was ihm so am besten gefällt, und wie das instrument klingt.

wenn man das alles in eine rechenmaschine packen will dann wird da aus deep learning ganz schnell big data mining. :) und es langt ja auch nicht aus, wenn das learning in echtzeit läuft, es muss viel, viel schneller gehen.

das aviva zeug zum beispiel basiert im prinzip nur auf presets, die anhand dessen, was der user vorgibt, ausgewählt und modifiziert werden. das ist von deep learning ungefähr so weit entfernt wie eine hummel von einem airbus und nicht mal ansatzweise in der lage sich auf ein frage antwortspiel mit einem menschen einzulassen.
 
Die „Datenmengen“ werden wohl riesig sein, stimmt. Schwierig wird es auch sein, zu trainierende Muster zu definieren.

Dass jemand in einem Moment überhaupt mit mir zusammen musizieren möchte, muss ich auch erstmal erkennen. Das erkenne ich anhand antrainierter sozialer Muster.

Während einer Session findet dann auch eine Kommunikation via Mimik/Gestik statt, was absolut nicht unwichtig ist. Das müsste auch in Maschinensprache übersetzt werden.

Da fällt einem an jeder Ecke noch etwas ein...


Ach ja ... dann noch das von dir angesprochene Thema Emotionen.

Oder Hintergedanken ... vllt. taucht gerade die Traumfrau im Raum auf und man möchte glänzen, oder man möchte das Publikum ärgern. Solche Hintergedanken hat man ja auch schon beim „Komponieren“.

Da kommt schon einiges zusammen.
 
Zuletzt bearbeitet:


News

Zurück
Oben