Was habe ich mit KI gemacht - Das hauts einfach raus Thema

Martin Kraken

Anfänger
Hier mal die Möglichkeit seine eigenen Kreationen mit KI zu zeigen. Tipps zu teilen, wie habt ihr es gemacht, welche Tools habt ihr genutzt. Lass uns einfach mal zeigen was so möglich ist, aus allen Bereich (außer Bilder, dafür gibt es ein Extrathema). Wer von euch ist am Pulse der Zeit? Wer hat vielleicht noch ein Nokia-Handy, hat aber schon was mit KI gemacht?

Ich mach mal den Anfang. Ich hatte überlegt, wie man KI für vielleicht Youtube Shorts nutzen kann. Google plant eine direkte Integration von Veo3 in Youtube. Mit Veo3 kann man Video mit Ton generieren. Das bedeutet, wenn jemand zum Beispiel eine Idee hat für ein lustiges Video, zum Beispiel ein Mann rutscht aus und bricht sich das Genick und schreit dabei, dann muss man das jetzt nicht mehr in echt machen, was ja Leben schützt, denn man kann es einfach mit Veo3 machen. Es ist genauso lustig, ohne das ein Tier leiden musst. Naja, aber scheife ab. Eigentlich war das nur der Anlass. Da ich eine Adobe Cloud habe und bis 01.10.25 Video generieren kostenlos ist, wollte ich halt diese 9:16 Clips machen. Erst habe ich versucht Follower über anstößige Inhalte zugenerieren:




Um dann mit knallharten Musikvideos nachzulegen. Bis jetzt haben wir es innerhalb von 24 Stunden auf 1684 Plays geschafft. Das mehr als der Sequencer-Talk!

Wie bin ich vorgegangen. Ich habe erstmal mit Chatgpt einen Text erstellt. Wobei hier wichtig ist, die Standardwörter die er immer nutzt auszuschließen. Dann wurden die Bilder in midjourney erzeugt und dann mit Adobe Firefly (Luma, Ray3) animiert. Dann die 5 Sekunden Clips mit Adobe Express zu einem Video zusammengesetzt.



Bei diesem Video war mir wichtig, die japanische Community mit abzuholen:




Was habt ihr so für Projekt mit KI gemacht? Hauts raus? Was programmiert? Ne Website? Coole Musik mit Suno, Audio? Vielleicht mal ein Vergleich? Gleicher Text, gleicher Prompt, wer ist besser? Hat schon jemand Elevenlabs ausprobiert oder mit Adobe Soundeffekte? Irgendwelche Tipps?

Was ich als nächstes gerne ausprobieren würde, wenn ich mal wieder Zeit hab ist https://marble.worldlabs.ai/ ...damit würde ich gerne einen Raum erstellen, dann Bilder machen, dann mit nano banana eine spezifische Person in die Bilder einfügen, dann die Bilder mit Veo3 animieren. So bekommt man einen konsistenten Raum in dem man Personen platzieren kann.
 
jau, die Welt im allgemeinen und Youtube im Besonderen braucht unbedingt noch mehr KI-Slop.

... kann man machen, aber ob das gerade in diesem Forum wirklich goutiert wird? 🤔 Besonders co2-neutral scheint der Kram auch nicht zu sein, aber wer ist das schon?

1759252515468.png
 
jau, die Welt im allgemeinen und Youtube im Besonderen braucht unbedingt noch mehr KI-Slop.

... kann man machen, aber ob das gerade in diesem Forum wirklich goutiert wird? 🤔 Besonders co2-neutral scheint der Kram auch nicht zu sein, aber wer ist das schon?

Anhang anzeigen 265358


Nur weil ihr alt und vergrämt seid müsst ihr euch ja nicht neuen Technologien verschließen. Im Moment kann sehr viele tolle kreative Sachen mit KI machen. Im Moment ist es noch ein Abenteuer. Es ist auch nicht so, dass es gar keinen Skill erfordert mit den aktuellen KI-Tools umzugehen. Klar, lieber alter Wein in neuen Schläuchen. Veränderungen sind schwer. Das hat auch Roland erkannt. Es wird wohl wirklich Leute geben, die sich ne TR-1000 für 2700 Euro kaufen, anstatt mit KI kreativ zu sein.
 
Es wäre gut, wenn nicht JEDER Thread mit KI ein Gespräch über KI sein muss, es gibt 2 skeptische Hauptadern, wo man das besprechen kann.
- Ist die KI eine Bedrohung für Musiker?
- KI Gefahr für die Menschheit?
Wer mag, macht noch einen auf.
Es gibt auch positiv gemeinte Thread Was spricht für KI - Anekdoten und Erlebnisse mit KI, GPT und Schwächen und Grenzen im System.
Aber ggf. ist man da nicht offen genug für? KI wäre schon längst weg, wenn es keine positiven Dinge gäbe.
__
Die kreativen Sachen, die gerade hier raus fallen kann man auch mal so spielerisch laufen lassen.

Sicher: dass die Kreativkraft vor dem Rechner sitzen muss und die KI kann nur bestehendes bearbeiten, siehe https://www.sequencer.de/synthesizer/threads/ki-gefahr-fuer-die-menschheit.169120/post-3003815
Lasst doch mal auch den Kreativen ein paar Threads, die einfach ohne "ja, aber" auskommen - es gibt genug Platz hier dafür.
 
Ich glaube, dass KI die Porno Industrie vernichten wird.
Aber meine Klimper- und Schrauberei bleibt Intelligenz frei ... Egal ob AI oder Bio
 
Genau so komponiere ich Musik... Ich nehme ein Preset und lass einen Arp laufen...
Mehr brauch ich nicht...Das ist die wahrhaftige Erkenntnis meines gesamten musikalischen Schaffens.:)
 
Faszinierend! 🖖


Da fehlt die bekannte Tetris Melodie :polizei:

Ist problematisch in einem File. Auch Soundeffekte in einem HTML File gehen eigentlich nicht. Sokoban ist eigentlich geiler, muss ich aber mal suchen wo ich das gemacht habe, ansonsten habe ich nur komplexere Projekte, die man hier nicht hochladen kann. Wenn jemand was hat, was er in einem HTML verwirklichen will. Ich könnte es probieren. Habe noch ein paar pro creds frei.
 
Ich bin echt total begeistert über dieses Kitty Jig Ding und gleichzeitig frage ich mich wie viel am Ende von Dir als Künstler und Person enthalten ist? Welche Entscheidungen triffst Du und nicht die KI, damit es ein Martin Kraken Werk ist?

Du setzt der KI für die jeweilige Aufgabe das entsprechende Prompt. Gehst Du hin und lässt z. B. 5 Textversionen basteln und stellst daraus die für Deinen Geschmack finale Version zusammen? Gibt es analog dazu viele musikalische Versionen mit Stems und daraus erstellst Du den finalen Track?

Denn am Ende hast Du mit dem Hinweis auf eine Arpeggio-Muster nicht ganz Unrecht, es ist auch ein technisches Hilfsmittel um zu einem Gesamtwerk zu kommen. Aber am Ende agiert immer der Künstler und „mischt die Farben und schwingt den Pinsel“.

Btw - wie lange hast Du an dem Beispiel gearbeitet?
 
Ich bin echt total begeistert über dieses Kitty Jig Ding und gleichzeitig frage ich mich wie viel am Ende von Dir als Künstler und Person enthalten ist? Welche Entscheidungen triffst Du und nicht die KI, damit es ein Martin Kraken Werk ist?

Du setzt der KI für die jeweilige Aufgabe das entsprechende Prompt. Gehst Du hin und lässt z. B. 5 Textversionen basteln und stellst daraus die für Deinen Geschmack finale Version zusammen? Gibt es analog dazu viele musikalische Versionen mit Stems und daraus erstellst Du den finalen Track?

Denn am Ende hast Du mit dem Hinweis auf eine Arpeggio-Muster nicht ganz Unrecht, es ist auch ein technisches Hilfsmittel um zu einem Gesamtwerk zu kommen. Aber am Ende agiert immer der Künstler und „mischt die Farben und schwingt den Pinsel“.

Btw - wie lange hast Du an dem Beispiel gearbeitet?

Ich glaube, im Moment liegt der Beitrag im Beherrschen der KI-Tools. Es bedarf schon ein paar Durchgänge in Chatgpt bis einem der Text gefällt. Oft lege ich schon einen Grundgerüst mit Idee vor. Bei dem Kitty Song war das nicht so, es waren wirklich wenig Prompts. Einfach auch nur deswegen, weil ich mich etwas unter Zeitdruck wegen dem freien Adobe Credits war. Aber ich würde sagen, wenn du mit Chatgpt im Moment eine gute Lyrics machen willst, kannst du nicht einfach schreiben: "Mach mir eine Song Lyrics über Liebe". Die Leute machen Witze drüber, weil halt immer die gleichen Reime rauskommen. Bei dem japanischen Song habe ich die Lyrics aus einem Text gemacht. Einfach einen englischen Text von mir genommen und dann gesagt, es darf nur Wörter daraus nutzen. Dadurch umgeht man, dass man die Standard-Klische Sachen hat, wie neon, sky, echo (chatgpts 5 Lieblingswort) usw. Dann war der Text aber nicht so doll und ich dachte hey, was kann ich lustiges machen, übersetze es halt ins japanische.

Dann bin ich in Suno und das ist schon ne Menge Arbeit, weil mir einfach 99% einfach nicht gefällt und ich so lange rumprobiere, bis ich was habe, was ich irgendwie "besonders" finde. Dann habe ich mit midjourney Bilder von Leuten die Synth spielen generiert. Mit --sref random immer mit einem zufällig Style (also wirklich zufällig, den Style gibts halt nicht nochmal). Da etwa so 40 Durchläufe, bis ich was hatte was ich sweet fand. Dann den Rest der Bilder im gleichen Style gemacht. Dann in Adobe Firefly daraus Videos. Dann in Adobe Express die Clips versucht so zu kombinieren, dass es irgendwie halbwegs passt (da ist sicher sehr viel Luft).

Im Moment denke ich, es ist noch kreativ, weil die KIs noch limitiert sind. Irgendwann, wenn alles in Kombi ist. Man drückt nen Knopf und es kommt automatisch nen Welthit raus und man macht gar nix mehr, dann ist es auch nicht mehr spannend. Es ist wahrscheinlich die Möglichkeit, dass man was eingeben kann und modifizieren kann, dass es überhaupt Spass macht. Die Idee was man will liegt ja noch bei einem selbst.

Beim Programmieren ist es ähnlich, vielleicht noch deutlicher. Ich kann zwar nicht programmieren, aber ich habe zum Beispiel eine Spielidee die ich umsetzen will. Dann gebe ich die Spielidee ein und Chatgpt setzt sie um.
 


Neueste Beiträge

News


Zurück
Oben