Neueste KI zur Videoerzeugung

Trust Nothing - Introducing EMO: AI Making Anyone Say Anything​



12:39 ist der blanke Hammer

Ich finde was er am Ende sagt ist wichtig... wie er das völlig zusammenhangslos aus der Videothematik herleitet ist jetzt fragwürdig, aber er hat recht.
Wenn ich heute aus einem alten System V Init script eine Systemd unit machen will weil ich auf ein neues System umziehe, kippe ich das einfach in chatGPT und bekomme in nicht mal 10 sekunden mein perfektes Ergebnis.
Da zerbreche ich mir doch nicht mehr den Kopf über das script selber oder ob ich irgendwo eine Klammer vergesse.
Und wenn mir die KI das abnimmt, habe ich den Kopf frei für die wichtigeren Dinge...
 
habe letzte nacht geträumt, dass die mit ki alle simpson folgen, die als zeichentrick kamen, nochmal in real verfilmung gebracht haben.

dabei gingen mir allerlei folgen, wie die "tomacco folge" ,"homer wird astronaut", oder "homers merkwürdiger chilli-trip" in bildern durch den kopp.

mein zweijähriger neffe könnte das sicher erleben.
 
Zuletzt bearbeitet:
filmmusik mit AI ? kein problem für das team von "Nobody And The Computer". und wieder schön illustriert.

 
Petr Valek aka The Vape haut übrigens auch ein AI-Video nach dem anderen raus.
Ich glaube, die Musik und der Gesang kommen von ihm.







PS. Einige seiner analogen Instrumente-Kreationen gibt es hier im Thread zu sehen



Ich wollte eben sagen, Petr Valek macht da doch echt krasse Sachen.
Eines der letzten Videos wollte mein Freund nicht anschauen, weil es so spooky war ... der macht aber auch echt gespenstisches Zeug.
Ich finde es nach wie vor faszinierend und würde auch gern mit KI Videos machen. Kommt bestimmt noch.

Der neue Track von Anthony ist auch richtig super geworden:
 
Ein Review der Release-Version von Sora



Super, danke für den Tip, da werden viele interessante Funktionen vorgestellt.

In Deutschland scheint es noch nicht so einfach zu sein, diese KI zu nutzen.

 
Super, danke für den Tip, da werden viele interessante Funktionen vorgestellt.

In Deutschland scheint es noch nicht so einfach zu sein, diese KI zu nutzen.

Das Problem mit diesen KI VIdeos ist noch, dass da sofort irgendwie errsichtlich ist, dass es KI ist... würde ich sowas machen wollen wie "Steven Wilson - The Raven that refused to Sing" wäre das auch nicht möglich weil die Videos ihre Charaktere noch nicht richtig von einer Szene in die nächste transportieren können. Schwieirg. Sicher interessant um Videos für die eigene Musik zu erstellen, aber noch nicht so weit.
 
FramePack für lokale Img2Vid Generation ist echt klasse. 5Sek brauchen mit einer 4070, also 12GB VRAM ca 10min, da kann man nicht meckern. Und es ist im Gegensatz zu den ganzen Onlineangebot unzensiert und man kann eigene Fotos nutzen, ohne dass sie bei einem Unternehmen landen.
 

Anhänge

  • FramePack 250425_160007_965_1530_37.mp4
    1,2 MB
  • FramePack 250425_161213_696_1251_37.mp4
    1 MB
  • FramePack 250425_223048_935_658_37.mp4
    1,7 MB
  • hilfreich
M.i.a.u.: oli
Higgsfield beeindruckte mich in letzter Zeit sehr, weil man da auch die Kamerafahrt/-bewegung definieren kann.



 
higgsfield gibts nicht zufällig für lokales generieren oder?
werde niemals nie geld für GenAI ausgeben *armeverschränk* :D
 
ich hatte die letzten Wochen ein wenig mit WAN2.1 rumgespielt und auch dort konnte man mit "kamerafahrten" experimentieren.
mit den kleinen 1.3B Modellen konnte man relativ schnell was generieren - allerdings minderwertige optik.

mit den 14B Parameter Modellen hat ein 7sek Video schon wieder 30-40 minuten auf einer 4090 gedauert.
sah ein wenig besser aus.

Allerdings war das auch für mich nichts.. Ich hab kein Interesse an fotorealistisches / echten Menschen und nutze sowas eher für abstraktes - womit die neuen modelle alle nicht soviel anfangen können irgendwie...
 
  • Daumen hoch
M.i.a.u.: oli
higgsfield gibts nicht zufällig für lokales generieren oder?
werde niemals nie geld für GenAI ausgeben *armeverschränk* :D

Also lokal finde ich FramePack seit einer Woche immer noch am besten. Wan2.1 müsste ich nochmal aktualisieren aber das hat meine ich auch einfach zu lange gedauert. Aber natürlich gibt es da keine direkte Steuerung bei FramePack für die Kamerafahrten. Aber prompts wie filmed with smartphone damit das Ganze etwas natürlich verwackelt rüberkommt funktioniert zb.
 
Allerdings war das auch für mich nichts.. Ich hab kein Interesse an fotorealistisches / echten Menschen und nutze sowas eher für abstraktes - womit die neuen modelle alle nicht soviel anfangen können irgendwie...

Geht mir übrigens genauso, also dass ich auch den Eindruck habe, dass kaum an abstrakten Formen „geforscht“ wird. Schade.
Bzw. wenn du mal was mitbekommen solltest, gerne hier posten… (werde ich auch, falls mir was übern Weg läuft)
 
Higgsfield beeindruckte mich in letzter Zeit sehr, weil man da auch die Kamerafahrt/-bewegung definieren kann.





Hier werden übrigens einige Kamerafahrten im Detail aufgedröselt… durch ne KI-Stimme… ;-)
Übrigens sprach die Stimme auf meinem Rechner auf deutsch und jetzt hier aufm Handy auf englisch. Kann man das umstellen auf YouTube oder wird das automatisch erzeugt?
 
@oli alles klar :)
gut zu wissen das man nicht allein ist :)
dieses fotorealismus und traumfrauen und peudo anime porn bauen geht einem halt schon auf die nerven...
jedesmal eyesroll des todes bei mir :D

werde mir erstmal Framepack anschauen...bzw auf meine todo liste geschrieben :)
 
  • HaHa
M.i.a.u.: oli
Übrigens sprach die Stimme auf meinem Rechner auf deutsch und jetzt hier aufm Handy auf englisch. Kann man das umstellen auf YouTube oder wird das automatisch erzeugt?

Ja, das geht unten in der Leiste bei Youtube, müsste auch das Zahnrad sein. Leider kann man nicht voreinstellen, dass man immer den Originalton gucken möchte, das nervt.
 
  • hilfreich
M.i.a.u.: oli


News

Zurück
Oben