Neueste KI zur Bilderzeugung

Gibt es inzwischen KI-generierte Bilder, auf denen Tastaturen korrekt dargestellt werden?
Ist mir bis jetzt noch nicht untergekommen.

Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
Bei mir variiert das glaube ich auch. Hatte es öfter am Nachmittag / Abend beobachtet.

Was macht ihr eigentlich mit euren Reward-Punkten? Bin bei knapp 2000.
Für Boosts finde ich sie zu schade. Weiter sparen für Amazon Gutschein?
 
1705578237440.png
Witzig. Gestern 20 Mal hintereinander in den Contentfilter gelaufen und konnte trotzdem weitermachen, heute gabs den Warnschuss schon nach dem ersten Mal….
 
Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
ich habe gestern gar keine bekommen

vielleicht ne Strafe für mehrfachen Content-Verstoss

die sind so elend pingelig... einfache Worte werden im Kontext nicht verstanden ...ein richtiger Robo Cop
dann weisst du nicht unbedingt welches Wort den Verstoss ausgelöst hat und rennst 3x hintereinander in die Falle

Gastank ( im Sinne von Gasoline) bzw. Tank geht nicht...weil es wohl als Panzer interpretiert wird
es ist halt f.....g Microsoft

eine Menschengestalt mit einem "Skull Face" oder einem "Brain Head" macht er auch nicht
dann wirst du bestraft, weil das Ding doof ist.... ich freue mich auf die Zukunft
 
eine Menschengestalt mit einem "Skull Face" oder einem "Brain Head" macht er auch nicht
dann wirst du bestraft, weil das Ding doof ist.... ich freue mich auf die Zukunft

Hmm, also als ich damit rumgespielt habe ging das, Brutalität war fast nie Thema, vielleicht haben die das mittlerweile angepasst. Ich war selbst immer erstaunt, was die KI teilweise für blutige Bilder ausgespuckt hat. Gesperrt wurde ich nie.
 
Ich hab euch gewarnt 😋

Bei mir kam die Contentwarnug schon öfter wahllos. Bei Prompts, die keinerlei anzügliches hatten und ansonsten auch problemlos funktionierten.
Wenn der also Bilder kreiert, die Probleme verursachen (ohne, dass ich das wollte) ist das sein Problem. Denke ich mir dann.

Dennoch – was, wenn das Überhand nimmt ohne, dass ich da Schuld habe?
 
Bezüglich der täglichen 15 Boostpunkte beim B.I.C. ein Frage in die Runde:

Kommen die Punkte bei Euch auch grundsätzlich zu nicht vorhersehbaren Zeitpunkten? Bei mir manchmal um gegen 9:00 a.m. manchmal erst 11:00 a.m. ... :sad:
Da ist mir noch keine bestimmte Uhrzeit aufgefallen.
Habe ehrlich gesagt auch noch nicht drauf geachtet.
Wenn ich aber zb noch 6 übrig hatte, den Browser bzw das Tab offen lasse und am nächsten Tag was neues versuche, wird die Seite neu geladen, das eingegebene promt ist weg (selig wer es je nach länge vorher speicherte) und es stehen wieder 15 neue bereit (vermute mal man kann mit 24 Std seit dem letzten einloggen rechnen?).
Wenn die neuen Punkte verbraucht sind und ich aber noch weitere Ideen habe, lasse ich das Ding im Hintergrund weiter rattern, oder wie weiter oben schonmal erwähnt, breche ich den Vorgang einfach ab und lasse mir anzeigen was bis dahin fabriziert wurde. (edit: was ich damit sagen wollte; deshalb habe ich noch nie genau drauf geachtet)

Apropos Beispiel oben - Schade dass die unverbrauchten Boosts nicht genauso gesammelt werden können wie die Reward Punkte.

Was macht ihr eigentlich mit euren Reward-Punkten? Bin bei knapp 2000.
Für Boosts finde ich sie zu schade. Weiter sparen für Amazon Gutschein?
Bin aktuell bei ca 3500. Für Boosts habe ich aber auch noch keine verwendet. Und auch nicht für irgendwas anderes.
Hatte das zwecks anderweitge Verwendung aber bisher auch noch gar nicht richtig auf dem Schirm.
Schaue ich mir mal an, Danke.
Klicke mich bei Langeweile (bzw wenn es mal wieder länger dauert) ab und zu durch die Rätsel dort.
Wo es ja egal ist ob man irgendwas richtig anklickt. Die Punkte bekommt man trotzdem. :]
Man kann ja nie wissen für was mal es gut ist und man dann doch "dringend Boosts braucht.. (zb für last minute Compilation Cover ; )

die sind so elend pingelig
finde ich auch
 
Habe das Programm grade nochmal kurz angeworfen, Training in 512x512 für SD 1.5 braucht rund 31%, sollte also auf 10-12GB VRAM funktionieren. Die Zeitdauer in der kleinen Auflösung ist knapp unter einer Stunde. Ich lasse das mal jetzt durchlaufen.

Das SDXL Training hat wie oben geschrieben etwas über 3.5h gedauert, also tatsächlich etwa 4x solange für die 4fache Auflösung.

Auslastung und Zeitdauer:
Anhang anzeigen 201670
Anhang anzeigen 201669

Mehr SDXL Bilder:
Anhang anzeigen 201671Anhang anzeigen 201672Anhang anzeigen 201673Anhang anzeigen 201674

Was mich ja jetzt mal interessieren würde, was passiert, wenn man ein Modell absichtlich falsch trainiert. Also zB eines, damit absichtlich total falsche Körperformen entstehen. Und was passiert, wenn man ein Base-Modell einfach nur mit einem Foto trainiert, entsteht dann digitale Glitch-Art oder wie kann man sich das vorstellen?
 
Was mich ja jetzt mal interessieren würde, was passiert, wenn man ein Modell absichtlich falsch trainiert. Also zB eines, damit absichtlich total falsche Körperformen entstehen. Und was passiert, wenn man ein Base-Modell einfach nur mit einem Foto trainiert, entsteht dann digitale Glitch-Art oder wie kann man sich das vorstellen?
Bisher habe ich nur wenig Durchgänge gemacht, aber ich zeige mal ein paar Sachen als Beispiel.
Stable Diffusion fängt mit einem verrauschtem Bild an. Ein anderer Teil schaut sich das an und vergleicht das Ergebnis mit der Eingabe, dem Prompt. Passt das nicht, wird das Bild nochmal angepasst. Das geht solange hin und her, bis ein 'richtiges' Bild entstanden ist, vereinfacht gesagt.
1705658209704.png

Das sind Bilder in verschiedenen Stufen der Entwicklung. (Anmerkung: Würde man den Bing Generator abbrechen können wie manche vermuten, würde das genau so unscharf aussehen je nachdem wie weit er schon gerechnet hat.)
scifi_city_under_a_dome_with_starfield_in_the_back_AAGOJBHY_RealESRGAN_x4plus.jpegscifi_city_under_a_dome_with_starfield_in_the_back_AAGOJALc_RealESRGAN_x4plus.jpegscifi_city_under_a_dome_with_starfield_in_the_back_AAGOI9zk_RealESRGAN_x4plus.jpegscifi_city_under_a_dome_with_starfield_in_the_back_AAAAGOI0_RealESRGAN_x4plus.jpeg

Nun stell dir vor, das ganze ist eine Matrize vielen Feldern. Jedes Feld hat ein 'Gewicht' zwischen 0 und 1. Die Trainingsbilder werden nun dem Modell gezeigt und jetzt werden die Gewichte angepasst. Das spielt sich weit im Nachkommabereich ab.
Will man zuviel, passiert genau das selbe wie in der Musik, es clippt und|oder das Gewicht schlägt um. Es werden dann nicht nur zum Beispiel einfach Körperteile verformt, sondern man sieht z.B. Artefakte im Bild.
1705658019064.png

Ebenso kann die Sättigung raufgehen oder komische Doppelungen entstehen bei einem leichten Übertrainieren.
1705658134286.png1705658107367.png

Wenn man noch weitergeht, sieht es dann so aus, das könnte man dann schon fast als Glitch Art bezeichnen:
1705658073959.png1705657969240.png1705658312479.png

Das geht halt soweit, das durch die übermäßige Gewichteanpassung am Ende nur noch Rauschen rauskommt.

Mein langfristiges Ziel ist, ein Basismodel so zu 'löschen', das bei jeglicher Eingabe nur noch Rauschen entsteht, quasi einmal mit dem Magneten über die VHS Kasette. Danach möchte ich das Modell selber mit eigenen Bilder trainieren (Feintuning) um zum einen Copyrightverletzungen vorzubeugen und zum anderen tatsächlich Copyright auf dem Output zu halten, die Ausgabe basiert zu 100% dann auf eigenen Bildern.

Das Ink Training (Bilder im vorletzten Post) oder das Sparkify Training (letzter Post) ist vom Basismodell komplett losgelöst und wird per Huckepack auf ein bestehendes Modell aufgesetzt (nennt sich LoRa). Der Dateninhalt basiert damit zu 100% auf eigenen Bildern.
Mit ein Grund warum ich selber niemals Künstlernamen oder irgendwelche Brands benutze, um Bilder zu generieren ala 'in style of picasso' oder 'bladerunner cinematic scene'. Würde ich selber auch nicht wollen.

Hätte ich 60k €, würde ich mir 2 fette Nvidia Karten kaufen und die Nummer von Grund auf selber anlegen, aber eine RTX4090 ist nur Spielzeug in dem Bereich. Für 100000 Bilder müsste ich den Pc einen ganzen Monat rechnen lassen. Die bestehenden Basismodelle wurden mit bis zu 5600000000 aus dem LAION Datensatz trainiert.

Disclaimer: Das ganze ist mathematisch schon interessanter Stoff und ich bin nur Anwender. Wer Fehler findet, bitte berichtigen, so haben alle was davon.
 
es lohnt sich immer mal die Anleitung von Midjourney zu lesen .

So entdeckte ich da heute die flag --weird und --chaos

Mal ein Vergleich

Code:
a beautiful woman with a classic synthesizer

1705673713642.png

vs

Code:
a beautiful woman with a classic synthesizer --weird 3000

1705673813483.png
 
Zuletzt bearbeitet:
(Anmerkung: Würde man den Bing Generator abbrechen können wie manche vermuten, würde das genau so unscharf aussehen je nachdem wie weit er schon gerechnet hat.)

Ja, bei Stable Diffusion sehe ich ja auch in der Vorschau einmal ein sehr unscharfes Bild, was einen aber schonmal erkennen lässt, ob das in die richtige Richtung geht.

Das Ink Training (Bilder im vorletzten Post) oder das Sparkify Training (letzter Post) ist vom Basismodell komplett losgelöst und wird per Huckepack auf ein bestehendes Modell aufgesetzt (nennt sich LoRa). Der Dateninhalt basiert damit zu 100% auf eigenen Bildern.

LoRas habe ich bisher nur einmal ausprobiert zum Testen, die LoRa aus dem Netz hätte dann aus jedem Bild irgendso ein Anime-Mädchen eines mir nicht bekannten Animes gemacht, aber irgendwie hatte das gar keinen Einfluss auf das Endergebniss. Muss ich mir alles nochmal genauer anschauen.

Hätte ich 60k €, würde ich mir 2 fette Nvidia Karten kaufen und die Nummer von Grund auf selber anlegen, aber eine RTX4090 ist nur Spielzeug in dem Bereich. Für 100000 Bilder müsste ich den Pc einen ganzen Monat rechnen lassen. Die bestehenden Basismodelle wurden mit bis zu 5600000000 aus dem LAION Datensatz trainiert.

Und am Besten dann noch einen ordentlichen Solarpark dazu, damit man das guten Gewissens durchrattern lassen kann.
Man könnte natürlich auch einen Server mieten aber man will ja nicht die eigenen Fotos auslagern, wer weiß wo die landen.

Alleine deswegen ist Stable Diffusion lokal schon so interessant für mich, weil man eigene Fotos damit verwursten kann ohne das irgendjemand das Ursprungsfoto bekommt.
 
Zuletzt bearbeitet:
Und am Besten dann noch einen ordentlichen Solarpark dazu, damit man das guten Gewissens durchrattern lassen kann.
Eine H100 verbraucht max. 350 Watt, eine 4090 450Watt. Ich denke, man wird dort auch ein Powertarget einstellen können. Meine 4090 steht auf 60% und liegt gut unter 300Watt im KI Betrieb und verliert nur grob 8% Leistung je nach Workload und die Temperaturen bleiben unter 60 grad. Training braucht sogar noch etwas weniger.

Man kann ja nie wissen für was mal es gut ist und man dann doch "dringend Boosts braucht.. (zb für last minute Compilation Cover ; )
Wer sowas mal braucht (Cover, nicht Boosts :) ), ich bekomme gerne Post.
 
Mist. Aber auch.

Eigentlich wollte ich nur ein bisschen Sport machen.

Da stand ich plötzlich mittendrin in einer Roboterfabrik.

verlassene_robot_factory.jpg

Hat mich jemand gesehen? Egal. Hauptsache! weg! hier!

Schnell. Weg.

*hechel* *schweißvonderstirnwisch*

(Auch hier war der Grundstein eine vorhandene Situation. Ja.)
 
Das finde ich übrigens am spannendsten: wenn die KI einfach auf Zuruf benötigte Elemente für Composings zuliefert.
Kantine-und-Co_MG_4177.jpg
Die immer wieder spannende Frage ist, welche Elemente schon auf dem Foto bzw. in der Szene waren und welche die KI hinzugedacht hat. :)
Cosmopolis-Robo-Talk-ReFormatC.jpg
Na?

Viele Grüße, aljen
 


Neueste Beiträge

News

Zurück
Oben