Neu
  • Tages-/Nachtmodus unten links (Footer) ändern:

    System: Automatische Anpassung an die Helligkeit eures Betriebssystems.
    Hell: Sequencer im Daymode.
    Dunkel: Weniger Kontrast – ideal für Nachteulen!

Für welche halbwegs sinnvollen Dinge nutzt ihr KI / ChatGPT im Alltag?

  • #122
Auf jeden Fall sorgt es schon jetzt dafür, dass wir kein Text, keine Sprache, keine Musik, kein Bild und kein Video mehr für echt halten dürfen.
Für die Propaganda ein Geschenk des Himmels.

Der Beitrag zeigt aber auch, dass Prompten Arbeit sein kann. Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.

 
Zuletzt bearbeitet:
  • #123
Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.
... und genau das ist es, was mich an der Technik (vor allem Video- und Bildgeneratoren) noch stört:
  • der sowieso schon hohe Energieverbrauch steigt durch die ganzen fehlgeschlagenen Prompts stark an
  • wenn man viele Prompts benötigt, kommt man bei den kostenlosen Angeboten natürlich nicht weit - ohne teilweise recht teure Abos reicht das dann gerade mal für "Rate den Songtitel".
    ich habe auch ernste Zweifel, ob der Aufwand für Energie und Rechenpower die momentan aufgerufenen Kosten der Abomodelle überhaupt deckt.
 
  • Zustimmung
M.i.a.u.: Speicherkern
  • #124
Ich glaube, die Abokosten decken nicht mal im Ansatz das, was da an Infrastruktur, Personal und Energie verbraucht wird. Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen. Ein anderer Weg wäre, die KI-Bauteile effizienter zu produzieren, aber hier werden die neuen Modelle sicher alles gleich wieder auffressen.

Time will tell us!
 
  • Zustimmung
M.i.a.u.: Christoph1972
  • #126
Wie ich gerade lese, sind noch andere gerade dabei von ChatGPT auf Gemini3 umzusteigen. Ich habe das vor wenigen Wochen getan. Also so lange es noch Konkurrenz gibt und das alles nicht in einem Monopol endet, besteht noch Hoffnung auf moderate Preise. Das löst für die Anbieter die Probleme der Finanzierung natürlich nicht. Ein Google kann da aber natürlich weit mehr intern Geld umschichten als ein OpenAI. Würde mich auch nicht wundern, wenn in 2 Jahren keiner mehr von ChatGPT spricht.

 
  • #128
Manchmal – tatsächlich nur noch manchmal – red ich einfach nur Englisch mit der KI ChatGPT. Manchmal benutze ich in einem Kontext irrtümlich ein falsches Wort A, sie antwortet mir mit einem richtigen Wort B und dann vollführe ich einen schroffen Themenwechsel hin zu wo ist A richtig, wo B. Das verifiziere ich dann in Wörterbüchern aus Papier und online.

Dafür ist das kostenlose ChatGPT gerade gut genug.

Mithin bin ich versucht, mich für den ganzen – ausschließlich gekennzeichneten – KI-Content, den ich hier gepostet habe, zu entschuldigen. Aber die Entschuldigung wäre nicht ganz ernst gemeint und löschen würde ich die Posts auch nicht wollen.

Ich hoffe, kostenloses ChatGPT wird aus Kostengründen irgendwann dicht gemacht. Endlich wieder Zeit für sinnvolleres. Ja, leider werde ich manchmal schwach – egal, bin eben ein Mensch. Kopfmensch, und manches kann man Gefühlsmenschen schlicht nicht fragen. Für Kopfmenschen und Autisten sind KI-Bots keine so üblen Gesprächspartner, da die nicht ihre Unsicherheiten mit Ablenkungen "überschwimmen", sondern sich ertappen lassen und die Unsicherheit ehrlich zugeben, ob sie darauf gezielt trainiert wurden oder nicht.
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: Speicherkern
  • #129
Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.

Exakt. Und wer kein Geld hat, kann nicht mitmischen und wird auf der Strecke bleiben und die Gesellschaft wird sich noch weiter spalten.
 
  • Daumen hoch
M.i.a.u.: Speicherkern
  • #131
Total! Das sieht doch mal richtig gut aus. Und es passt viel hin.
Das ist so gut, dass wir wieder im Thema weiter machen können. Sorry für den Meta-Kram.

Schulfernsehen III.
 
  • Zustimmung
M.i.a.u.: Klanglager
  • #132
Ich glaube, die Abokosten decken nicht mal im Ansatz das, was da an Infrastruktur, Personal und Energie verbraucht wird.
Meines WIssens: Jain. Zugriffe bei Claude über die Anthropic API (darüber verkaufen sie ja auch Ihre Dienste an Drittanbieter) deckt, soweit ich es von anderen Experten gehört habe, zumindest deren Infrastruktur und Energiekosten für die Inferenz, und da ich vorwiegend damit arbeite kann ich berichten, dass das ganze zumindest für LLMs dann doch nicht so teuer ist, wie hier wahrscheinlich manche denken. Wobei bei Claude Code dann doch schnell einige Kosten zusammenkommen. Da wären wir dann auch bei Teil 2:

Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.

Bei KI-Coding-Tools ist das ja auch schon passiert, hier der entsprechende heise Artikel dazu.
Ich habe mich vorletztes Wochenende gerade mit einem Programmierer (bzw. mittlerweile mehr Agenten-Dirigent) unterhalten, der min. 200 Euro im Monat bezahlt. Was halt im Vergleich zu den restlichen Kosten des Unternehmens für Lohn/Miete etc. immernoch problemlos zu verkraften ist.

Ein anderer Weg wäre, die KI-Bauteile effizienter zu produzieren, aber hier werden die neuen Modelle sicher alles gleich wieder auffressen.
Qwen und DeepSeek sind ja schon deutlich effizienter als die amerikanische Modelle, ohne dass sie durch noch mehr Parameter den geringeren Energieverbrauch gleich wieder kaputt machen. Ich glaube auch, dass die Zeit des einfachen "wir machen unser Netz noch größer, dann wird es schon noch besser werden" vorbei sind, wie OpenAI recht gut (negativ) demonstriert.
 
  • hilfreich
M.i.a.u.: Speicherkern
  • #133
so weit mir bekannt ist, stimmt das mit dem Energieverbrauch beim benutzen der KI, wie es oft dargestellt wird, nicht...
Es heißt: Einzelne Bild- oder Videogenerierung verbraucht nur wenige Wattminuten Strom, was mit einem kurzen Videostream vergleichbar ist. Wenn man sich durch TikTok wischt, promptet man analog dazu in der KI etwas...der enorme Energieverbrauch der KI's steckt im Training der Modelle

Interessant wäre, wie viel Energie man vebraucht, wenn man stattdessen x Minuten googelt. Ohne KI kann man aber nicht mal mehr googeln, weil bei jeder Suche, KI mit involviert ist. Auch ohne den KI-Modus zu nutzen. Vielleicht mit DuckDuck oder so...
 
  • Daumen hoch
M.i.a.u.: Speicherkern
  • #134
@Klinke Danke für die Infos, immer schön, wenn jemand Einblicke hat oder noch mehr Quellen kennt. Ich bin ja selbst beruflich Programmierer, aber meine Kosten sind noch in Rahmen, also rund 20,-EUR ChatGPT jetzt Gemini-3 und dann noch 10,-EUR Copilot+ fürs Visual Studio. Zum Agenten Dirigenten bin ich aber nicht geworden, da bei uns Individual-Software und totalen Nischendinge programmiert werden, dafür gibt es im Netz kein Tutorial oder andere Hilfen, von daher hilft mir die KI nur so zu 50% und es ist wirklich viel Müll dabei, jede Antwort will ja auch analysiert werden, ob das Sinn macht oder so eine gute Entscheidung ist das so einzubauen, was auch Zeit kostet. Fühlt sich ein wenig an wie mit einem Werksstudenten zu arbeiten, wo man dann ja auch immer mal wieder kontrollieren und steuern muss.
Aber den besseren Code schreibt die KI allemal, nur muss man wissen wie man mit ihr umgeht, was sie kann und was eben überhaupt nicht. Zum Glück ist Software-Entwicklung weit mehr als Code schreiben, außer man glaubt Hollywood Filmen, wo die die ganze Zeit in die Tasten hauen und coole Animationen auf dem Bildschirm haben^^
 
  • Daumen hoch
M.i.a.u.: claudio

News

Zurück
Oben