Christoph1972
Ticino
Die Reise geht jetzt erst los und der Peak ist noch in weiter Ferne.
Ich bin teilweise schon heute schwer begeistert und frage mich oft, wie das in 5,10,20 Jahren funktioniert.
Die Reise geht jetzt erst los und der Peak ist noch in weiter Ferne.
... und genau das ist es, was mich an der Technik (vor allem Video- und Bildgeneratoren) noch stört:Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.
Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.
Ist's so genehmer...?Empfehle auch den Signatur Link kurz zu machen - siehe Forum::Mod - wie das geht - ist mir nur aufgefallen, weil da ein http… Link steht. Menschen werden dir bewundernd nachschauen, wenn du das schön machst.
Meines WIssens: Jain. Zugriffe bei Claude über die Anthropic API (darüber verkaufen sie ja auch Ihre Dienste an Drittanbieter) deckt, soweit ich es von anderen Experten gehört habe, zumindest deren Infrastruktur und Energiekosten für die Inferenz, und da ich vorwiegend damit arbeite kann ich berichten, dass das ganze zumindest für LLMs dann doch nicht so teuer ist, wie hier wahrscheinlich manche denken. Wobei bei Claude Code dann doch schnell einige Kosten zusammenkommen. Da wären wir dann auch bei Teil 2:Ich glaube, die Abokosten decken nicht mal im Ansatz das, was da an Infrastruktur, Personal und Energie verbraucht wird.
Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.
Qwen und DeepSeek sind ja schon deutlich effizienter als die amerikanische Modelle, ohne dass sie durch noch mehr Parameter den geringeren Energieverbrauch gleich wieder kaputt machen. Ich glaube auch, dass die Zeit des einfachen "wir machen unser Netz noch größer, dann wird es schon noch besser werden" vorbei sind, wie OpenAI recht gut (negativ) demonstriert.Ein anderer Weg wäre, die KI-Bauteile effizienter zu produzieren, aber hier werden die neuen Modelle sicher alles gleich wieder auffressen.
Copilot+ fürs Visual Studio
und es ist wirklich viel Müll dabei
Jedenfalls finde ich, dass die KI gar nicht mal so scheiße und unnütz ist, wie Du sie ein wenig darstellst.
imo ganz im Gegenteil, man merkt quasi jährlich spürbare Verbesserungen in den Consumer-KI's. Wie mit der Chip-Entwicklung, wahrscheinlich nur viel extremer.
Halte ich für ein Problem. Aber kann sein, dass das auch gelöst wird - nur welche Info ist richtiger? Welche ist nerdig aber richtiger? Wie findet eine KI raus, ob ein MKS80 wegen eines Curtis Chips cool ist, was die Revisionen wirklich machen und so weiter, wenn es ausreichend genau falsche oder Halbrichtige Daten finden? Sie sollten dann sagen - der Nerd sagt das, der andere das - vermutlich ist es so - aber prüfe mal selbst. Das würde ein Mensch tun. Ggf. könnte er sogar rausfinden, wer "mehr Recht" hat.
sich nen Rechtsanwalt zusammenprompten geht auch:
Der Beitrag zeigt aber auch, dass Prompten Arbeit sein kann. Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.

Das ist ein guter Punkt! Kaum ein Mensch kämpft sich ständig durch alle möglichen AGBs, die extrem lang und schwierig zu lesen/verstehen sind.Oder halt AGBs auf Kuriositäten durchleuchtet.
Wie ich gerade lese, sind noch andere gerade dabei von ChatGPT auf Gemini3 umzusteigen. Ich habe das vor wenigen Wochen getan. Also so lange es noch Konkurrenz gibt und das alles nicht in einem Monopol endet, besteht noch Hoffnung auf moderate Preise. Das löst für die Anbieter die Probleme der Finanzierung natürlich nicht. Ein Google kann da aber natürlich weit mehr intern Geld umschichten als ein OpenAI. Würde mich auch nicht wundern, wenn in 2 Jahren keiner mehr von ChatGPT spricht.
![]()
Sam Altman ruft "Alarmstufe Rot" bei OpenAI aus
Das wertvollste Startup der Welt steht an einem Wendepunkt: Wachsende Konkurrenz, zu wenige zahlende Kunden und explodierende Kosten kratzen an OpenAIs Image als führende KI-Schmiede. Sam Altman alarmiert die Belegschaft - und setzt auf fragwürdige neue Geschäfte.www.n-tv.de
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.