Christoph1972
Ticino
Die Reise geht jetzt erst los und der Peak ist noch in weiter Ferne.
Ich bin teilweise schon heute schwer begeistert und frage mich oft, wie das in 5,10,20 Jahren funktioniert.
Die Reise geht jetzt erst los und der Peak ist noch in weiter Ferne.
... und genau das ist es, was mich an der Technik (vor allem Video- und Bildgeneratoren) noch stört:Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.
Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.
Ist's so genehmer...?Empfehle auch den Signatur Link kurz zu machen - siehe Forum::Mod - wie das geht - ist mir nur aufgefallen, weil da ein http… Link steht. Menschen werden dir bewundernd nachschauen, wenn du das schön machst.
Meines WIssens: Jain. Zugriffe bei Claude über die Anthropic API (darüber verkaufen sie ja auch Ihre Dienste an Drittanbieter) deckt, soweit ich es von anderen Experten gehört habe, zumindest deren Infrastruktur und Energiekosten für die Inferenz, und da ich vorwiegend damit arbeite kann ich berichten, dass das ganze zumindest für LLMs dann doch nicht so teuer ist, wie hier wahrscheinlich manche denken. Wobei bei Claude Code dann doch schnell einige Kosten zusammenkommen. Da wären wir dann auch bei Teil 2:Ich glaube, die Abokosten decken nicht mal im Ansatz das, was da an Infrastruktur, Personal und Energie verbraucht wird.
Meine Befürchtung ist ja, dass man so viel wie möglich "abhängig" von der KI macht, um eben wettbewerbsfähig zu bleiben, und dann locker mal 500% draufschlägt und die Leute werden zahlen.
Qwen und DeepSeek sind ja schon deutlich effizienter als die amerikanische Modelle, ohne dass sie durch noch mehr Parameter den geringeren Energieverbrauch gleich wieder kaputt machen. Ich glaube auch, dass die Zeit des einfachen "wir machen unser Netz noch größer, dann wird es schon noch besser werden" vorbei sind, wie OpenAI recht gut (negativ) demonstriert.Ein anderer Weg wäre, die KI-Bauteile effizienter zu produzieren, aber hier werden die neuen Modelle sicher alles gleich wieder auffressen.
Copilot+ fürs Visual Studio
und es ist wirklich viel Müll dabei
Jedenfalls finde ich, dass die KI gar nicht mal so scheiße und unnütz ist, wie Du sie ein wenig darstellst.
imo ganz im Gegenteil, man merkt quasi jährlich spürbare Verbesserungen in den Consumer-KI's. Wie mit der Chip-Entwicklung, wahrscheinlich nur viel extremer.
Halte ich für ein Problem. Aber kann sein, dass das auch gelöst wird - nur welche Info ist richtiger? Welche ist nerdig aber richtiger? Wie findet eine KI raus, ob ein MKS80 wegen eines Curtis Chips cool ist, was die Revisionen wirklich machen und so weiter, wenn es ausreichend genau falsche oder Halbrichtige Daten finden? Sie sollten dann sagen - der Nerd sagt das, der andere das - vermutlich ist es so - aber prüfe mal selbst. Das würde ein Mensch tun. Ggf. könnte er sogar rausfinden, wer "mehr Recht" hat.
sich nen Rechtsanwalt zusammenprompten geht auch:
Der Beitrag zeigt aber auch, dass Prompten Arbeit sein kann. Ein KI-Creator berichtet hier, dass er teilweise 12 Stunden an einem Prompt herumfeilt und mehrere Modelle einsetzt bis das Ergebnis stimmt.

Das ist ein guter Punkt! Kaum ein Mensch kämpft sich ständig durch alle möglichen AGBs, die extrem lang und schwierig zu lesen/verstehen sind.Oder halt AGBs auf Kuriositäten durchleuchtet.
Wie ich gerade lese, sind noch andere gerade dabei von ChatGPT auf Gemini3 umzusteigen. Ich habe das vor wenigen Wochen getan. Also so lange es noch Konkurrenz gibt und das alles nicht in einem Monopol endet, besteht noch Hoffnung auf moderate Preise. Das löst für die Anbieter die Probleme der Finanzierung natürlich nicht. Ein Google kann da aber natürlich weit mehr intern Geld umschichten als ein OpenAI. Würde mich auch nicht wundern, wenn in 2 Jahren keiner mehr von ChatGPT spricht.
![]()
Sam Altman ruft "Alarmstufe Rot" bei OpenAI aus
Das wertvollste Startup der Welt steht an einem Wendepunkt: Wachsende Konkurrenz, zu wenige zahlende Kunden und explodierende Kosten kratzen an OpenAIs Image als führende KI-Schmiede. Sam Altman alarmiert die Belegschaft - und setzt auf fragwürdige neue Geschäfte.www.n-tv.de
Nein, meine Nutzung richtet sich nicht mehr nach einer Ideologie - so eine Phase hatte ich mal kurz -, sonst würde ich bei Linux landen und alles Mögliche boykottieren. Ich nutze das, was für mich am besten funktioniert. Ich habe sogar mal lokale KI ausprobiert, was für ein Schrott, grotten langsam und extrem schlecht im Vergleich zu den großen Modellen, was ja auch Sinn macht, mit nur 8GB GPU Ram ist eben nicht viel zu machen, da müsste ich schon 1TB Ram haben und ein paar GPUs mehr, aber selbst dann... Deswegen, man kann nie genug RAM haben^^ Mein nächster PC wird dann sicher mal 128 GB Ram oder zu haben, einfach um mal ein paar größere Modell testen zu können, gut über CPU ist das echt nochmal langsamer als über die GPU, aber man kann es wenigstens laufen lassen, aber kostet natürlich dann auch privat Strom.Sollte man dann nicht lieber zu OpenAI halten?
Solange die KIs Sachen dazuerfinden und weglassen, bist du nach so einer Beratung aber nicht wesentlich schlauer als vorher, denn die Informationen, die dir die KI gibt, müssen ja nicht korrekt sein.Das ist ein guter Punkt! Kaum ein Mensch kämpft sich ständig durch alle möglichen AGBs, die extrem lang und schwierig zu lesen/verstehen sind.
Bevor man AGBs bei wichtigen Sachen erst gar nicht durchliest ist es alle mal besser das durch GPT analysieren zu lassen.
Folge dem Video um zu sehen, wie unsere Website als Web-App auf dem Startbildschirm installiert werden kann.
Anmerkung: Diese Funktion ist in einigen Browsern möglicherweise nicht verfügbar.