Also ich sehe nicht dass da irgendwas zurück geht, allein die USA will 500 Milliarden Dollar nur in KI investieren.
wenn es 2024 weniger war als 2023 dann ist ganz egal, was irgendjemand für 2025-2027 ankündigt, es war erst mal weniger.
worüber wir leider keine daten haben ist wieviel davon in nackte hardware geht und wieviel davon in "sonstiges" inclusive entwicklung und all der andere human resources kram, das wäre mal spannend.
Die KI der letzten Monaten leisten unglaubliches, was Dezember noch aktuell war, ist jetzt schon wieder überholt.
ja, das ist bei autos auch so, seit 150 jahren werden die jedes jahr besser, und trotzdem habe die im vergleich zu pferden nicht nur nachteile.
Allein das o3-mini-high ChatGPT Modell, was ich für meine Arbeit nutze, kann komplexe Sachverhalte erkennen, Fehler beheben und neue Lösungen vorgeschlagen die dank Reasoning(also die KI denkt noch mal über die Lösungen nach und spuckt nicht alles einfach aus) sind die Halluzinationen kaum vorhanden, jedenfalls in meinen Fachbereich.
das ist alles richtig und dennoch einfach nur wie wir das halt kognitiv erfassen. ist das dann objektiv?

spätestens wenn die modelle schlauer sind als wir kann man die frage wohl überhaupt nicht mehr beantworten.
aus der sicht von katzen sind wir sowieso komplette vollidioten, zu unfähig die einfachsten dinge zu erkennen und richtig darauf zu reagieren.
ich meine wir fahren mit dem auto zu mcdonalds anstatt einfach eine meise aus dem fliederbusch abzugreifen - wie dumm kann man sein.
die vielbeschworene singularität beim programmieren ist unwahrscheinlich. wenn eine KI auf knopfdruck eine besseres photoshop erstellt als ein mensch in einem jahr, dann braucht niemand mehr mit einer KI ein neues photoshop erstellen, denn dann ist die KI das neue photoshop.
noch deutlicher ist es bei html.
ok, KI hat theoretisch das potential das web irgendwann komplett abzulösen. ich kann heute schon bei chatGPT nach meinen hobbies oder meiner politischer meinung suchen und bekomme die richtige antwort (meinen namen gibt es nicht zwei mal). meine blogs könnte genau wie ebay oder die tagesschau von einer KI an meinen browser geschickt werden.
aber falls es doch noch ein bischen web entwicklung gibt, werden daran immer noch menschen beteiligt sein.
auch wenn es langweilig ist, aber meines erachtens kommt es einfach nur darauf an, wer der eigentümer der KI ist, und dass der staat nicht zu wenig, aber auch nicht zu viel am gebrauch dieses eigentums herumreguliert.
also genau wie bei allem.
den glauben daran, dass LLMs gefährlicher sind als kriegswaffen, atomkraftwerke, kriminelle marktmanipulationen oder asteroideneinschläge halte ich für eine pathologische angststörung.
es kann passieren. aber bei den anderen dingen ist es bereits evident, dass die konkret gefährlich sind, und davor hat ja auch niemand angst.
das ist so ein bischen wie bei beim autofahren. davor hat nieman angst. aber dann haben wir angst vorm fliegen oder vor terrorismus.
obwohl wir im sicheren wissen darum sind, dass das > 1000 mal weniger gefährlich ist.