Da lässt sich weder die Dauer des Zyklus eindeutig nachweisen, noch überzeugend erklären, warum es überhaupt einen solchen geben sollte. Als studierter Ökonom kann ich dir sagen: Schon an die relevanten Daten heranzukommen ist schwierig, sie korrekt auszuwerten noch mehr – und daraus dann auch noch belastbare Schlüsse zu ziehen, erst recht. Hätte Kondratieff das wirklich geschafft, hätte er wohl den Nobelpreis bekommen. Aber den hat er, soweit ich weiss, nicht erhalten.
Das hatten wir weiter oben schon, Ursprung ist diese Webseite:
https://ai-2027.com/
Das ist nicht unbedingt „Geschwurbel“, aber klar populistischer Journalismus. Ziel scheint es zu sein, Aufmerksamkeit zu wecken – so verstehe ich das jedenfalls.
Der Inhalt wirkt jedoch wenig realistisch: Momentan spricht wenig dafür, dass wir in absehbarer Zeit eine AGI (Artificial General Intelligence) oder gar eine ASI (Artificial Superintelligence) sehen werden.
Die Gründe sind im Wesentlichen zwei: 1. Kommunikation in grossen Clustern – Die Abstimmung und Datenübertragung zwischen sehr vielen Prozessoren (GPUs) ist ein massiver Flaschenhals. Schon heute stossen wir bei Clustern mit 100.000 GPUs und mehr an harte physikalische und technische Grenzen. 2. Datenknappheit – Für das Training noch leistungsfähigerer Sprachmodelle fehlen zunehmend qualitativ hochwertige Daten.
Mit den heutigen, vergleichsweise simplen Transformer-Architekturen, die lediglich autoregressiv das nächste Wort vorhersagen, werden wir jedenfalls keine echte Intelligenz schaffen...