Neulich im Tagesspiegel:
Der Neurowissenschaftler hält ChatGPT für einfältig und mittelmäßig. Warum Zulassungsverfahren für KI trotzdem unerlässlich sind – und wann eine Superintelligenz uns wirklich überlegen sein wird.
www.tagesspiegel.de
Da hinter Paywall, hier redigierte Exzerpte zu wissenschaftlich-kritisch-informativ-didaktischen Zwecken, par. 51 UrhG:
KI-Experte Gary Marcus (…): „ChatGPT-5 ist Autovervollständigung auf Steroiden“
Der Neurowissenschaftler hält ChatGPT für einfältig und mittelmäßig. (…)
Tagesspiegel, 26.08.2025
Herr Marcus, Sie waren Professor an der New York University, entwickelten als Unternehmer eigene KI-Systeme und schreiben Bücher (...) über die KI-Industrie. Ist das OpenAI-Sprachmodell GPT-5 ein großer Schritt in Richtung digitale Superintelligenz?
Nein. Es ist ein kleiner Schritt in die falsche Richtung. GPT-5 halluziniert zwar etwas weniger und ist vermutlich besser beim Programmieren als seine Vorgänger, aber es ist immer noch Autovervollständigung auf Steroiden – im Kern unzuverlässig und schwach beim Schlussfolgern.
Viele rechneten mit einem Genie im Laptop.
Sam Altman hat sich das selbst zuzuschreiben. GPT-5 war eines der meistgehypten Produkt der Geschichte (…). Im Januar behauptete Altman, er wisse, wie man superintelligente Systeme bauen könne, also Systeme, die uns Menschen in allen kognitiven Bereichen übertreffen. Ich glaube, Sam Altman erzählt Unsinn. Er wusste es damals nicht und weiß es auch heute nicht.
Sie behaupten schon lange, dass wir mit den heutigen Sprachmodellen in einer Sackgasse stecken.
Ja, GPT-5 war dahingehend gut für mein Geschäft: Plötzlich sagten die Leute: „Dieser Gary Marcus, der schon lange darauf hinweist, dass mehr Daten und mehr Rechenleistung uns vielleicht gar nicht zur Superintelligenz bringen – vielleicht hat er ja recht.“ (…)
Was ist denn das Problem mit Sprachmodellen?
Ihnen fehlt ein Verständnis für die Realität. Sie ahmen zwar die grobe Struktur menschlicher Sprache nach, doch sie können Wahrheit nicht von Unwahrheit unterscheiden.
Wann kam Ihnen diese Einsicht?
Das war mir eigentlich von Beginn an klar. In den 90er Jahren schrieb ich meine Dissertation, (…) forschte an zwei Themen: am menschlichen Spracherwerb und an neuronalen Netzen – also der Technologie, die jetzt in ChatGPT oder Claude steckt. Schon damals zeigte sich: Für echte Intelligenz braucht man beides – Elemente, die an neuronale Systeme erinnern, und Elemente, die auf den Regeln der Logik beruhen.
Wie sähe eine solche KI konkret aus?
Sie wäre weniger fehleranfällig, transparenter und könnte besser generalisieren. Eine allgemeine Lösung kennen wir zurzeit nicht (…). Die Industrie setzte dann jedoch ausschließlich auf neuronale Netze. Bereits 2012 schrieb ich (…): Derartige KI wird ein wertvolles Werkzeug sein, aber nicht die endgültige Lösung. Es wird Schwierigkeiten geben bei der Wahrheit, der Abstraktion und vielem mehr. Das hat bis heute standgehalten.
Trotzdem äußerten Sie neulich die Prognose, dass künstliche Intelligenz bereits 2035 menschliches Niveau erreichten könnte, vielleicht sogar 2030.
Ich behaupte nicht, dass es 2035 eintreten wird – ich sage nur, das liegt in einem Bereich, den ich mir vorstellen kann. Zehn Jahre sind eine lange Zeit, und in anderen KI-Bereichen als bei Sprachmodellen gab es seit 2015 gewaltige Fortschritte. (…) Dann muss man bedenken, wie viel Geld gerade in die KI-Forschung investiert wird, und wie viele Menschen aktiv in dem Bereich arbeiten. Es besteht eine umfangreiche Infrastruktur, um gute Ideen schnell in die Praxis umzusetzen.
Und GPT-5 ist kein Rückschlag?
Ich würde sogar sagen: Das Scheitern von GPT-5 beschleunigt eher den Fortschritt, weil die Leute vielleicht schneller erkennen, dass sie mit den bisherigen Sprachmodellen auf der falschen Fährte waren. (…)
(…)
Wie beeinflussen Sprachmodelle unsere Psyche? Was passiert, wenn Millionen Menschen Systeme wie ChatGPT als Gefährten, Ratgeber oder gar Therapeuten betrachten?
Um das zu wissen, brauchen wir dringend mehr empirische Daten. Manche Menschen scheinen wirklich etwas Positives aus den Interaktionen herauszuziehen. Andere entwickeln wahnhafte Vorstellungen, womöglich weil die Modelle ihnen nie widersprechen. Oder sie opfern Hobbys und menschliche Beziehungen, weil sie so viel Zeit mit einem KI-Begleiter verbringen. Es könnte ein kurzer Wohlfühleffekt sein, der auf lange Sicht schadet.
Viele verwenden Chatbots als Google-Alternative. Googeln sie noch?
Suchmaschinen nutze ich sehr viel, sie sind für mich eine der großartigen Technologien der letzten 30 Jahre. (…). Aber auch hier halte ich Sprachmodelle für keinen guten Ersatz. Ich finde es positiv, dass inzwischen Quellen eingeblendet werden, aber die Modelle machen trotzdem viele dumme Fehler. Sie können die Anzahl der Buchstaben R in meinem Namen nicht zuverlässig zählen und machen im Schach verbotene Züge, weil sie die Regeln nicht verstehen.
Ich will die Qualität der Autoren selbst bewerten und das Rohmaterial mit eigenen Augen prüfen, um zu entscheiden, ob es glaubwürdig ist. Vertrauen ist für meine Arbeit entscheidend – und dieses Maß an Vertrauen rechtfertigen die heutigen Sprachmodelle nicht.
Sie misstrauen auch den Machern der KI. Kürzlich schrieben Sie auf Substack, die systemischen Risiken hätten in Ihrer Wahrnehmung dramatisch zugenommen.
Vielleicht habe ich ein wenig übertrieben – der Wirkung wegen. Aber im Kern ging es um folgendes Gedankenexperiment: Stellen wir uns jemanden vor, der praktisch unbegrenzt Geld hat, einen großen Einfluss auf den weltweiten Informationsraum, über mächtige KI verfügt, dabei aber ziemlich sorglos mit den Risiken umgeht. Jemand, dem das Schicksal der Menschheit im Grunde nicht wirklich wichtig ist (…)
Sie meinen Donald Trump?
Nein, ich meine Elon Musk. (…)
Ich mache mir durchaus Sorgen wegen Trump. Er hat – wie soll ich es sagen – mehr Macht an sich gezogen als jeder andere Präsident in der US-Geschichte. Er scheint nicht groß daran interessiert, der Menschheit als Ganzes zu helfen, insbesondere nicht jenen, die sich politisch von ihm unterscheiden. Und die KI-Industrie lässt er weitgehend unreguliert gewähren. Viele fähige Leute in Washington, die etwas hätten unternehmen können, sind entweder gegangen oder wurden entlassen. Die Risiken nehmen also zu.
Können Sie uns ein Beispiel geben?
Nehmen wir die Cybersicherheit: Wir haben inzwischen sogenannte „KI-Agenten“, die über das Internet eigenständig Softwarepakete installieren können. Das ist eine riesige Sicherheitslücke. Generative KI erleichtert Cyberangriffe, Phishing-Attacken und die Herstellung und Verbreitung von Deepfakes. Das konnte man früher nur mit einem großen Team und viel Aufwand bewerkstelligen. Heute reicht ein Laptop zu Hause (…) wann immer ich Fachleute frage, ist die Tendenz klar: Es wird deutlich schlimmer.
Was können wir dagegen tun?
Ich denke, das Wichtigste, was wir einfordern sollten, ist ein Zulassungsverfahren wie bei Medikamenten. (…) Wir nähern uns Systemen, die jedem, der will, Anweisungen für die Herstellung biologischer Waffen in die Hand geben könnten. So etwas sollte schlicht nicht gebaut werden.
(…)
Gibt es weitere Maßnahmen?
Ebenfalls wichtig wären mehr Transparenz und Rechenschaftspflicht, sobald die Modelle auf dem Markt sind. Ich erhalte fast täglich Zuschriften von Leuten, die denken, sie hätten durch ChatGPT das „Geheimnis des Universums“ entdeckt. Gestern schrieb mir jemand, ChatGPT habe Beweise dafür geliefert, dass ich ein Verbrechen begangen hätte. Wie viele Menschen haben Wahnvorstellungen entwickelt, die möglicherweise mit den Modellen zusammenhängen? (…)
(...) Kommen Sie noch zum Gitarre spielen? Sie haben ja mit 38 Jahren angefangen und ein Buch darüber geschrieben.
Ich musste tatsächlich eine ziemlich lange Pause einlegen. Vor ein paar Tagen habe ich sie wieder hervorgeholt. Ich bin immer noch nicht Jimi Hendrix, aber es klang besser als erwartet.
Die Band The Velvet Sundown etwa ist durchgehend KI-generiert – von der Musik über die Texte bis zu den Bandfotos. Wer spielt heute besser Gitarre, Gary Marcus oder The Velvet Sundown?
Oh, die spielen wahrscheinlich besser als ich – einfach weil sie die Performances von Millionen Musikerinnen und Musikern kopieren. Da müssen sie ja besser sein.
Wird es denn in Zukunft überhaupt noch Musiker geben?
Musiker waren schon immer gut darin, sich neue Technologien anzueignen (…). Ich könnte mir vorstellen, dass KI etwas Ähnliches bewirkt.
Andererseits klingt für mich Musik von 2025 nicht wirklich anders als jene von 2022. In den 60er-Jahren ist deutlich mehr passiert! (…)
Das heißt, Sie werden Ihre Kinder nicht davon abhalten, Musiker zu werden, falls sie es wollen?
Nein, aber es stellt sich schon die Frage, wie Musiker noch ihren Lebensunterhalt verdienen sollen. Sie müssen mit Streams konkurrieren, die von KI-generierter Musik geflutet werden. Genau das ist es, was KI gegenwärtig in vielen Bereichen tut: Sie verbreitet Mittelmaß.