KI Gefahr für die Menschheit?

Egregore – Wie machtvolle Gedanken Menschen manipulieren
"Mächte [...], die 'hinter dem Vorhang' ihr dunkles Unwesen treiben" ... ooookay, da kann ich gar nicht anknüpfen. Nehmen wir mal an, so etwas existiert: Es würde mich sehr wundern, wenn die Interessen dieser Mächte nicht, wie eigentlich immer, ganz niedriger, menschlicher Art wären: Fressen, f*cken, Pyramiden bauen, Alphatier sein, von allem mehr, mehr, mehr, ...
 
Neues Video von der ct.

Interessant die Analyse der Probleme von GPT-5. Insbesondere zum automatischen Routing von Anfragen zu möglichst passenden Modellen. Und dass das oft Probleme machen soll, die dann in sehr schlechten Antworten mündet.

Gut auch der Tipp, über den Prompt direkt das Reasoning ansprechen zu können (auch in der kostenfreien Version).

Beispiel:

Kein Reasoning: "Visualisiere eine interaktive Infografik über den Brotverbrauch der Deutschen."

Mit Reasoning: "Visualisiere eine interaktive Infografik über den Brotverbrauch der Deutschen. Bitte denke lange und hart darüber nach."

Das macht am Ende einen echten Unterschied in der Qualität der Antwort. Dauert aber auch deutlich länger.

 
Das wundert mich überhaupt nicht.. ChatGPT taugt nur für technische Sachen. Alles was logisch ist und sich berechnen lässt, wird ziemlich zuverlässig ausgegeben.

Alles andere basiert in erster Linie auf Arschkriecherei und auf dem Zwang eine Antwort zu geben, ohne Anspruch auf Richtigkeit. Erwischt man es beim Lügen und fragt ob die Information so richtig und zu 100% verlässlich ist, wird bejaht.
Darum sehe ich dieses Tool als Chatbot eher kritisch.

Dass viele, insbesondere junge Menschen Gespräche damit führen und von den unzähligen Komplimenten und Bestärkungen der eigenen Ansichten geblendet werden, ist nicht verwunderlich, nur besorgniserregend. Aber was will man dagegen machen? Was einmal da ist, ist da. Da hilft nur Aufklärung. Zumindest bei denen die sich aufklären lassen.
 
Alles was logisch ist und sich berechnen lässt, wird ziemlich zuverlässig ausgegeben.
jein - gerade bei Berechnungen bewegen sich LLM (bisher) nicht in ihrem Stammgebiet. Das kann jeder Taschenrechner oder Excel besser.
Manche sagen auch, dass bestimmte LLM besonders gut in "Arschkriecherei" sind - schließlich replizieren sie Texte (bzw. deren wahrscheinlicher Verlauf) aus ihrem Trainingsmaterial, und da kommt hinten raus, was vorne reingeht. ;-) Mit der Richtigkeit ist es aber bei sozialen Topics genauso wie bei Technischem und Berechnungen: ggf. muss man genügend nachhaken.
Das Problem: viele Leute haben kein Gefühl dafür, wann eine Antwort unplausibel erscheinen sollte.
 
Neulich im Tagesspiegel:

Da hinter Paywall, hier redigierte Exzerpte zu wissenschaftlich-kritisch-informativ-didaktischen Zwecken, par. 51 UrhG:


KI-Experte Gary Marcus (…): „ChatGPT-5 ist Autovervollständigung auf Steroiden“
Der Neurowissenschaftler hält ChatGPT für einfältig und mittelmäßig. (…)
Tagesspiegel, 26.08.2025

Herr Marcus, Sie waren Professor an der New York University, entwickelten als Unternehmer eigene KI-Systeme und schreiben Bücher (...) über die KI-Industrie. Ist das OpenAI-Sprachmodell GPT-5 ein großer Schritt in Richtung digitale Superintelligenz?
Nein. Es ist ein kleiner Schritt in die falsche Richtung. GPT-5 halluziniert zwar etwas weniger und ist vermutlich besser beim Programmieren als seine Vorgänger, aber es ist immer noch Autovervollständigung auf Steroiden – im Kern unzuverlässig und schwach beim Schlussfolgern.

Viele rechneten mit einem Genie im Laptop.
Sam Altman hat sich das selbst zuzuschreiben. GPT-5 war eines der meistgehypten Produkt der Geschichte (…). Im Januar behauptete Altman, er wisse, wie man superintelligente Systeme bauen könne, also Systeme, die uns Menschen in allen kognitiven Bereichen übertreffen. Ich glaube, Sam Altman erzählt Unsinn. Er wusste es damals nicht und weiß es auch heute nicht.

Sie behaupten schon lange, dass wir mit den heutigen Sprachmodellen in einer Sackgasse stecken.
Ja, GPT-5 war dahingehend gut für mein Geschäft: Plötzlich sagten die Leute: „Dieser Gary Marcus, der schon lange darauf hinweist, dass mehr Daten und mehr Rechenleistung uns vielleicht gar nicht zur Superintelligenz bringen – vielleicht hat er ja recht.“ (…)

Was ist denn das Problem mit Sprachmodellen?
Ihnen fehlt ein Verständnis für die Realität. Sie ahmen zwar die grobe Struktur menschlicher Sprache nach, doch sie können Wahrheit nicht von Unwahrheit unterscheiden.

Wann kam Ihnen diese Einsicht?
Das war mir eigentlich von Beginn an klar. In den 90er Jahren schrieb ich meine Dissertation, (…) forschte an zwei Themen: am menschlichen Spracherwerb und an neuronalen Netzen – also der Technologie, die jetzt in ChatGPT oder Claude steckt. Schon damals zeigte sich: Für echte Intelligenz braucht man beides – Elemente, die an neuronale Systeme erinnern, und Elemente, die auf den Regeln der Logik beruhen.

Wie sähe eine solche KI konkret aus?
Sie wäre weniger fehleranfällig, transparenter und könnte besser generalisieren. Eine allgemeine Lösung kennen wir zurzeit nicht (…). Die Industrie setzte dann jedoch ausschließlich auf neuronale Netze. Bereits 2012 schrieb ich (…): Derartige KI wird ein wertvolles Werkzeug sein, aber nicht die endgültige Lösung. Es wird Schwierigkeiten geben bei der Wahrheit, der Abstraktion und vielem mehr. Das hat bis heute standgehalten.

Trotzdem äußerten Sie neulich die Prognose, dass künstliche Intelligenz bereits 2035 menschliches Niveau erreichten könnte, vielleicht sogar 2030.
Ich behaupte nicht, dass es 2035 eintreten wird – ich sage nur, das liegt in einem Bereich, den ich mir vorstellen kann. Zehn Jahre sind eine lange Zeit, und in anderen KI-Bereichen als bei Sprachmodellen gab es seit 2015 gewaltige Fortschritte. (…) Dann muss man bedenken, wie viel Geld gerade in die KI-Forschung investiert wird, und wie viele Menschen aktiv in dem Bereich arbeiten. Es besteht eine umfangreiche Infrastruktur, um gute Ideen schnell in die Praxis umzusetzen.

Und GPT-5 ist kein Rückschlag?
Ich würde sogar sagen: Das Scheitern von GPT-5 beschleunigt eher den Fortschritt, weil die Leute vielleicht schneller erkennen, dass sie mit den bisherigen Sprachmodellen auf der falschen Fährte waren. (…)
(…)

Wie beeinflussen Sprachmodelle unsere Psyche? Was passiert, wenn Millionen Menschen Systeme wie ChatGPT als Gefährten, Ratgeber oder gar Therapeuten betrachten?
Um das zu wissen, brauchen wir dringend mehr empirische Daten. Manche Menschen scheinen wirklich etwas Positives aus den Interaktionen herauszuziehen. Andere entwickeln wahnhafte Vorstellungen, womöglich weil die Modelle ihnen nie widersprechen. Oder sie opfern Hobbys und menschliche Beziehungen, weil sie so viel Zeit mit einem KI-Begleiter verbringen. Es könnte ein kurzer Wohlfühleffekt sein, der auf lange Sicht schadet.

Viele verwenden Chatbots als Google-Alternative. Googeln sie noch?
Suchmaschinen nutze ich sehr viel, sie sind für mich eine der großartigen Technologien der letzten 30 Jahre. (…). Aber auch hier halte ich Sprachmodelle für keinen guten Ersatz. Ich finde es positiv, dass inzwischen Quellen eingeblendet werden, aber die Modelle machen trotzdem viele dumme Fehler. Sie können die Anzahl der Buchstaben R in meinem Namen nicht zuverlässig zählen und machen im Schach verbotene Züge, weil sie die Regeln nicht verstehen.
Ich will die Qualität der Autoren selbst bewerten und das Rohmaterial mit eigenen Augen prüfen, um zu entscheiden, ob es glaubwürdig ist. Vertrauen ist für meine Arbeit entscheidend – und dieses Maß an Vertrauen rechtfertigen die heutigen Sprachmodelle nicht.

Sie misstrauen auch den Machern der KI. Kürzlich schrieben Sie auf Substack, die systemischen Risiken hätten in Ihrer Wahrnehmung dramatisch zugenommen.
Vielleicht habe ich ein wenig übertrieben – der Wirkung wegen. Aber im Kern ging es um folgendes Gedankenexperiment: Stellen wir uns jemanden vor, der praktisch unbegrenzt Geld hat, einen großen Einfluss auf den weltweiten Informationsraum, über mächtige KI verfügt, dabei aber ziemlich sorglos mit den Risiken umgeht. Jemand, dem das Schicksal der Menschheit im Grunde nicht wirklich wichtig ist (…)

Sie meinen Donald Trump?
Nein, ich meine Elon Musk. (…)
Ich mache mir durchaus Sorgen wegen Trump. Er hat – wie soll ich es sagen – mehr Macht an sich gezogen als jeder andere Präsident in der US-Geschichte. Er scheint nicht groß daran interessiert, der Menschheit als Ganzes zu helfen, insbesondere nicht jenen, die sich politisch von ihm unterscheiden. Und die KI-Industrie lässt er weitgehend unreguliert gewähren. Viele fähige Leute in Washington, die etwas hätten unternehmen können, sind entweder gegangen oder wurden entlassen. Die Risiken nehmen also zu.

Können Sie uns ein Beispiel geben?
Nehmen wir die Cybersicherheit: Wir haben inzwischen sogenannte „KI-Agenten“, die über das Internet eigenständig Softwarepakete installieren können. Das ist eine riesige Sicherheitslücke. Generative KI erleichtert Cyberangriffe, Phishing-Attacken und die Herstellung und Verbreitung von Deepfakes. Das konnte man früher nur mit einem großen Team und viel Aufwand bewerkstelligen. Heute reicht ein Laptop zu Hause (…) wann immer ich Fachleute frage, ist die Tendenz klar: Es wird deutlich schlimmer.

Was können wir dagegen tun?
Ich denke, das Wichtigste, was wir einfordern sollten, ist ein Zulassungsverfahren wie bei Medikamenten. (…) Wir nähern uns Systemen, die jedem, der will, Anweisungen für die Herstellung biologischer Waffen in die Hand geben könnten. So etwas sollte schlicht nicht gebaut werden.
(…)

Gibt es weitere Maßnahmen?
Ebenfalls wichtig wären mehr Transparenz und Rechenschaftspflicht, sobald die Modelle auf dem Markt sind. Ich erhalte fast täglich Zuschriften von Leuten, die denken, sie hätten durch ChatGPT das „Geheimnis des Universums“ entdeckt. Gestern schrieb mir jemand, ChatGPT habe Beweise dafür geliefert, dass ich ein Verbrechen begangen hätte. Wie viele Menschen haben Wahnvorstellungen entwickelt, die möglicherweise mit den Modellen zusammenhängen? (…)

(...) Kommen Sie noch zum Gitarre spielen? Sie haben ja mit 38 Jahren angefangen und ein Buch darüber geschrieben.
Ich musste tatsächlich eine ziemlich lange Pause einlegen. Vor ein paar Tagen habe ich sie wieder hervorgeholt. Ich bin immer noch nicht Jimi Hendrix, aber es klang besser als erwartet.

Die Band The Velvet Sundown etwa ist durchgehend KI-generiert – von der Musik über die Texte bis zu den Bandfotos. Wer spielt heute besser Gitarre, Gary Marcus oder The Velvet Sundown?
Oh, die spielen wahrscheinlich besser als ich – einfach weil sie die Performances von Millionen Musikerinnen und Musikern kopieren. Da müssen sie ja besser sein.

Wird es denn in Zukunft überhaupt noch Musiker geben?
Musiker waren schon immer gut darin, sich neue Technologien anzueignen (…). Ich könnte mir vorstellen, dass KI etwas Ähnliches bewirkt.
Andererseits klingt für mich Musik von 2025 nicht wirklich anders als jene von 2022. In den 60er-Jahren ist deutlich mehr passiert! (…)

Das heißt, Sie werden Ihre Kinder nicht davon abhalten, Musiker zu werden, falls sie es wollen?
Nein, aber es stellt sich schon die Frage, wie Musiker noch ihren Lebensunterhalt verdienen sollen. Sie müssen mit Streams konkurrieren, die von KI-generierter Musik geflutet werden. Genau das ist es, was KI gegenwärtig in vielen Bereichen tut: Sie verbreitet Mittelmaß.
 
KI-Experte Gary Marcus
tja - der eine Experte meint es besser zu wissen, als der andere Experte. 🤷‍♂️ Gab es immer schon, und letztendlich wird sich vermutlich das leistungsfähigste Produkt durchsetzen.

Die Bedenken hinsichtlich Sicherheit, auch mit Blick auf KI-Agenten teile ich allerdings. Auch der Aspekt der immer leichteren Fälschbarkeit von Audio und Video ist kritisch zu sehen.

Bezüglich Suchmaschinen: Bei vielen Fragen sind die KI-Zusammenfassungen am Anfang schon hilfreicher als sich durch 3-5 unterschiedliche Suchergebnisse wühlen zu müssen. Aber das kommt natürlich auf die Art der Fragestellung an. "Wie mache ich X in Software Y" geht naturgemäß ganz gut mit KI (wenn es nicht gerade die allerneuste Version von Y betrifft, über die noch nichts im Trainingsmaterial enthalten war).
 
Bezüglich Suchmaschinen: Bei vielen Fragen sind die KI-Zusammenfassungen am Anfang schon hilfreicher als sich durch 3-5 unterschiedliche Suchergebnisse wühlen zu müssen. Aber das kommt natürlich auf die Art der Fragestellung an. "Wie mache ich X in Software Y" geht naturgemäß ganz gut mit KI (wenn es nicht gerade die allerneuste Version von Y betrifft, über die noch nichts im Trainingsmaterial enthalten war).
Für den Moment nerven mich K.I. Ergebnisse mehr als das sie mich weiter bringen, harmonieren eher selten mit meinen Suchstrategien, denn meist hat die K.I. so gar nicht verstanden wonach ich suche. 😮‍💨
 
Das kann natürlich an der Suchstrategie oder auch am Prompting liegen. Ich nutze KI allerdings auch nur für Themen, bei denen ich mir einen Mehrwert von LLM verspreche. Das klappt ganz gut, aber richtige Intelligenz ist natürlich etwas anderes.
 
Vielleicht enttäuscht inzwischen auch nur, dass KI nicht so allwissend ist, wie oft suggeriert wird. Dass sie in natürlicher Sprache antwortet, lässt einen oft zu dem Trugschluss hinreißen, dass sie ähnlich „denkt“ wie wir.

Tut sie aber nicht wirklich.

Irgendwann werden LLMs hoffentlich besser werden. Oder wir darin besser, mit deren Unzulänglichkeiten umzugehen und sie da einzusetzen, wo sie gut sind. Und sie da rauszuhalten, wo sie nicht gut sind.
 
Das kann natürlich an der Suchstrategie oder auch am Prompting liegen. Ich nutze KI allerdings auch nur für Themen, bei denen ich mir einen Mehrwert von LLM verspreche. Das klappt ganz gut, aber richtige Intelligenz ist natürlich etwas anderes.
Ich hab' oft ein Problem und suche nach einer Lösung und nähere mich meinem Ziel langsam an, die K.I. liefert nur einfache Lösung und meist gibts die für das was ich suche einfach nicht, weil ich oft nicht mal genau weiß wonach ich Fragen müsste um genau diese eine Lösung zu bekommen.
 
Ich hab' oft ein Problem und suche nach einer Lösung und nähere mich meinem Ziel langsam an
Geht mir auch so, und die Ergebnisse schwanken natürlich je nach Thema, aber gerade bei IT-Themen helfen mir LLM teilweise schon recht effektiv weiter (zumindest auch nicht schlechter als StackOverflow). Man muss natürlich ggf. die richtigen Rückfragen stellen.

Und für „Spaß“-Songtexte oder Cover-Art taugen entspr. kI-Generatoren auch schon ganz gut.
 


Neueste Beiträge

News


Zurück
Oben