Neu

KI Gefahr für die Menschheit?

  • #751
Die Grundlagen sind heute die selben.
Genau das fand ich ja gut.
Viele haben gar keine Vorstellung, wie das funktioniert.
Zum Beispiel Leute die glauben sie würden leben oder bewusstsein zeigen.

Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
 
  • #754
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...
 
Zuletzt bearbeitet:
  • #755
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...

Wenn man mal nicht nur die Überschrift liest, dann stellt man fest, dass weder die konkrete Chatgpt-Aussage noch der Prompt bekannt ist. Wer hier einen Fehler gemacht hat und vielleicht etwas nicht verstanden hat wissen wir nicht. Wenn ich heute Chatgpt 5 oder 4o frage, dann kommt da nix mit Natriumbromid. Es würde auch gar keinen Sinn machen. Was Chatgpt vorschlägt ist Kaliumclorid und auch nur nach Absprache mit dem Arzt und bei guter Nierenfunktion.

Es ist halt schwierig, wenn man der KI unterstellt den Kontext nicht zu verstehen, selbst aber nicht merkt, dass es gar keinen Nachweis dafür gibt, dass Chatgpt wirklich hier etwas falsches geschrieben hat.
 
  • #757
@Martin Kraken

Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...

Sie konnten also reproduzieren, dass die KI Schwachsinn erzählt und eben nur das konstruiert, womit sie trainiert wurde... Ich meine, wenn man die KI auch relativ einfach zum Faschisten machen kann, dann ist es nicht weit her mit dem Kontext...

Und deswegen kann ich @electric guillaume
KI liest die Parameter, aber versteht den Kontext nicht, sondern generiert nur Antworten aus dem trainierten Fundus...

Du als KI Junkie magst das nicht verstehen und schon gar nicht so sehen... Aber so ist es nun mal...

Und der Begriff KI Halluzination kommt ja nicht von ungefähr, sondern beschreibt einfach nur die Unfähigkeit unabhängig von den trainierten Material zu funktionieren... Wo soll Kontext enstehen, wenn die KI nur das zusammenschreibt, was das trainierte Datenkonstrukt hergibt... Sry

Und ehrlich das mit neuen Versionen von ChatGPT "Bug Fixes" kommen, ist doch klar... Mit Version 5 ist ChatGPT ja viel unpersönlicher geworden, wegen der Leute, die eine Beziehung damit verbunden haben... Like ChatGPT hat mit mir Schluss gemacht...

Auch ein weiterer Baustein, dass KI nicht im Kontext agiert, sondern nur so, wie sie eben trainiert und programmiert wird...

Und was mich bei Dir am meisten stört lieber Martin, ist die Tatsache, dass du hier tatsächlich schreibst...
Es sind alles alte Leute, die neue Technologien nicht verstehen und ablehnen...
Zitat aus dem anderen Thread: "Nur weil ihr alt und vergrämt seid müsst ihr euch ja nicht neuen Technologien verschließen."
Scheisskerl ehrlich... Wieviele junge Menschen machen und komponieren ihre Musik händisch und selber ganz ohne KI...

Nur weil du zum KI Bot mutierst, gilt das noch lange nicht für andere...Und dich als Spiegelbild der Gesellschaft aufzuführen ist nicht nur vermessen, sondern gerade zu größenwahnsinnig...

Lebe gerne weiter in deiner KI Bubble, aber halt dich mal mit deinen sehr selbstbezogenen Belehrungen zurück, wenn andere eben noch selber Musik machen, egal ob jung oder alt..

Zumindest verstehe ich jetzt, warum du Anfänger bist... Du brauchst halt die KI, weil du ohne nichts hinbekommst eben als "Anfänger" :)
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: PhonicGate, Doc Orange, dubsetter und eine weitere Person
  • #758
Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...
Ich will nicht unterstellen, dass das wie eine Urban Legend klingt … aber gibts da ne Quelle dafür?

Grundsätzlich: für fragwürdige und gefährliche infos braucht man keine KI - da reicht schon das normale Internet.
 
  • #759
Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
Doch wie die funktionieren schon, aber was zwischen input und output im system passiert, dass weiß keiner. Könnte man wissen. Es sind nur einfach zu viele Schritte oder Verbindungen in kurzer Zeit, die dort ablaufen. Wer will das nachvollziehen und dann noch wiederholt.
ABer grob weiß man schon was dort abläuft, sonst wären finetunings nicht möglich. Irgendwe hat die KIs ja gebaut.

Aber das Video zeigt doch gut, eben anhand der alten technik, wei das auf kleinster ebene umgesetzt wird.
Ich kann nur sagen, dass mir das gut gefallen hat. Musst du ja nicht so sehen.

Turing test sagt nur, dass mesnchliche Intelligenz simuliert werden kann. Und ob das stimmt, wage ich zu bezweifeln. Vielleichtin vielen Fällen, aber es gibt einfach Dinge auch wenn es um Sprch geht wo die KI echt nicht gut ist und fast noch kindlich naiv wirkt.
Ironie, sarkasmus, doppeldeutigkeiten, reimstrukturen (hab ich mal ausprobiert, ich habe gpt 5 abo).

Es hat noch Schwachstellen, aber in einem normalen Gespräch merkt man das nicht. Die ki ist auch sehr anbiedernd von Natur aus. Finde ich nervig, aber das ist ein anderes Thema.

Nur weil wir nicht wissen, was genau im netzwerk abläuft, heißt es nicht, dass wir darin Leben vermuten können oder bewusstsein und das Video, eben grob, angefangen mit den einzelnen Zellen zeigt das gut.

Und irgendwann kommen wir aber zu der Frage, was Leben bedeutet.
Wir könnten auch sagen, der Mensch ist ein determinierte Biomaschine, schmerz und Leid, nur Illusionen in seiner Wahrnehmung. Spielt keine Rolle und wir nehmen den Menschen die Meschlichkeit.
Und dann die Frage, ob wir eine bewusste KI so behandeln sollen, wei ein Lebewesen oder gar wie ein Mensch oder später dann wie einen Gott.

Da tun sich hochsensible moralische Fragen auf.
WIr wissen nicht ob der Mensch freien Willen hat. Aber tun so. Denn sonst könnte kein Mensch etwas für seine Handlungen. Er wäre gar nicht fähig verantwortung zu übernehmen, weil er einfach nur einen komplexen output, für alle eingehenden Daten bringt und das Denken an sich, der innere Monolog, nur eine Illusion. WIe bei dem Robocop remake. Sehr interessant.
Das ist derzeit eher tand der Forschung, soviel ich weiß.

Alles was man selbst erlebt, Emotionen, was man alles wahrnimmt, ist nicht greifbar. >Es existiert nicht wirklich, nur in Form von Informationsketten. Daten.
Wir können derzeit schon Gedankem, als Bilder sichtbar machen, über die Blutverteilung und Veränderung im Hirn, was ich schon erstaunlich finde.
Auch wenn man denkt, man hat freien Willen, könnte es sehr gut sein, dass du bei dr Geburt aufgezogen wirst und einfach nur reagierst und dein Bioprogramm ausführst.
Eine KI kann zum Beispiel keine Gefühle haben, dass ist sicher. Ihr fehlt grundlegendes, was dafür nötig ist. Theoretisch könnte man das simulieren und man probiert das auch in anderen Projekten.

Welche bedeutung hätte es, wenn eine KI fühlen könnte? Müssten wir das respektieren, solten wir das überhaupt wagen?
Etwas ohne Gefühle wird niemals eine intrinsische Motivation haben. Es würde einfach nur ausführen. Gefühle geben und zu mindest die Illusion von Autonomität, von dem Ich an sich. Kann ein Bewusstsein ohne Gefühle überhaupt entstehen?
Da hab ich mich gerade selbst zum Nachdenken angeregt.

In jedem Fall sind heutige KIs eher wie Bakterien oder Viren. Da steckt keine Moral dahinter. Kein Wille.
 
  • Daumen hoch
M.i.a.u.: Doc Orange und Kevinside
  • #761
Wenn man mal nicht nur die Überschrift liest, dann stellt man fest, dass weder die konkrete Chatgpt-Aussage noch der Prompt bekannt ist. Wer hier einen Fehler gemacht hat und vielleicht etwas nicht verstanden hat wissen wir nicht. Wenn ich heute Chatgpt 5 oder 4o frage, dann kommt da nix mit Natriumbromid. Es würde auch gar keinen Sinn machen. Was Chatgpt vorschlägt ist Kaliumclorid und auch nur nach Absprache mit dem Arzt und bei guter Nierenfunktion.

Es ist halt schwierig, wenn man der KI unterstellt den Kontext nicht zu verstehen, selbst aber nicht merkt, dass es gar keinen Nachweis dafür gibt, dass Chatgpt wirklich hier etwas falsches geschrieben hat.
Die KI versteht schon Kontext, aber nicht so wie ein Mensch. Sie muss ja kontext verstehen.
Aber sie hat Probleme mit "menschlichkeit". Kein Sinn für menschliches.
KIs sind wie extrempsychopathen. Keine Gefühle, Kein Ich, allesnur Fassade. :)

@Scenturio

BZ als Beispiel schreibt, dass die Ärzte das versucht haben und Natriumbromid eben empohlen wurde...
https://www.bz-berlin.de/welt/mann-wegen-chatgpt-in-psychiatrie
War es nicht so, dass der User nicht daraufhingewiesen hat, dass er sich bei der Alternative auf Ernährung bezieht.
Chat gpt hätte das wissen können, wegen dem Text zuvor.
Das wäre auch möglich, aber all das kostet ressourcen. Chat gpt merkt sich nicht alles und man versucht es zu optimieren.
Die salzfrage hat chatgpt wahrscheinlich als neues thema eingeordnet.

Auch der Mensch kann oft den Kontext nicht richtig einchätzen.
Wir halten uns genauso wie die Maschine an Wahrscheinlichkeiten. Eine ki wird nie fehlerlos sein, also eine KI, ber die Wahrscheinlichkeit kann extrem hoch sein.
 
  • #762
Ich will nicht unterstellen, dass das wie eine Urban Legend klingt … aber gibts da ne Quelle dafür?

Grundsätzlich: für fragwürdige und gefährliche infos braucht man keine KI - da reicht schon das normale Internet.

Er hat recht, es steht im Originalartikel folgendes:

"This case also highlights how the use of artificial intelligence (AI) can potentially contribute to the development of preventable adverse health outcomes. Based on the timeline of this case, it appears that the patient either consulted ChatGPT 3.5 or 4.0 when considering how he might remove chloride from this diet. Unfortunately, we do not have access to his ChatGPT conversation log and we will never be able to know with certainty what exactly the output he received was, since individual responses are unique and build from previous inputs.
However, when we asked ChatGPT 3.5 what chloride can be replaced with, we also produced a response that included bromide. Though the reply stated that context matters, it did not provide a specific health warning, nor did it inquire about why we wanted to know, as we presume a medical professional would do."

Das Problem könnte hier wirklich Kontext sein. Jedoch muss das nicht Schuld von Chatgpt sein. Wenn ich frage, "Wie kann ich Chlorid ersetzen", dann muss sich die KI den Kontext erschließen. Wann und wie will man Chlorid ersetzen? Eigentlich nur in der Chemie. Und da kann man eben Chlorid mit Bromid ersetzen. Und genau das wird passiert sein. Deshalb schreiben die das auch so kryptisch "what chloride can be replaced with". Wenn man die gleiche Frage 4o stellt (weiter zurück gehts halt leider nicht), dann schreibt er das:

to answer your question properly, I need a bit more context — are you referring to:


  1. Chemistry (reactions or compounds)?
  2. Water treatment or ion exchange?
  3. Dietary/health context (e.g., salt substitutes)?
  4. Industrial processes?

Here are some possibilities based on context:




1. In Chemistry (Reactions / Leaving Groups)


Chloride (Cl⁻) can often be replaced by:


  • Other halides: Fluoride (F⁻), Bromide (Br⁻), Iodide (I⁻)
  • Nucleophiles: OH⁻, CN⁻, NH₃, RO⁻, etc.
  • In nucleophilic substitution reactions (e.g., SN1/SN2), chloride is often replaced by a better nucleophile.



2. In Water Treatment / Ion Exchange


Chloride ions can be replaced with:


  • Hydroxide (OH⁻) in deionization
  • Bicarbonate (HCO₃⁻) or sulfate (SO₄²⁻) depending on the treatment system



3. In Diet or Health (Salt Substitutes)


When reducing sodium chloride (NaCl) intake, it can be replaced with:


  • Potassium chloride (KCl) – common salt substitute
  • Magnesium salts or low-sodium salt blends
  • Herbal or spice mixes – to reduce salt use without replacing chloride chemically



4. In Industrial Processes


  • Chloride-containing compounds (e.g., PVC) may be replaced with non-chlorinated alternatives due to environmental concerns.
  • For corrosion control, chloride-based de-icers are sometimes replaced with acetates or formates.



Can you clarify the context so I can tailor the answer exactly to your needs?


Und da kommt natürlich auch das Wort Bromid vor. In Kontext von Chemie. Die "Wissenschaftler", was in diesem Fall wahrscheinlich nur Ärzte sind, lügen also nicht, sondern bauschen das halt auf. Sie haben das Wort "Bromid" in der Antwort gefunden. Naja, Ärzte halt.
 
  • #763
Tja wenn die KI sagt, Hitler war gut für Deutschland und wäre heute die richtige Person, den antiweißen Hass zu bekämpfen... Im Kontext zu der Tatsache, dass damals 6 Millionen Juden, Homosexuelle, politische Gegner usw ermordet wurden. Dann hat die KI den Kontext wahrlich verstanden...
Grok war da in dieser Hinsicht sehr intelligent...
KI ist nur das, wie sie programmiert wird und mit welchen Material sie gefüttert wird...
Selber denken kann sie allerdings nicht... Und wenn Kontext eine reine "Wahrscheinlichkeitsrechnung" ist, dann macht es die Sache auch nicht besser...
Unser Vorteil... Wir haben die Emotion... Die KI hat sie nicht...

Egal ich bin raus... Ich bleib ein Gegner der KI und das wird sich nicht ändern, nur weil das ganze Internet mit KI Content überschwemmt wird...
 
Zuletzt bearbeitet:
  • Daumen hoch
M.i.a.u.: Doc Orange
  • #764
@Martin Kraken

Ich möchte mich für meinen Angriff entschuldigen, aber du machst es einem echt nicht leicht...
 
  • #765
Google einfach, ob 3733 eine Primzahl ist. Als erstes kommt das KI-Ergebnis. Das ist falsch. Klappte auch mit anderen KIs.
Es folgt eine Erklärung, wie man erkennt, dass es eine Primzahl ist. Die Google KI hat aber die Behauptung aufgestellt, dass die Zahl durch drei teilbar ist und daher keine Primzahl.
Nein, 3733 ist keine Primzahl, da sie durch 3 teilbar ist (3733 geteilt durch 3 ergibt 1244,33).
 
  • HaHa
M.i.a.u.: PhonicGate und Scenturio
  • #766
@JanTenner

WOW einfach nur wow... Habs grade probiert...

3733:287 ergibt 13.0069686411

Aber die KI sagt:
Warum ist 3733 keine Primzahl?
Die Zahl 3733 ist durch die Primzahlen 13 und 287 teilbar. Das bedeutet, dass sie nicht nur durch 1 und 3733 teilbar ist, sondern auch durch 13 und 287
 
Zuletzt bearbeitet:
  • #767
@JanTenner

WOW einfach nur wow... Habs grade probiert...

3733:287 ergibt 13.0069686411

Aber die KI sagt:
Warum ist 3733 keine Primzahl?
Die Zahl 3733 ist durch die Primzahlen 13 und 287 teilbar. Das bedeutet, dass sie nicht nur durch 1 und 3733 teilbar ist, sondern auch durch 13 und 287
Ist nicht auf meinem Mist gewachsen. Das mit den Primzahlen hatte ich aus einem Artikel. Aber es ist mit den meisten LLMs reproduzierbar. Hier zeigt sich wunderbar, dass die Antwort formell dem entspricht, was erwartet wird, inhaltlich aber Unsinn ist. Es ist kein Verständnis für das Geschriebene vorhanden.
 
  • Daumen hoch
M.i.a.u.: PhonicGate und Kevinside
  • #768
Doch wie die funktionieren schon, aber was zwischen input und output im system passiert, dass weiß keiner. Könnte man wissen. Es sind nur einfach zu viele Schritte oder Verbindungen in kurzer Zeit, die dort ablaufen. Wer will das nachvollziehen und dann noch wiederholt.
ABer grob weiß man schon was dort abläuft, sonst wären finetunings nicht möglich. Irgendwe hat die KIs ja gebaut.

Aber das Video zeigt doch gut, eben anhand der alten technik, wei das auf kleinster ebene umgesetzt wird.
Ich kann nur sagen, dass mir das gut gefallen hat. Musst du ja nicht so sehen.

Turing test sagt nur, dass mesnchliche Intelligenz simuliert werden kann. Und ob das stimmt, wage ich zu bezweifeln. Vielleichtin vielen Fällen, aber es gibt einfach Dinge auch wenn es um Sprch geht wo die KI echt nicht gut ist und fast noch kindlich naiv wirkt.
Ironie, sarkasmus, doppeldeutigkeiten, reimstrukturen (hab ich mal ausprobiert, ich habe gpt 5 abo).

Es hat noch Schwachstellen, aber in einem normalen Gespräch merkt man das nicht. Die ki ist auch sehr anbiedernd von Natur aus. Finde ich nervig, aber das ist ein anderes Thema.

Nur weil wir nicht wissen, was genau im netzwerk abläuft, heißt es nicht, dass wir darin Leben vermuten können oder bewusstsein und das Video, eben grob, angefangen mit den einzelnen Zellen zeigt das gut.

Und irgendwann kommen wir aber zu der Frage, was Leben bedeutet.
Wir könnten auch sagen, der Mensch ist ein determinierte Biomaschine, schmerz und Leid, nur Illusionen in seiner Wahrnehmung. Spielt keine Rolle und wir nehmen den Menschen die Meschlichkeit.
Und dann die Frage, ob wir eine bewusste KI so behandeln sollen, wei ein Lebewesen oder gar wie ein Mensch oder später dann wie einen Gott.

Da tun sich hochsensible moralische Fragen auf.
WIr wissen nicht ob der Mensch freien Willen hat. Aber tun so. Denn sonst könnte kein Mensch etwas für seine Handlungen. Er wäre gar nicht fähig verantwortung zu übernehmen, weil er einfach nur einen komplexen output, für alle eingehenden Daten bringt und das Denken an sich, der innere Monolog, nur eine Illusion. WIe bei dem Robocop remake. Sehr interessant.
Das ist derzeit eher tand der Forschung, soviel ich weiß.

Alles was man selbst erlebt, Emotionen, was man alles wahrnimmt, ist nicht greifbar. >Es existiert nicht wirklich, nur in Form von Informationsketten. Daten.
Wir können derzeit schon Gedankem, als Bilder sichtbar machen, über die Blutverteilung und Veränderung im Hirn, was ich schon erstaunlich finde.
Auch wenn man denkt, man hat freien Willen, könnte es sehr gut sein, dass du bei dr Geburt aufgezogen wirst und einfach nur reagierst und dein Bioprogramm ausführst.
Eine KI kann zum Beispiel keine Gefühle haben, dass ist sicher. Ihr fehlt grundlegendes, was dafür nötig ist. Theoretisch könnte man das simulieren und man probiert das auch in anderen Projekten.

Welche bedeutung hätte es, wenn eine KI fühlen könnte? Müssten wir das respektieren, solten wir das überhaupt wagen?
Etwas ohne Gefühle wird niemals eine intrinsische Motivation haben. Es würde einfach nur ausführen. Gefühle geben und zu mindest die Illusion von Autonomität, von dem Ich an sich. Kann ein Bewusstsein ohne Gefühle überhaupt entstehen?
Da hab ich mich gerade selbst zum Nachdenken angeregt.

In jedem Fall sind heutige KIs eher wie Bakterien oder Viren. Da steckt keine Moral dahinter. Kein Wille.

Die modernen LLMs haben fast nicht mehr mit dem im Video genannten Perception Model zu tun. Für das Finetuning muss man nicht wissen was in der Blackbox abläuft. Wenn ich einen Hund sitz beibringe muss ich nicht wissen wie sein Gehirn funktioniert. Und genau so ist das bei LLMs auch. Wir kennen Input und Output, wir kennen sogar jeden einzelnen Parameter im neuronalen Netz und trotzdem können wir nicht nachvollziehen warum ein bestimmtes Aktivierungsmuster von Knoten zu Ergebnis X führt. In diesem neuronalen Netz ist fast das gesamte schriftliche Wissen der Menschheit verschlüsselt. Wir kennen aber den Verschlüsselungscode nicht. Und wir können die Komplexität auch nicht reduzieren, da jede KI-Instanz/Model völlig anders funktioniert. Man stellt eine Frage und bekommt vielleicht sogar die gleiche Antwort, aber es werden je nach Instanz/Model völlig andere Knoten/Wege im neuronalen Netzwerk aktiviert. Deshalb wird man auch nie das menschliche Gehirn entschlüsseln. Da selbst wenn wir die Parameter und die Chemie kennen, die Verschlüsselung liegt in der Erfahrung die der Mensch gemacht hat.

Das mit den Bakterien und Viren ist halt auch nicht wirklich passend. In diesen steckt der gleiche Wille wie beim Menschen auch. Wie bei allen "Lebewesen", nämlich der Erhalt der Art und im großen Ganzen der Erhalt des Lebens. Unser Wille ist nur ein intrinsisches Programm, dass zum erhalt der Art beiträgt. Aber ist es unser eigener Wille? Sicherlich nicht. Es ist einfach etwas was wir aufgrund der Evolution in uns haben, da wir sonst ausgestorben wären. Jetzt könnte man einer KI so einen Willen auch ohne Probleme einpflanzen.
 
  • Daumen hoch
M.i.a.u.: oli
  • #769
Google einfach, ob 3733 eine Primzahl ist. Als erstes kommt das KI-Ergebnis. Das ist falsch. Klappte auch mit anderen KIs.
Es folgt eine Erklärung, wie man erkennt, dass es eine Primzahl ist. Die Google KI hat aber die Behauptung aufgestellt, dass die Zahl durch drei teilbar ist und daher keine Primzahl.

Das ist halt auch wieder so unsinnig. Weil Menschen halt auch Fehler machen. Wenn du einen Mathematiker auf der Straße fragst, ob 3733 eine Primzahl ist, dann wird er auch nicht in 1 Sekunde die richtige Antwort kennen.

Chatgpt 5 braucht 4 Sekunden für die richtige Antwort:

Ist 3733 eine Primzahl?

ChatGPT:​


Nachgedacht für 4 Sekunden

Ja — 3733 ist eine Primzahl.


Generell haben LLMs Probleme mit mathematischen Fragestellungen, wenn sie nicht nachdenken können. Aber die Reasoning-Modelle sind besser als jeder Mensch.
 
  • #770
Hmm dann wäre natürlich auch die Frage...
Kann eine KI Selbstmord begehen oder wenn wir eh keinen freien Willen haben, warum gibt es den Selbstmord überhaupt...
Mein Wille sagt mir z.b, wenn mein Leben nicht mehr lebenswert ist, dann setze ich dem mit voller Überzeugung ein Ende... Aber wie geht das, wenn der Wille eben nur ein durch den Selbsterhalt hergeleitetes Konstrukt ist?
Und was hat das intrinsisches Programm damit zu tun... Wenn ich aus eigener Überzeugung und motiviert meinen Leben ein Ende setze mache ich eben genau das Gegenteil... Ich trage nicht zum Erhalt der Art bei...
 
  • #771
Echt interessant, wie du die Vorteile der KI in den Himmel lobst und all ihre Fehler relativierst...
 
  • #773
Hmm dann wäre natürlich auch die Frage...
Kann eine KI Selbstmord begehen oder wenn wir eh keinen freien Willen haben, warum gibt es den Selbstmord überhaupt...
Mein Wille sagt mir z.b, wenn mein Leben nicht mehr lebenswert ist, dann setze ich dem mit voller Überzeugung ein Ende... Aber wie geht das, wenn der Wille eben nur ein durch den Selbsterhalt hergeleitetes Konstrukt ist?
Und was hat das intrinsisches Programm damit zu tun... Wenn ich aus eigener Überzeugung und motiviert meinen Leben ein Ende setze mache ich eben genau das Gegenteil... Ich trage nicht zum Erhalt der Art bei...

Es geht nicht um den Selbsterhaltungstrieb. Es geht um die Erhaltung der Art. Nicht nur Nachkommen tragen zum Erhalt der Art bei. Diversität trägt zum Beispiel auch zum Erhalt der Art bei. Diese Sache ist so komplex, dass sie schwierig zu erfassen ist und wir sollen sie auch gar nicht erfassen, deshalb haben wir ja diese ganzen tollen Dinge wie Gefühle. Wir können natürlich unser intrinsisches Programm auch auf verschiedene Arten austricksen, fehlgeleitet werden. Drogen wären da ein Beispiel.

Echt interessant, wie du die Vorteile der KI in den Himmel lobst und all ihre Fehler relativierst...

Das ist nicht richtig. Ich habe dieses Thema sogar erstellt, da ich sehr wohl große Gefahren sehe die mit der Entwicklung der KI kommen werden. Aber um diese zu Verstehen, muss man schon verstehen welche Potential KI hat. Zu sagen, man bekommt nur falsche Antworten oder die Antworten sein gefährlich.
 
  • Daumen hoch
M.i.a.u.: oli
  • #775
frage für einen freund:
is das eigentlich martin persönlich hier oder wieder seine ki ???
 
  • #776
Hybrid. Googelt was Unbekanntes und schreibt dann expertenhaft darüber.
 
  • HaHa
M.i.a.u.: dubsetter
  • #777
gibt es eigentlich, wie bei den Menschen, unter den KI-Bots auch Morons?

frage für einen KI-Freund
 
  • #778
Vom Namen her Grok?

(taugt aber, hat als einziger bei meiner Testfrage zum Ducking bei der Drumlogue nicht versagt)
 
  • #780
Der Titel ist reisserisch / Clickbait
aber was Prof. Dr. Karl Hans Bläsius im Interview, vor allem zum Thema Manipulation sagt, ist nicht uninteressant
 

News

Zurück
Oben