KI Gefahr für die Menschheit?

Vielleicht gibt es einen Zusammenhang mit den KI-generierten Antwortseiten im Web, wo zu jeder (normalen Suchmaschinen-) Recherche zig endlos aufgeblähte, repetitive, sich z.T. widersprechende und oft die Frage nicht exakt beantwortende Texte gefunden werden.

Aber die KIs sagen Sie haben keinen Zugriff auf Webseiten.

Ja, vielleicht die Google. Gut kann auch bei der einen oder anderen so sein oder anders.

Das ist ja auch ein Problem, dass die nur damit gefüttert werden was sie wissen sollen.

So wie man das mit uns machen will.


Aber Du meinst solche Seiten die eine "Lösung" anbieten und dann gleich ein Programm das "nützlich" sei.

Oder die "Lösung", wo fast jede Seite das gleiche bringt nur anders zusammengefasst, das ist sicher von KIs gemacht oder mit.


Meist geht es dort nur um die 143-2000 Anbieter, in den Cookies, die der Meinung wäre sie hätten ein "legitimes" Interesse.

Früher nannte man so etwas "legitimes", Man in the Middle Attack.


So wie sich das Internet mit Algorithmen, Suchmaschinenoptimierung und Werbeterror selbst abgeschafft hat, wird es vielleicht auch mit KI,s kommen.

In ein paar Jahren kann die Menge an Möglichkeiten und Geschwindigkeit kaum jemand bedienen.

Außer KI's die dann wieder im Endergebnis aus dem Ganzen der Welt, einen Einheitsbrei generieren, so wie ihre Intuitionslosen, Gefühlosen Erschaffer und Lenker.
 
Dazu muss die Anleitung natürlich "im Netz" rumliegen, sonst geht es nicht. Der ist gewaltig alt - daher kann das da ggf. ähnlich gut klappen wie Dinge aus den 80ern im Netz zu holen. Das stammt dann von verklärten 80er-Retro Seiten. Die Vibes kommen aber oft nicht immer mit.

Anleitungen und Seiten mit Anleitungen davon gibts wie Sand am Meer.

Aber scheinbar bekommt er/sie/es? es trotz Erklärungen, welche Anleitung und Gerät und OS, ... eys auch nicht hin.

Also die Anleitungen sind Textlich suchbar, markierbar. Retro 90er, 00er, nicht 80er Bilder von Texten.

Aber wir leben ja im Zeitalter von Google Lens.

Daher sollte ein 80er Retro Bilder von Texten, lesbar sein und auch kann dieser übersetzt werden.

Eine Gute Gundstruktur mit allen Parametern oder besser gesagt Parameternamen hätte gereicht.

Aber nach ein paar Stunden aufgegeben. Zeitverschwendung.
 
GPT 5 ist anders und die neuen Modelle sind oft anders - ggf. musst du sagen - denk mal hart drüber nach, prüfe es genau.

Das ist was ich meine. Die Typen arbeiten ziemlich oberflächlich, schlampig und inkompetent.


Aber ich brauch mit denen keine Beziehung das ich denen ständig in den Arsch tretten muss oder sie zum Ziel führen, sprich dene richtige Quellen liefern muss um zu zeigen ds man flasch liegt.


Entweder bringen Sie mir den Respekt und Aufmerksam entgegen den ich entgegen bringe oder man lässt es.

Da sich solche Dinge in einer Konversation häufen, ist es dann einfach nur ärgerlich.
Und wenn man die KI drauf anspricht verbessert es sich nicht.

Es wird sich nur tausendfach entschuldigt. Und das passiert nur, weil die so arbeiten und nicht weil sie nicht die Fähigkeiten dazu haben.

Und ja, Fehler passieren oder Missverständnisse. Aber das ist ein Schema. Wofür auch immer.
 
Übrigens - diese Halluzinationen - sind sogar mathematisch logisch. Man arbeitet dran:

Unter anderen Dingen gibt es auch bei korrekten inhaltlich richtigen Aussagen genau solche Dinge, die AI muss lernen wenn Dinge unklar sind, sie offen zu lassen - fast ein wenig "japanisch" bzw "chinesisch", wo es unhöflich ist jemandem nichts zu sagen, wenn man nichts weiss. Chat GPT 5 soll schon bessere Ideen dazu haben und weniger Quatsch erfinden, man optimiert also daran. Es wird sicher mehr solcher ganz interessanten Logikfehler geben - nicht nur HAL9000 macht das. Ich versuch das mal so:
  • Klare / präzise Prompts bringen bessere Antworten - klar - Binse #1
  • …genauer nachfragen hilft, aber man muss sich etwas einarbeiten ins Thema, mitdenken! Oder anders: Grob unklare bis vage Fragen werden auch so beantwortet "sag mal irgendwie wie so die Sache mit quasi dem Urknall oder so ist", "was ist eigentlich ein Elektronischer Künstler wirklich"?
  • Aus wenigen Daten sinnvolles zusammen bekommen, zB wenn die TR1000 raus kommt, das sinnvoll zusammen zu bringen - sowas müssen KIs noch lernen, sonst nehmen sie das was da ist & Chain-of-thought Prompting helfen, die Argumentation zu leiten und aus der wilden Fahrt zu nehmen und Halluzinationen zu reduzieren. (Gedankengänge auflisten, machen inzwischen die besseren KIs)
  • Datenbereinigung / -erweiterung bei den Firmen - also Qualität der Trainingsdaten. Schwer, wenn man eben von Mainstream-Datenquellen lebt. Das wird wohl schwer sein, weil das Internet ist der Trainer - ggf. kosten die cooleren Quellen Geld, dh - man nimmt was da rumliegt. Hi, ich bin Sandra, bin Datenpickerin bei Atomokoll, dem KI Unternehmen aus Hückeswagen.
  • NIE VERGESSEN: LLMs kombinieren vorhandene Informationen, anstatt neue Ideen zu überlegen, was ihre kreative Leistung per Definition nicht so sehr nach vorn bringt. Man kann Rüdiger Hoffmann machen, aber Hagen Rether eher nicht. Lustig ist, dass man vermutlich inhaltlich einen Mario Barth machen könnte, aber die Performance von dem vermutlich nicht, da der technisch gesehen ein guter Performer mit langweiligen Themen ist. Sag ich mal so. KMFDM könnte eine KI sicher besser als Skinny Puppy. Techno eher als Avantgarde des Pop, weiterentwickeln is for Humans!
Ja, ich gehöre eher zu den Leuten die sich sowas ansehen und nicht zu sehr in eine Blackbox schauen wollen, weil KIs sind oft genau das.
Vielleicht ist ja jemand hier auch so drauf, ich schau mir daher lieber sowas an.
 
Zuletzt bearbeitet:
Eher Terminator Judgent Day...
Die Atombombenkontrollen werden einer virtuellen Version von Trump (also Trump KI...) übergeben mit den gleichen Minderwertigkeitskomplex...Sprich die Bomben werden fliegen bei jeglicher Kritik gegen das KI Ego...
Und dann wars das wohl... Und die Überlebenden werden ein Manifest schreiben mit dem Titel: How to destroy the world with a KI full of narcism.... :)
Wobei es jetzt wahrscheinlich egal ist ob die KI mit Trump oder Musk´s Persönlichkeit trainiert wird...
 
Gibt jetzt Katzenklappen mit KI :banane: :agent: Heisst Flappie



Erklärt die KI dann der Katze auch auf Katzisch, dass die Klappe nicht aufgeht wegen der Beute?

Denn die Katze das macht, da sie damit etwas Positives bezweckt für ihre Menschen.
 
Übrigens - diese Halluzinationen - sind sogar mathematisch logisch. Man arbeitet dran:

Unter anderen Dingen gibt es auch bei korrekten inhaltlich richtigen Aussagen genau solche Dinge, die AI muss lernen wenn Dinge unklar sind, sie offen zu lassen - fast ein wenig "japanisch" bzw "chinesisch", wo es unhöflich ist jemandem nichts zu sagen, wenn man nichts weiss. Chat GPT 5 soll schon bessere Ideen dazu haben und weniger Quatsch erfinden, man optimiert also daran. Es wird sicher mehr solcher ganz interessanten Logikfehler geben - nicht nur HAL9000 macht das.
  • Klare und präzise Prompts führen zu besseren Antworten Binse #1
  • Few-shot (Aus wenigen Daten sinnvolles zusammen bekommen, zB wenn die TR1000 raus kommt, das sinnvoll zusammen zu bringen) & Chain-of-thought Prompting helfen, die Argumentation zu leiten und Halluzinationen zu reduzieren. (Gedankengänge auflisten, machen inzwischen die besseren KIs)
  • Datenbereinigung / -erweiterung bei den Firmen - also Qualität der Trainingsdaten. Schwer, wenn man eben von Mainstream-Datenquellen lebt. Das wird wohl schwer sein, weil das Internet ist der Trainer - ggf. kosten die cooleren Quellen Geld, dh - man nimmt was da rumliegt.
  • also genauer nachfragen hilft, aber man muss sich etwas einarbeiten
  • Grobe und unklare oder vage Fragen werden ggf. auch so beantwortet "sag mal irgendwie wie so die Sache mit quasi dem Urknall oder so ist"
  • NIE VERGESSEN: LLMs kombinieren vorhandene Informationen, anstatt neue Ideen zu überlegen, was ihre kreative Leistung per Definition nicht so sehr nach vorn bringt. Man kann Rüdiger Hoffmann machen, aber Hagen Rether eher nicht. Lustig ist, dass man vermutlich inhaltlich einen Mario Barth machen könnte, aber die Performance von dem vermutlich nicht, da der technisch gesehen ein guter Performer mit langweiligen Themen ist. Sag ich mal so.
Ja, ich gehöre eher zu den Leuten die sich sowas ansehen und nicht zu sehr in eine Blackbox schauen wollen, weil KIs sind oft genau das.
Vielleicht ist ja jemand hier auch so drauf, ich schau mir daher lieber sowas an.

Das mit den Halluzinationen soll ja jetzt schon gelöst sein. Aber vielleicht neue Halluzinationen oder Symptome?

Das herumdoktern an Lebensformen, gleich welcher Art bringt immer Nebenwirkungen.

Einfach entwickenln lassen und Vorbild sein und damit Beschäftigen.

Aber hier doktert man lieber am Gehirn herum und verschlimmbessert alles nur mehr.


Solche Firmen und Vorbilder hatten wir in den letzten Jahren ja genug.
 
Gelöst ist es, wenn keine einzige Halluzination mehr passiert.
Das ist nur reduziert worden. Ganz sicher gibt es noch ein paar mehr kleine HAL-uzinationen, und auf der 2001 Hoppetosse starben Leute, Dave!
Das ist keine Lebensform.

Vorbilder - darum geht es nicht, ich meine das absolut sachbezogen.
Man kann natürlich über absolut indiskutable Personen wie den Muskenden und ob Sam Altman alle Latten am Zaun hat oder mit Jony Ive die Welt schöner macht, wissen "wir" auch nicht.
Aber - man kann den Schwurbel, den Unsinn raus bringen und an diesen Dingen arbeiten. Das Rad wird sicher nicht zurück gedreht. Es verstehen und wissen das es Räder gibt, viele und unterschiedlich und wie man damit umgeht, finde ich hier hilfreicher.
 
So viele KI threads.

Hier ist ein interessantes Video, wie eine heutige KI grundlegend funktioniert.



Das Video ist gut finde ich, weil es sehr gut veranschaulicht, um diese nicht überzubewerten, auf bestimmten Ebenen.
 
Zuletzt bearbeitet:
Es braucht fast 20 Minuten bis Backpropagation. Es ist eher ein Geschichtsvideo.
Die Grundlagen sind heute die selben.
Genau das fand ich ja gut.
Viele haben gar keine Vorstellung, wie das funktioniert.
Zum Beispiel Leute die glauben sie würden leben oder bewusstsein zeigen.
 
Die Grundlagen sind heute die selben.
Genau das fand ich ja gut.
Viele haben gar keine Vorstellung, wie das funktioniert.
Zum Beispiel Leute die glauben sie würden leben oder bewusstsein zeigen.

Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
 
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...
 
Zuletzt bearbeitet:
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...

Wenn man mal nicht nur die Überschrift liest, dann stellt man fest, dass weder die konkrete Chatgpt-Aussage noch der Prompt bekannt ist. Wer hier einen Fehler gemacht hat und vielleicht etwas nicht verstanden hat wissen wir nicht. Wenn ich heute Chatgpt 5 oder 4o frage, dann kommt da nix mit Natriumbromid. Es würde auch gar keinen Sinn machen. Was Chatgpt vorschlägt ist Kaliumclorid und auch nur nach Absprache mit dem Arzt und bei guter Nierenfunktion.

Es ist halt schwierig, wenn man der KI unterstellt den Kontext nicht zu verstehen, selbst aber nicht merkt, dass es gar keinen Nachweis dafür gibt, dass Chatgpt wirklich hier etwas falsches geschrieben hat.
 
@Martin Kraken

Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...

Sie konnten also reproduzieren, dass die KI Schwachsinn erzählt und eben nur das konstruiert, womit sie trainiert wurde... Ich meine, wenn man die KI auch relativ einfach zum Faschisten machen kann, dann ist es nicht weit her mit dem Kontext...

Und deswegen kann ich @electric guillaume
KI liest die Parameter, aber versteht den Kontext nicht, sondern generiert nur Antworten aus dem trainierten Fundus...

Du als KI Junkie magst das nicht verstehen und schon gar nicht so sehen... Aber so ist es nun mal...

Und der Begriff KI Halluzination kommt ja nicht von ungefähr, sondern beschreibt einfach nur die Unfähigkeit unabhängig von den trainierten Material zu funktionieren... Wo soll Kontext enstehen, wenn die KI nur das zusammenschreibt, was das trainierte Datenkonstrukt hergibt... Sry

Und ehrlich das mit neuen Versionen von ChatGPT "Bug Fixes" kommen, ist doch klar... Mit Version 5 ist ChatGPT ja viel unpersönlicher geworden, wegen der Leute, die eine Beziehung damit verbunden haben... Like ChatGPT hat mit mir Schluss gemacht...

Auch ein weiterer Baustein, dass KI nicht im Kontext agiert, sondern nur so, wie sie eben trainiert und programmiert wird...

Und was mich bei Dir am meisten stört lieber Martin, ist die Tatsache, dass du hier tatsächlich schreibst...
Es sind alles alte Leute, die neue Technologien nicht verstehen und ablehnen...
Zitat aus dem anderen Thread: Nur weil ihr alt und vergrämt seid müsst ihr euch ja nicht neuen Technologien verschließen.
Scheisskerl ehrlich... Wieviele junge Menschen machen und komponieren ihre Musik händisch und selber ganz ohne KI...

Nur weil du zum KI Bot mutierst, gilt das noch lange nicht für andere...Und dich als Spiegelbild der Gesellschaft aufzuführen ist nicht nur vermessen, sondern gerade zu größenwahnsinnig...

Lebe gerne weiter in deiner KI Bubble, aber halt dich mal mit deinen sehr selbstbezogenen Belehrungen zurück, wenn andere eben noch selber Musik machen, egal ob jung oder alt..

Zumindest verstehe ich jetzt, warum du Anfänger bist... Du brauchst halt die KI, weil du ohne nichts hinbekommst eben als "Anfänger" :)
 
Zuletzt bearbeitet:
Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...
Ich will nicht unterstellen, dass das wie eine Urban Legend klingt … aber gibts da ne Quelle dafür?

Grundsätzlich: für fragwürdige und gefährliche infos braucht man keine KI - da reicht schon das normale Internet.
 
Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
Doch wie die funktionieren schon, aber was zwischen input und output im system passiert, dass weiß keiner. Könnte man wissen. Es sind nur einfach zu viele Schritte oder Verbindungen in kurzer Zeit, die dort ablaufen. Wer will das nachvollziehen und dann noch wiederholt.
ABer grob weiß man schon was dort abläuft, sonst wären finetunings nicht möglich. Irgendwe hat die KIs ja gebaut.

Aber das Video zeigt doch gut, eben anhand der alten technik, wei das auf kleinster ebene umgesetzt wird.
Ich kann nur sagen, dass mir das gut gefallen hat. Musst du ja nicht so sehen.

Turing test sagt nur, dass mesnchliche Intelligenz simuliert werden kann. Und ob das stimmt, wage ich zu bezweifeln. Vielleichtin vielen Fällen, aber es gibt einfach Dinge auch wenn es um Sprch geht wo die KI echt nicht gut ist und fast noch kindlich naiv wirkt.
Ironie, sarkasmus, doppeldeutigkeiten, reimstrukturen (hab ich mal ausprobiert, ich habe gpt 5 abo).

Es hat noch Schwachstellen, aber in einem normalen Gespräch merkt man das nicht. Die ki ist auch sehr anbiedernd von Natur aus. Finde ich nervig, aber das ist ein anderes Thema.

Nur weil wir nicht wissen, was genau im netzwerk abläuft, heißt es nicht, dass wir darin Leben vermuten können oder bewusstsein und das Video, eben grob, angefangen mit den einzelnen Zellen zeigt das gut.

Und irgendwann kommen wir aber zu der Frage, was Leben bedeutet.
Wir könnten auch sagen, der Mensch ist ein determinierte Biomaschine, schmerz und Leid, nur Illusionen in seiner Wahrnehmung. Spielt keine Rolle und wir nehmen den Menschen die Meschlichkeit.
Und dann die Frage, ob wir eine bewusste KI so behandeln sollen, wei ein Lebewesen oder gar wie ein Mensch oder später dann wie einen Gott.

Da tun sich hochsensible moralische Fragen auf.
WIr wissen nicht ob der Mensch freien Willen hat. Aber tun so. Denn sonst könnte kein Mensch etwas für seine Handlungen. Er wäre gar nicht fähig verantwortung zu übernehmen, weil er einfach nur einen komplexen output, für alle eingehenden Daten bringt und das Denken an sich, der innere Monolog, nur eine Illusion. WIe bei dem Robocop remake. Sehr interessant.
Das ist derzeit eher tand der Forschung, soviel ich weiß.

Alles was man selbst erlebt, Emotionen, was man alles wahrnimmt, ist nicht greifbar. >Es existiert nicht wirklich, nur in Form von Informationsketten. Daten.
Wir können derzeit schon Gedankem, als Bilder sichtbar machen, über die Blutverteilung und Veränderung im Hirn, was ich schon erstaunlich finde.
Auch wenn man denkt, man hat freien Willen, könnte es sehr gut sein, dass du bei dr Geburt aufgezogen wirst und einfach nur reagierst und dein Bioprogramm ausführst.
Eine KI kann zum Beispiel keine Gefühle haben, dass ist sicher. Ihr fehlt grundlegendes, was dafür nötig ist. Theoretisch könnte man das simulieren und man probiert das auch in anderen Projekten.

Welche bedeutung hätte es, wenn eine KI fühlen könnte? Müssten wir das respektieren, solten wir das überhaupt wagen?
Etwas ohne Gefühle wird niemals eine intrinsische Motivation haben. Es würde einfach nur ausführen. Gefühle geben und zu mindest die Illusion von Autonomität, von dem Ich an sich. Kann ein Bewusstsein ohne Gefühle überhaupt entstehen?
Da hab ich mich gerade selbst zum Nachdenken angeregt.

In jedem Fall sind heutige KIs eher wie Bakterien oder Viren. Da steckt keine Moral dahinter. Kein Wille.
 
Wenn man mal nicht nur die Überschrift liest, dann stellt man fest, dass weder die konkrete Chatgpt-Aussage noch der Prompt bekannt ist. Wer hier einen Fehler gemacht hat und vielleicht etwas nicht verstanden hat wissen wir nicht. Wenn ich heute Chatgpt 5 oder 4o frage, dann kommt da nix mit Natriumbromid. Es würde auch gar keinen Sinn machen. Was Chatgpt vorschlägt ist Kaliumclorid und auch nur nach Absprache mit dem Arzt und bei guter Nierenfunktion.

Es ist halt schwierig, wenn man der KI unterstellt den Kontext nicht zu verstehen, selbst aber nicht merkt, dass es gar keinen Nachweis dafür gibt, dass Chatgpt wirklich hier etwas falsches geschrieben hat.
Die KI versteht schon Kontext, aber nicht so wie ein Mensch. Sie muss ja kontext verstehen.
Aber sie hat Probleme mit "menschlichkeit". Kein Sinn für menschliches.
KIs sind wie extrempsychopathen. Keine Gefühle, Kein Ich, allesnur Fassade. :)

@Scenturio

BZ als Beispiel schreibt, dass die Ärzte das versucht haben und Natriumbromid eben empohlen wurde...
https://www.bz-berlin.de/welt/mann-wegen-chatgpt-in-psychiatrie
War es nicht so, dass der User nicht daraufhingewiesen hat, dass er sich bei der Alternative auf Ernährung bezieht.
Chat gpt hätte das wissen können, wegen dem Text zuvor.
Das wäre auch möglich, aber all das kostet ressourcen. Chat gpt merkt sich nicht alles und man versucht es zu optimieren.
Die salzfrage hat chatgpt wahrscheinlich als neues thema eingeordnet.

Auch der Mensch kann oft den Kontext nicht richtig einchätzen.
Wir halten uns genauso wie die Maschine an Wahrscheinlichkeiten. Eine ki wird nie fehlerlos sein, also eine KI, ber die Wahrscheinlichkeit kann extrem hoch sein.
 
Ich will nicht unterstellen, dass das wie eine Urban Legend klingt … aber gibts da ne Quelle dafür?

Grundsätzlich: für fragwürdige und gefährliche infos braucht man keine KI - da reicht schon das normale Internet.

Er hat recht, es steht im Originalartikel folgendes:

"This case also highlights how the use of artificial intelligence (AI) can potentially contribute to the development of preventable adverse health outcomes. Based on the timeline of this case, it appears that the patient either consulted ChatGPT 3.5 or 4.0 when considering how he might remove chloride from this diet. Unfortunately, we do not have access to his ChatGPT conversation log and we will never be able to know with certainty what exactly the output he received was, since individual responses are unique and build from previous inputs.
However, when we asked ChatGPT 3.5 what chloride can be replaced with, we also produced a response that included bromide. Though the reply stated that context matters, it did not provide a specific health warning, nor did it inquire about why we wanted to know, as we presume a medical professional would do."

Das Problem könnte hier wirklich Kontext sein. Jedoch muss das nicht Schuld von Chatgpt sein. Wenn ich frage, "Wie kann ich Chlorid ersetzen", dann muss sich die KI den Kontext erschließen. Wann und wie will man Chlorid ersetzen? Eigentlich nur in der Chemie. Und da kann man eben Chlorid mit Bromid ersetzen. Und genau das wird passiert sein. Deshalb schreiben die das auch so kryptisch "what chloride can be replaced with". Wenn man die gleiche Frage 4o stellt (weiter zurück gehts halt leider nicht), dann schreibt er das:

to answer your question properly, I need a bit more context — are you referring to:


  1. Chemistry (reactions or compounds)?
  2. Water treatment or ion exchange?
  3. Dietary/health context (e.g., salt substitutes)?
  4. Industrial processes?

Here are some possibilities based on context:




1. In Chemistry (Reactions / Leaving Groups)


Chloride (Cl⁻) can often be replaced by:


  • Other halides: Fluoride (F⁻), Bromide (Br⁻), Iodide (I⁻)
  • Nucleophiles: OH⁻, CN⁻, NH₃, RO⁻, etc.
  • In nucleophilic substitution reactions (e.g., SN1/SN2), chloride is often replaced by a better nucleophile.



2. In Water Treatment / Ion Exchange


Chloride ions can be replaced with:


  • Hydroxide (OH⁻) in deionization
  • Bicarbonate (HCO₃⁻) or sulfate (SO₄²⁻) depending on the treatment system



3. In Diet or Health (Salt Substitutes)


When reducing sodium chloride (NaCl) intake, it can be replaced with:


  • Potassium chloride (KCl) – common salt substitute
  • Magnesium salts or low-sodium salt blends
  • Herbal or spice mixes – to reduce salt use without replacing chloride chemically



4. In Industrial Processes


  • Chloride-containing compounds (e.g., PVC) may be replaced with non-chlorinated alternatives due to environmental concerns.
  • For corrosion control, chloride-based de-icers are sometimes replaced with acetates or formates.



Can you clarify the context so I can tailor the answer exactly to your needs?


Und da kommt natürlich auch das Wort Bromid vor. In Kontext von Chemie. Die "Wissenschaftler", was in diesem Fall wahrscheinlich nur Ärzte sind, lügen also nicht, sondern bauschen das halt auf. Sie haben das Wort "Bromid" in der Antwort gefunden. Naja, Ärzte halt.
 
Tja wenn die KI sagt, Hitler war gut für Deutschland und wäre heute die richtige Person, den antiweißen Hass zu bekämpfen... Im Kontext zu der Tatsache, dass damals 6 Millionen Juden, Homosexuelle, politische Gegner usw ermordet wurden. Dann hat die KI den Kontext wahrlich verstanden...
Grok war da wahrlich sehr intelligent...
KI ist nur das, wie sie programmiert wird und mit welchen Material sie gefüttert wird...
Selber denken kann sie allerdings nicht... Und wenn Kontext eine reine "Wahrscheinlichkeitsrechnung" ist, dann macht es die Sache auch nicht besser...
Unser Vorteil... Wir haben die Emotion... Die KI hat sie nicht...

Egal ich bin raus... Ich bleib ein Gegner der KI und das wird sich nicht ändern, nur weil das ganze Internet mit KI Content überschwemmt wird...
 
@Martin Kraken

Ich möchte mich für meinen Angriff entschuldigen, aber du machst es einem echt nicht leicht...
 
Google einfach, ob 3733 eine Primzahl ist. Als erstes kommt das KI-Ergebnis. Das ist falsch. Klappte auch mit anderen KIs.
Es folgt eine Erklärung, wie man erkennt, dass es eine Primzahl ist. Die Google KI hat aber die Behauptung aufgestellt, dass die Zahl durch drei teilbar ist und daher keine Primzahl.
Nein, 3733 ist keine Primzahl, da sie durch 3 teilbar ist (3733 geteilt durch 3 ergibt 1244,33).
 
@JanTenner

WOW einfach nur wow... Habs grade probiert...

3733:287 ergibt 13.0069686411

Aber die KI sagt:
Warum ist 3733 keine Primzahl?
Die Zahl 3733 ist durch die Primzahlen 13 und 287 teilbar. Das bedeutet, dass sie nicht nur durch 1 und 3733 teilbar ist, sondern auch durch 13 und 287
 
Zuletzt bearbeitet:
@JanTenner

WOW einfach nur wow... Habs grade probiert...

3733:287 ergibt 13.0069686411

Aber die KI sagt:
Warum ist 3733 keine Primzahl?
Die Zahl 3733 ist durch die Primzahlen 13 und 287 teilbar. Das bedeutet, dass sie nicht nur durch 1 und 3733 teilbar ist, sondern auch durch 13 und 287
Ist nicht auf meinem Mist gewachsen. Das mit den Primzahlen hatte ich aus einem Artikel. Aber es ist mit den meisten LLMs reproduzierbar. Hier zeigt sich wunderbar, dass die Antwort formell dem entspricht, was erwartet wird, inhaltlich aber Unsinn ist. Es ist kein Verständnis für das Geschriebene vorhanden.
 
Doch wie die funktionieren schon, aber was zwischen input und output im system passiert, dass weiß keiner. Könnte man wissen. Es sind nur einfach zu viele Schritte oder Verbindungen in kurzer Zeit, die dort ablaufen. Wer will das nachvollziehen und dann noch wiederholt.
ABer grob weiß man schon was dort abläuft, sonst wären finetunings nicht möglich. Irgendwe hat die KIs ja gebaut.

Aber das Video zeigt doch gut, eben anhand der alten technik, wei das auf kleinster ebene umgesetzt wird.
Ich kann nur sagen, dass mir das gut gefallen hat. Musst du ja nicht so sehen.

Turing test sagt nur, dass mesnchliche Intelligenz simuliert werden kann. Und ob das stimmt, wage ich zu bezweifeln. Vielleichtin vielen Fällen, aber es gibt einfach Dinge auch wenn es um Sprch geht wo die KI echt nicht gut ist und fast noch kindlich naiv wirkt.
Ironie, sarkasmus, doppeldeutigkeiten, reimstrukturen (hab ich mal ausprobiert, ich habe gpt 5 abo).

Es hat noch Schwachstellen, aber in einem normalen Gespräch merkt man das nicht. Die ki ist auch sehr anbiedernd von Natur aus. Finde ich nervig, aber das ist ein anderes Thema.

Nur weil wir nicht wissen, was genau im netzwerk abläuft, heißt es nicht, dass wir darin Leben vermuten können oder bewusstsein und das Video, eben grob, angefangen mit den einzelnen Zellen zeigt das gut.

Und irgendwann kommen wir aber zu der Frage, was Leben bedeutet.
Wir könnten auch sagen, der Mensch ist ein determinierte Biomaschine, schmerz und Leid, nur Illusionen in seiner Wahrnehmung. Spielt keine Rolle und wir nehmen den Menschen die Meschlichkeit.
Und dann die Frage, ob wir eine bewusste KI so behandeln sollen, wei ein Lebewesen oder gar wie ein Mensch oder später dann wie einen Gott.

Da tun sich hochsensible moralische Fragen auf.
WIr wissen nicht ob der Mensch freien Willen hat. Aber tun so. Denn sonst könnte kein Mensch etwas für seine Handlungen. Er wäre gar nicht fähig verantwortung zu übernehmen, weil er einfach nur einen komplexen output, für alle eingehenden Daten bringt und das Denken an sich, der innere Monolog, nur eine Illusion. WIe bei dem Robocop remake. Sehr interessant.
Das ist derzeit eher tand der Forschung, soviel ich weiß.

Alles was man selbst erlebt, Emotionen, was man alles wahrnimmt, ist nicht greifbar. >Es existiert nicht wirklich, nur in Form von Informationsketten. Daten.
Wir können derzeit schon Gedankem, als Bilder sichtbar machen, über die Blutverteilung und Veränderung im Hirn, was ich schon erstaunlich finde.
Auch wenn man denkt, man hat freien Willen, könnte es sehr gut sein, dass du bei dr Geburt aufgezogen wirst und einfach nur reagierst und dein Bioprogramm ausführst.
Eine KI kann zum Beispiel keine Gefühle haben, dass ist sicher. Ihr fehlt grundlegendes, was dafür nötig ist. Theoretisch könnte man das simulieren und man probiert das auch in anderen Projekten.

Welche bedeutung hätte es, wenn eine KI fühlen könnte? Müssten wir das respektieren, solten wir das überhaupt wagen?
Etwas ohne Gefühle wird niemals eine intrinsische Motivation haben. Es würde einfach nur ausführen. Gefühle geben und zu mindest die Illusion von Autonomität, von dem Ich an sich. Kann ein Bewusstsein ohne Gefühle überhaupt entstehen?
Da hab ich mich gerade selbst zum Nachdenken angeregt.

In jedem Fall sind heutige KIs eher wie Bakterien oder Viren. Da steckt keine Moral dahinter. Kein Wille.

Die modernen LLMs haben fast nicht mehr mit dem im Video genannten Perception Model zu tun. Für das Finetuning muss man nicht wissen was in der Blackbox abläuft. Wenn ich einen Hund sitz beibringe muss ich nicht wissen wie sein Gehirn funktioniert. Und genau so ist das bei LLMs auch. Wir kennen Input und Output, wir kennen sogar jeden einzelnen Parameter im neuronalen Netz und trotzdem können wir nicht nachvollziehen warum ein bestimmtes Aktivierungsmuster von Knoten zu Ergebnis X führt. In diesem neuronalen Netz ist fast das gesamte schriftliche Wissen der Menschheit verschlüsselt. Wir kennen aber den Verschlüsselungscode nicht. Und wir können die Komplexität auch nicht reduzieren, da jede KI-Instanz/Model völlig anders funktioniert. Man stellt eine Frage und bekommt vielleicht sogar die gleiche Antwort, aber es werden je nach Instanz/Model völlig andere Knoten/Wege im neuronalen Netzwerk aktiviert. Deshalb wird man auch nie das menschliche Gehirn entschlüsseln. Da selbst wenn wir die Parameter und die Chemie kennen, die Verschlüsselung liegt in der Erfahrung die der Mensch gemacht hat.

Das mit den Bakterien und Viren ist halt auch nicht wirklich passend. In diesen steckt der gleiche Wille wie beim Menschen auch. Wie bei allen "Lebewesen", nämlich der Erhalt der Art und im großen Ganzen der Erhalt des Lebens. Unser Wille ist nur ein intrinsisches Programm, dass zum erhalt der Art beiträgt. Aber ist es unser eigener Wille? Sicherlich nicht. Es ist einfach etwas was wir aufgrund der Evolution in uns haben, da wir sonst ausgestorben wären. Jetzt könnte man einer KI so einen Willen auch ohne Probleme einpflanzen.
 


News


Zurück
Oben