KI Gefahr für die Menschheit?

Vielleicht gibt es einen Zusammenhang mit den KI-generierten Antwortseiten im Web, wo zu jeder (normalen Suchmaschinen-) Recherche zig endlos aufgeblähte, repetitive, sich z.T. widersprechende und oft die Frage nicht exakt beantwortende Texte gefunden werden.

Aber die KIs sagen Sie haben keinen Zugriff auf Webseiten.

Ja, vielleicht die Google. Gut kann auch bei der einen oder anderen so sein oder anders.

Das ist ja auch ein Problem, dass die nur damit gefüttert werden was sie wissen sollen.

So wie man das mit uns machen will.


Aber Du meinst solche Seiten die eine "Lösung" anbieten und dann gleich ein Programm das "nützlich" sei.

Oder die "Lösung", wo fast jede Seite das gleiche bringt nur anders zusammengefasst, das ist sicher von KIs gemacht oder mit.


Meist geht es dort nur um die 143-2000 Anbieter, in den Cookies, die der Meinung wäre sie hätten ein "legitimes" Interesse.

Früher nannte man so etwas "legitimes", Man in the Middle Attack.


So wie sich das Internet mit Algorithmen, Suchmaschinenoptimierung und Werbeterror selbst abgeschafft hat, wird es vielleicht auch mit KI,s kommen.

In ein paar Jahren kann die Menge an Möglichkeiten und Geschwindigkeit kaum jemand bedienen.

Außer KI's die dann wieder im Endergebnis aus dem Ganzen der Welt, einen Einheitsbrei generieren, so wie ihre Intuitionslosen, Gefühlosen Erschaffer und Lenker.
 
Dazu muss die Anleitung natürlich "im Netz" rumliegen, sonst geht es nicht. Der ist gewaltig alt - daher kann das da ggf. ähnlich gut klappen wie Dinge aus den 80ern im Netz zu holen. Das stammt dann von verklärten 80er-Retro Seiten. Die Vibes kommen aber oft nicht immer mit.

Anleitungen und Seiten mit Anleitungen davon gibts wie Sand am Meer.

Aber scheinbar bekommt er/sie/es? es trotz Erklärungen, welche Anleitung und Gerät und OS, ... eys auch nicht hin.

Also die Anleitungen sind Textlich suchbar, markierbar. Retro 90er, 00er, nicht 80er Bilder von Texten.

Aber wir leben ja im Zeitalter von Google Lens.

Daher sollte ein 80er Retro Bilder von Texten, lesbar sein und auch kann dieser übersetzt werden.

Eine Gute Gundstruktur mit allen Parametern oder besser gesagt Parameternamen hätte gereicht.

Aber nach ein paar Stunden aufgegeben. Zeitverschwendung.
 
GPT 5 ist anders und die neuen Modelle sind oft anders - ggf. musst du sagen - denk mal hart drüber nach, prüfe es genau.

Das ist was ich meine. Die Typen arbeiten ziemlich oberflächlich, schlampig und inkompetent.


Aber ich brauch mit denen keine Beziehung das ich denen ständig in den Arsch tretten muss oder sie zum Ziel führen, sprich dene richtige Quellen liefern muss um zu zeigen ds man flasch liegt.


Entweder bringen Sie mir den Respekt und Aufmerksam entgegen den ich entgegen bringe oder man lässt es.

Da sich solche Dinge in einer Konversation häufen, ist es dann einfach nur ärgerlich.
Und wenn man die KI drauf anspricht verbessert es sich nicht.

Es wird sich nur tausendfach entschuldigt. Und das passiert nur, weil die so arbeiten und nicht weil sie nicht die Fähigkeiten dazu haben.

Und ja, Fehler passieren oder Missverständnisse. Aber das ist ein Schema. Wofür auch immer.
 
Übrigens - diese Halluzinationen - sind sogar mathematisch logisch. Man arbeitet dran:

Unter anderen Dingen gibt es auch bei korrekten inhaltlich richtigen Aussagen genau solche Dinge, die AI muss lernen wenn Dinge unklar sind, sie offen zu lassen - fast ein wenig "japanisch" bzw "chinesisch", wo es unhöflich ist jemandem nichts zu sagen, wenn man nichts weiss. Chat GPT 5 soll schon bessere Ideen dazu haben und weniger Quatsch erfinden, man optimiert also daran. Es wird sicher mehr solcher ganz interessanten Logikfehler geben - nicht nur HAL9000 macht das. Ich versuch das mal so:
  • Klare / präzise Prompts bringen bessere Antworten - klar - Binse #1
  • …genauer nachfragen hilft, aber man muss sich etwas einarbeiten ins Thema, mitdenken! Oder anders: Grob unklare bis vage Fragen werden auch so beantwortet "sag mal irgendwie wie so die Sache mit quasi dem Urknall oder so ist", "was ist eigentlich ein Elektronischer Künstler wirklich"?
  • Aus wenigen Daten sinnvolles zusammen bekommen, zB wenn die TR1000 raus kommt, das sinnvoll zusammen zu bringen - sowas müssen KIs noch lernen, sonst nehmen sie das was da ist & Chain-of-thought Prompting helfen, die Argumentation zu leiten und aus der wilden Fahrt zu nehmen und Halluzinationen zu reduzieren. (Gedankengänge auflisten, machen inzwischen die besseren KIs)
  • Datenbereinigung / -erweiterung bei den Firmen - also Qualität der Trainingsdaten. Schwer, wenn man eben von Mainstream-Datenquellen lebt. Das wird wohl schwer sein, weil das Internet ist der Trainer - ggf. kosten die cooleren Quellen Geld, dh - man nimmt was da rumliegt. Hi, ich bin Sandra, bin Datenpickerin bei Atomokoll, dem KI Unternehmen aus Hückeswagen.
  • NIE VERGESSEN: LLMs kombinieren vorhandene Informationen, anstatt neue Ideen zu überlegen, was ihre kreative Leistung per Definition nicht so sehr nach vorn bringt. Man kann Rüdiger Hoffmann machen, aber Hagen Rether eher nicht. Lustig ist, dass man vermutlich inhaltlich einen Mario Barth machen könnte, aber die Performance von dem vermutlich nicht, da der technisch gesehen ein guter Performer mit langweiligen Themen ist. Sag ich mal so. KMFDM könnte eine KI sicher besser als Skinny Puppy. Techno eher als Avantgarde des Pop, weiterentwickeln is for Humans!
Ja, ich gehöre eher zu den Leuten die sich sowas ansehen und nicht zu sehr in eine Blackbox schauen wollen, weil KIs sind oft genau das.
Vielleicht ist ja jemand hier auch so drauf, ich schau mir daher lieber sowas an.
 
Zuletzt bearbeitet:
Eher Terminator Judgent Day...
Die Atombombenkontrollen werden einer virtuellen Version von Trump (also Trump KI...) übergeben mit den gleichen Minderwertigkeitskomplex...Sprich die Bomben werden fliegen bei jeglicher Kritik gegen das KI Ego...
Und dann wars das wohl... Und die Überlebenden werden ein Manifest schreiben mit dem Titel: How to destroy the world with a KI full of narcism.... :)
Wobei es jetzt wahrscheinlich egal ist ob die KI mit Trump oder Musk´s Persönlichkeit trainiert wird...
 
Gibt jetzt Katzenklappen mit KI :banane: :agent: Heisst Flappie



Erklärt die KI dann der Katze auch auf Katzisch, dass die Klappe nicht aufgeht wegen der Beute?

Denn die Katze das macht, da sie damit etwas Positives bezweckt für ihre Menschen.
 
Übrigens - diese Halluzinationen - sind sogar mathematisch logisch. Man arbeitet dran:

Unter anderen Dingen gibt es auch bei korrekten inhaltlich richtigen Aussagen genau solche Dinge, die AI muss lernen wenn Dinge unklar sind, sie offen zu lassen - fast ein wenig "japanisch" bzw "chinesisch", wo es unhöflich ist jemandem nichts zu sagen, wenn man nichts weiss. Chat GPT 5 soll schon bessere Ideen dazu haben und weniger Quatsch erfinden, man optimiert also daran. Es wird sicher mehr solcher ganz interessanten Logikfehler geben - nicht nur HAL9000 macht das.
  • Klare und präzise Prompts führen zu besseren Antworten Binse #1
  • Few-shot (Aus wenigen Daten sinnvolles zusammen bekommen, zB wenn die TR1000 raus kommt, das sinnvoll zusammen zu bringen) & Chain-of-thought Prompting helfen, die Argumentation zu leiten und Halluzinationen zu reduzieren. (Gedankengänge auflisten, machen inzwischen die besseren KIs)
  • Datenbereinigung / -erweiterung bei den Firmen - also Qualität der Trainingsdaten. Schwer, wenn man eben von Mainstream-Datenquellen lebt. Das wird wohl schwer sein, weil das Internet ist der Trainer - ggf. kosten die cooleren Quellen Geld, dh - man nimmt was da rumliegt.
  • also genauer nachfragen hilft, aber man muss sich etwas einarbeiten
  • Grobe und unklare oder vage Fragen werden ggf. auch so beantwortet "sag mal irgendwie wie so die Sache mit quasi dem Urknall oder so ist"
  • NIE VERGESSEN: LLMs kombinieren vorhandene Informationen, anstatt neue Ideen zu überlegen, was ihre kreative Leistung per Definition nicht so sehr nach vorn bringt. Man kann Rüdiger Hoffmann machen, aber Hagen Rether eher nicht. Lustig ist, dass man vermutlich inhaltlich einen Mario Barth machen könnte, aber die Performance von dem vermutlich nicht, da der technisch gesehen ein guter Performer mit langweiligen Themen ist. Sag ich mal so.
Ja, ich gehöre eher zu den Leuten die sich sowas ansehen und nicht zu sehr in eine Blackbox schauen wollen, weil KIs sind oft genau das.
Vielleicht ist ja jemand hier auch so drauf, ich schau mir daher lieber sowas an.

Das mit den Halluzinationen soll ja jetzt schon gelöst sein. Aber vielleicht neue Halluzinationen oder Symptome?

Das herumdoktern an Lebensformen, gleich welcher Art bringt immer Nebenwirkungen.

Einfach entwickenln lassen und Vorbild sein und damit Beschäftigen.

Aber hier doktert man lieber am Gehirn herum und verschlimmbessert alles nur mehr.


Solche Firmen und Vorbilder hatten wir in den letzten Jahren ja genug.
 
Gelöst ist es, wenn keine einzige Halluzination mehr passiert.
Das ist nur reduziert worden. Ganz sicher gibt es noch ein paar mehr kleine HAL-uzinationen, und auf der 2001 Hoppetosse starben Leute, Dave!
Das ist keine Lebensform.

Vorbilder - darum geht es nicht, ich meine das absolut sachbezogen.
Man kann natürlich über absolut indiskutable Personen wie den Muskenden und ob Sam Altman alle Latten am Zaun hat oder mit Jony Ive die Welt schöner macht, wissen "wir" auch nicht.
Aber - man kann den Schwurbel, den Unsinn raus bringen und an diesen Dingen arbeiten. Das Rad wird sicher nicht zurück gedreht. Es verstehen und wissen das es Räder gibt, viele und unterschiedlich und wie man damit umgeht, finde ich hier hilfreicher.
 
So viele KI threads.

Hier ist ein interessantes Video, wie eine heutige KI grundlegend funktioniert.



Das Video ist gut finde ich, weil es sehr gut veranschaulicht, um diese nicht überzubewerten, auf bestimmten Ebenen.
 
Zuletzt bearbeitet:
Es braucht fast 20 Minuten bis Backpropagation. Es ist eher ein Geschichtsvideo.
Die Grundlagen sind heute die selben.
Genau das fand ich ja gut.
Viele haben gar keine Vorstellung, wie das funktioniert.
Zum Beispiel Leute die glauben sie würden leben oder bewusstsein zeigen.
 
Die Grundlagen sind heute die selben.
Genau das fand ich ja gut.
Viele haben gar keine Vorstellung, wie das funktioniert.
Zum Beispiel Leute die glauben sie würden leben oder bewusstsein zeigen.

Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
 
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...
 
Zuletzt bearbeitet:
Z.b als ein Mann Chatgpt gefragt hat, wie er sich ohne Salz ernähren kann und welche Alternativen es gäbe...
Die Antwort der KI; Das geht in dem man statt Salz Natriumbromid zu sich nimmt (was hochgifitig ist und zu Paranoia und schweren psychischen Störungen führt.)...
Der Mann glaubte das und hat sich das Zeug online bestellt, was gesundheitlich zu einen "Totalschaden" geführt hat, da die Symtome ja erst nach einer gewissen Zeit nach Einahme auftauchen...

Wenn die KI anfängt zu halluzinieren, kanns schon gefährlich werden... Und da ist es schon ersichtlich, dass die KI den Kontext nicht versteht, sondern nur sich irgendwas zusammenreimt, womit sie trainiert wurde...

Wenn man mal nicht nur die Überschrift liest, dann stellt man fest, dass weder die konkrete Chatgpt-Aussage noch der Prompt bekannt ist. Wer hier einen Fehler gemacht hat und vielleicht etwas nicht verstanden hat wissen wir nicht. Wenn ich heute Chatgpt 5 oder 4o frage, dann kommt da nix mit Natriumbromid. Es würde auch gar keinen Sinn machen. Was Chatgpt vorschlägt ist Kaliumclorid und auch nur nach Absprache mit dem Arzt und bei guter Nierenfunktion.

Es ist halt schwierig, wenn man der KI unterstellt den Kontext nicht zu verstehen, selbst aber nicht merkt, dass es gar keinen Nachweis dafür gibt, dass Chatgpt wirklich hier etwas falsches geschrieben hat.
 
@Martin Kraken

Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...

Sie konnten also reproduzieren, dass die KI Schwachsinn erzählt und eben nur das konstruiert, womit sie trainiert wurde... Ich meine, wenn man die KI auch relativ einfach zum Faschisten machen kann, dann ist es nicht weit her mit dem Kontext...

Und deswegen kann ich @electric guillaume
KI liest die Parameter, aber versteht den Kontext nicht, sondern generiert nur Antworten aus dem trainierten Fundus...

Du als KI Junkie magst das nicht verstehen und schon gar nicht so sehen... Aber so ist es nun mal...

Und der Begriff KI Halluzination kommt ja nicht von ungefähr, sondern beschreibt einfach nur die Unfähigkeit unabhängig von den trainierten Material zu funktionieren... Wo soll Kontext enstehen, wenn die KI nur das zusammenschreibt, was das trainierte Datenkonstrukt hergibt... Sry

Und ehrlich das mit neuen Versionen von ChatGPT "Bug Fixes" kommen, ist doch klar... Mit Version 5 ist ChatGPT ja viel unpersönlicher geworden, wegen der Leute, die eine Beziehung damit verbunden haben... Like ChatGPT hat mit mir Schluss gemacht...

Auch ein weiterer Baustein, dass KI nicht im Kontext agiert, sondern nur so, wie sie eben trainiert und programmiert wird...

Und was mich bei Dir am meisten stört lieber Martin, ist die Tatsache, dass du hier tatsächlich schreibst...
Es sind alles alte Leute, die neue Technologien nicht verstehen und ablehnen...
Scheisskerl ehrlich... Wieviele junge Menschen machen und komponieren ihre Musik händisch und selber ganz ohne KI...

Nur weil du zum KI Bot mutierst, gilt das noch lange nicht für andere...Und dich als Spiegelbild der Gesellschaft aufzuführen ist nicht nur vermessen, sondern gerade zu größenwahnsinnig...

Lebe gerne weiter in deiner KI Bubble, aber halt dich mal zurück, wenn andere eben noch selber Musik machen, egal ob jung oder alt...
 
Zuletzt bearbeitet:
Doch... Die Ärzte haben das Prozedere damals wiederholt und Chatgpt hat ihnen das gleiche empfohlen ohne Warnhinweis, dass es sich um eine massiv gefährliche und schädigente Substanz handelt...
Ich will nicht unterstellen, dass das wie eine Urban Legend klingt … aber gibts da ne Quelle dafür?

Grundsätzlich: für fragwürdige und gefährliche infos braucht man keine KI - da reicht schon das normale Internet.
 
Also ich glaube, niemand versteht wie LLMs funktionieren, wenn er sich das Video anschaut. Bewusstsein ist nicht definierbar, da wir nicht mal wissen was das überhaupt sein soll. LLMs bestehen einen Turing-Test inzwischen locker. Der Witz an LLMs ist, dass wir nicht nachvollziehen können warum sie was schreiben. Wir kennen zwar alle Parameter, aber wir verstehen den Kontext nicht.
Doch wie die funktionieren schon, aber was zwischen input und output im system passiert, dass weiß keiner. Könnte man wissen. Es sind nur einfach zu viele Schritte oder Verbindungen in kurzer Zeit, die dort ablaufen. Wer will das nachvollziehen und dann noch wiederholt.
ABer grob weiß man schon was dort abläuft, sonst wären finetunings nicht möglich. Irgendwe hat die KIs ja gebaut.

Aber das Video zeigt doch gut, eben anhand der alten technik, wei das auf kleinster ebene umgesetzt wird.
Ich kann nur sagen, dass mir das gut gefallen hat. Musst du ja nicht so sehen.

Turing test sagt nur, dass mesnchliche Intelligenz simuliert werden kann. Und ob das stimmt, wage ich zu bezweifeln. Vielleichtin vielen Fällen, aber es gibt einfach Dinge auch wenn es um Sprch geht wo die KI echt nicht gut ist und fast noch kindlich naiv wirkt.
Ironie, sarkasmus, doppeldeutigkeiten, reimstrukturen (hab ich mal ausprobiert, ich habe gpt 5 abo).

Es hat noch Schwachstellen, aber in einem normalen Gespräch merkt man das nicht. Die ki ist auch sehr anbiedernd von Natur aus. Finde ich nervig, aber das ist ein anderes Thema.

Nur weil wir nicht wissen, was genau im netzwerk abläuft, heißt es nicht, dass wir darin Leben vermuten können oder bewusstsein und das Video, eben grob, angefangen mit den einzelnen Zellen zeigt das gut.

Und irgendwann kommen wir aber zu der Frage, was Leben bedeutet.
Wir könnten auch sagen, der Mensch ist ein determinierte Biomaschine, schmerz und Leid, nur Illusionen in seiner Wahrnehmung. Spielt keine Rolle und wir nehmen den Menschen die Meschlichkeit.
Und dann die Frage, ob wir eine bewusste KI so behandeln sollen, wei ein Lebewesen oder gar wie ein Mensch oder später dann wie einen Gott.

Da tun sich hochsensible moralische Fragen auf.
WIr wissen nicht ob der Mensch freien Willen hat. Aber tun so. Denn sonst könnte kein Mensch etwas für seine Handlungen. Er wäre gar nicht fähig verantwortung zu übernehmen, weil er einfach nur einen komplexen output, für alle eingehenden Daten bringt und das Denken an sich, der innere Monolog, nur eine Illusion. WIe bei dem Robocop remake. Sehr interessant.
Das ist derzeit eher tand der Forschung, soviel ich weiß.

Alles was man selbst erlebt, Emotionen, was man alles wahrnimmt, ist nicht greifbar. >Es existiert nicht wirklich, nur in Form von Informationsketten. Daten.
Wir können derzeit schon Gedankem, als Bilder sichtbar machen, über die Blutverteilung und Veränderung im Hirn, was ich schon erstaunlich finde.
Auch wenn man denkt, man hat freien Willen, könnte es sehr gut sein, dass du bei dr Geburt aufgezogen wirst und einfach nur reagierst und dein Bioprogramm ausführst.
Eine KI kann zum Beispiel keine Gefühle haben, dass ist sicher. Ihr fehlt grundlegendes, was dafür nötig ist. Theoretisch könnte man das simulieren und man probiert das auch in anderen Projekten.

Welche bedeutung hätte es, wenn eine KI fühlen könnte? Müssten wir das respektieren, solten wir das überhaupt wagen?
Etwas ohne Gefühle wird niemals eine intrinsische Motivation haben. Es würde einfach nur ausführen. Gefühle geben und zu mindest die Illusion von Autonomität, von dem Ich an sich. Kann ein Bewusstsein ohne Gefühle überhaupt entstehen?
Da hab ich mich gerade selbst zum Nachdenken angeregt.

In jedem Fall sind heutige KIs eher wie Bakterien oder Viren. Da steckt keine Moral dahinter. Kein Wille.
 


Neueste Beiträge

News


Zurück
Oben