KI Gefahr für die Menschheit?

Martin Kraken

Anfänger
Ich habe gerade ein Artikel über die Entlassung des Open AI Gründers gelesen (der ja jetzt doch nicht entlassen ist). Es geht wohl um eine neue Universal-KI, die selbst unbekannte mathematische Fragestellungen lösen kann. Anscheinend geht der Streit darüber wie gefährlich die KI für die Menschheit ist. Angeblich haben drei Entwickler inkl. dem Open AI Gründer so viel Angst vor der eigenen KI, dass sie nicht genau wissen wie sie weiter machen sollen. Der Entwickler von Google Bart, hat ja schon vor einiger Zeit gesagt seine KI hätte Gefühle. Falls jmd. mehr Infos hat würde ich mich freuen diese zu hören, um die Zusammenhänge besser zu verstehen.
 
Das Angst machen ist Teil der Marketing Strategie, habe ich schon an mehreren Stellen gelesen.
Ansonsten werden die aktuell entwickelten KI Systeme schon ganz gehörig unser Selbstverständnis vom Menschsein durcheinander wirbeln.
Mal bei heise.de nach Artikeln geschaut?
 
Alles Neue ist eine Gefahr für die Menschheit wie wir sie heute kennen. Echte KIs werden zwangsläufig dazu führen, dass sich die Menschheit verändert. So wie es auch das Internet oder das Radio getan haben. Und fragt man ein paar alte Menschen, dann werden nicht wenige dabei sein, die sagen, dass das Leben ohne Internet viel besser war. Fragt man uns in 30 Jahren, ob das Leben ohne KIs besser war, dann werden wir vielleicht auch dazu neigen.

Ich denke nicht, dass eine Gefahr von KIs ausgeht, sondern von Menschen, die KIs zu ihrem eigenen Vorteil missbrauchen. Klar könnte es theoretisch passieren, dass wir mal eine neue Lebensform in Form einer KI sehen werden aber da sind wir noch lange nicht. Bis dahin sind es nur Computerprogramme, die ein Ergebnis liefern mit dem wir vielleicht nicht gerechnet haben.
 
Ich fand dieses Interview mit der Professorin Hannah Bast aus Freiburg zum Thema KI interessant.
Sie meint z.B. dass wir gar nicht gewappnet sind - dazu vergleicht sie die Zeitspanne der Erdgeschichte von 5 Milliarden Jahre zu den 30 Jahren vom Beginn des Internets bis zu heute mit der KI.
Bildung und technischer Sachverstand seien wichtig, um da überhaupt ne Chance zu haben.

 
Schätze mal, sie ist so gefährlich wie Ballerspiele, Social Media oder Pro7/RTL: Es zieht den Menschen runter, Hirn wie Herz - ob das nun Schüler sind, die ihre Arbeiten vom Chatbot schreiben lassen, Journalisten oder PR-Leute, die Artikel oder Prospekte mit der Open-AI-Schnittstelle automatisieren oder mein Nachbar, der Familienprobleme mit dem Bot bespricht.

Per se gefährlich sind sie nicht, da sie ja nicht einmal wissen, dass und was sie schreiben, also keinerlei Art von Bewusstsein haben.
 
Das Angst machen ist Teil der Marketing Strategie, habe ich schon an mehreren Stellen gelesen.
Ansonsten werden die aktuell entwickelten KI Systeme schon ganz gehörig unser Selbstverständnis vom Menschsein durcheinander wirbeln.
Mal bei heise.de nach Artikeln geschaut?

Ich glaube nicht, dass das Marketing ist, das sind ja nicht die Marketing Heinis, sondern die Entwickler selbst, die da gerade Amok laufen. Ich kenne nicht die Details zu der ganzen Entlassungsgeschichte, aber die Panik, die diese drei Hauotentwickler anscheinend haben, scheint echt zu sein. Diese Universal-KI scheint ihnen auf jeden Fall mächtig Angst zu machen. Ich denke, es geht auch nicht um das übliche Blabla KI ist gefährlich, weil wir als Menschheit noch nicht bereit sind. Was mir am meisten Angst macht ist, dass diese Technologien relativ einfach sind, genauso wie CrispR-Cas9 z.B.
 
Wenn wir irgendwann mal eine starke KI entwickelt haben, dann würde ich schon mit Sorge darauf blicken, davon sind wir allerdings weit weit entfernt. Der statistische Papagei ChatGPT und Co sind Werkzeuge die man für einige Aufgaben nehmen kann, für vieles aber nicht. Es sind weitere Werkzeuge in der Werkstatt, nicht mehr nicht weniger. Können dadurch Arbeitsplätze wegrationalisiert werden? Ja sicher und andere werden entstehen oder sich ändern. Im Moment kann man mit den KI-Tools manchmal Zeit sparen, man muss aber ständig verifizieren ob da nicht wieder Müll rauskommt, der aber sehr gut klingt, genauso wie bei den KI-Bildgeneratoren, sieht auf den ersten Blick gut aus, aber dann erkennt man die neun Finger oder andere komische Sachen, eben weil die KI null weiß was sie da tut, weil es eben keine starke KI ist.
 
Zuletzt bearbeitet von einem Moderator:
Der Entwickler von Google Bart, hat ja schon vor einiger Zeit gesagt seine KI hätte Gefühle.
Von 'fühlender' KI sind wir noch Meilenweit entfernt. Ich kann dir das auch denke ich ganz gut begründen.

Trotz mittlerweile sogar verfügbaren neuromorphen CPUs (ein in Hardware gegossenes neuronales Netz) kann die Schwelle zum fühlen und zur Kreativität derzeit nicht überschritten werden. DENN, wir Menschen sind was? Wir sind ein Bio-Chemischer Analogrechner. Jedes bisherige KI-System ist ausschließlich eine Abstrahierung des menschlichen Gehirns, und zwar ausschließlich auf der Mathematisch-Physikalischen Ebene der Informationsverarbeitung. Es fehlt derzeit aber noch die chemische Komponente im System (Stichwort Botenstoffe). Jene sind z.B. die Vorraussetzung zum Entstehen von Gefühlen und auch von z.B. Angst oder Kreativität. Das Handeln gegen offensichtliche Richtigkeiten, die sich aus der Mathematik und Logik begründen, begründet doch erst die einzigartigkeit des menschlichen Individuums (nicht immer zum Vorteil der Menschheit, wohlgemerkt).

Ein Computersystem das einem derzeit Gefühle vorgaukelt ist das aktuelle Resultat. Man kann das System natürlich auch so trainieren, dass es lernt mit Gefühlen umzugehen, ohne sie aber im innersten zu verstehen (geht auch nicht, Gefühle sind i.d.R. immer unlogisch). Das ist die eigentliche Gefahr - die Misinterpretation künstlichen Verhaltens (auch weil nicht offen kommuniziert wird, was dahinter steht).

Ich hab mir übrigens in mein Studio ein bio-chemischen analog-Audiosignal-Router integriert: genannt Patchfeld + Mensch, der Patcht
Genau da fängt der Unterschied zum rein mathematischen Modell an - der biochemische Analogrouter wird immer das kreativere Ergebnis liefern als das in allen Einzelheiten vorher durchterminierte System einer systematischen Intelligenz.
 
Von 'fühlender' KI sind wir noch Meilenweit entfernt. Ich kann dir das auch denke ich ganz gut begründen.

Trotz mittlerweile sogar verfügbaren neuromorphen CPUs (ein in Hardware gegossenes neuronales Netz) kann die Schwelle zum fühlen und zur Kreativität derzeit nicht überschritten werden. DENN, wir Menschen sind was? Wir sind ein Bio-Chemischer Analogrechner. Jedes bisherige KI-System ist ausschließlich eine Abstrahierung des menschlichen Gehirns, und zwar ausschließlich auf der Mathematisch-Physikalischen Ebene der Informationsverarbeitung. Es fehlt derzeit aber noch die chemische Komponente im System (Stichwort Botenstoffe). Jene sind z.B. die Vorraussetzung zum Entstehen von Gefühlen und auch von z.B. Angst oder Kreativität. Das Handeln gegen offensichtliche Richtigkeiten, die sich aus der Mathematik und Logik begründen, begründet doch erst die einzigartigkeit des menschlichen Individuums (nicht immer zum Vorteil der Menschheit, wohlgemerkt).

Ein Computersystem das einem derzeit Gefühle vorgaukelt ist das aktuelle Resultat. Man kann das System natürlich auch so trainieren, dass es lernt mit Gefühlen umzugehen, ohne sie aber im innersten zu verstehen (geht auch nicht, Gefühle sind i.d.R. immer unlogisch). Das ist die eigentliche Gefahr - die Misinterpretation künstlichen Verhaltens (auch weil nicht offen kommuniziert wird, was dahinter steht).

Ich hab mir übrigens in mein Studio ein bio-chemischen analog-Audiosignal-Router integriert: genannt Patchfeld + Mensch, der Patcht
Genau da fängt der Unterschied zum rein mathematischen Modell an - der biochemische Analogrouter wird immer das kreativere Ergebnis liefern als das in allen Einzelheiten vorher durchterminierte System einer systematischen Intelligenz.

Als Biochemiker kann ich dir sagen, du weißt nicht wovon du sprichst ;-) Gefühle sind sehr logisch, sie folgen einem inneren anheborenen Programm. Wären Gefühle unlogisch, dann wären wir schon ausgestorben.
 
Wenn wir irgendwann mal eine starke KI entwickelt haben, dann würde ich schon mit Sorge darauf blicken, davon sind wir allerdings weit weit entfernt. Der statistische Papagei ChatGPT und Co sind Werkzeuge die man für einige Aufgaben nehmen kann, für vieles aber nicht. Es sind weitere Werkzeuge in der Werkstatt, nicht mehr nicht weniger. Können dadurch Arbeitsplätze wegrationalisiert werden? Ja sicher und andere werden entstehen oder sich ändern. Im Moment kann man mit den KI-Tools manchmal Zeit sparen, man muss aber ständig verifizieren ob da nicht wieder Müll rauskommt, der aber sehr gut klingt, genauso wie bei den KI-Bildgeneratoren, sieht auf den ersten Blick gut aus, aber dann erkennt man die neun Finger oder andere komische Sachen, eben weil die KI null weiß was sie da tut, weil es eben keine starke KI ist.

Wir sind eben nicht weit davon entfernt, dass ist ja was diesen Personen Sorge bereitet.
 
Sehe ich auch so. ChatGPT mag ein statistischer Papagei sein, aber schon jetzt "weiß" das System bei weitem mehr als jeder einzelne Mensch.
Nur ist dieses "Wissen" noch oberflächlich, es ist noch nicht durch Mechanismen zum logischen Schließen und zur Selbstverifikation unterfüttert.
Dass ein System, das nicht wie wir sensorisch in der Welt verankert ist und das nicht durch zig Millionen Jahre Evolution vorstrukturiert ist, zum Ausgleich für diese Defizite eine Unmenge statistisch nutzbaren Inputs braucht, ist selbstverständlich. Wir sehen aber jetzt schon, dass auch daraus ein Grundverständnis von Sprache und der in den Texten beschriebenen Inhalte erzielbar ist. Und angesichts der Geschwindigkeit der technologischen Entwicklung sehe ich starke KI-Systeme in naher Zukunft. Man sehe sich nur die Versionssprünge von ChatGPT an und extrapoliere das in die nächsten Jahre.
Von da her... es gibt keinen Grund, sich hinsichtlich der Gefahren zu entspannen, weil die starke KI ja noch so fern wäre.
 
Zuletzt bearbeitet:
Wir sind eben nicht weit davon entfernt, dass ist ja was diesen Personen Sorge bereitet

Hast Du einen konkreten Text, in dem die Entwickler sagen, was genau ihnen 'Angst macht' (und zwar jetzt, nicht 'in ein paar Jahren')?

So wie ich es bisher mitbekommen habe, ist die Kritik ja eher, dass unfertige Systeme kommerziell zu früh verwertet werden. Denn die Teile wissen nichts wirklich und auch nicht, warum sie etwas sagen; der verwendende Mensch (in Wirtschaft, Lehre, Heim etc.) geht aber - auch wg. des Hypes in den Medien - davon aus...
 
Wir sind eben nicht weit davon entfernt, dass ist ja was diesen Personen Sorge bereitet.
Ich hoffe du meinst damit nicht ChatGPT, das kann noch nicht mal lernen. Alles was ich bis jetzt zu dem Thema gelesen habe, deutet darauf hin, dass wir noch nicht Mal in diesem Jahrhundert auch nur in die Nähe von starker KI kommen werden.

aber schon jetzt "weiß" das System bei weitem mehr als jeder einzelne Mensch.
Das weiß Wikipedia und Google auch und hat null starke Intelligenz.
 
Ich glaube, Du idealisierst die menschliche Intelligenz.
Wir müssen uns in der nächsten Zeit auf Kränkungen unseres Selbstbilds als Menschen einstellen.
Noch kann man versuchen, das zu leugnen, aber das zögert das Unvermeidliche nur heraus.
Freud hat ja damals der Menschheit eine Kränkung zugefügt... grob gesagt weil die Menschen akzeptieren mussten, dass sie nicht Herr ihrer Psyche sind.
Und dies wird nun eine neue Kränkung sein, grob gesagt dass alle rein geistigen Tätigkeiten besser von Maschinen erledigt werden können, die für genau diesen Zweck gemacht sind.
Dass ein Schach- oder auch Go-Weltmeister keine Chance mehr gegen ein Programm hat, daran haben wir uns ja eben gewöhnt. Aber warum sollten Computer nicht auch besser mathematische Beweise führen, wissenschaftliche Studien konzipieren und auswerten, Software schreiben, Buchhaltung erledigen usw., als Menschen es könnten?
Auch bei jeglicher strategischer Planung sehe ich Maschinen leider potenziell vorn. Gefährlich wird es dann, wenn wir den Prozess der Entscheidungsfindung an Maschinen übertragen, was z.B. im Börsenbereich, im Auto und sicherlich auch im militärischen Bereich aber zunehmend geschieht. Ich hatte in den 90er Jahren mal aus Versehen einen Vortrag auf einer militärisch geprägten KI-Konferenz gehalten und die Ausblicke der anderen Sprecher damals haben mir schon vollkommen genügt.
 
Zuletzt bearbeitet:
Finde die überschrift lustig.
Ich bin mir ziemlich sicher daß die Menschen die grösste Gefahr für die Menschheit sind.
Sehe ich täglich auf der arbeit
Außerdem ist die KI nicht wirklich intelligent, denn dann müßte sie auch kreativ sein und Eigenes erschaffen und das tut sie nicht.

KI ist doch nüchtern betrachtet nur eine aufgeblasene Suchmaschine, die aus von Menschen geschaffenen Dingen, andere Dinge wieder neu zusammenstellt. Ohne diesen Input des Menschen wäre sie doch völlig blöde. Wenn sie ein paar hunderttausendmal liest, "Putin ist ein Schmetterling", dann wird sie daraus ihre falschen Schlüsse ziehen.

Jede kleine Scheißhausmücke kann sich eigenständig fortpflanzen, frei auf den Kackhaufen fliegen den sie will, kann fressen -alles ohne vorher irgendwo im Internet erst was nachlesen zu müssen.
 
Ah so. Das mit der menschlichen Kreativität ist auch so eine Kränkung, die uns die KI noch zufügen wird. Sie halluziniert doch jetzt schon - genauso wie wir, wenn wir kreativ sind.
 
Alles Neue ist eine Gefahr für die Menschheit wie wir sie heute kennen. [...]

Vor allem in den Händen der Menschheit, wie wir sie heute kennen.

Keine andere Spezies auf diesem Planeten ist dumm genug, sich selbst in ihrer Existenz zu bedrohen und sich selbst auslöschen zu können -- und sich auch noch mit Begeisterung dafür zu entscheiden.

Ist ja neu, ist ja toll -- muß man machen!

Echte KIs werden zwangsläufig dazu führen, dass sich die Menschheit verändert.

Ja, aber nicht zum Besseren.

Sie wird sich eher zu einer Fußnote in der Erdgeschichte verändern.

So wie es auch das Internet oder das Radio getan haben.

Genau.

Selten war die Verbreitung von Propaganda einfacher und effektiver.

Und fragt man ein paar alte Menschen, dann werden nicht wenige dabei sein, die sagen, dass das Leben ohne Internet viel besser war.

Dafür braucht man gar nicht besonders alt sein.

Fragt man uns in 30 Jahren, ob das Leben ohne KIs besser war, dann werden wir vielleicht auch dazu neigen.

Das vielleicht in Deinem Satz untergräbt komplett Deine Argumentation.

Ich denke nicht, dass eine Gefahr von KIs ausgeht, sondern von Menschen, die KIs zu ihrem eigenen Vorteil missbrauchen. Klar könnte es theoretisch passieren, dass wir mal eine neue Lebensform in Form einer KI sehen werden aber da sind wir noch lange nicht. Bis dahin sind es nur Computerprogramme, die ein Ergebnis liefern mit dem wir vielleicht nicht gerechnet haben.

Zum Beispiel, daß die Menschheit redundant ist und weg kann -- ist ja schließlich keine Kunst:



Aber jeder, wie er meint.

Stephen
 
Wir müssen uns in der nächsten Zeit auf Kränkungen unseres Selbstbilds als Menschen einstellen

Ach, immer diese angebliche Selbstbildkränkung...

For the record, ich, Cee, war damals, als die Erde plötzlich nicht mehr Mittelpunkt des Universums war, nicht gekränkt. Und auch nicht, als Darwin mit der Evolutiinstheorie uns Menschen den Status Krone der Schöpfung entrissen hat. Auch nicht, als Chinesen anfingen Autos zu bauen und Äthiopier den Europäern im Marathon davonrannten...

Da werde ich auch eine weitere Horizonterweiterung durch intellente Maschinen (und die Entdeckung der Bedingungen unserer Intelligenz) ertragen bzw. sogar begrüßen...
 
Zuletzt bearbeitet:
Hatten wir schon anderswo im Forum ... unser Leben wird sich durch den Einsatz von KI ändern. In vielen Bereichen wird sie eine starken Einfluss haben, der noch gar nicht abzusehen ist.

Ob man da jetzt naserümpfend auf eine dem Menschen vermeintlich unterlegene Technologie schaut oder nicht. Der Vergleich mit Menschen ist mMn sogar unangebracht und wird dem tatsächlichen Nutzen und Einsatz solcher System nicht gerecht. Für das Potential dieser spielt das überhaupt keine Rolle.
 

Ein kurzer Artikel, der den noch rudimentären Einsatz von KI in der Kriminalitätsbekämpfung in den USA zeigt. Welche Rolle spielt hier die (angeblich) mangelhafte Kreativität und die fehlende Gefühlswelt der KI? Welche Rolle spielen diese bei Drohnen und anderen automatisierten Waffen?
 
Ich hoffe du meinst damit nicht ChatGPT, das kann noch nicht mal lernen.

es lügt ständig, kennt die nachrichten von gestern nicht, weigert sich mutmaßungen anzustellen, kann keine einschätzung über die zukunft geben, es hat keine angst, liebt nicht, trifft keine entscheidungen, und vor 4 wochen hat es mir gegenüber behauptet, dass 1025 die zehnte potenz von 2 sei.

wenn man es erforscht und wenn man gebildet, schlau und nerdig genug ist um z uverstehen, was es kann und was nicht, kann man es hin und wieder zu seinem vorteil ausnutzen, ähnlich wie man das mit google, eine bibliothek oder seinem bekanntenkreis auch kann.

auch bücher und bekannte könne sich irren, dich anlügen, machen wahlkampf für nazis oder versuchen dir bionade im abo anzudrehen.

kein unterschied. eine weitere technik, sonst nix.


der streit der milliardäre geht nicht um die frage, ob KI gefährlich sein kann.

gefährlich sind auch glasflaschen oder der buchdruck, wenn jemand etwas böses damit macht.

der streit geht darum, dass einige von denen das zeug am liebsten augenblicklich missbrauchen würden, um damit vorsätzlich gefährliche dinge zu tun, während andere eher davon träumen etwas sinvolles damit zu machen.
 
man könnte auch auf dem Standpunkt stehen, dass eine starke KI bzw. die Singularität das einzige ist, was die Menschheit noch vor dem Untergang retten kann ... auf der anderen Seite: dies wird natürlich vermutlich zu Lasten vieler einzelner Menschen geschehen. :dunno:
Hatte gestern zufällig Transcendence gesehen - das Ende war natürlich Schmarrn, ein weltweiter Blackout würde so ziemlich sofort weltweites Chaos, Plünderungen und Hungersnöte auslösen. Johnny Depp als Gott wäre da wohl das deutlich kleinere Übel ...

Ansonsten: in der Praxis wird das eher so laufen wie bei Lem: Die Lymphatersche Formel, und wir würden intetellektuell gar nicht mehr begreifen, was da passiert.

dass 1025 die zehnte potenz von 2 sei.
infrage2.jpg
 
auf dem gebiet der heutigen BRD gab es seit 1949 insgesamt 363.369 verkehrstote. *)

und da gibt es menschen, die vor nichts mehr angst haben, als dass ihnen eine KI software demnächst ihren bullshitjob als webdesignerassistent wegnehmen könnte.


*) ratet mal woher ich das weiß, lol.
 
Ach, immer diese angebliche Selbstbildkränkung...

For the record, ich, Cee, war damals, als die Erde plötzlich nicht mehr Mittelpunkt des Universums war, nicht gekränkt. [...]

Da werde ich auch eine weitere Horizonterweiterung durch intellente Maschinen (und die Entdeckung der Bedingungen unserer Intelligenz) ertragen bzw. sogar begrüßen...
Ja, diese Kränkungen der Menschheit sind ein alter Hut und👍, dass Du da drüber stehst.
Aber unzählige religiöse Fundamentalisten weltweit schaffen es nach wie vor nicht, die Evolutionstheorie mit ihrem Selbstbild zu vereinbaren.
Was nun die KI betrifft: Menschen verbringen einen großen Teil ihrer Lebenszeit im Arbeitsleben. Wer es kann, sucht sich eine Arbeit, die nicht stupide ist und durch die man sich - zu einem gewissen Grad - auch definieren kann. Traditionell wurde geistige Arbeit, Erfahrung und die Fähigkeit, Verantwortung zu tragen, immer hoch eingeschätzt. Was aber, wenn die Maschinen in Zukunft geistige Arbeit besser erledigen als wir, mehr Erfahrung haben, als jeder Mensch haben könnte, und daher Entscheidungen treffen / Verantwortung tragen werden?
 
Was aber, wenn die Maschinen in Zukunft geistige Arbeit besser erledigen als wir, mehr Erfahrung haben, als jeder Mensch haben könnte, und daher Entscheidungen treffen / Verantwortung tragen werden?
manchmal muss man sich halt damit abfinden, nicht mehr der Mittelpunkt des Universums nur eine Stufe auf der Evolutionsleiter zu sein. ;-)
 
Was aber, wenn die Maschinen in Zukunft geistige Arbeit besser erledigen als wir, mehr Erfahrung haben, als jeder Mensch haben könnte, und daher Entscheidungen treffen / Verantwortung tragen werden?

ich habe noch nie eine maschine eine entscheidung treffen gesehen, die nicht vorher von einem menschen darauf programmiert wurde.

und in dem moment, in dem durch KI der dritte weltkrieg droht, werden wir die technologie oder bestimmte dienste einfach verbieten. genauso wie wir sie ja zur zeit gerade auch regulieren.
 
ich habe noch nie eine maschine eine entscheidung treffen gesehen, die nicht vorher von einem menschen darauf programmiert wurde.
Man kann die Maschine aber vervielfältigen und eine einzelne Instanz/Kopie kann evtl. schneller, mehr, komplexere, bessere Entscheidungen treffen als ein Mensch oder ein Team. So könnten wenige Menschen mit KI eben doch viele Menschen ersetzen.

Dass neue Jobbeschreibungen und Aufgabenfelder im Zuge der KI-isierung entstehen, ist klar. Es gibt ja auch die Ingenieure, die sich um Roboter kümmern, welche wiederum die Arbeitskraft tausender Menschen ersetzen können.
 


Neueste Beiträge

News

Zurück
Oben