KI Gefahr für die Menschheit?

Die KI kann niemals eine größere Gefahr für die Menschen sein, als der Mensch selbst.
Brüder führen gegen Brüder Krieg, weil es wenige Eliten so wollen, was sollte dann noch schlimmer sein?
 
Die KI kann niemals eine größere Gefahr für die Menschen sein, als der Mensch selbst.
Brüder führen gegen Brüder Krieg, weil es wenige Eliten so wollen, was sollte dann noch schlimmer sein?
Wenn jetzt noch einer 'rausfindet, daß KI, Waffen, Umweltgifte, teilweise auch das Wetter und Behringersynthies von Menschen erschaffem werden,
wächst die Angst sogar.
 
schwer zu sagen..Mann sollte nur das große ganze und die Hintergründe verstehen..dann versteht man auch besser die Themen zu warum die kleinen und mittelständigen pö a pö aussortiert werden..Klimaziele, Zentralbankgeld, Digitalisierung und warum so viel positive Werbung für KI gemacht wird auch für Produkte die vielen Vorteile verschaffen aber nichts mit KI zu tun haben und eher zum schönframen dient.


Nüchtern betrachtet kann sich jeder Fragen was es für die Freiheit jedes Einzelnen bedeuten könnte..sei es die einfache Arbeitsbiene oder auch eben an Unternehmer und Großinvestoren oder wessen dann ganze Nationen sich unterzuordnen haben wo man sich dann nicht mehr über das was alles in der Medienlandschaft passiert wundern muss. Die Frames sind für mich klar und deutlich.

und nein ich möchte damit nicht eine Gruppe hervorheben oder schlechter machen...man sollte nur wissen, woher der Wind weht, was angedacht ist,,vielleicht kann sich dann auch der eine oder andere besser auf die Zukunft einstellen. Global wird und wurde schon immer vieles geregelt

Hier eher ein kritischer Text und eher ein anti Beitrag..verständlich auch aus einer Lobby die für sich mehr Nachteile sieht als für diejenigen die es für sich gestalten wollen dessen micro regulierungen keine Grenzen kennen könnten.

 
Zuletzt bearbeitet:
wenn sie jetzt noch Robotern beibringen, einen Kugelschreiber zu halten ...
 
https://bernardzitzer.com/de/ ... der ist doch ein Roboter, oder? ;-)

1701693440546.png
 
Ich denke nicht, dass eine Gefahr von KIs ausgeht, sondern von Menschen, die KIs zu ihrem eigenen Vorteil missbrauchen. ...
Das ist eventuell aber gar nicht der springende Punkt. Um es mal zu verdeutlichen: vor Jahrtausenden konnte ein Mensch mit Hang zur Destruktivität jemandem mit seinem Stock totprügeln. Bei einer größeren Gruppe wurde das schon schwieriger, denn da brauchte er mindestens die gleiche Macht auf seiner Seite, damit er seine Ziele erreichen konnte. Jahrtausende später kann er per Knopfdruck automatisiert Tausende von Menschen umbringen. Die KI (wenn sie denn dann erstmal man da ist, und nicht nur spezielle Aufgaben übernimmt, das wird ja der konsequente nächste Schritt sein, multiple KIs zu vernetzen) wird das noch wesentlich effektiver können. Das Zerstörungspotential wird einfach immer größer. (Den Schritt mit dem Internet, Automatisierung und Anonymität dazwischen lasse ich mal bewusst außen vor.)
 
weil uns der Rest der Welt rechts überholt hat.

Ja, von Afrika bis Südamerika, Australien bis Vietnam, Malaysia bis Island, all die KI-Vorreiter...

BTW, kann jetzt nicht erkennen, dass die Staaten, die zB Kinderarbeit verboten oder technische Normen erlassen haben, den anderen hinterherhinken; im Gegenteil.

Kommt eh drauf an, welcher Art die Regeln sein sollen...

PS: BTW (ich schrieb das schon mal) - mit echter KI wird man Verträge schließen...
 
Es bringt nur nix, wenn wir die Regeln niemandem mehr aufzwingen können, weil uns der Rest der Welt rechts überholt hat. Das typische „Die Physiker“-Problem.
Wer ist denn "der Rest der Welt"? Meinst Du die USA? Das Fehlen von Regulierung wird dort zum Teil auch als Problem gesehen, weil dadurch keine Spielregeln herrschen. Einfach mal abwarten.
 
Das aktuell größte Problem beim Thema KI sehe ich bei den Menschen, die einfach hinnehmen und übernehmen, was die KI sagt. Und nicht mehr hinterfragen, ob das alles so stimmt oder ob da vielleicht Unsinn erzählt wird. So wie "steht im Internet, muss also stimmen" heißt es dann "sagt die KI, wird also stimmen".
 
Das ist bereits Realität. ;-)
Das bedeutet ja nicht, dass es nicht noch schlimmer werden kann, wenn man KI-generierte von echten Menschen nicht mehr unterscheiden kann und der Aufwand dafür immer kleiner wird. Denn das bedeutet NICHT NUR, dass die Influencer von heute auf morgen plötzlich "irgendetwas" anderes machen können. Natürlich wird das eine Frage des Kosten/Nutzen-Quotienten sein, aber die Kosten werde ja immer kleiner bei solchen technischen Spielereien.

Ich sehe schon die sozialen Auswirkungen: die Menschen wollen gar nicht mehr die Realität sehen, weil die Menschen darin alle so "normal hässlich" sind. ;-)

Gibt es schon KI-Hochzeitsagenturen?
 
So, jetzt wo alles KI genannt wird, was ein paar Statistiken zusammenrechnet muss man auch mal anmerken, dass manches nur dem Namen Nach "KI" ist, bisher Machine Learning, dann mal Big Data und davor AGI https://de.wikipedia.org/wiki/Artificial_General_Intelligence.

Und ansonsten ist das eine Art Minimodell eines Satzmodells, was einem ein bisschen helfen kann und mehr nicht.
Das wird und kann noch nicht genug sein für vieles - aber ich befürchte es ist eine Hilfe um Mist zu erstellen wie Spam oder sowas.
Genau so aber kann es auch hilfreich sein.

Es ist ein großer Schritt - aber ich bin gespannt ab wann diese Modelle auch erkennen, dass sie teilweise lügen und deshalb sollte man ihnen "nicht trauen" sondern sie als eine Art Einstieg verwenden oder sowas.
 
Es ist ein großer Schritt - aber ich bin gespannt ab wann diese Modelle auch erkennen, dass sie teilweise lügen und deshalb sollte man ihnen "nicht trauen" sondern sie als eine Art Einstieg verwenden oder sowas.
Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?

Ich meine, es gibt ja die Anfänge von sich selbst reparierender Software. Selbstreparierende KI ist doch eigentlich auch nicht so abwegig? Irgendwann MÜSSEN aus Kostengründen (das ist ja immer der Faktor Nummer 1) die Menschen an den entsprechenden Stelle wegrationalisiert werden. Und warum sollte die KI sich dann unbedingt in UNSEREM Sinne selbst verändern und reparieren? Falsche Parameter gab es doch schon öfter mal, in wesentlich einfacheren Aufgabenstellungen (Gesichterkennung und farbige Menschen etc.).
 
Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?

Ich meine, es gibt ja die Anfänge von sich selbst reparierender Software. Selbstreparierende KI ist doch eigentlich auch nicht so abwegig? Irgendwann MÜSSEN aus Kostengründen (das ist ja immer der Faktor Nummer 1) die Menschen an den entsprechenden Stelle wegrationalisiert werden. Und warum sollte die KI sich dann unbedingt in UNSEREM Sinne selbst verändern und reparieren? Falsche Parameter gab es doch schon öfter mal, in wesentlich einfacheren Aufgabenstellungen (Gesichterkennung und farbige Menschen etc.).
KI ist Business. Und im Geschäft, gerade mit echten Menschen, ist nicht immer alles erlaubt. Es gab mal vor Jahren von Microsoft einen Bot, den sie wieder recht schnell abschalten mussten: https://de.wikipedia.org/wiki/Tay_(Bot)

Musk hat ebenfalls sowas in der Art wie ChatGPT am Start, nennt sich "Grok". Gibt aber wohl auch Antworten, die Musk und Konservativen in den USA nicht gefallen. Ist also nicht ganz so einfach, solche Systeme zu kontrollieren, in jede Richtung.
 
Es könnte aber genauso gut sein, dass das mit dem Lügen erkennen der nächste Schritt ist, um Menschen ähnlicher zu werden. Oder anders gesagt: wenn die KI erkennen sollte, wie oft Menschen das tun, WARUM sollte eine echte KI es eigentlich NICHT tun? Nur weil ihr jemand als Direktive mitgegeben hat "Das darfst du nicht."? Gab es da nicht mal so ein Buch mit 10 Geboten? Gibt das eigentlich auch im Business? Und vielleicht ist für die KI ja auch ALLES Business, weil es Prozessorzyklen kostet?

Ich meine, es gibt ja die Anfänge von sich selbst reparierender Software. Selbstreparierende KI ist doch eigentlich auch nicht so abwegig? Irgendwann MÜSSEN aus Kostengründen (das ist ja immer der Faktor Nummer 1) die Menschen an den entsprechenden Stelle wegrationalisiert werden. Und warum sollte die KI sich dann unbedingt in UNSEREM Sinne selbst verändern und reparieren? Falsche Parameter gab es doch schon öfter mal, in wesentlich einfacheren Aufgabenstellungen (Gesichterkennung und farbige Menschen etc.).
Ich bin der Meinung, dass so eine KI niemals lügen sollte oder angeben sollte - das was ich jetzt sage ist zu X% denkbar - oder mit einem Fehlerquotienten, damit die die das zu absolut und "als Maschine" sehen nicht auf dumme Gedanken kommen - da könnte so ein Cookie-Consent Bullshit "rauskommen" - ist schon klar -

Aber - Gebote sind auch nicht die Lösung - das ist das Asimov Problem eine Etage drunter.
Da könnte man noch nicht so gut erkennen, dass das auch nur ein Zusammenwurf mehrerer Trainings sein - da steckt auch das Problem dahinter.
Ich bin pro "KI" aber - es ist klar, dass hier offenbar was ist, was unklar und per se eben eingebaut ist in den GPT Modellen oder Bard etc.

ich finde aber gut, dass diese Systeme eine geschriebene oder gesprochene Sprache "versteht" und das ist ein großer fetter Vorteil.
Das Lösen muss aber noch verbessert werden.

Man muss noch finden, wie das geht - und ja, ob das eine Katze oder eine Bombe ist - sowas muss vorher schon gehen und ob Susanne so aussieht wie Melanie - und sie sehen wirklich sich sehr ähnlich - da gibt es sicher andere Hintergründe.

Mustererkennung ist aber nicht KI - das ist nur eine kleinere Instanz davor.
Es ist aber ein netter erster Vergleich wo man ansetzt für das was jetzt KI genannt wird.
 
Sehr schön, das Internet als bedeutungsloser, mit Werbemüll zugepflasterter Raum für virtuelle Influencer ... und sagt mir bitte nicht, dass dieses Prinzip nicht die Werbebranche (und nicht nur die) durcheinanderwirbeln wird.



soll Leute geben die auch Gummipuppen realen Frauen vorziehen…
 


Zurück
Oben