KI Gefahr für die Menschheit?

Interessante Idee ...


Es würde mich mal interessieren, ob das nicht im Kleinen eine Personal KI auch hinbekäme, um rechtzeitig als "Streit im Anflug-Schlichter" zu fungieren.
 
das Gejammer über die KI ist doch völlig überzogen. Die Menschheit lässt ja schon seit Jahrtausenden einen Beta-Test laufen, in dem Sie
KI-Äquivalenten wie Anführern, Politikern oder Diktatoren Entscheidungen überlassen, obwohl man weis das es sich nur um dressierte Affen mit
Kommunikationszwang handelt.
und??? Läuft doch ausgezeichnet!
 
Man müsste sich zunächst auf eine grundlegende, universelle Definition von KI einigen. Das was zur Zeit als KI vermarktet wird ist ja nicht wirklich KI. Bis die Welt untergeht bleiben uns bestimmt noch ein paar Jahrzehnte. Die Gefahr eines Konflikts mit Nuklearwaffen und dritten Weltkriegs ist zur Zeit wesentlich bedrohlicher.
 
Zuletzt bearbeitet:
das Gejammer über die KI ist doch völlig überzogen. Die Menschheit lässt ja schon seit Jahrtausenden einen Beta-Test laufen, in dem Sie
KI-Äquivalenten wie Anführern, Politikern oder Diktatoren Entscheidungen überlassen, obwohl man weis das es sich nur um dressierte Affen mit
Kommunikationszwang handelt.
und??? Läuft doch ausgezeichnet!

Man weiß das? Wer weiß das? Sozialwissenschaftler würden dich eines besseren belehren, sagen, dass die heutigen Staatsformen und Politiker mehr mit den Rangkämpfen und Hackordnungen der urzeitlichen Sippen, der Sesshaftwerdung und der Landwirtschaft zu tun haben als mit KI.

Aber schön, dass du Gelegenheit gefunden hast, über Politiker und Staatslenker herzuziehen und den Gläubigen, den Kirchenflüchtlingen. Wenn Deutschland ein failed state ist (objektiv), reden wir noch mal drüber. Wir? Ach ne, bin ja nicht mehr da dann, längst an einem dysfunktionalen Apothekenwesen zu Grunde gegangen. Schönes Leben noch, mit dir z.B. möchte ich mich in meinem Restleben nicht mehr auseinandersetzen.

Aber zum Thema: Eine Gefahr für den Menschen ist die KI eher, da er noch mehr basale Fertigkeiten verliert. Was der KI gelehrt ist, verlernt der Mensch, wie er, der durchschnittliche Mensch, durch technischen Fortschritt auch weite Strecken nicht mehr laufen kann.

Der heutige Mensch ist allein nicht mehr überlebensfähig. Die Größe der Sippe, die der einzelne zum Überleben braucht, nimmt zu. KI wird dem weiter Vorschub leisten, und zwar exponentiell.
 
Keine Ahnung ob das hier schon erwähnt wurde aber ich glaube KI in der Politik kann in Zukunft hilfreich sein. Ich meine nicht das KI alleine politische Entscheidungen treffen soll, sondern eher im beratenden Bereich.
KI bringt 2 große Vorteile:
1. Kann sie mehr mögliche Konsequenzen aus bestimmte Entscheidungen erkennen und diesbezüglich klügere Vorschläge bringen.
Und 2. sind beratende Vorschläge/mögliche Konfliktlösungen unabhängiger und neutraler. Das reduziert die Einflußnahme gewisser Lobbyisten.
Ich meine gelesen zu haben das so etwas schon praktiziert/erprobt wird.

Selbstverständlich müssen wir Menschen immernoch entscheiden ob wir diese Lösungen wollen aber hier kann es bessere Kompromisse geben zwischen Wirtschaft, Klima, Soziales, etc.
 
Ich meine gelesen zu haben das so etwas schon praktiziert/erprobt wird.
Ist im Prinzip das Geschäftsmodell der Firma Palantir. Hat jetzt hochdotierte Verträge mit einigen Regierungen abgeschlossen. Ob das jetzt gut oder schlecht ist, da müsste man die Motivation der (zukünftigen wirklichen) KI kennen, denke es wird keine Entscheidungen geben, die für alle gleich (un-)gerecht sind.
 
1. Kann sie mehr mögliche Konsequenzen aus bestimmte Entscheidungen erkennen und diesbezüglich klügere Vorschläge bringen.
schon, aber diese Vorschläge müssen ja auch angenommen werden. Zyniker könnten jetzt behaupten, solange die KI nicht auch noch einen Geldkoffer parat hat, sind die Vorschläge der Lobbyisten im Durchschnitt attraktiver. ;-)

2. sind beratende Vorschläge/mögliche Konfliktlösungen unabhängiger und neutraler. Das reduziert die Einflußnahme gewisser Lobbyisten.
s.o.: natürlich nur, wenn die KI nicht mit den Lobbyisten konkurieren muss. Und es kommt natürlich darauf an, wer die KI trainiert/filtert ...
 
schon, aber diese Vorschläge müssen ja auch angenommen werden. Zyniker könnten jetzt behaupten, solange die KI nicht auch noch einen Geldkoffer parat hat, sind die Vorschläge der Lobbyisten im Durchschnitt attraktiver. ;-)


s.o.: natürlich nur, wenn die KI nicht mit den Lobbyisten konkurieren muss. Und es kommt natürlich darauf an, wer die KI trainiert/filtert ...
Das stimmt. Es ist schon schade, wir haben das Potential gute Entscheidungen zu finden aber da wir Menschen dumm und Geldgeil sind ist das alles unwichtig.
 
Keine Ahnung ob das hier schon erwähnt wurde aber ich glaube KI in der Politik kann in Zukunft hilfreich sein. Ich meine nicht das KI alleine politische Entscheidungen treffen soll, sondern eher im beratenden Bereich.
KI bringt 2 große Vorteile:
1. Kann sie mehr mögliche Konsequenzen aus bestimmte Entscheidungen erkennen und diesbezüglich klügere Vorschläge bringen.
Und 2. sind beratende Vorschläge/mögliche Konfliktlösungen unabhängiger und neutraler. Das reduziert die Einflußnahme gewisser Lobbyisten.
Ich meine gelesen zu haben das so etwas schon praktiziert/erprobt wird.

Selbstverständlich müssen wir Menschen immernoch entscheiden ob wir diese Lösungen wollen aber hier kann es bessere Kompromisse geben zwischen Wirtschaft, Klima, Soziales, etc.
Mit der aktuellen Chat-GPT 4.0 gibt es allerdings in Verständnis der Sprache und Sammeln der Daten noch Lücken.
Dh - wenn du das Max-Headroom-Disketten-Gericht fragst, wird es nur wenn sehr gute neutrale Erklärungen im Netz existieren und die eher bekannteren Websites dazu befragen.
Das was man hier machen könnte wäre einen neutralen Bürgerrat zu bitten die Daten und mehrere Optionen zur Abstimmung vorzubereiten.

Ich kann dir das genau beschreiben, wie ich das meine.

Ich habe für meine Musik den Begriff Britzelpop genutzt. Das kann jeder.
Ich habe dann die KI gefragt, was Britzelpop sei - damit lande ich quasi bei mir.
Danach schrieb ich einen Artikel für Gearnews. Das ist eine der Sites die die KI direkt als Referenz nutzt. Also wenn dort eine Liste von "besten Synths" steht, ist dies relevanter als wenn ihr hier das abstimmen würdet - dabei wäre die Abstimmungen eigentlich aus mehreren Menschen zusammengestellt.
Der Clou - ich habe diesen Artikel geschrieben und weitere Stile erwähnt. Nun sieht die Erklärung dazu anders aus.
Das ist nicht wirklich neutral - das ist eher ein Pressespiegel.
Es ist denkbar, dass Wikipedia auch so funktioniert.

Aber das kann eine Gefahr der Nichtneutralität sein.

KI kann für den ersten Blick helfen, solang es aber Large Language Models sind - ist das methodisch ein nicht neutrales Verfahren. Auch die ethischen Ideen werden vom Ersteller gesetzt.
Die Geldkoffer können also auch durch Artikel in Bild und Blompf indirekt vorhanden sein.
 
Das will ich damit quasi sagen - es ist so, dass man Begriffe belegen kann. Wenn man die Engineers und die Lobby-Maschinen so baut, dass das früh genug passiert und danach alle diese Begriffe nutzen, kann das in der Politik durchaus zu Problemen kommen und ggf. zu programmierten "Vorurteilen". Britzelpop ist ein positives Beispiel. Ginge es jetzt um ein politisches Thema, kann ein Begriff und ein paar Artikel in den ausgewählten Online-Zeitungen durchaus die Meinung der KI verändern.

2 Artikel in relevanten Zeitungen könnten schon reichen, die eine Tendenz vielleicht kippen lassen könnte?
Ich bin Pro KI, aber auch skeptisch, dass sie von ihr bevorzugte "Wahrheiten" neutral verwenden.
 
Wenn mir etwas Angst macht dann ist es SORA:

"OpenAI hat den Text-zu-Video-Generator "Sora" vorgestellt, der aus Textanweisungen realistisch aussehende Videos erzeugt. Sora ist Teil eines OpenAI-Forschungsprojekts, das darauf abzielt, künstliche Intelligenz zu befähigen, die physische Welt und ihre Bewegungen zu verstehen und nachzubilden. Das Modell erzeugt Videos von bis zu einer Minute Länge und soll dabei eine hohe visuelle Qualität sowie eine präzise Umsetzung der Benutzervorgaben gewährleisten."

Quelle: https://www.heise.de/news/Sora-Gene...l-realistische-Videos-erschaffen-9630109.html

Dazu gibt man dem Programm ausführliche Anweisungen, was es zu erschaffen hat, zb.

"Prompt: A stylish woman walks down a Tokyo street filled with warm glowing neon and animated city signage. She wears a black leather jacket, a long red dress, and black boots, and carries a black purse. She wears sunglasses and red lipstick. She walks confidently and casually. The street is damp and reflective, creating a mirror effect of the colorful lights. Many pedestrians walk about."

Das ergibt dann das hier, das erste Video in der Beispielsammlung auf YT:



Videosammlung mit den dazugehörigen Prompts:




Die Herstellerseite:


Damit sind der Manipulation endgültig Tür und Tor geöffnet. Auch wenn SORA jetzt noch Schwächen aufweist, die werden in kurzer Zeit ausgemerzt sein.
 
Zuletzt bearbeitet:
Hier was Aussermusikalisches, aber genau OnTopic :

- AI falsely accuses, fines artificial intelligence expert of using phone while driving - report

Hier wurde ein Autofahrer wegen Benutzung des Handys während der Fahrt bestraft, der sich nur am Kopf gekratzt hatte mit einem Stift.

Es wird da noch viel viel mehr kommen in Zukunft.
Wir alle sind darauf nicht vorbereitet, und ich bin mir sicher, dass dadurch die Welt erstmal nicht sicherer und besser wird.
Einfach weil derjenige, der hier die AI loslässt, in erster Linie damit Profit haben will, oder politische Absichten hat.

Wer sich mehr AI wünscht, einfach bitte mal nach Asien schauen, wie da der Alltag abläuft !
Und zwar nicht auf die Videos von Reisebloggern mit Hochglanz-Portfolio gucken, sondern die Videos von einfachen Leuten und aus dem Alltag.
 
Zuletzt bearbeitet:
Hier was Aussermusikalisches, aber genau OnTopic :

- AI falsely accuses, fines artificial intelligence expert of using phone while driving - report

Hier wurde ein Autofahrer wegen Benutzung des Handys während der Fahrt bestraft, der sich nur am Kopf gekratzt hatte mit einem Stift.

Solange zumindest noch jemand nachträglich draufgucken würde und die offensichtlichen Fehlalarme ausschließt, wäre das ja kein Problem.

Im Endeffekt ist es halt eine Abwegungssache; rette ich diverse Menschenleben, weil dadurch weniger Leute mit Handy am Steuer fahren oder lasse ich es bleiben, weil vielleicht jemand zu unrecht einen Strafzettel bekommt. Ersteres ist wohl wichtiger würde ich sagen.
 
"in dem der Bot zunächst erfolglos versucht, Emojis zu vermeiden. Danach setzt die KI konsequent Emojis am Absatzende und scheint sich zunehmend in die Situation "hineinzusteigern"."

Ist das Verhalten menschlich? Da könnte es ja durchaus parallelen zu verändertem Zeitgeist geben?
 
Das ist ein Artikel von Dezember '23, haste gesehen? Heise.de kam damit glaub ich schon November ums Eck und hier im Thread wurde das auch schon verlinkt, glaub ich.

Naja, wenn das einst so schön faktenbasierte Internet zunehmend aus Hinweisen auf Google, Wikipedia und – jetzt neu, ChatGPT – besteht, wundert mich das nicht. Als ne "KI" wär meine Hand längst mit der Stirn verwachsen.
 


Zurück
Oben