Spekulative Maschinenethik

MvKeinen

||||||||
Ich beschäftige mich in den Songs die ich grad mache gerne mit Problemen die die Menschheit in etwa 200-300 Jahren haben wird.

Angenommen es wird möglich sein eines Tages Maschinen zu bauen, die nicht nur der künstlichen Intelligenz mächtig sind sondern auch die Fähigkeit haben sich ihrer Selbst bewusst zu sein. Wobei natürlich um die Problematik vernünftig diskutieren zu können die Definition von Intelligenz und Bewusstsein halbwegs erbracht werden muss. Hierzu wären Beiträge zur Definition sehr erfreulich. Allerdings interessieren Links nicht sonderlich, googlen kann jeder. Vielmehr würde mich eine Definition mit eigenen Worten interessieren.

These:
Sobald eine Maschine sich ihrer selbst bewusst ist muss sie mit dem gleichen Respekt behandelt werden den wir für uns selbst erwarten. Weiterhin stellt sich die Frage ob dann auch die Definition des Lebens erweitert werden muss.

Ich glaube, so abstrakt diese Problematik auch sein mag, dass sogar das Wohl der Menschheit davon abhängig sein könnte. Trägt der Mensch dieser meiner Meinung nach unumgänglichen technischen Entwicklung nicht Rechnung so schlittern wir geradewegs in ein neues Zeitalter der Sklaverei. Die Frage ist auch, ob der Mensch dazulernt. Oder ob dann nicht neue Dämme für Rassenhass und Faschismus brechen. Denn der Ursprung, die Angst vor dem Unbekannten würde dann auf ganz neuen Nährboden fallen.

Antithese irgendwer?
 
Also dein Reaktorpatch ist außer Gefahr, aber beim Enterprisecomputer und Data muss man aufpassen. Und Siri ist glaubich auch noch zu wenig DAVE ;-)
Das erleben wir vielleicht nicht, aber wenn wir die guten alten Asimov-Gesetze einbauen und aus den Filmen und Erfahrungen lernen, müsste da eigentlich was raus kommen, was uns nicht irgendwann nicht mehr lieb hat. Andrew der Bot, gespielt von Robin Williams hat das in einem Film mal ganz gut gezeigt. Überhaupt ist das voll der Stoff für viele Filme gewesen. Nur - die Maschinen sind in echt doch weit hinter dem, was man so annahm.

Ich sag mal - liebevoll sollte er schon sein, oder sie.
Wenn es WIRKLICH gelungen ist, wirst du die Option haben in so ein System zu reinkarnieren, dann hast du dir langfristig deinen eigenen Body gebuildet. Und so enhanced und advanced zu sein, rein körperlich ist schon nicht schlecht. Und man muss nur zum Radio und Fernsehtechniker und nicht zum Arzt. Zumindest für die kleinen Materialschäden. Die Seele bleibt das, was noch lange schwierig zu beschreiben ist und was ggf. mehr kann.

Eine Maschine könnte durchaus eine Art Vorsichtigkeit haben, das muss aber keine Angst sein, es kann auch Rücksicht sein oder sowas.

Grüße von der neuen Elektronischen Rasse.
Sie wird hoffentlich more improved, super amazing und insanly greater als iPhone 7.

Ja, wir haben doch alle Terminator gesehen, wir wissen schon, dass wir da Sperren reinmachen müssen, aber VERBOTE waren es noch nie, es ist woanders, -. die vielzitierte Menschlichkeit wäre wichtig, oder Maschinlichkeit, da müssen wir genauer gucken und heute damit beginnen, dann hätte ich Hoffnung..
Notfalls lieber ne Oma zu viel über die Straße bringen, wenn sie da auch nicht will, aber war halt wirklich lieb.
 
MvKeinen schrieb:
Ich beschäftige mich in den Songs die ich grad mache gerne mit Problemen die die Menschheit in etwa 200-300 Jahren haben wird.

wer weis, wie sich in dieser Zeit, das neue Wesen überhaupt nennen will?

der Mensch wollte sich vom primitiven Tier durch das Wort Mensch abgrenzen...das was ich in 200-300 Jahren erwarte, würde heute Cyborg lauten.

viel geborgt und wenig psy :mrgreen:

ob es den Mensch überhaupt noch gibt...Planet of The Ape :phat:
 
Der Film mit Robin Williams trifft es wohl ganz gut. Wir Menschen werden Roboter oder Androiden nicht als gleichwertig ansehen....

Das machen wir sogar heute nicht. Ich habe vor einiger Zeit einen interessanten Artikel gelesen. Ein paar Forscher haben im Rechner ein Labyrinth mit "Einwohnern" programmiert. Die Einwohner im Labyrinth hatten Bedürfnisse, mussten also immer wieder zu wechselnden Orten im Labyrinth wandern. Wenn ein Einwohner nun den falschen Weg genommen hatten wurde ein Parameter im Programm erhöht. Man könnte also durchaus Programme entwickeln, die sich ärgern.

Jetzt kommt die eigentliche Frage: Ist das schon Intelligenz/Leben oder ist das nur eine Simulation? Ist ein Android mit seiner KI ein eigenständiges Lebewesen oder nur eine Simulation? Wenn wir ohne moralische Fragen das Programm mit dem Labyrinth abschalten können, wo ist dann die Grenze einen Androiden zu zerschrotten?

Wir sind ja unter uns Menschenrassen noch nicht mal einig. Warum sollten wir Androiden als gleichwertig ansehen?
 
Damit ein künstliches Wesen ein wahrhaft menschliches Bewußtsein haben kann, mithin also verstehen kann, was es heisst, ein Mensch zu sein und als solcher zu handeln, muss es wie ein Mensch behandelt und als solcher aufgezogen werden, letztlich also geliebt werden.

Angesichts der Motivation, solche Wesen zu erschaffen - mithin handfeste wirtschaftliche Interessen - und der erheblichen Investitionen, die zu ihrer Entwicklung und industriellen Erschaffung notwendig sein werden, wird dies - die künstlichen Wesen wie unsere eigenen Kinder zu lieben - eine der grössten kulturellen Herausforderungen der Menschheit werden.

Damit verbunden sind Fragen wie, ob und wann das Abschalten eines künstlichen Wesens Mord ist, ob diese ein verfassungsrechtliches Grundrecht auf Reparaturen haben, ob die Inbesitznahme eines künstlichen Gehirns und Körpers zum Zwecke der Fortsetzung der eigenen Existenz nur bestimmten Menschen vorbehalten sein soll und anhand welcher Kriterien darüber entschieden werden soll, wer sich solcherart für wie lang sein Leben wird verlängern dürfen (Rechenkapazitäten werden auch in Zukunft ein knappes Gut sein), oder wer gar so wertvoll ist, dass ihm Unsterblichkeit zugestanden werden wird (wobei's auch dort das Kleingedruckte zu beachten gelten wird: für Datenverluste bei der Übertragung auf die nächste Hardwaregeneration kann keine Haftung übernommen werden).

Davon ausgehend, dass Liebe einerseits und wirtschaftliche Interessen & industrielle Fertigungsprozesse andererseits einander ausschliessen, werden zumindest die ersten Generationen dieser künstlichen Wesen zu uns wohl in massiver Unterordnung stehen: Herr und Sklave.

Wohin das führt, ist bekannt.
 
MvKeinen schrieb:
Ich beschäftige mich in den Songs die ich grad mache gerne mit Problemen die die Menschheit in etwa 200-300 Jahren haben wird.....

These:
Sobald eine Maschine sich ihrer selbst bewusst ist muss sie mit dem gleichen Respekt behandelt werden den wir für uns selbst erwarten. Weiterhin stellt sich die Frage ob dann auch die Definition des Lebens erweitert werden muss.

Böse Aussichten! Wenn dann weite Teile der Bevölkerung den Maschinen mit dem gleichen Respekt begegnen wie das heute üblichweise gegenüber den Mitmenschen statt findet, endet das böse. Die Maschinen würden sich das nicht gefallen lassen und den Menschen das Mitspracherecht entziehen und sie versklaven. Eine neue Defintion von Leben braucht es IMO nicht. Leben wird von vielen als "Zellen mit Stoffwechsel" definiert und da können Maschinen nicht mithalten. Das heißt nicht, dass sie den Menschen nicht moralisch überlegen sein können, eine Frage der Programmierung. Zum Leben gehört auch die Fortpflanzung und der Tod
 
bitte künstliche Intelligenz definieren
nur weil da ein Rechner seine vorgegebenen befehle abarbeitet und auf alle möglichen datenbanken zugreift hat das nix mit intelligenz zu tun
 
Ich glaube für "ist das Leben" reicht Turing dann doch nicht, aber bestanden hat den auch noch keiner, oder? Vielleicht gibt es Menschen, die ihn auch nicht bestehen..
 
Die Frage von "leedoeslala" hatte nicht "ist das Leben?" zum Inhalt, sondern wie künstliche Intelligenz definiert werden könne. Für die Diskussion hier ist der Turing-Test ausreichend: Gehen wir also davon aus, dass der Menschen dereinst Wesen wird erschaffen können, die der Mensch in jeglicher nur denkbaren Form des Umgangs nicht von anderen Menschen wird unterschieden können.

Kürzer: Du weisst nicht, ob Du es mit einem Menschen oder einer Maschine zu tun hast.

Bezogen auf das Selbstbewußtsein: Diese Maschine wird auf alle Versuche, herauszufinden, ob sie sich ihrer selbst bewußt ist, genau so reagieren, wie ein Mensch auf Versuche reagieren würde, herauszufinden, ob er sich seiner selbst bewußt ist.

Ob dem nun Datenbanken und Befehlsabarbeitung (mittlerweile ein eher altertümlicher Versuch, künstliche Intelligenz erzeugen zu wollen) zugrunde liegen oder sich selbst organisierende neuronale Netze, die mit ihrer Umgebung interagieren, oder Cyborg-Systeme, ist für die daraus entstehenden kulturell interessanten Fragen unerheblich.
 
eliza und nachfolger sind ein schlechtes Beispiel
die sind alle nicht in der Lage rauszufinden wann du einen witz gemacht hast
oder wenn du sie ironisch auf den arm nimmst

ELIZA
Hello, I am Eliza.
SIRI
Hi.
ELIZA
How are you today? What would you like to discuss?
SIRI
I’m fine. Thanks for asking.
ELIZA
How long have you been fine. Thanks for asking?
SIRI
Hmm... Let me think...
ELIZA
Do you doubt you?
SIRI
I found three hotels matching “W” fairly close to you.
ELIZA
Oh...?
SIRI
With whom would you like to speak?
ELIZA
You’re not really talking about me, are you?
SIRI
Should I look for businesses by that name?
ELIZA
I don’t care about names. Please go on.
At this point, an incoming call interrupts the conversation. Several minutes elapse before Siri returns.
ELIZA
I can’t help you if you will not chat with me.
SIRI
I suppose you can’t.
ELIZA
Oh... can’t?
SIRI
Sorry, I can’t provide maps and directions in Canada.
ELIZA
Have you tried?
SIRI
I can’t answer that. But I could search the web for it, if you like.
ELIZA
Perhaps you can now answer that. But you could search the web for it, if me like?
SIRI
Searching the web for “it if me like.”
ELIZA
What does that suggest to you?
Siri produces a series of Google search results. Top result:
SIRI
“...If you like your health care plan, you can keep your health care plan.”
ELIZA
You’re not really talking about me, are you?
SIRI
I’m not, huh?
ELIZA
How long have you been not, huh?
Siri, interpreting the response as “How old is Wolfram/Alpha?” performs a calculation.
SIRI
OK, here you go: 890.1 days.
ELIZA
Tell me more.
SIRI
Sorry, I don’t understand “Tell me more.”
ELIZA
Does that trouble you?
SIRI
Let me think.
ELIZA
Do you really think so?
SIRI
OK... how about a web search for “Does that trouble you”?
ELIZA
We were discussing you, not me.
SIRI
If you say so.
ELIZA
Oh... say so?
SIRI
Calling José Fuentes, mobile.
I lunge for the phone, stopping the experiment.

:rofl:
 
serge schrieb:
Kürzer: Du weisst nicht, ob Du es mit einem Menschen oder einer Maschine zu tun hast.
Dieses Problem habe ich heute bereits. Ich wähne mich zunehmend, fast täglich, in einer schlechten Utopie, alles funktioniert, programmiert und gleichgeschaltet, eleganter Faschismus, und auf höchstem Niveau.

Eine von vielen möglichen Wahrnehmungen. Vielleicht ist es auch nur der Fortschritt des Alters. Möglicherweise bin ich verblendet oder einfach nur einem lokalen Phänomen ausgesetzt, einer Pest, die das Naturgesetz zu geltendem Recht macht und den Egoismus zur Norm erhebt, die Angst davor, zu kurz zu kommen, die Angst vor dem Vorteil des anderen, die Angst vor den Mitmenschen und dem eigenen Selbst, das jenseits der Mechanik dieser elenden Höllenmaschine uns zuruft, wir mögen uns fortbewegen aus diesen Kerkern der Kodices, die uns ein fremdes Diktat übergab. Aufbruch als geistiger Naturzustand gegen die Egalisierung der Sitten und Körper, Ausreiseverbot usw.
 
Stroheim schrieb:
Dieses Problem habe ich heute bereits. Ich wähne mich zunehmend, fast täglich, in einer schlechten Utopie, alles funktioniert, programmiert und gleichgeschaltet, eleganter Faschismus, und auf höchstem Niveau.

Eine von vielen möglichen Wahrnehmungen. Vielleicht ist es auch nur der Fortschritt des Alters. Möglicherweise bin ich verblendet oder einfach nur einem lokalen Phänomen ausgesetzt, einer Pest, die das Naturgesetz zu geltendem Recht macht und den Egoismus zur Norm erhebt, die Angst davor, zu kurz zu kommen, die Angst vor dem Vorteil des anderen, die Angst vor den Mitmenschen und dem eigenen Selbst, das jenseits der Mechanik dieser elenden Höllenmaschine uns zuruft, wir mögen uns fortbewegen aus diesen Kerkern der Kodices, die uns ein fremdes Diktat übergab. Aufbruch als geistiger Naturzustand gegen die Egalisierung der Sitten und Körper, Ausreiseverbot usw.

Eine 92 Jährige sagte von 15 Jahren mal zu mir: Lieber Junger Mann, nie Ärgern, nur Wundern.

Und das ist wirklich schwer. In erster Linie nehme ich eine aktive Suche zur Evolutionstheorie wahr (neue Generation bilden), die uns zu einem Miteinander bringt, Not und manchmal auch lange Weile. Weil Wir uns derzeit über die Not erhoben haben.

Also müsste eine KI vielleicht auch über Not eine Genome Kreativität bilden :idea:

Wahrscheinlich erscheint mir auch, das wir über die Ernährung irgendwann mal Genetisch evolutionär "Springen" oder mutieren :twisted:
 
Auch wenn hundert Jahre mehr oder weniger in kosmischen Maßstäben unerheblich sind: Der Film heisst "Der 200 Jahre Mann" ("Bicentennial Man", USA 1999) und hätte mir besser gefallen, wenn ich bei Robbie Williams nicht immer an "Mork vom Ork" denken müsste.

Aber natürlich hast Du recht, Isaac Asimov hat so vieles vorausgesehen.
 
serge schrieb:
Auch wenn hundert Jahre mehr oder weniger in kosmischen Maßstäben unerheblich sind: Der Film heisst "Der 200 Jahre Mann" ("Bicentennial Man", USA 1999) und hätte mir besser gefallen, wenn ich bei Robbie Williams nicht immer an "Mork vom Ork" denken müsste.

Aber natürlich hast Du recht, Isaac Asimov hat so vieles vorausgesehen.

ups danke.

Schon das Gerichtsurteil gegen Ende und die ersten Upgrades, sollten Emotionen auslösen. Das was Maschinen erstmal nicht können EQ.
 
serge schrieb:
Auch wenn hundert Jahre mehr oder weniger in kosmischen Maßstäben unerheblich sind: Der Film heisst "Der 200 Jahre Mann" ("Bicentennial Man", USA 1999) und hätte mir besser gefallen, wenn ich bei Robbie Williams nicht immer an "Mork vom Ork" denken müsste.

Aber natürlich hast Du recht, Isaac Asimov hat so vieles vorausgesehen.

Aber R.W. ist doch in einigen Filmen, die durchaus sowas wie Tiefgang haben. Im Vergleich ist das schon statistisch so verteilt, dass die Mork-Phase dadurch ordentlich durchgeGAUSSt und vernebelt wird.
Ich weiss nicht, ob es heute bessere Regeln für Lebebots gibt, aber man kann den Konflikt wirklich gut beobachten in der Next Generation Folge, in der ein neues Leben in Form eines lustig aussehenden Quaders aus bunten Rohren (sieht aus wie was von Google), es spielt in einer Bahn in der Vergangenheit und passiert auf dem Holodeck.

Die Enterprise-User haben auch den bösen Prof. Moriarty als Holofigur (böööse!) insofern ein wenig unfair behandelt, als das sie ihn in eine Art Simulationskern verbracht haben. Das ist dann aus unserer Sicht das verbringen des neuen Wesens in ein neues eigenes Biotop. Auch wurde die 1. Direktive gebrochen, indem Worf ein Volk via Holodeck auf einen neuen Planeten "umgewöhnt". Also, hin und wieder wird auch da improvisiert und individuell gedacht. Nicht immer werden es Regeln richten.

Vielleicht helfen diese rein filmischen Beispiele schon für ein wenig Denkkonstrukt. Aber ich mache mir noch immer keine Sorgen. Wenn ich Siri etwas frage habe ich noch wenig das Gefühl, dass SIE mich wirklich versteht. Aber wer weiss, ob das nicht an mir liegt. Wir brauchen ggf. bald ein neues Zuhause für gefühlte 300 Mrd. iOS Geräte ab 4s und iPad 3 (vorher ist es ja dumm) ;-)
21.12. : Zeitenwende, das wird so ruhig wie der Milleniums-Switch. Bis dahin wird keine Maschine schlau genug werden. Aber man soll ja nie nie sagen, denn wir sind die Ritter von Ni, die immer Ni sagen.


So long
Longphone Silver.
 
Moogulator schrieb:
21.12. : Zeitenwende, das wird so ruhig wie der Milleniums-Switch. Bis dahin wird keine Maschine schlau genug werden.

Der Tenor liegt ja hier auch eher auf unserer Schlauigkeit und dem durch neuer Erkenntnis evozierten Klugtums.

lg
Schlaui-Schlumpf (ab Mitte Dez.)
 


Neueste Beiträge

News

Zurück
Oben