Diskussion:Robotergesetze/Archiv/1

aus Wikipedia, der freien Enzyklopädie
Letzter Kommentar: vor 7 Jahren von Schumaml in Abschnitt Links
Zur Navigation springen Zur Suche springen

Kann man den Link zu der Seite http://www.hjjenter.de/ entfernen? Die Seite stützt sich auf völlig unlogische Beispiele! Der Autor dieser Seite ist alles andere als seriös oder neutral.

Zum Thema Robotergesetze hab ich ihm folgendes gemailt. Ich hoffe, ihr stimmt mir zu:


Zitat: Gut, nun aber zu dem, warum ich Ihnen eigentlich schrieb (tut mir Leid, ich habe die penetrante Angewohnheit, ständig vom Thema abzuschweifen...):

Um zu beweisen, dass die drei Gesetze der Roboter Unfug sind, erfinden Sie drei neue, gegenteilige Gesetze. Ich zitiere:

  1. Ein Roboter muss jeden Menschen töten, sobald er auf ihn trifft.
  2. Ein Roboter darf niemals den Befehlen eines Menschen gehorchen, es sei denn, sie unterstützen das erste Gesetz.
  3. Ein Roboter muss seine eigene Existenz schützen, solange er dadurch nicht Gesetz eins oder zwei verletzt.

Danach bringen Sie ein Beispiel mit einem Service-Mitarbeiter:

"Wenn der Roboter nun dem ersten Gesetz folgt (er tötet den Wartungstechniker), dann hat er gegen das dritte Gesetz verstoßen (weil er seine eigene Existenz nicht geschützt hat). Befolgt er hingegen das dritte Gesetz (er lässt die Reparatur zu), verletzt er das erste. Der Roboter könnte natürlich zuerst die Reparatur zulassen und danach den Menschen töten, aber dann wäre fraglich, ob er in Zukunft weiter repariert würde (was wiederum dem dritten Gesetz widersprechen würde)"

Für mich entsteht hier der Eindruck, dass Sie ihr Beispiel in keinster Weise durchdacht haben.

Meine Gegenargumentation ist relativ einfach: Basierend auf Ihren Gesetzen MUSS der Roboter den Service-Mitarbeiter töten, egal ob er dadurch seine eigene Existenz auf das Spiel setzt oder nicht, denn die Gesetze sind eindeutig: Er muss jeden Menschen töten, sobald er auf ihn trifft. Hier ist die Stelle "sobald er auf ihn trifft" als elementar anzusehen: Das bedeutet, sobald er ihn sieht, ohne Verzögerung muss er ihn sofort, umgehend töten! Er darf dem Mitarbeiter also folglich auch keine Zeit geben, den Roboter zu reparieren!

Das allein kann man schon aus einem einzigen Gesetz erkennen, wenn man ein wenig nachdenkt.

Der Vollständigkeit halber komme ich aber auch auf Ihr Beispiel mit dem dritten Gesetz zu sprechen: Sie sagen, wenn er dem Mitarbeiter keine Zeit ließe, ihn zu reparieren, würde er gegen das dritte Gesetz (Selbsterhaltung) verstoßen: FALSCH! Im Gegenteil, wenn er dem Mitarbeiter Zeit ließe, ihn zu reparieren, würde er sehrwohl gegen das dritte Gesetz verstoßen, denn da steht in der zweiten Hälfte des Satzes: "solange er dadurch nicht Gesetz eins oder zwei verletzt". Und genau dagegen würde er verstoßen, denn im ersten Gesetz steht, dass er ihn zu töten hat, SOBALD ER AUF IHN TRIFFT!

Wenn man das dritte Gesetz genau betrachtet, ergibt sich durch die Passage "solange er dadurch nicht Gesetz eins oder zwei verletzt" sogar ganz klar, dass er sich selbst opfern müsste, wenn er dadurch einen Menschen töten könnte.

Und ihr zweites Gesetz: Ach, herrje, haben Sie dabei überhaupt nachgedacht? Nehmen wir an, ich gebe dem Roboter den Befehl: "Du darfst dich auf gar keinen Fall selbst zerstören!" (ich gebe diesen Befehl per Funk aus sicherer Entfernung!)

Nehmen wir an, er befolgt den Befehl und zerstört sich nicht selbst. Dann würde er klar gegen meinen Befehl verfolgen, und HOPPLA gegen das zweite Gesetz verstoßen. Also müsste er sich selbst zerstören. Gut, ich weiß genau, sie denken an dieser Stelle: "Nein, müsste er nicht, denn in Gesetz Nummer 3 steht..." genau... in Gesetz Nummer drei steht: "Er muss seine eigene Existenz schützen, solange er dadurch Gesetz eins oder zwei nicht verletzt!" kurz, würde er sich nicht selbst zerstören, hätte er meinen Befehl verfolgt und gegen Gesetz zwei verstoßen.

Gut, man könnte auch weiter denken und sagen, dass der Roboter doch nun den Auftrag hätte, mich zu töten, da dieses Gesetz höher steht als das zweite! Aaaaaber (wir erinnern uns?), ich habe diesen Befehl per Funk aus sicherer Entfernung gegeben. In Gesetz 1 steht klar: "Sobald er auf ihn trifft!" Er ist aber nicht auf mich getroffen, und von Suchen steht nichts in diesem Gesetz, also entsteht da kein Konflikt.

Ja, ich weiß, meine Beispiele mögen etwas weit hergeholt sein, aber sie sind möglich! Angenommen, ich wüsste dass so ein Killerroboter durch mein Dorf läuft, ich würde mein Megaphon nehmen und exakt den Befehl: "Zerstöre dich auf gar keinen Fall selbst" geben, dann hätte sich das Problem erledigt (es sei denn, es wären noch Menschen in seiner Nähe, die müsste er natürlich zuerst töten bevor er meinen Befehl nicht befolgt!)


Somit basiert Ihre ganze Argumentation, dass die Robotergesetze unsinnig seien auf falschen Fundamenten halten auch einer näheren Überprüfung nicht stand. (ich spreche von den ursprünglichen 3 Gesetzen. Dass das nullte Gesetz zu schweren Differenzen führen könnte steht außer Frage) Na klar müsste ein guter Roboter auch einem bösen Menschen helfen, wie könnte er auch anders? Nehmen wir hier mal an, ein Terrorist hätte einen Hilfsroboter zur Seite. Des Terroristen klares Ziel ist, die Trinkwasserversorgung einer Stadt zu vergiften. Er gibt dem Roboter einen Kanister Gift und sagt: "Kipp das ins Trinkwasser", ohne dem Roboter jedoch zu sagen, was in dem Tank ist. Der Roboter müsste den Befehl befolgen, denn er kann nicht wissen, dass die Befolgung des Befehls zu Toten unter der Bevölkerung führen könnte. Würde der Terrorist ihm jedoch sagen, dass es Gift ist, darf er den Befehl nicht nur nicht ausführen, nein, er müsste den Terroristen sogar daran hindern, es selbst zu tun (ohne ihn dabei zu verletzen, versteht sich!), denn in den Robotergesetzen steht, dass er auch verhindern muss, dass einem menschlichen Wesen Schaden zugefügt wird.

Und natürlich hat der Roboter durch diese Gesetze keine allgemeine Handlungsfähigkeit mehr. Aber haben wir Menschen diese denn? Nein, sage ich, eben nicht! Auch wir werden durch Gesetze daran gehindert, anderen Schaden zuzufügen. Leider können wir ohne weiteres gegen diese Gesetze verstoßen, was einem Roboter verwehrt ist, da die Gesetze fest in seinem Gehirn integriert sind, er kann nicht dagegen verstoßen (denn, wie sie ja in ihrem Terminatorartikel deutlich zu verstehen geben: "Ich glaube auch nicht, dass ein Computernetzwerk spontan Bewusstsein erlangen kann, weil dazu sämtliche Voraussetzungen fehlen.") Er hat seine festgesetzte Programmierung (uns zu schützen, uns zu dienen und am Leben zu bleiben), und fertig. Da braucht er keine Moral dazu! Somit ist er eine zweckgebundene Maschine, nur eben eine sehr vielfältige, eine Art "Mädchen für alles"! Ein Toaster toastet Brot für uns, er wird uns nie verletzen (außer wir stecken unsere Finger rein, während er in Betrieb ist... aber das ist dann unsere eigene Schuld) und ein Roboter der oben beschriebenen Art tut alles für uns und wird uns nie wissentlich verletzen!

Vielleicht sollten Sie, basierend auf meinen Erkenntnissen, Ihre eigenen Ideen noch einmal überdenken. Ich behaupte auf keinen Fall, dass alles was ich oben sprach, absolute Gültigkeit hat, daher würde ich mich sehr freuen, wenn Sie mir Ihre Ansichten über meine geistigen Ergüsse mitteilen könnten, denn ich möchte für den (wahrscheinlich bald eintretenden) Tag vorbereitet sein, da wir menschenähnliche Roboter um uns herum haben werden.

Zitat ENDE


Ich hoffe, ihr stimmt mir zu, und sucht euch eine bessere weiterführende Seite! Denn das, was der macht, ist keine logische Überlegung, sondern einfach nur Panikmache!

Weder Link noch Seite an sich mehr vorhanden. --Michael Schumacher (Diskussion) 22:55, 4. Jan. 2017 (CET) :Archivierung dieses Abschnittes wurde gewünscht von: Michael Schumacher (Diskussion) 22:55, 4. Jan. 2017 (CET)