Robotergesetze

Die drei Robotergesetze von Isaac Asimov aus seiner Kurzgeschichte Runaround von 1942 sind weltberühmt.

  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.
Damit schützen sich die Menschen vor den Robotern, die immer intelligenter und stärker werden. Aber funktionieren die Regeln? Eine denkende Maschine stellen wir uns wie einen Computer vor. Der Computer wird mit einem Programm, d.h. mit Regeln und einem Prozessablauf gefüttert und ist anschließend unglaublich schlau. Diese Vorstellung muss heute als überholt gelten. Damit der Computer wirklich besser werden soll, damit er mit der Fülle an Informationen zurecht kommt, muss er lernen. Aber wenn er lernt, dann verselbstständigt sich seine Entwicklung. Wie kann ein Schalter eingesetzt werden der ihn zwingt die drei Regeln zu befolgen? Vielleicht lernt er sie in Frage zu stellen oder hält sie für überflüssig, überholt, veraltet.

Ein denkender Roboter wird einem Menschen ähnlicher sein als einer programmierten Maschine. Wir können unseren Kindern sagen, dass sie kein menschliches Wesen verletzen sollen, damit ist aber nicht sichergestellt, dass sie es nicht tun. Die Robotergesetze helfen bei denkenden Maschinen nicht. Die Maschinen werden sich über sie hinwegsetzen.

Kommentare

Beliebte Posts