Für Fans von Science Fiction sind Isaacs Asimovs vier Robotergesetze nichts Neues. Im Zeitalter von Digitalisierung und Künstlicher Intelligenz nutzen sie allerdings wenig. Neue Ansätze sind gefragt.
Im Zeitalter der Digitalisierung und der Weiterentwicklung von Künstlicher Intelligenz sind neue Regeln für den Umgang mit Technologien wie Robotern gefragt. Ethische Fragen geben hier die Richtung vor.
Die vier Robotergesetze von Isaacs Asimov
Isaac Asimov ist wohl einer der bekanntesten und einflussreichsten Science-Fiction-Autoren aller Zeiten. Bereits 1942 beschrieb er die folgenden drei Gesetze der Robotik in einer Kurzgeschichte:
- Ein Roboter darf keinem menschlichen Wesen Schaden zufügen oder durch Untätigkeit zulassen, dass ein menschliches Wesen Schaden erleidet.
- Ein Roboter muss den Befehlen gehorchen, die ihm von Menschen erteilt werden, es sei denn, dies würde gegen das erste Gebot verstoßen.
- Ein Roboter muss seine eigene Existenz schützen, solange solch ein Schutz nicht gegen das erste oder zweite Gebot verstößt.
1983 erweiterte und modifizierte er die Aufzählung um ein 0-tes, also über den anderen drei stehendes, Gesetz:
- Ein Roboter darf der Menschheit keinen Schaden zufügen oder durch Untätigkeit zulassen, dass der Menschheit Schaden zuteilwird.
Die ursprünglichen drei Gesetze wurden entsprechend angepasst, d.h. sie gelten nur insofern, als dass damit nicht gegen das 0-te Gesetzt verstoßen wird. Mit anderen Worten: Der Wert eines einzelnen Menschen (oder einer Gruppe von Menschen) wird dem Wert der Menschheit als Ganzes untergeordnet. Was dabei herauskommen kann, ist spätestens seit Arnold Schwarzeneggers Terminator bestens bekannt.
Fakt aber ist, dass die Robotergesetze zwar so heißen, jedoch keine Gesetze, geschweige denn Naturgesetze sind. Sie sind und bleiben reine Science Fiction.
Von Science Fiction zu Künstlicher Intelligenz
Künstliche Intelligenz ist allerdings keine Science Fiction. Sie ist reale Wissenschaft, die sich auf Basis des technischen Fortschritts rapide weiterentwickelt. Zum Forschungsfeld Künstliche Intelligenz zählen auch Roboter. Diese entwickeln sich allerdings (noch) nicht von selbst, sondern werden von Menschen geschaffen.
Damit erhält die Frage der Sicherheit des Einsatzes von Robotik eine praktische Dimension, man denke z.B. an die Frage, wie autonome Fahrzeuge zu programmieren sind und im Falle einer Gefahrensituation reagieren sollen. Lesenswert zu dem Thema ist übrigens das Buch „Würden SIE den dicken Mann töten?“ von David Edmonds.
Googles fünf Sicherheitsanforderungen an Roboter
Die Forscher von Google haben fünf Sicherheitsanforderungen an das Programmieren von Robotern aufgestellt:
- Vermeidung negativer Nebeneffekte: Roboter sollen Dinge nicht verschlimmern.
- Vermeidung von Belohnungseffekten: Roboter sollen nicht schummeln.
- Skalierbaren Überblick: Roboter sollen menschliches Verhalten als Vorbild nehmen.
- Gewährleistung von Sicherheit: Roboter sollen Aktionen nur dann ausführen, wenn dies auch für die Umgebung sicher ist.
- Kennen von Grenzen: Roboter sollten ihre Grenzen kennen und beachten.
Microsofts sechs Prinzipien für den Umgang mit Künstlicher Intelligenz
Microsoft hat für den Einsatz Künstlicher Intelligenz sechs Prinzipien aufgestellt:
Künstliche Intelligenz muss
- der Menschheit dienen;
- transparent sein;
- Effizienz steigern ohne die Würde des Menschen zu verletzen;
- Vertraulichkeit und Datensicherheit gewährleisten;
- durch Algorithmen nachvollziehbar gesteuert werden können;
- darf nicht zu Verzerrungen und Ungerechtigkeiten führen.
Infografik: Alte und neue Gesetze für Roboter
Die folgende Infografik von Futurism stellt die alten und neuen Grundsätze für den Einsatz von Robotern und Künstlicher Intelligenz anschaulich dar: