Maschinenethik: Sollen Roboter über Leben und Tod entscheiden?

An der Schnittstelle von Informatik und Philosophie

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Durch die Fortschritte der Künstlichen Intelligenz und Robotik werden Maschinen in Zukunft mehr und mehr Situationen gegenüberstehen, die moralische Entscheidungen erfordern. Doch dürfen die Maschinen auch über Leben und Tod von Menschen entscheiden?

Ethische Regeln und Grenzen für Künstliche Intelligenz und Roboter

Bedarf es ethischer Regeln und Grenzen für Künstliche Intelligenz und Roboter?

Partner des Bank Blogs

SAP Fioneer ist Partner des Bank Blogs

Die Maschinenethik ist eine neue Disziplin an der Schnittstelle von Informatik und Philosophie, der es um die Entwicklung einer Ethik für Maschinen im Gegensatz zur Entwicklung einer Ethik für Menschen im Umgang mit Maschinen geht. Man spricht in Analogie zu „Artificial Intelligence“ auch von „Artificial Morality.“ Die Grundidee ist, Computer so zu programmieren, dass sie moralische Entscheidungen treffen können.

Zentrale Anwendungsbereiche der Maschinenethik sind Pflegesysteme, Kriegsroboter und autonome Fahrzeuge. In allen drei Bereichen stehen autonome Systeme vor grundlegenden moralischen Entscheidungen, in denen es manchmal sogar um Leben und Tod von Menschen geht. Kann man Maschinen solche Entscheidungen überlassen? Darf man es oder sollte man es gar? Das sind die grundlegenden Fragen, mit denen sich die Maschinenethik auseinandersetzen muss.

Verantwortung

Maschinen sind keine vollumfänglichen moralischen Akteure wie Menschen. Dazu fehlen ihnen Fähigkeiten wie Denken und Bewusstsein, die Fähigkeit zur Selbstreflexion und Moralbegründung und in der Folge auch Willensfreiheit. Deshalb können sie keine Verantwortung für ihr Tun übernehmen.

Gleichwohl können sie die Verantwortungszuschreibung an Menschen unterminieren. Denn es besteht das Risiko, dass die Maschinen zu moralisch fragwürdigen Entscheidungen kommen, die niemand beabsichtigt oder vorhergesehen hat und über die niemand direkte Kontrolle besitzt.

Das könnte systematisch zu Verantwortungslücken führen, denn niemand wäre mehr für die moralisch desaströse Entscheidung eines künstlichen Systems verantwortlich. Diese Konsequenz ist insbesondere dann problematisch, wenn es um Entscheidungen über Leben und Tod von Menschen geht.

Handlungsspielräume

Es ist noch aus anderen Gründen fragwürdig, Maschinen die Entscheidung über Leben und Tod zu überlassen. Dadurch wird der menschliche Handlungsspielraum empfindlich eingeschränkt. Denn wir sind gezwungen, im Vorfeld verbindliche moralische Entscheidungen zu treffen, die wir bislang offengehalten haben. Möglicherweise werden dadurch Probleme eliminiert, ohne dass dies der Komplexität und existenziellen Bedeutung moralischer Situationen im Alltag gerecht wird.

Dies betrifft etwa die Dilemmasituationen beim autonomen Fahren. Wie soll ein autonomes Fahrzeug entscheiden, wenn es ausschließlich die beiden Handlungsalternativen hat, das Leben seiner Insassen aufs Spiel zu setzen oder dasjenige von auf der Straße spielenden Kindern. Der Zwang, eine Entscheidung ex ante zu treffen, erscheint in einem solchen Fall als moralisch höchst problematisch.

Ein Mensch hätte die Freiheit, sich in diesen Fällen situationsabhängig zu entscheiden. Doch das Verhalten eines autonomen Systems ist im Vorhinein festgelegt. Dadurch beschränken wir unseren Entscheidungsspielraum und die Möglichkeit, situativ von einer vorhergehenden moralischen Einschätzung abzuweichen, die uns in einer konkreten Situation nicht mehr angemessen erscheint.

Entscheidungen über Leben und Tod

Vom moralischen Standpunkt sehr kritisch zu sehen ist es, Maschinen über Leben und Tod von Menschen entscheiden zu lassen. Diese Kritik wird unterstützt durch die Tatsache, dass in den Anwendungsbereichen, in denen über den Einsatz autonomer Systeme nachgedacht wird, keine moralische Pflicht besteht, zu töten. Eine solche Pflicht gibt es nicht einmal im Krieg.

Die vorherrschende Sicht in der Theorie des gerechten Kriegs erachtet es bestenfalls als moralisch zulässig, andere Menschen im Krieg zu töten, aber nicht als moralisch verpflichtend. Aus diesem Grund sollte immer die Möglichkeit bestehen, etwa aus Mitleid von einer Tötungshandlung abzusehen. Der Einsatz autonomer Waffensysteme schließt diesen Entscheidungsspielraum unweigerlich aus.

Von Kriegsrobotern zum autonomen Fahren?

Eine wichtige Frage ist, ob die Einwände gegen Kriegsroboter sich auch auf andere Anwendungsbereiche übertragen lassen. So wird in der Debatte eine Analogie zwischen der Programmierung autonomer Fahrzeuge zum Zweck der Unfalloptimierung und der Zielbestimmung autonomer Waffensysteme hergestellt.

Lässt sich das Argument, dass es keine moralische Pflicht gibt, zu töten, auf das autonome Fahren übertragen? Dazu ist zu klären, ob eine moralische Pflicht besteht, unschuldige Menschen zu verletzen oder zu töten, sofern dies dazu dient, einen Schaden zu minimieren. Eine solche Pflicht ist jedoch nicht nur moralisch problematisch. Sie stünde auch in einem Spannungsverhältnis zur deutschen Rechtsprechung.

Relevant ist in diesem Zusammenhang insbesondere die Entscheidung des Bundesverfassungsgerichts zum Abschuss entführter Passagierflugzeuge, die von Terroristen als Massenvernichtungswaffen eingesetzt werden sollen. Das Grundgesetz schließt es aus, auf der Grundlage einer gesetzlichen Ermächtigung unschuldige Menschen vorsätzlich zu töten. Dieses Urteil steht zumindest auf den ersten Blick im Widerspruch zu einer Pflicht der Schadensminimierung, die die vorsätzliche Verletzung oder Tötung unschuldiger Menschen umfasst.

Bevor man das autonome Fahren unreflektiert forciert, wäre deshalb zu prüfen, ob das assistierte Fahren nicht womöglich im Hinblick auf die Verkehrssicherheit annähernd ebenso effektiv ist wie das vollautomatisierte Fahren.

Fazit: Leitlinien für gute Maschinenethik

Zusammenfassend lassen sich drei Leitlinien formulieren, die sicherstellen sollen, dass die Maschinenethik einen positiven Beitrag zur ethischen Verbesserung von Technologien leistet und die Würde und Freiheit des Menschen nicht auf moralisch fragwürdige Art und Weise einschränkt:

    1. Künstliche Systeme sollten die Selbstbestimmung von Menschen fördern und sie nicht beeinträchtigen.
    2. Künstliche Systeme sollten nicht über Leben und Tod von Menschen entscheiden.
    3. Es muss sichergestellt werden, dass Menschen stets in einem substantiellen Sinn die Verantwortung übernehmen.

Über den Autor

Prof. Dr. Catrin Misselhorn

Prof. Dr. Catrin Misselhorn ist Philosophieprofessorin an der Universität Göttingen. Zuvor war sie Direktorin des Instituts für Philosophie an der Universität Stuttgart mit einem Lehrstuhl für Wissenschaftstheorie und Technikphilosophie. Ihr Studium absolvierte sie an der Universität Tübingen und an der University of North-Carolina at Chapel Hill.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren