Maschinelles Lernen und Künstliche Intelligenz rufen viel Sorgen her – Maschinenethik soll die Probleme lösen. Es kommt jedoch nicht auf eine Maschinenethik an, sondern auf das verantwortliche Handeln der Menschen, die hinter der KI stehen und sie entwickeln.
Das Unerhörte: Technik entwickelt sich selbst weiter
Lernende Verfahren sind erforderlich für autonome Systeme, etwa bei Botenrobotern, selbst fahrenden Autos oder Roboter-Kollegen in der Fabrik. Sie müssen mit Überraschungen umgehen können. Lernende Systeme sind grundsätzlich neu. Traditionell hat der Mensch technische Geräte produziert, die auf bestimmte Zwecke, Funktionen und Eigenschaften festgelegt waren. Lernende Systeme jedoch können sich selbst verändern.
Lernende Technik bekommt ein Eigenleben. Eigenschaften von Algorithmen können sich in einer nicht vorherzusehenden Weise ändern. Denn die Anlässe, aus denen gelernt wird, sind genauso wenig vorhersehbar wie die Ergebnisse des Lernens.
Das ist die Provokation der Künstlichen Intelligenz: Technik bleibt nicht mehr so, wie Menschen sie gemacht haben, sondern bekommt die Fähigkeit und das Mandat, sich selbst weiterzuentwickeln.
Maschinen entscheiden – Kontrollverlust des Menschen?
Ist das ein Kontrollverlust für Menschen? Entscheiden autonome Autos selbst über Leben oder Tod? Die ganzen Fälle der Dilemma-Situationen beruhen auf dieser Annahme. Aber sie ist falsch. Denn die Technik, hier also der Bordcomputer, entscheidet nicht von sich aus, aus einer irgendwie gearteten Computerethik heraus, die er selbst erfunden hätte. Sonst müsste man ja den Computer oder den Algorithmus verklagen und vor Gericht bringen können, falls ungute Dinge geschehen. Der Computer spult aber nur ein Programm ab, sonst nichts.
Dieses Programm ist von Menschen gemacht und entscheidet nach menschlich vorgegebenen Kriterien. Programmierer in Zulieferbetrieben für die Automobilindustrie fertigen diese Programme an, nach Vorgaben von Managern und Behörden und orientiert an ethischen Leitlinien, die auf der politischen Ebene demokratisch legitimiert wurden. Also wird man im Falle des Falles nicht den Bordcomputer anklagen und möglicherweise mit einer Geldstrafe belegen oder ihn inhaftieren, sondern diejenigen Menschen, die für seine Funktionsweise Verantwortung tragen.
Die Entscheidung über Leben und Tod bleibt auch bei selbst fahrenden Autos beim Menschen. Allerdings wird undurchschaubarer, wer dieser Mensch denn konkret ist. Damit stellt sich die Frage der ethischen und rechtlichen Verantwortung bei autonomen Fahrzeugen neu. Anders als heutzutage konkrete menschliche Fahrer andere Menschen zu Schaden bringen, wird sich in einer Dilemma-Situation niemand wirklich verantwortlich fühlen.
Denn es ist gar nicht so klar, wer hier verantwortlich für Tod, Gesundheits- oder Sachschaden ist: die Programmierer, deren Ethik-Berater, die Zulieferforma, der Hersteller, die Manager oder die Betreiber des autonomen Autos? Das muss zweifelsfrei und rechtsicher aufgeklärt werden. Von ethischen Regeln, die in Form von Algorithmen in die Software eingebaut werden, hängt ab, wie ein autonomes Auto in Problemsituationen reagiert und wer dann zu Schaden kommt. Die Prinzipien, nach denen dies geschieht, müssen transparent sein. Sie müssen in der Ethik reflektiert und auch öffentlich diskutiert werden, wenn wir Vertrauen fassen wollen, dass bei Entscheidungen über Leben oder Tod nicht blind irgendeine Maschine, sondern die dahinterstehenden sorgfältigen menschlichen Überlegungen den Ausschlag geben.
Lernen ja – aber egal was?
Autonome Systeme sollen lernen, die KI bietet hierfür die technischen Möglichkeiten. Aber ist Lernen denn immer automatisch gut? Was wäre denn, wenn autonome Autors lernen, dass sie mit aggressivem Fahren schneller vorankommen und dadurch für ihren Betreiber eine bessere Rendite erwirtschaften? Oder man denke an den lernenden Algorithmus im Internet, der versuchsweise in einem sozialen Netzwerk eingesetzt wurde mit dem Ziel: maximiere die Resonanz auf Deine Botschaften! Innerhalb weniger Stunden wurde er rechtsradikal. Oder noch anders: KI soll in ihrer jeweiligen Umgebung lernen. Das bedeutet aber, dass in einer mehrheitlichen Nazi-Gesellschaft ein KI-gesteuerter Roboter zu einem Nazi-Roboter würde.
Der KI fehlt die menschliche Fähigkeit, zwischen Sein und Sollen unterscheiden zu können. Sie lernen einfach vom Sein – und das muss nicht immer gut sein. Hier bedarf es ethischer Aufmerksamkeit und möglicherweise auch eingebauter ethisch legitimierter Leitplanken.
Neue Maschinenethik?
Nein, die brauchen wir nicht. Wir haben Ethik, oft mehr als genug. Wir wenden sie nur nicht gut an, wir berücksichtigen sie nicht in unseren Handlungen, wir setzen Kommerz vor Ethik. Das alles kennen wir, davon schreibt schon die Bibel.
Statt einer neuen Maschinenethik brauchen wir digitale Mündigkeit. Wir müssen verstehen, was da abgeht. Wir dürfen nicht glauben, die Digitalisierung sei ein Naturereignis und wir müssten und einfach anpassen. Nein, auch die Digitalisierung wird von Menschen gemacht, meist in Unternehmen und Datenkonzernen. Sie haben Werte und Interessen, die sie in die Systeme hineinprogrammieren. Dadurch zwingen sie Millionen von Menschen ihre Werte auf. Dies zu durchschauen und nicht einfach zu akzeptieren, sondern nach ethisch besseren digitalen Angeboten und Dienstleistungen zu verlangen, das wäre Ausdruck digitaler Mündigkeit. Und wir müssen die Verantwortlichkeiten und Zuständigkeiten genau klären.
Es darf keine ethischen oder rechtlichen Grauzonen geben. Die Ethik muss bei den Programmierern, Systemarchitekten, Managern, Zulassungs- und Aufsichtsbehörden realisiert werden.
Der Autor ist Referent der Konferenz Big Data & Künstliche Intelligenz. Informationen zu der Tagung finden Sie hier.