Künstliche Intelligenz – brauchen wir eine neue Maschinenethik?

Lernende Technik bekommt ein Eigenleben

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Maschinelles Lernen und Künstliche Intelligenz rufen viel Sorgen her – Maschinenethik soll die Probleme lösen. Es kommt jedoch nicht auf eine Maschinenethik an, sondern auf das verantwortliche Handeln der Menschen, die hinter der KI stehen und sie entwickeln.

Maschinelles Lernen, Künstliche Intelligenz und Ethik

Benötigen wir für Maschinelles Lernen und Künstliche Intelligenz eine neue Ethik?

Partner des Bank Blogs

Prestatech ist Partner des Bank Blogs

Das Unerhörte: Technik entwickelt sich selbst weiter

Lernende Verfahren sind erforderlich für autonome Systeme, etwa bei Botenrobotern, selbst fahrenden Autos oder Roboter-Kollegen in der Fabrik. Sie müssen mit Überraschungen umgehen können. Lernende Systeme sind grundsätzlich neu. Traditionell hat der Mensch technische Geräte produziert, die auf bestimmte Zwecke, Funktionen und Eigenschaften festgelegt waren. Lernende Systeme jedoch können sich selbst verändern.

Lernende Technik bekommt ein Eigenleben. Eigenschaften von Algorithmen können sich in einer nicht vorherzusehenden Weise ändern. Denn die Anlässe, aus denen gelernt wird, sind genauso wenig vorhersehbar wie die Ergebnisse des Lernens.

Das ist die Provokation der Künstlichen Intelligenz: Technik bleibt nicht mehr so, wie Menschen sie gemacht haben, sondern bekommt die Fähigkeit und das Mandat, sich selbst weiterzuentwickeln.

Maschinen entscheiden – Kontrollverlust des Menschen?

Ist das ein Kontrollverlust für Menschen? Entscheiden autonome Autos selbst über Leben oder Tod? Die ganzen Fälle der Dilemma-Situationen beruhen auf dieser Annahme. Aber sie ist falsch. Denn die Technik, hier also der Bordcomputer, entscheidet nicht von sich aus, aus einer irgendwie gearteten Computerethik heraus, die er selbst erfunden hätte. Sonst müsste man ja den Computer oder den Algorithmus verklagen und vor Gericht bringen können, falls ungute Dinge geschehen. Der Computer spult aber nur ein Programm ab, sonst nichts.

Dieses Programm ist von Menschen gemacht und entscheidet nach menschlich vorgegebenen Kriterien. Programmierer in Zulieferbetrieben für die Automobilindustrie fertigen diese Programme an, nach Vorgaben von Managern und Behörden und orientiert an ethischen Leitlinien, die auf der politischen Ebene demokratisch legitimiert wurden. Also wird man im Falle des Falles nicht den Bordcomputer anklagen und möglicherweise mit einer Geldstrafe belegen oder ihn inhaftieren, sondern diejenigen Menschen, die für seine Funktionsweise Verantwortung tragen.

Die Entscheidung über Leben und Tod bleibt auch bei selbst fahrenden Autos beim Menschen. Allerdings wird undurchschaubarer, wer dieser Mensch denn konkret ist. Damit stellt sich die Frage der ethischen und rechtlichen Verantwortung bei autonomen Fahrzeugen neu. Anders als heutzutage konkrete menschliche Fahrer andere Menschen zu Schaden bringen, wird sich in einer Dilemma-Situation niemand wirklich verantwortlich fühlen.

Denn es ist gar nicht so klar, wer hier verantwortlich für Tod, Gesundheits- oder Sachschaden ist: die Programmierer, deren Ethik-Berater, die Zulieferforma, der Hersteller, die Manager oder die Betreiber des autonomen Autos? Das muss zweifelsfrei und rechtsicher aufgeklärt werden. Von ethischen Regeln, die in Form von Algorithmen in die Software eingebaut werden, hängt ab, wie ein autonomes Auto in Problemsituationen reagiert und wer dann zu Schaden kommt. Die Prinzipien, nach denen dies geschieht, müssen transparent sein. Sie müssen in der Ethik reflektiert und auch öffentlich diskutiert werden, wenn wir Vertrauen fassen wollen, dass bei Entscheidungen über Leben oder Tod nicht blind irgendeine Maschine, sondern die dahinterstehenden sorgfältigen menschlichen Überlegungen den Ausschlag geben.

Lernen ja – aber egal was?

Autonome Systeme sollen lernen, die KI bietet hierfür die technischen Möglichkeiten. Aber ist Lernen denn immer automatisch gut? Was wäre denn, wenn autonome Autors lernen, dass sie mit aggressivem Fahren schneller vorankommen und dadurch für ihren Betreiber eine bessere Rendite erwirtschaften? Oder man denke an den lernenden Algorithmus im Internet, der versuchsweise in einem sozialen Netzwerk eingesetzt wurde mit dem Ziel: maximiere die Resonanz auf Deine Botschaften! Innerhalb weniger Stunden wurde er rechtsradikal. Oder noch anders: KI soll in ihrer jeweiligen Umgebung lernen. Das bedeutet aber, dass in einer mehrheitlichen Nazi-Gesellschaft ein KI-gesteuerter Roboter zu einem Nazi-Roboter würde.

Der KI fehlt die menschliche Fähigkeit, zwischen Sein und Sollen unterscheiden zu können. Sie lernen einfach vom Sein – und das muss nicht immer gut sein. Hier bedarf es ethischer Aufmerksamkeit und möglicherweise auch eingebauter ethisch legitimierter Leitplanken.

Neue Maschinenethik?

Nein, die brauchen wir nicht. Wir haben Ethik, oft mehr als genug. Wir wenden sie nur nicht gut an, wir berücksichtigen sie nicht in unseren Handlungen, wir setzen Kommerz vor Ethik. Das alles kennen wir, davon schreibt schon die Bibel.

Statt einer neuen Maschinenethik brauchen wir digitale Mündigkeit. Wir müssen verstehen, was da abgeht. Wir dürfen nicht glauben, die Digitalisierung sei ein Naturereignis und wir müssten und einfach anpassen. Nein, auch die Digitalisierung wird von Menschen gemacht, meist in Unternehmen und Datenkonzernen. Sie haben Werte und Interessen, die sie in die Systeme hineinprogrammieren. Dadurch zwingen sie Millionen von Menschen ihre Werte auf. Dies zu durchschauen und nicht einfach zu akzeptieren, sondern nach ethisch besseren digitalen Angeboten und Dienstleistungen zu verlangen, das wäre Ausdruck digitaler Mündigkeit. Und wir müssen die Verantwortlichkeiten und Zuständigkeiten genau klären.

Es darf keine ethischen oder rechtlichen Grauzonen geben. Die Ethik muss bei den Programmierern, Systemarchitekten, Managern, Zulassungs- und Aufsichtsbehörden realisiert werden.


Der Autor ist Referent der Konferenz Big Data & Künstliche Intelligenz. Informationen zu der Tagung finden Sie hier.

Über den Autor

Prof. Dr. Armin Grunwald

Prof. Dr. Armin Grunwald ist Leiter des Instituts für Technikfolgenabschätzung und Systemanalyse (ITAS) am Karlsruher Institut für Technologie (KIT). Darüber hinaus ist er Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) und Professor für Technikethik und Technikphilosophie am KIT. Er ist Mitglied im Präsidium der Deutschen Akademie der Technikwissenschaften sowie der Ethik-Kommission für autonomes und vernetztes Fahren. Er studierte Physik, Mathematik und Philosophie, promovierte in der Physik und habilitierte in der Philosophie.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Ein Kommentar

  1. Avatar
    Ein Skeptiker am

    Werter Herr Prof. Dr. Armin Grunwald

    Ich danke Ihnen für diesen Bericht. Ich stimme Ihnen in den meisten Punkten zu. So müssen all diejenigen Verantwortlichkeit tragen, die massgeblich an der Entwicklung der derzeitigen KI-Programme beteiligt sind/waren. Leider wird der Begriff KI aber zunehmend für jedes Programm verwendet, welches nach bestimmten Kriterien einen Optimierungs- oder Lösungsprozess durchläuft.

    Ich bin überzeugt, dass irgendwann auch eine KI im strengeren Sinne – also ein autonomes Programm mit einer dem Menschen äquivalenten Intelligenz – entstehen wird. Was wäre, wenn einer solchen KI die Funktion einprogrammiert würde, die eigene Leistung zu verbessern? Wo muss die Grenze gezogen werden, ob das Programm nur die ihm aufgetragenen Prozesse durchläuft oder ob es eine Art Bewusstsein entwickelt? Könnte es im letzteren Fall noch immer nicht für Entscheidungen verantwortlich gemacht werden? Und wäre es dann Mord, das Programm auszuschalten? Nick Bostrom beschreibt in seinem Buch „Superintelligence“ eingehend, wohin das führen könnte. Was halten Sie von dieser grösstenteils dystopischen Lektüre?

    Vielen Dank für Ihre Rückmeldung und

    Freundliche Grüsse

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren