Data-driven Banking ermöglicht Banken, zielgenau auf die individuellen Bedürfnisse ihrer Kunden einzugehen. Doch um Nutzen schaffen zu können, müssen sich alle Beteiligten gemeinsam mit den Potenzialen und den resultierenden Risiken von Künstlicher Intelligenz befassen.
„Daten sind das Gold des 21. Jahrhunderts“ – wer kennt diesen Satz nicht. Im Zuge der Digitalisierung stehen uns immer mehr Daten zur Verfügung und es gibt immer mehr Möglichkeiten, diese Daten sinnstiftend zu verwenden. Wir sind heute in der Lage, innerhalb kürzester Zeit große Datenmengen auszuwerten, Muster zu erkennen und Prognosen für die Zukunft zu erstellen, etwa in der Kundenansprache und der Geldwäsche – oder Betrugsprävention. Davon profitieren Verbraucher und Gesellschaft.
Im Folgenden sei unter Data-driven Banking die Nutzung von Daten nicht nur zur Erklärung der Vergangenheit, sondern zur Ableitung von Vorhersagen und Empfehlungen für die Zukunft verstanden. Im Rahmen dessen beschreibt die Künstliche Intelligenz die Fähigkeit von Maschinen, die kognitiven Funktionen des menschlichen Gehirns nachzubilden.
Die Frage ist nun, wann und warum ist etwas gut für den Kunden? Was ist der Anspruch an uns von morgen, um dem Kunden und der Gesellschaft nachhaltig zu dienen – die Chancen zu nutzen und die Risiken zu begrenzen?
Ganzheitliche Beratung statt fragmentierter Einzellösungen
Wo genau liegen die Chancen von Data-driven Banking? Zum Beispiel in der Beratung von Kunden: Ziel ist es immer mehr, dem Kunden wertstiftender Lebensbegleiter zu sein. Dies insbesondere dann, wenn Lebensumstände sich fundamental ändern. Ein solcher „Life Changing Moment“ ist etwa die Geburt eines Kindes. Die werdenden Eltern benötigen nicht nur Kinderkleidung und Kinderwagen, sondern müssen oft auch ihre Finanzen neu ordnen. Sie brauchen möglicherweise einen überarbeiteten Tilgungsplan für die Baufinanzierung, ein angepasstes Angebot für das Autoleasing, zusätzliche Versicherungen und neue Vorsorgepläne. Es geht um die individuellen Bedürfnisse des Kunden und dies in einer ganzheitlichen Betrachtung – der Kunde steht im Zentrum. „One size fits it all“ war gestern. Von gestern ist ebenfalls das Angebot einer Vielzahl fragmentierter Einzellösungen.
Ein weiteres Beispiel für Data-driven Banking ist der Einsatz im Risikomanagement. Risikomethodik ist von jeher datengestützt – es geht immer darum, das „richtige“ Geschäft und vor allem auch mehr Geschäft zu ermöglichen. Neue Daten und Methoden versetzten die Kreditinstitute neu in die Lage, die individuelle Situation des Kunden besser zu berücksichtigen und gleichzeitig eine noch trennschärfere Risikoeinschätzung zu erreichen. So kann möglicherweise sogar noch ein Geschäft abgeschlossen werden, das sonst auf Basis „klassischer“ Risikomanagement-Modelle eher abgelehnt worden wäre.
Risiken durch Nutzung Künstlicher Intelligenz
Data-driven Banking und insbesondere KI bieten also zahlreiche Chancen. Wie immer im Leben gehen mit neuen Chancen auch neue Risiken einher:
KI-Systeme werden auf menschengemachten Datensätzen trainiert und lernen damit leicht auch menschliche Stereotype und Vorurteile. So gibt es Beispiele, in denen für Führungspositionen ausschließlich Männern vorgeschlagen wurden, weil das System „gelernt“ hatte: Führungskraft ist gleich Mann. Oder – absolut schockierend – Bilder von dunkelhäutigen Menschen, die KI-Systeme als Tierfotos kategorisiert haben. Denn KI-Systeme, die selbstlernend sind, bergen immer auch das Risiko, „falsch“ zu lernen.
Es besteht zudem die Gefahr der kognitiven Verzerrung: Suchmaschinen lernen unsere Interessen – und bieten uns nur noch entsprechende Inhalte an. Es baut sich eine „Blase“ um den Menschen auf. Für unseren gesellschaftlichen Austausch und Zusammenhalt eine große Gefahr.
Die bewusste Auseinandersetzung mit diesen Risiken und deren aktive Begrenzung sollte daher Teil gelebter und nachhaltiger Kundenorientierung sein. Denn bei der Ausgestaltung von Algorithmen geht es um nichts weniger als unser Kunden- bzw. Menschenverständnis. Daher müssen wir den neuen Methoden unser Wertesystem beibringen. Ohne Regeln wird dies nicht gehen.
Es ist dafür von fundamentaler Bedeutung, Wirtschaft, Wissenschaft, Verbraucher- und Datenschutz an einen Tisch zu bringen und eine Diskussion anzustoßen, die die Chancen und auch die Risiken von KI berücksichtigt. Dabei geht es vor allem um drei zentrale Themenbereiche, von denen der erfolgreiche und gesellschaftlich akzeptierte Einsatz von KI-basierten Systemen abhängen wird: Transparenz, Erklärbarkeit und Fairness.
Erfolg und Akzeptanz basiert auf Transparenz, Erklärbarkeit und Fairness
Bei der Transparenz liegt die zentrale Herausforderung darin – wie beim Autofahren auch – im digitalen Kontext ein gemeinsames Grundverständnis für Lenkrad, Gas und Bremse zu vermitteln.
Transparenz und Kontrolle
Die Erwartung der Menschen an Datentransparenz, eigene Datenkontrolle und Schutz ihrer Daten wird zunehmen. Dies gilt es zu berücksichtigen, ohne dass die Nutzerfreundlichkeit von digitalen Angeboten darunter leidet. Aktuell geschieht dies im Rahmen von Datenschutz- und Cookie-Hinweisen. In der Praxis haben sich diese jedoch nicht bewährt: Sie wurden in einer Art und Weise umgesetzt, die für Anbieter die notwendige Rechtsicherheit bietet. Die Bedürfnisse des Verbrauchers – insbesondere die Nutzerfreundlichkeit – berücksichtigen sie nicht. Wenn wir „Lebensbegleiter“ für unsere Kunden sein wollen, dann setzt dies aber Augenhöhe im Umgang miteinander und in der Kommunikation voraus. Für viele Unternehmen – auch für uns – heißt dies eine deutliche Veränderung der Arbeitsweise.
Erklärbarkeit
Zur Erklärbarkeit: Bei der Entwicklung von Algorithmen im Risikomanagement stand bis vor wenigen Jahren allein die Trennschärfe im Fokus. Auch bei der Schufa ging es vor allem darum, möglichst genaue Aussagen zu treffen, um Geschäfte zwischen Unternehmen und Verbrauchern maximal zu ermöglichen. Der Anspruch an die Modelle hat sich in den vergangenen Jahren geändert. Das Thema Erklärbarkeit rückt immer stärker ergänzend zu der Trennschärfe in den Fokus.
Erklärungen sind dabei immer Vereinfachungen eines Sachverhaltes. Es gibt leider auch keine Erklärung, die für alles und für alle trägt. Erklärbarkeit ist immer auf die verschiedenen Zielgruppen und Anwendungsfälle auszurichten: Aufsicht, Datenschützer oder Verbraucher haben unterschiedliche Erwartungen und Ansprüche an die Erklärbarkeit. Bei der Erklärbarkeit geht es aber nicht nur um eine andere Art der Kommunikation, sondern um eine Veränderung der Methodik insgesamt. Ein Modell sieht anders aus, wenn man Trennschärfe und Erklärbarkeit zum Ziel hat.
Fairness
Das Thema Fairness fokussiert heute vor allem auf die sogenannte Gruppenfairness – also auf die Frage, ob Algorithmen so arbeiten, dass sie keine Gruppe von Menschen systematisch benachteiligen. Allzu oft wird geglaubt, man könne der Fairness Genüge tun, indem man die entsprechende Information, zum Beispiel das Geschlecht, nicht speichert. Dies ist zwar eine häufig vorgetragene Forderung, tatsächlich aber sogar kontraproduktiv, um Diskriminierung zu vermeiden. Denn so verliert man die Möglichkeit, die Methodik überhaupt auf Diskriminierung untersuchen zu können. Denn eventuell werden Variablen genutzt, die zu den diskriminierenden Punkten hoch korreliert sind, implizite Diskriminierung ist die Folge. Gruppenfairness setzt daher einen möglichst breiten, repräsentativen Datensatz voraus. Dies gilt es in Einklang zu bringen mit der ebenso bestehenden Forderung, möglichst wenige Daten zu erheben und zu verarbeiteten
Gesellschaftlicher Nutzen kann nur durch einen gemeinsamen Diskurs über die Zielkonflikte erreicht werden
Die Anforderungen an Algorithmen, die dem Data-driven Banking zugrunde liegen, sind also hoch und werden weiter steigen: Sie sollen maximale Trennschärfe, Transparenz, Erklärbarkeit, Fairness und gleichzeitig Datensparsamkeit bieten. In den kommenden Jahren wird es nicht möglich sein, einen Algorithmus zu entwickeln, der all diese Forderungen vollumfänglich erfüllt. Von zentraler Bedeutung ist daher ein Diskurs aller Disziplinen. Dieser muss diese Zielkonflikte so austarieren, dass die Chancen bestmöglich genutzt und die Risiken begrenzt werden.
Wenn das gelingt, stiftet die neue Technologie großen Nutzen für Verbraucher, Unternehmen und für die Gesellschaft. Wenn das nicht gelingt, wäre es hingegen menschliche Dummheit, Künstliche Intelligenz zu nutzen.