Neue innovative Technologien wie Künstliche Intelligenz und Machine Learning eröffnen Banken und Sparkassen völlig neue Möglichkeiten in der Interaktion mit Kunden. Doch bei aller Euphorie sollte und darf man den Mensch dabei nicht außen vor lassen.
Science-Fiction-Autoren sind seit Langem fasziniert von der Vorstellung, dass Roboter die Weltherrschaft übernehmen könnten. Und sie überlegen, was man tun könnte, um die Welt vor dieser Machtübernahme zu bewahren. Doch diese Vorstellung geht weit an der Realität vorbei. Tatsächlich wissen wir heute: Maschinen – und Machine Learning – funktionieren am besten, wenn menschliche Intelligenz involviert ist und sie den Menschen bei seinen Aufgaben unterstützen, statt gegen ihn zu arbeiten. Maschinelles Lernen dient damit de facto als Entscheidungshilfe. Besonders gut sichtbar, weil besonders effektiv, ist das im Bereich Risikomanagement und Compliance.
Die richtige Risikokultur schaffen
Maschinen kommen gut mit riesigen Datenmengen zurecht und sind hervorragend geeignet, um diese Informationsberge zu untersuchen, Muster darin aufzudecken und Vorhersagen zu künftigem Verhalten zu treffen. Dies ist eine ideale Voraussetzung für die Bewertung und das Management von Risiken. Risiken sind nämlich in der Regel abhängig von Verhaltensweisen: von Mitarbeitern, Kunden oder Kriminellen. Die zugrunde gelegten statistischen Modelle greifen jedoch nur dann, wenn im Unternehmen auch die richtige Risikokultur vorhanden ist.
Nehmen wir zum Beispiel Behavox, ein Start-up im Financial-Services-Bereich. Es nutzt Machine-Learning-Algorithmen, um Daten im Zusammenhang mit unseriösen Händlern (sogenannten „Rogue Traders“) und anderen Übeltätern zu untersuchen und damit Verhaltensmuster aufzudecken. Anhand der identifizierten Muster sind Finanzinstitute dann in der Lage, potenzielle Betrüger ausfindig zu machen, bevor diese kriminell tätig werden. Für diese Art der Selbstkontrolle ist ein ausreichend großes Netzwerk notwendig, das Banken und andere Institutionen miteinander verbindet. Vor der Erkenntnis stehen allerdings zwei Hürden. Erstens müssen sich Unternehmen die Möglichkeit eingestehen, dass einer ihrer Mitarbeiter etwas Kompromittierendes tun könnte. Und zweitens müssen sie Informationen über das Verhalten ihrer Mitarbeiter anonymisiert mit dem gesamten Netzwerk teilen.
Eine Kultur der Geheimhaltung dagegen steht dem sinnvollen Einsatz von Machine Learning gegen diese Art von Risiko im Wege: Ein einzelnes Unternehmen verfügt schlicht nicht über genügend Daten. Offenheit und Transparenz sind die Grundbedingungen für effektives Risikomanagement, bei dem die Frage nach potenziellen Risiken („Was wäre wenn?“) beantwortet werden muss und dies über mögliches betrügerisches Handeln hinaus. In vielen Unternehmen lässt sich ein solcher Kulturwechsel nur dann umsetzen, wenn er vom Management ausgeht.
Selbst die Bewertung eines Standardkreditrisikos erfordert eine menschliche Beurteilung, ob das angewandte Modell wirklich sinnvoll ist. Ein auf sich selbst gestelltes Machine-Learning-System läuft Gefahr, Irrelevantes zu lernen (erinnern Sie sich an den Microsoft-Chatbot Tay?). Menschlicher Verstand ist gefragt, damit „Rechner sagt Nein“ nicht die Standardantwort in einem risikoscheuen Umfeld wird. Das verlangt zwar bessere Data-Science-Fähigkeiten, aber ist unerlässlich, wenn es darum geht, Machine Learning verstärkt einzusetzen. Am Ende sollten der Mensch und damit die gesamte Unternehmung noch verstehen, warum es zu einer Entscheidung kommt.
Auch im Umfeld von Betrug ist Machine Learning nur dann sinnvoll, wenn die Technologie zur Unterstützung menschlicher Entscheidungen eingesetzt wird. Modelle sind in der Lage, abweichendes Verhalten zu erkennen, aber der Mensch wird immer noch benötigt, um anschließend das potenzielle Problem zu untersuchen. Denn selbst scheinbar merkwürdiges Verhalten kann einen rationalen Hintergrund haben. Es stimmt, dass Machine-Learning-Modelle kaum organisierten Betrug im großen Maßstab erkennen können, aber: Kleinvieh (sprich: kleine individuelle Betrugshandlungen) macht auch Mist. Und viele Unternehmen erkennen bereits einen großen Vorteil darin, von ihren Mitarbeitern geplante betrügerische Aktionen schnell aufdecken zu können (z. B. automatisierte Auswertung von Kfz-Schadensbildern).
Transparenz und Regulierung
Visibilität – und weiter gefasst Reproduzierbarkeit – ist besonders wichtig, wenn es darum geht, ob schwerwiegende Entscheidungen unter ethischen Gesichtspunkten getroffen worden sind. Dies ist ein entscheidender Faktor der Regulierung, um zu verhindern, dass unangemessene Artificial-Intelligence(AI)-gestützte Entscheidungen Existenzen gefährden. Die Aufgabe der Aufsichtsbehörde kann zum Beispiel darin bestehen, Einsprüche gegen Kreditentscheidungen zu beurteilen. Eine Entscheidung, die nicht auf eindeutigen Fakten basiert, wird mit großer Wahrscheinlichkeit in die Berufung gehen. Und daher ist es notwendig, dass Unternehmen Mitarbeiter haben, die Machine-Learning-Systeme verstehen und beherrschen.
Herausforderungen für die Aufsicht
Aber zu beurteilen, was gut und „ethisch“ ist, stellt natürlich eine Mammutaufgabe dar – eine Frage, mit der sich Aufsichtsbehörden lange beschäftigen könnten. Ein guter Ansatzpunkt wäre vielleicht die Vorgabe „auf eindeutigen Beweisen basierend und nicht offensichtlich diskriminierend“. Aber womöglich ist eine Beurteilung auf dieser Basis – so klar sie auch formuliert sein mag – doch zu kompliziert. Die „Three Laws of Robotics“ von Isaac Asimov sind bestechend einfach – im Sinne der Maxime „keinen Schaden anrichten“ – und decken dabei die meisten Szenarien ab. Einfach und transparent: Das ist wohl die größte Herausforderung im Zusammenhang mit Machine Learning – für Aufsichtsbehörden und diejenigen, die sich ihnen stellen müssen.
Weitere Infos zu Machine Learning finden Sie in unserem Best Practices E-Book.
Mehr über das Partnerkonzept des Bank Blogs erfahren Sie hier.