„Is this time really different?“

Künstliche Intelligenz im Risikomanagement der Banken (1/2)

Abonnieren Sie den kostenlosen Bank Blog Newsletter

Die Zeiten ändern sich. Genauer gesagt: Sie ändern sich sogar rasant. Künstliche Intelligenz ist zum großen Hoffnungsträger der Finanzbranche geworden, der kritische Ereignisse wie die Finanzkrise verhindern soll. Doch kann dies tatsächlich gelingen?

Künstliche Intelligenz im Risikomanagement der Banken

Möglichkeiten und Grenzen des Einsatzes Künstlicher Intelligenz im Risikomanagement der Banken.

Partner des Bank Blogs

Berg Lund & Company ist Partner des Bank Blogs

Wer hätte vor zehn Jahren gedacht, dass wir im Jahre 2019 allesamt die Überzeugung teilen, dass mathematische Modelle in nicht allzu ferner Zukunft unsere schöne neue (Banken-)Welt beherrschen werden? Auch wenn es zu Recht noch Skeptiker gibt, wer wollte diese Aussage im Kern bezweifeln? Die zunehmende Verfügbarkeit von Daten aller Lebens- und Bankprozesse, die Möglichkeit, deren innere Zusammenhänge maschinell zu erfassen und das so gewonnene, strukturelle Wissen für diverse Steuerungs- und Entscheidungsprozesse zu nutzen, sind nicht zu leugnen. Dabei sah es nach der großen Finanzkrise 2008 für einen Moment lang so aus, als sei das Vertrauen in statistische Modelle grundsätzlich und nachhaltig erschüttert. Wie, wo und durch wen hat sich das Blatt so schnell gewendet?

Die (kurze) Geschichte dieses Perspektivwechsels bei vielen Beteiligten ist ebenso kurzweilig wie aufschlussreich. Vielen, die sich heute bei Themen wie Big Data und Künstliche Intelligenz (KI) auf vertrautem Terrain wähnen, käme es wohl nicht in den Sinn, diese Technologien mit dem großen Crash von damals in Verbindung zu bringen. Wie ist dies zu verstehen?

Zwei Fragen, zwei Perspektiven zu Künstlicher Intelligenz

Eine mögliche Erklärung setzt bei einer Begriffsbestimmung an. Immer wieder findet man Darstellungen, in denen Konzepte wie Künstliche Intelligenz und Maschinelles Lernen ineinander verschachtelt werden. So nützlich solche projizierten Sichtweisen für den Eingeweihten sind, so irreführend sind sie für den Laien.

Maschinelles Lernen ist ein Verfahren, eine Datenmenge durch ein mathematisches Modell strukturell so zu beschreiben, dass die für die konkrete Betrachtung relevanten Zusammenhänge abgebildet werden und alle zufälligen, nicht systematischen (genauer: aus den Beobachtungen erkennbaren) Aspekte ausgefiltert werden. Für probabilistische Methoden kommt noch die Beschreibung der statistischen Eigenschaften der zufälligen Streuungen hinzu.

Ob aber ein System, das ein maschinell gelerntes Modell nutzt um z.B. – ganz klassisch – anhand von Kreditantragsdaten Prognosen über das Tilgungsverhalten des Antragstellers zu machen, als künstliche Intelligenz zu klassifizieren ist, hängt zunächst gar nicht von dem für die Modellierung verwendeten Verfahren ab. Die korrekte Frage hierzu lautet: Ist die von dem System gelöste Aufgabe normalerweise nur durch den Einsatz menschlicher Intelligenz möglich, weil sie z.B. die Berücksichtigung vieler schwer abgrenzbarer Aspekte und Erfahrungswerte berücksichtigt?

Für das klassische Beispiel der Motivkennung in unstrukturierten Bildern ist dies unstrittig. Auch in unserem Beispiel eines Kreditratingsystems wird man zustimmen, dass für die Analyse strukturierter Antragsdaten ein komplexes Zusammenspiel von Einflussfaktoren berücksichtigt werden muss, was normalerweise Intuition und Erfahrung erfordert. Die Anwendung maschinellen Lernens für die effiziente Lösung von Differenzialgleichungen dagegen passt nicht zu dieser Definition von KI: Sie ersetzt einen perfekt deterministischen Algorithmus, dessen Ausführung weder eine Intelligenzleistung ist noch dem Menschen überhaupt möglich.

Die Unterscheidung der Sichtweisen – maschinelles Lernen als Antwort auf die Frage „Wie?“, bzw. künstliche Intelligenz als Antwort auf die Frage „Was?“ – wäre allerdings wenig mehr als eine akademische Spitzfindigkeit, hätte sie nicht gerade auch für Banken ernsthafte Konsequenzen.

Vertrauenswürdige KI im Fokus

In ihren „Richtlinien für vertrauenswürde KI“ hat die hochrangige Expertenkommission der Europäischen Kommission für die Abgrenzung ihres Anwendungsbereiches sehr klar den zweiten Aspekt, das „Was?“ in den Fokus gerückt. Vereinfachend kann man hier die Sorge um die Konsequenzen der Ersetzung menschlichen Handelns, insbesondere menschlicher Entscheidungen durch Computersysteme als zentrales Thema annehmen. Dass diese Ersetzung technisch durch datengetriebene, maschinell gelernte mathematisch-statistische Modelle erfolgt, ist zweitrangig und wird im Kern wenig bis gar nicht thematisiert.

Banken, die für das Trapsen der regulatorischen Nachtigall besonders feine Ohren haben sollten, muss das zu denken geben. Denn – und dieser Punkt ist von zentraler Bedeutung – die zu Recht in den Richtlinien unter dem Aspekt „Ersetzung menschlicher Intelligenzleistung“ angesprochenen Herausforderungen können nur richtig bewertet und bewältigt werden, wenn man sie auf die dafür verwendeten technischen Verfahren, also das „Wie?“ des maschinellen Lernens bezieht. Ein Beispiel soll das verdeutlichen.

„Erklärbarkeit“ von Künstlicher Intelligenz

Der Begriff der „Erklärbarkeit“ von Künstlicher Intelligenz ist derzeit in aller Munde. In ihm spiegelt sich, wie in weiten Teilen der „Richtlinien“, die Vorstellung wider, ein KI-System komme aufgrund eines gelernten Verständnisses für ein spezifisches Problem auf quasi kanonische Art zu einer Einzelfallentscheidung, wobei es einer logisch nachvollziehbaren kausalen Schlusskette folgt, auch wenn diese nicht zwingend transparent ist. Dem ist in aller Regel nicht so. Fehlende Transparenz ist in den seltensten Fällen ein Problem, in der Regel allenfalls zum Schutz geistigen Eigentums. Was fehlt, ist ein logischer Schließmechanismus an sich. Heutige KI-Systeme, allen Fiktionen zum Trotz, „denken“ nicht, sie entscheiden ad hoc anhand von aus Beobachtungsdaten gelernten statistisch optimalen Kriterien, quasi „aus dem Bauch (richtiger wäre wohl aus dem Kleinhirn) heraus“.

Hat man akzeptiert, dass „Bauchentscheidungen“ – seien es menschliche oder maschinelle- grundsätzlich zulässig sind, wäre es aber eher abwegig, ihre „Erklärbarkeit“ einzufordern. Denn niemand hat die Erwartung, dass Bauchentscheidungen immer richtig sind. Es ist verblüffend, dass auch ein philosophisch hochkompetentes Gremium es für zulässig erachtet, den Begriff „Erklärung“ auf Argumente anzuwenden, die nur in einem Bruchteil aller Fälle korrekt sind. Das widerspricht dem üblichen Gebrauch des Begriffs, nachdem sich eine Erklärung immer auf einen kausalen Zusammenhang beziehen muss, also praktisch immer gültig ist und nicht grundsätzlich manchmal falsch.

Erklärbarkeit versus Rechtfertigung von Künstlicher Intelligenz

Man kann die strenge Bedeutung des Begriffes Erklärbarkeit sehr gut an dem bekannten Beispiel der diskriminierenden Attribute ablesen. Nehmen wir an, im oben erwähnten Antragsratingmodell hätte die Altersgruppe (unter/über 30) die gleiche Vorhersagekraft für die – salopp gesprochen die gleiche „Korrelation“ zur – Kreditwürdigkeit wie das Geschlecht des Antragstellers. Während es beim Alter akzeptiert ist, von der (Alters-)Gruppe auf den Einzelfall zu schließen, ist das beim Geschlecht verboten. Denn weder für das eine noch für das andere lässt sich eine direkte Kausalität belegen und daher wird bei potentieller Diskriminierung davon ausgegangen, dass der bzw. die konkrete Einzelne durch eine Bauchentscheidung anhand langjähriger Erfahrung (bzw. historischer Daten) mit der entsprechenden Gruppe benachteiligt sein könnte. Ganz zu schweigen wäre von einer Beweisführung vor Gericht, die sich auf ein 1-Prozent- oder gar 5-Prozent-Konfidenzniveau berufen würde.

Ein treffenderer Begriff in diesem Zusammenhang ist der der Rechtfertigung: Eine Bauchentscheidung im Nachhinein zu rechtfertigen, bedeutet in aller Regel nur, die Entscheidung – und nicht da Ergebnis – zwingend zu begründen, insbesondere und paradoxerweise gerade dann, wenn sie sich als falsch erwiesen hat. Das sei bei uns fehlbaren Menschen aller Ehren wert. Aber geht es im Falle maschineller Entscheidungen wirklich um Rechtfertigung? Sollte man das Augenmerk nicht vielmehr darauf legen, a priori sicherzustellen, dass die Entscheidungen so „richtig“ wie möglich ausfallen?

Auch diese Frage, wie der soeben erörterte Erklärbarkeitsbegriff, sollte letztlich nicht unter dem Aspekt der Ersetzbarkeit menschlicher Intelligenz beantwortet werden, sondern ganz nüchtern unter dem der Verlässlichkeit der dazu verwendeten statistischen Modelle. Im zweiten Teil des Artikels erfahren Sie, wie dies gelingen kann und worauf es dabei ankommt.

Über den Autor

Dr. Oliver Maspfuhl

Dr. Oliver Maspfuhl ist Chapter Lead Data Scientist im Bereich Big Data & Advanced Analytics der Commerbank AG. Zuvor war er im Markt- und Kredit-Risikomanagement tätig. Nach seinem Studium war er als Assistent an der ETH Lausanne tätig und beschäftigt sich seit über zehn Jahren mit Datenmodellierung, Risikoanalyse und Anomalien, sowie zunehmend mit Fragen der KI-Governance.

Vielen Dank fürs Teilen und Weiterempfehlen


Mit dem kostenlosen Bank Blog Newsletter immer informiert bleiben:

Anzeige

Get Abstract: Zusammenfassungen interessanter Businessbücher

Kommentare sind geschlossen

Bank Blog Newsletter abonnieren

Bank Blog Newsletter abonnieren