Bedroht der EU AI Act die Innovation in Europa? Wie steht es um die Auswirkungen auf Banken, einschließlich Compliance-Anforderungen, Innovationshemmnissen und möglichen Strategien zur Integration von KI? Eine Analyse.
Die letzten 18 Monate waren geprägt von einem beispiellosen Innovationsschub im Bereich der Künstlichen Intelligenz mit Durchbrüchen wie ChatGPT, Gemini, LLama, Claude und Mistral. Angesichts der erheblichen Auswirkungen von KI auf Wirtschaft und Gesellschaft hat die Europäische Union (EU) den „AI Act“ verabschiedet – die weltweit erste umfassende Regulatorik für Künstliche Intelligenz.
Der AI-Act soll für fairen Wettbewerb sorgen und greift massiv in den Markt ein, doch das hat nicht nur Vorteile. Der Spruch „US innovates, China replicates and Europe regulates“ verbreitet sich schnell in den Medien und erste Folgen sind bereits spürbar.
Der EU AI Act als Innovationsbremse?
So hat der Tech-Gigant Apple vorerst entschieden, seine neuen KI-Funktionen „Apple Intelligence“ nicht in der EU einzuführen. Außerdem hat sich Facebook-Mutter Meta dagegen entschieden, Meta AI sowie ihr LLama-Modell in Europa bereitzustellen. Auch das KI-Start-up Anthropic hat sein Modell Claude für Deutschland bisher nicht freigeschaltet.
Wird der EU AI Act, der 2026 in Kraft treten soll, also zu einer Innovationsbremse und damit Europa von den neuesten KI-Modellen abkoppeln?
Diese Frage ist besonders für europäische Banken von Bedeutung. Bereits heute befinden sich keine deutschen Banken und nur vier europäische Banken unter den 30 größten Banken weltweit. Diese Situation könnte sich weiter verschärfen, wenn Innovation und Fortschritt im Bereich KI auf dem Kontinent gezielt ausgebremst werden.
Risikobasierte Klassifizierung von KI-Systemen im Bankwesen
Für Banken hat die neue Regulierung gravierende Folgen. Der AI-Act klassifiziert KI-Systeme in vier Risikokategorien:
- inakzeptabel,
- hochriskant,
- begrenzt und
- minimal.
Das richtige Maß an Innovation und Compliance wird damit für Banken zu einem Balanceakt. Die folgende Abbildung zeigt die verschiedenen Stufen der Risikokategorien:
Systeme, die als inakzeptables Risiko eingestuft werden, sind grundsätzlich verboten, da sie Grundrechte verletzen können. Das können beispielsweise Systeme sein, die zur biometrischen Überwachung dienen oder Verhalten manipulieren sollen. Hochriskante KI-Systeme im Bankwesen sind Anwendungen, die potenziell erhebliche Auswirkungen auf die finanzielle Gesundheit von Einzelpersonen und Institutionen haben können.
Diese Systeme werden eingesetzt, um wichtige Entscheidungen zu treffen, beispielsweise im Rahmen der Kreditwürdigkeitsprüfung, der Betrugserkennung und des Underwritings. Auch die Risikopreisgestaltung, die häufig auf komplexen KI-Modellen zur Festlegung von Versicherungsprämien oder Kreditkonditionen basiert, unterliegt dieser Regulierung. Die Sicherstellung von Fairness und Genauigkeit der Entscheidungen sowie die Vermeidung von Diskriminierung stellen somit zentrale Anforderungen an Banken dar.
Strenge Compliance-Anforderungen
Wenn Banken also KI einsetzen wollen, sind die Compliance-Anforderungen streng und umfassen mehrere kritische Aspekte. Banken müssen ein robustes Risikomanagementsystem implementieren, das die potenziellen Risiken von KI-Anwendungen bewertet und minimiert. Außerdem benötigen KI-Systeme Daten von hoher Qualität, um präzise und faire Entscheidungen treffen zu können. Finanzinstitute sind folglich dazu verpflichtet, sicherzustellen, dass die Daten vollständig, genau und repräsentativ sind.
Dies kann in der Praxis erhebliche Ressourcen binden. Zudem müssen die Entscheidungsprozesse von KI-Systemen nachvollziehbar und transparent sein. Banken sind folglich verpflichtet, Prozesse zu dokumentieren und auf Anfrage Auskünfte zu erteilen. Zuletzt dürfen Kritische Entscheidungen nicht ausschließlich von KI-Systemen getroffen werden, sondern müssen stets von Menschen überprüft werden, um Transparenz und Verantwortlichkeit zu gewährleisten.
Zusammengefasst lässt sich also sagen, dass der AI-Act erhebliche Auswirkungen auf Prozesse und Methoden im Finanzsektor haben wird. Das führt zwangsläufig zu höheren Betriebskosten, da Banken in notwendige Infrastruktur und Expertise investieren müssen.
Doch welche Implikationen ergeben sich in der Praxis? Ist die Einordnung nicht eindeutig, werden Banken eher auf den Einsatz von KI verzichten, um keine Compliance-Probleme zu riskieren. Die Konsequenz ist ein Innovationsstau, der Europas Banken im globalen Wettbewerb zurückwirft.
Ein Lichtblick im Regulierungsdschungel: Regulatorische Sandboxes
KI-Regulierungs-Sandboxes bieten Banken die Möglichkeit, neue KI-Anwendungen in einer kontrollierten Umgebung zu testen und zu validieren – ein hoffnungsvoller Schritt in Richtung Innovation. Die Sandboxes ermöglichen es Banken, innovative KI-Lösungen zu entwickeln, während sie potenzielle Risiken neuer Anwendungen identifizieren und beheben können, bevor diese in den regulären Betrieb überführt werden.
Der Fokus sollte dabei auf der Zusammenarbeit mit Regulierungsbehörden liegen. Denn es ist entscheidend, dass Banken eng mit den Regulierungsbehörden zusammenarbeiten, um sicherzustellen, dass ihre KI-Anwendungen den gesetzlichen Anforderungen entsprechen. Dieser Dialog ermöglicht es den Banken, frühzeitig auf regulatorische Veränderungen zu reagieren und ihre Systeme entsprechend anzupassen. Gleichzeitig erhalten Institute wertvolles Feedback von den Aufsichtsbehörden.
Auf Basis der Ergebnisse der Sandbox, können Banken dann umfassende KI-Governance-Strukturen etablieren, um Verantwortlichkeit und Transparenz zu gewährleisten. Dies umfasst die Entwicklung klarer Richtlinien und Verfahren für die Implementierung und Überwachung von KI-Systemen. Eine starke Governance-Struktur stellt sicher, dass KI-Systeme ethisch und verantwortungsbewusst eingesetzt werden. Dabei können die Banken verschiedene Ansätze für die Governance der KI verwenden.
Effektiver Einsatz von KI im Bankwesen
Sofern der strenge regulatorische Rahmen eingehalten wird, können Banken durch den Einsatz von KI erhebliche Wettbewerbsvorteile erzielen. Der effektive Einsatz von KI ermöglicht es Banken, ihre Betriebseffizienz zu steigern, den Kundenservice zu verbessern und innovative Produkte und Dienstleistungen zu entwickeln.
Internationale Beispiele zeigen bereits die erfolgreiche Implementierung von KI. Die niederländische Neobank Bunq hat ihren AI Chatbot „Finn“ veröffentlicht. Die Einführung von Finn soll die herkömmliche Suchfunktion in der bunq-App ersetzen und eine intuitivere und interaktivere Erfahrung bieten. Die Nutzer können alles von ihrer Transaktionshistorie bis hin zu Finanztipps abfragen und erhalten Antworten, die über die Möglichkeiten herkömmlicher Banking-Apps hinausgehen. So können beispielsweise Fragen nach den durchschnittlichen monatlichen Ausgaben für Lebensmittel oder den Ausgaben des letzten Jahres bei einem bestimmten Einzelhändler schnell und präzise beantwortet werden.
Des weiteren hat Klarna jüngst bekanntgegeben, dass der Einsatz von KI im Marketing zu einer jährlichen Einsparung von 10 Mio. € führt. Zudem werden mittlerweile zwei Drittel aller Kundenservice-Chats von einem AI-Chatbot übernommen, was einer Arbeitsleistung von rund 700 Vollzeitkräften entspricht.
Aber die Einsatzmöglichkeiten von KI gehen über die Optimierung von Prozessen hinaus. Auch die Betriebseffizienz kann durch den Einsatz von KI gesteigert werden. Zum Beispiel in der Betrugserkennung, bei der verdächtige Transaktionen in Echtzeit identifiziert und verhindert werden sollen. Ein erfolgreiches Beispiel dafür ist „Sherlock” der Neobank Revolut. Sherlock ist ein KI-basiertes System, das kontinuierlich alle Transaktionen der Revolut-Nutzer überwacht und innerhalb von 50 Millisekunden verdächtige Aktivitäten erkennt. Wird eine verdächtige Transaktion identifiziert, wird sie blockiert und der Nutzer erhält eine Benachrichtigung zur Bestätigung oder Ablehnung der Transaktion. Dank dieser Technologie konnte Revolut im ersten Jahr über 3 Millionen USD an potenziellen Betrugsverlusten verhindern und erreicht eine Erkennungsrate von 96% bei betrügerischen Transaktionen.
Ein weiterer Anwendungsfall ist die Bonitätsprüfung, wie es das amerikanische FinTech-Unternehmen Upstart erfolgreich demonstriert hat. Upstart nutzt KI, um Kreditentscheidungen effizienter zu gestalten, was zu schnelleren Entscheidungen, reduzierten Bearbeitungszeiten und geringeren Kosten führt. Das Unternehmen verwendet maschinelles Lernen, um die Kreditwürdigkeit auf Basis von über 1.000 Datenpunkten zu bewerten, was zu einer genaueren Risikoeinschätzung und niedrigeren Kreditausfallraten führt. Dadurch hat Upstart eine deutlich höhere Genehmigungsrate und niedrigere Zinsen für Kredite erreicht, was sowohl Kreditnehmern als auch Kreditgebern zugutekommt.
Der EU AI Act ist ein zweischneidiges Schwert
Der EU AI Act kann als zweischneidiges Schwert betrachtet werden. Einerseits stellt er einen Meilenstein in der Regulierung von Künstlicher Intelligenz dar, andererseits besteht die Gefahr, dass er Innovationen hemmt. Banken müssen daher sorgfältig die Chancen und Risiken abwägen. Proaktives Handeln ist unerlässlich, um angesichts der umfassenden Anforderungen und Möglichkeiten des AI-Acts den Anschluss an die größten Banken der Welt nicht zu verlieren.
Die kommenden Jahre werden zeigen, ob europäische Banken mit den internationalen Wettbewerbern Schritt halten und ihre Position im internationalen Bankenmarkt behaupten können – trotz oder gerade wegen des EU AI Acts. Es liegt an den Banken, die Balance zwischen Innovation und Compliance zu finden und diese Herausforderung als Chance zu nutzen.
Oliver Wehrkamp ist Koautor des Beitrags. Er ist Head of Digital Banking Transformation bei Horváth und spezialisiert auf die digitale Transformation sowie strategische Beratung in der Finanzbranche. Er war zuvor u.a. für Hauck Aufhäuser Lampe und die Commerzbank tätig.
Mehr über das Partnerkonzept des Bank Blogs erfahren Sie hier.