Der EU AI Act hat Auswirkungen auf den Einsatz von Künstlicher Intelligenz in der Finanzbranche. Doch wie wirkt er sich konkret auf die Finanzindustrie aus und welche Chancen und Herausforderungen ergeben sich daraus?
Künstliche Intelligenz (KI) spielt eine immer wichtigere Rolle in den Prozessen von Banken und anderen Finanzinstituten. Neben zahlreichen Vorteilen bringt der Einsatz von KI jedoch auch Herausforderungen und potenzielle Risiken mit sich. Der EU AI Act soll einen umfassenden Regulierungsrahmen schaffen, der einheitliche Standards für den Umgang mit KI-Systemen festlegt und ein sicheres und vertrauenswürdiges Umfeld für Verbraucher und Unternehmen gewährleistet. Im Folgenden wird gezeigt, wie sich diese Regulierung auf die Finanzindustrie auswirkt und welche Chancen und Herausforderungen sich daraus ergeben.
EU AI Act setzt regulatorischen Rahmen
Trotz der zahlreichen Vorteile, die der Einsatz von KI mit sich bringt, stehen Banken und andere Finanzdienstleister vor Herausforderungen und potenziellen Risiken. Die zunehmende Regulierung wird neue Kosten und Risiken für die Institute mit sich bringen.
Die EU-Verordnung über Künstliche Intelligenz (EU AI Act) wurde am 13. März 2024 vom Europäischen Parlament und am 21. Mai 2024 vom Rat der EU verabschiedet. Die Verordnung tritt 20 Tage nach ihrer Veröffentlichung im Amtsblatt der EU in Kraft. Die Hauptteile der Verordnung werden nach 24 Monaten, also etwa Mitte 2026, anwendbar sein. Dies gilt für die meisten Bestimmungen der Verordnung. Es gibt jedoch kürzere Umsetzungsfristen für bestimmte Systeme: Verbotene KI-Praktiken müssen innerhalb von sechs Monaten nach Inkrafttreten der Verordnung eingestellt werden.
Der EU AI Act zielt darauf ab, einen umfassenden regulatorischen Rahmen für den Umgang mit KI-Systemen zu schaffen, der einheitliche Standards festlegt und ein sicheres sowie vertrauenswürdiges Umfeld für Verbraucher und Unternehmen gewährleistet.
Neben Governance- und Transparenzanforderungen legt der EU AI Act besonderen Wert auf einen risikobasierten Ansatz und die Implementierung eines entsprechenden Daten- und Risikomanagements. Ziel ist es, Risiken zu minimieren und gleichzeitig Innovationen voranzutreiben. Banken, Versicherungen und andere Finanzdienstleister werden sich daher strengen Compliance-Prüfungen unterziehen müssen, um sicherzustellen, dass ihre KI-Systeme den regulatorischen Anforderungen entsprechen.
Definitionen im EU AI Act
Der EU AI Act definiert KI-Systeme als maschinenbasierte autonome Systeme, die sich anpassen und Ziele wie Vorhersagen, Empfehlungen oder Entscheidungen ableiten können. Diese Definition, die im Einklang mit der OECD steht, unterstreicht die Vielseitigkeit und das Potenzial von KI.
Wichtig ist die Unterscheidung zwischen Basismodellen und allgemeinen KI-Systemen (General Purpose AI):
- Basismodelle erfüllen spezifische Aufgaben.
- General Purpose AI erfordert zusätzliche Compliance- und Governance-Anforderungen.
Unternehmen, die General Purpose KI einsetzen, müssen für transparente Prozesse, die Offenlegung von Trainingsdaten, Cybersicherheit und Maßnahmen zur Risikobewertung sorgen.
Einsatz von KI-Systemen in der Finanzindustrie
Algorithmen und maschinelles Lernen ermöglichen komplexe Datenanalysen, Risikobewertungen und personalisierte Kundenlösungen. KI steigert die Effizienz, unterstützt das Portfoliomanagement und ermöglicht schnelle Reaktionen auf Marktveränderungen. Die Automatisierung von Reporting- und Überwachungsfunktionen mithilfe von KI trägt zur Entdeckung verdächtiger Aktivitäten bei und unterstützt somit Compliance-Prozesse. Ferner ermöglicht KI einen personalisierten Kundenservice durch die Analyse von Kundendaten, wodurch maßgeschneiderte Empfehlungen möglich werden.
Ein weiteres Anwendungsgebiet ist die Datenanalyse und die Entwicklung von Vorhersagemodellen. KI identifiziert Muster und Trends zur Vorhersage von Finanzmärkten und Kundenverhalten und ermöglicht so fundierte Entscheidungen und optimierte Geschäftsstrategien. Insbesondere beeinflusst KI auch den algorithmischen Handel. Sie entwickelt Handelsstrategien, trifft Handelsentscheidungen und führt Transaktionen in Echtzeit aus. Kreditinstitute profitieren von KI durch präzisere Kreditentscheidungen und eine bessere Vorhersage von Kreditrisiken.
Auswirkung der Regulierung auf den Einsatz von KI in der Finanzindustrie
KI bietet dem Kredit- und Finanzdienstleistungssektor ein enormes Potenzial, bringt aber auch regulatorische Herausforderungen mit sich. Fehlerhafte Algorithmen und unzureichende Kontrollen können zu erheblichen finanziellen und Reputationsschäden führen, weshalb eine stärkere Fokussierung der Aufsicht auf den Einsatz von KI erwartet wird.
Der EU AI Act ist von besonderer Relevanz, da er je nach Risikoklasse unterschiedliche Anforderungen und Pflichten für KI-Systeme festlegt. Bestimmte Anwendungen sind nach Art. 5 EU AI Act verboten, da sie unannehmbare Risiken darstellen. KI-Systeme mit hohem Risiko unterliegen den Art. 8-50 EU AI Act, basierend auf Prinzipien wie Risikomanagement und Transparenz.
Für Systeme mit begrenztem Risiko gelten besondere Transparenzpflichten nach Art. 50 EU AI Act, während für Systeme mit minimalem Risiko keine besonderen Regelungen gelten. Die Anbieter können jedoch freiwillige Verhaltenskodizes aufstellen, die sich an den Vorgaben für Systeme mit hohem Risiko orientieren oder Ziele wie Zugänglichkeit und Nachhaltigkeit verfolgen (Art. 56 EU AI Act).
Die EU-Mitgliedstaaten müssen nationale Aufsichtsbehörden einrichten, wobei jeder Mitgliedstaat mindestens eine Notifizierungs- und Marktüberwachungsbehörde einrichten muss (Art. 70 EU AI Act). Ein Europäischer Ausschuss für künstliche Intelligenz (European Committee for Artificial Intelligence – ECIA), bestehend aus den nationalen Aufsichtsbehörden und dem Europäischen Datenschutzbeauftragten, wird beratende Aufgaben übernehmen (Art. 65 EU AI Act). Die Marktaufsichtsbehörde hat Zugang zu Trainingsdaten und Quellcode und führt Tests durch (Art. 70 Abs. 5 EU AI Act). Zu den wichtigsten Anforderungen gehören strengere Konformitätsprüfungen, Risikomanagementsysteme, umfassende Dokumentations- und Überwachungspflichten sowie die Einhaltung der Transparenzverordnung (Verordnung (EU) 2019/2088).
Ergänzend stärkt die Verordnung über die digitale operationelle Resilienz (DORA) die IT-Sicherheit im Finanzsektor. Nationale Regelwerke wie die BAIT (Bankenaufsichtliche Anforderungen an die IT) und die MaRisk (Mindestanforderungen an das Risikomanagement) stellen zusätzliche Anforderungen an die IT-Governance und das Risikomanagement. Wesentliche Aspekte aus DORA und BAIT betreffen die Auditpflicht für IKT-Systeme, die Einrichtung von IT-Governance- und Cyber-Security-Funktionen, das Risikomanagement und umfangreiche Dokumentationspflichten sowie die regelmäßige Überprüfung und das Qualitätsmanagement von KI-Modellen im Rahmen der MaRisk.
Ki-Einsatz setzt Standards voraus
Abschließend lässt sich festhalten, dass die Zukunft der Finanzindustrie eng mit der Entwicklung und Implementierung von künstlicher Intelligenz verknüpft ist. Die zunehmende Integration von KI-Technologien verspricht nicht nur eine steigende Effizienz, sondern stellt auch eine Herausforderung dar, die es mit Bedacht zu meistern gilt.
Die Einführung von regulatorischen Rahmenbedingungen wie dem EU AI Act markiert einen wichtigen Schritt hin zu einem sicheren und vertrauenswürdigen Umgang mit KI-Systemen im Finanzsektor. Diese Maßnahmen zielen darauf ab, Risiken zu minimieren, Transparenz zu gewährleisten und die Einhaltung von Compliance-Standards sicherzustellen.
Aufgrund der Vielzahl an regulatorischen Neuerungen sind interdisziplinäre Kompetenzen seitens der Institute notwendig, um Strukturen und Prozesse für eine KI-Governance zu schaffen, die technisch, rechtlich und organisatorisch angemessen sind. Es ist von entscheidender Bedeutung, dass die betroffenen Institute sich ausgiebig mit den entsprechenden Regularien auseinandersetzen und zeitnah mit der Umsetzung beginnen.
Mehr über das Partnerkonzept des Bank Blogs erfahren Sie hier.