Für Banken bilden Daten die Basis, um zukunftsfähig zu bleiben. Die Grundvoraussetzung hierfür ist ein strukturiertes Datenmanagement. Bei der Implementierung eines geeigneten Modells kommt es auf verschiedene Faktoren an.
Die Finanzindustrie ist eine der datenintensivsten Branchen der Wirtschaft. Jeden Tag kommen enorme Mengen neuer Datensätze hinzu, die für Banken große Potenziale bieten. Jedoch stecken viele Institute in veralteten Infrastrukturen fest, sammeln die Daten in nahezu unbrauchbaren Silos und arbeiten mit dezentral dokumentierten Datenstrukturen.
Vor dem Hintergrund gestiegener regulatorischer Anforderungen, aufstrebender FinTechs und veränderter Kundenbedarfe sollten Banken lieber heute als morgen ihr Datenmanagement überdenken – und bestenfalls zum Kern ihres Geschäftsmodells machen. Für die Institute stellt das eine enorme Herausforderung dar. Dennoch müssen sie diesen Digitalisierungsschritt gehen, um wettbewerbsfähig bleiben zu können.
Kurzfristig agieren, langfristig denken
Denn: Richtungsweisende strategische Entscheidungen werden zunehmend auf der Grundlage dispositiver Datensätze getroffen – und das völlig zu Recht: Strukturiert analysierte Daten ermöglichen es, vergangene Beschlüsse zu analysieren, die Gegenwart abzubilden und einen Blick in die Zukunft zu werfen. Deshalb wird dem Datenmanagement eine solch enorme Bedeutung beigemessen und ist ein elementarer Bestandteil des Geschäftsmodells.
Jedoch ist die Implementierung eines geeigneten Datenmanagementmodells ein umfassender Eingriff und betrifft nahezu alle Geschäftsbereiche. Deshalb wird das Datenmanagement oftmals vor allem als Kostentreiber wahrgenommen. Dieser Eindruck wird dadurch verstärkt, dass sich die Vorteile des modernen Datenmanagements nicht genau beziffern lassen und zunächst hohe Investitionskosten nötig sind. Darüber hinaus treffen große Veränderungen immer zunächst intern auf eine gewisse Skepsis oder Gegenwind.
Vorausschauend planen
Gehen die Projektverantwortlichen jedoch sorgsam vor, können sie auf allen Ebenen frühzeitig Akzeptanz schaffen und die Mitarbeitenden für die Vorteile des strukturierten Datenmanagements begeistern. Deshalb sollte das Projekt als Stabsfunktion nahe an der Unternehmensleitung verankert sein und zu Beginn nur ein drei- bis vierköpfiges Team umfassen, das hauptverantwortlich agiert und als kompetenter Ansprechpartner für die Mitarbeitenden bereitsteht.
Zunächst sollten nur wenige Geschäftsfelder in das Projekt integriert werden. So können die Verantwortlichen wertvolle Erfahrungen sammeln, bevor es an das Kernbankensystem angeknüpft wird. Darüber hinaus sind vor der Implementierung wichtige Grundlagen zu klären, um Missverständnisse und Fehlinterpretationen von Kennzahlen sowie Begrifflichkeiten zu vermeiden. Hierfür bieten sich verschiedene Maßnahmen an: Das Projektteam sollte ein einheitliches Datenglossar erstellen sowie eindeutige Verantwortliche (Data Owner) definieren. Darüber hinaus sollten sie einen strukturierten Projektplan aufstellen und drängende Fragen klären, um eine gute Ausgangslage für eine erfolgreiche Implementierung zu schaffen. Das betrifft vor allem die Frage nach dem gewünschten Ansatz: Brownfield oder Greenfield?
Operation am offenen Herzen
Erfahrungsgemäß haben es Banken deutlich schwerer, ein strukturiertes Datenmanagement zu implementieren, wenn sie auf bestehenden, meist veralteten Infrastrukturen aufbauen (Brownfield-Ansatz). Empfehlenswert ist daher der Greenfield-Ansatz: Mit Hilfe einer neuen Standard-Software sowie einer Prozessverlagerung in eine Cloud-Umgebung schaffen es Banken, sich zukunftsfähig aufzustellen sowie die IT-Abteilung zu entlasten. Routineaufgaben können so an IT-Dienstleister ausgelagert, interne Kapazitäten freigemacht und Kosten eingespart werden. Darüber hinaus erleichtert der Greenfield-Ansatz die Anbindung an das Herz eines jeden Instituts: das Kernbankensystem.
Eine neue Standard-Software beinhaltet zudem geeignete Tools, die das Datenmanagement den Wünschen der Verantwortlichen entsprechend abbilden können. Gleichzeitig wird so ein übersichtliches Datenmodell geschaffen: Mit Hilfe der automatisierten Zuordnung der Daten wird deren Qualität erhöht sowie Gravitation gesenkt, sodass interne Prozesse schlanker und die IT-Infrastrukturen merklich agiler sowie resilienter werden. Beide Merkmale sind grundlegende Voraussetzungen für den zielgerichteten, sinnvollen Einsatz von Künstlicher Intelligenz (KI), die dafür sorgt, dass Prozesse optimiert, präzise Vorhersagen zu Marktentwicklungen getroffen und Datendimensionen gemindert werden. Eine verringerte Datendimension und eine damit verbundene höhere Datenheterogenität verbessert zudem die Leistung des Machine Learning (ML). Beide Technologien tragen einen wesentlichen Beitrag zur Bekämpfung von Geldwäsche bei, indem sie Red Flags (verdächtige Vorgänge) und Anomalien in Echtzeit erkennen und diese melden.
Weichen stellen
Traditionelle Bankhäuser stehen unter einem immensen Digitalisierungsdruck. Zum einen durch FinTechs, die die gezielte Datenverarbeitung längst zum Kern ihres Geschäftsmodells gemacht haben, und BigTechs, die zunehmend auf den Finanzmarkt drängen. Zum anderen aufgrund des großen Nachholbedarfs im technologischen Bereich.
Deshalb sollten Banken ihr Geschäftsmodell neu denken und das strukturierte Datenmanagement in ihren Fokus rücken. Nur so können sie weiterhin relevant bleiben, ihre Kunden besser verstehen und bedienen, Prozesse verschlanken sowie effizienter machen und den gestiegenen regulatorischen Anforderungen gerecht werden – die mittelfristige Zukunft der Finanzindustrie bleibt spannend und wird den Instituten weiterhin einiges abverlangen.