„Daten sind das neue Öl“, erklärte der Economist 2017. Doch ihr wahrer Wert für Unternehmen entfaltet sich nur bei guter Aufbereitung und automatisierter Verfügbarkeit. Datenqualität ist daher eine zentrale, jedoch komplexe Managementaufgabe.

Datenmanagement in Banken und Sparkassen

Beim Datenmanagement kommt es auf die Datenqualität an.

Partner des Bank Blogs

Digitalisierung ist im Kern nichts anderes als die Verwendung von Daten und algorithmischen Systemen für neue oder verbesserte Produkte, Prozesse und Geschäftsmodelle. Je vernetzter und digitaler die Wirtschaft, desto erfolgskritischer ist das eigene Datenkapital für ein Unternehmen. Dabei reicht es nicht aus, dass Daten bloß vorhanden sind. Ihren Wert entfalten sie dann, wenn sie strukturiert, sicher und verlässlich anwendbar sind und idealerweise automatisiert verfügbar. Datenqualität ist somit zu einer komplexen und zugleich zentralen Managementaufgabe geworden. Wenig überraschend, dass es laut einer Studie des Beratungshauses Lünendonk für 75 Prozent der befragten Banken und Versicherer von hoher Bedeutung und Priorität ist, ein datengetriebenes Unternehmen zu werden.

Schlechte Daten kommen teuer zu stehen

Neben dem Ziel, mit Datenmanagement innovative und kundenzentrierte Lösungen zu entwickeln, wird das Thema zudem getrieben durch die stetig wachsenden Anforderungen der Regulatorik und strengere Datenschutzvorgaben. Im Mittelpunkt steht dabei der vom Baseler Ausschuss 2013 verabschiedete Standard zur Aggregation von Risikodaten und deren Berichterstattung (BCBS #239). Damit wurden als Folge der Finanzmarktkrise umfassende Anforderungen an Data Governance, Datenqualitätsmanagement, Datenprozesse, IT- und Risikoarchitekturen sowie an die Erstellung und Verbreitung von Risikoberichten gestellt. Sie sollen das Risikomanagement und Entscheidungsprozesse in den Banken verbessern. Eine Studie des Analysehauses Gartner offenbart, dass Unternehmen durch schlechte Datenqualität nicht nur regulatorische Konsequenzen drohen, sondern sie pro Jahr durchschnittlich 15 Millionen US-Dollar verlieren.

Als Teil der DZ BANK Gruppe zählt die Bausparkasse Schwäbisch Hall zu den systemrelevanten Instituten und muss alle Anforderungen des BCBS #239-Standards umsetzen. Die hochwertige Verarbeitung von Daten für das Risikocontrolling und damit einhergehend die Etablierung einer Data-Governance-Einheit in allen DZ BANK Gruppenunternehmen ist eines von vier Handlungsfeldern. Die DZ BANK hat eine entsprechende Data Governance-Konzernrichtlinie verabschiedet, die für alle Tochterunternehmen gilt.

Eine Kulturfrage: Daten gehen uns alle an

Im Kern geht es um die Frage, wie erfolgreiches Datenqualitätsmanagement im Spannungsfeld aus Regulatorik und Kosteneffizienz einerseits sowie kundenzentrierter Innovation und Wachstum andererseits gelingen kann.

Der Schlüssel für die erfolgreiche Einführung und Umsetzung einer Datenqualitätsstrategie liegt dabei – so die Kernthese und unsere Erfahrung bei Schwäbisch Hall – in der Etablierung einer Unternehmenskultur, die den Wert und die Bedeutung von Daten anerkennt. Sie fußt auf einer starken Data Governance, die Verantwortlichkeiten und Prozesse definiert und zudem die unternehmensweite Datenkompetenz und den Dialog darüber fördert.

Kernelemente der Data-Governance-Strategie

Data Governance umfasst die Menschen, Prozesse und Technologien, die zur Verwaltung und zum Schutz des Datenkapitals benötigt werden und definiert den Rahmen, um an der Optimierung von Datenqualität zu arbeiten. Zwölf Elemente – vom Rollenmodell über Prozesse und Gremien bis hin zu Kontrollen, Issue Management, Reporting und Service Level Agreements – bilden das Rahmenwerk von Schwäbisch Hall und sind in der Data-Governance-Richtlinie beschrieben.

Die zentrale Data-Governance-Einheit, angesiedelt in der IT, ist für die Kommunikation, Einführung und Weiterentwicklung des Rahmenwerks zuständig und zugleich maßgeblicher Gestalter der Datenkultur innerhalb der Bausparkasse.

Zwölf Elemente bilden das Rahmenwerk von Schwäbisch Hall und sind in einer Data-Governance-Richtlinie beschrieben.

Ein wesentlicher Baustein, der zugleich den Gemeinschaftscharakter der Datenqualität aufzeigt, ist das Rollenmodell. Mit den allgemeinen Rollen Data Owner, Data Steward und Data User sowie den zentralen Rollen des Head of Data Governance und des Head of Data Stewards sind bei Schwäbisch Hall klare Verantwortlichkeiten geschaffen. Sie erleichtern die Kommunikation, insbesondere im Anforderungs-, Klärungs-, Fehler- oder Eskalationsfall.

Die Data Ownership ist stets auf Bereichsleitungsebene verortet – die Daten „gehören“ also vielen verschiedenen Fachbereichen im Unternehmen. Die verschiedenen Dateneigentümer in der Bausparkasse haben somit nicht nur die Steuerungshoheit über die fachliche Weiterentwicklung ihrer Daten inne, sondern sind auch für deren Qualität verantwortlich. Unterstützt wird ein Data Owner oft durch einen Mitarbeitenden aus dem eigenen Fachbereich (Data Steward), der die entsprechenden Aktivitäten zu Werterhalt und Steigerung des jeweiligen Datenbestands in Zusammenarbeit mit den konkreten Datennutzern (Data User) koordiniert.

IT und Fachbereiche im Dialog für bessere Ergebnisse

Aus der zentralen Data-Governance-Einheit stehen ihnen der Head of Data Governance und Head of Data Stewards als Ansprechpersonen zur Seite. Sie schulen, stellen Analysetools bereit, sorgen für funktionierende Sicherungssysteme, halten die notwendigen Aktivitäten der Data Owner nach und beraten zu allen Fragenstellungen rund um Datenqualität.

Dies geschieht zum einen institutionalisiert über den regelmäßigen fachlichen Austausch in der Data Governance Arbeitsgruppe (Fokus Data Stewards) sowie im Data-Governance-Komitee (Fokus Data Owner). Zum zweiten findet Dialog und Wissensaufbau verstärkt auch im Rahmen von Projekten oder agilen Zusammenarbeitsformaten statt.

Mit den allgemeinen Rollen Data Owner, Data Steward und Data User sowie den zentralen Rollen Head of Data Governance und Head of Data Stewards sind bei Schwäbisch Hall klare Verantwortlichkeiten geschaffen.

Datenqualität ist nicht gleich Datenqualität

Dabei variieren die Anforderungen an Datenqualität je nach Anwendungsfall erheblich. Betrachtet werden dafür immer alle fünf Dimensionen: Vollständigkeit, Genauigkeit, Integrität, Aktualität und Verfügbarkeit. Ob die Datenqualität den Anforderungen entspricht, wird durch Sicherungsmechanismen und automatisierte Prüfungen (Datenqualitäts-Prüfungen) ermittelt und in entsprechenden Reportings sichtbar gemacht.

Während etwa für die Optimierung von Vermarktungskampagnen vor allem die Aktualität der Daten entscheidend und beispielsweise eine 80-prozentige Datenqualität über alle Dimensionen ausreichend sein kann, erfordert die Datenversorgung der Unternehmenssteuerung eine 100-prozentige Qualität.

Anwendungsbeispiel Reporting: Akzeptanz und Relevanz durch Einbindung

In den vergangenen Jahren wurde daher ein standardisiertes Datenqualitäts-Reporting für die strategische Unternehmenssteuerung aufgebaut, das laufend verbessert wird. Über ein digitales Dashboard sind inzwischen sowohl ein aggregierter Überblick für die Bereichsleitung und den Vorstand als auch tiefere Einblicke und kontextbezogene Informationen für Experten in den Fachbereichen einsehbar. So ist bei der monatlichen Überprüfung für Fachexperten schnell ersichtlich, ob gefundene Datenmängel relevante Risiken darstellen können. Ein Self-Service-Bereich lässt zudem individuelle Auswertungen zu.

Durch die Zusammenarbeit mit Rechnungswesen, Risikomanagement und Finanzcontrolling wurde die Klarheit, Relevanz und Benutzerfreundlichkeit des Reportings signifikant verbessert. Ein iteratives Entwicklungsmodell, gepaart mit regelmäßigem Feedback aus den Fachbereichen, spielt eine Schlüsselrolle bei der erfolgreichen Weiterentwicklung.

Die Akzeptanz im Fachbereich konnte durch die fachliche Bündelung von Datenqualitäts-Prüfungen, hier Fachzuordnung genannt, deutlich gesteigert werden. Beispielsweise werden alle Datenqualitäts-Prüfungsergebnisse für den Expected Loss (EL) zusammengefasst und die Datenqualität aggregiert dargestellt. So ist auf einen Blick erkennbar, ob die Daten verwendet werden können oder nicht.

Das Reporting ist Bestandteil eines umfassenden Sicherungsnetzes. Es wird von der zentralen Einheit Data Governance gestaltet und stellt die Datenqualität sicher. Dazu werden derzeit mehr als 10.000 fachliche und technische Datenqualitätsprüfungen automatisiert im Data Warehouse durchgeführt.

Der Fokus liegt dabei auf den Ultimos, insbesondere den Quartals-Ultimos. Sie stellen die Datenqualität in mehr als 3.500 Tabellen mit über 70.000 Attributen sicher, die – um nur einen Anwendungsfall zu nennen – für das Meldewesen elementar sind, um korrekte Meldungen an die Bundesanstalt für Finanzdienstleistungsaufsicht machen zu können.

Die Datenqualitätsprüfungen laufen nicht in einem Block ab, sondern werden zeitlich verteilt gestartet. Das entlastet einerseits die Infrastruktur und stellt andererseits sicher, dass Datenqualitätsprüfungen erst nach Vorliegen von zusätzlich berechneten Daten gestartet werden. Alle drei Monate werden die relevanten Bereichsleitungen und mindestens jährlich der Vorstand über den Status der Datenqualität und die Weiterentwicklung des Sicherungsnetzes informiert.

Blick nach vorn: Ein Spagat fürs Datenqualitätsmanagement

Auch wenn wir bei Schwäbisch Hall bereits wesentliche Schritte auf dem Weg zu einem datengetriebenen Unternehmen erfolgreich gegangen sind, ist ein weiterer Auf- und Ausbau der Data Governance notwendig. Gesetzliche Anforderungen wie der EZB-Guide zur Risikodatenaggregation und Risikoberichterstattung unterstreichen, dass ein gesamthafter Überblick über die Datenqualität immer mehr an Bedeutung gewinnt. Nur die Aggregation detaillierter Prüfungsergebnisse zu aussagekräftigen Kennzahlen wird es dem Top-Management ermöglichen, fundierte Entscheidungen auf Basis einer klaren Darstellung der Datenqualität zu treffen.

Gleichzeitig spielt die Datenqualität im Kontext von Data Analytics und damit als Antrieb für Innovationen und digitale Geschäftsmodelle eine entscheidende Rolle. Hier kommt es insbesondere auf die Aktualität und somit auf die Geschwindigkeit der am Markt verfügbaren Daten an. Die Herausforderung für das Datenqualitätsmanagement besteht darin, sowohl die regulatorischen Anforderungen als auch die Bedürfnisse der Datenanalyse effizient zu bedienen. Laut einer Studie von Lünendonk setzen bereits 63 Prozent der Banken und Versicherungen Technologien zur Datenhaltung ein, um komplexe Datenberge zu verarbeiten und nutzbar zu machen​​. Die Zukunft liegt in der weiteren Automatisierung dieser Prozesse, um die Effizienz in der Datenverarbeitung und -analyse zu steigern.

Trotz aller Technologie und Automatisierung bleibt der menschliche Faktor entscheidend. Bei Auffälligkeiten in den Daten ist es letztlich nur der Fach- oder Datenexperte, der die Kritikalität einer solchen Auffälligkeit beurteilen kann. Dies unterstreicht die Notwendigkeit, eine starke Datenkultur und -kompetenz im Unternehmen zu etablieren, die sowohl die technologischen als auch die menschlichen Aspekte des Datenmanagements umfasst.

Indem wir die Bedeutung von Daten anerkennen und kontinuierlich in ihre Qualität investieren, bauen wir nicht nur die Grundlage für eine erfolgreiche digitale Transformation, sondern leisten auch einen Beitrag für die Zukunftsfähigkeit des Unternehmens.