Generative Künstliche Intelligenz ist dabei, Wirtschaft und Gesellschaft zu verändern. Eine Studie hat untersucht, wie Unternehmen sie einsetzen und welche ethischen Aspekte und Bedenken dabei bestehen.
Mit der Entstehung von Chatbots wie ChatGPT und anderen generativen KI-Tools hat sich das bisherige KI-Landschaft erheblich verändert. Die Möglichkeiten sind enorm, um Prozesse zu optimieren, Innovationen voranzutreiben und Lösungen für komplexe Probleme zu finden. Beispiele hierfür sind die Entwicklung neuer Werkstoffe in der Automobilbranche, die Reduzierung von Emissionen in der Energiewirtschaft oder die branchenübergreifende Optimierung von HR-Prozessen.
Dies eröffnet auch neue Perspektiven für digitale Ethik-Betrachtungen, um rechtlichen, finanziellen und Reputationsrisiken von Unternehmen vorzubeugen. Eine Studie von Deloitte hat untersucht, wie Unternehmen zu den damit verbundenen Fragestellungen stehen. Weltweit wurden dazu mehr als 1.700 Digital-Experten zu ethischen Aspekten technologischer Neuerungen befragt.
Potenziale und Risiken von neuen Technologien
Der technologische Fortschritt ist in vielerlei Hinsicht zweischneidig, da er neben großem Potenzial auch Risiken birgt. Das gilt auch für generative KI. Laut 39 Prozent der befragten Digitalexperten bietet generative KI das größte Potenzial, um gesellschaftliche Herausforderungen anzugehen und soziale Verbesserungen herbeizuführen. Gleichzeitig besteht jedoch große Besorgnis hinsichtlich ethischer Risiken wie Datenmissbrauch und Desinformation.
57 Prozent der Befragten äußern Bedenken hinsichtlich ethischer Risiken, die mit kognitiven Technologien wie Generative KI verbunden sind. Dies bedeutet einen deutlichen Anstieg um 16 Prozentpunkte im Vergleich zum Vorjahr, vor allem aufgrund des raschen Fortschritts rund um Generative KI seit der Einführung von ChatGPT im November 2022. Virtuelle Realität wird mit elf Prozent auf Platz zwei genannt (2022: 16 Prozent), gefolgt von Quantencomputing auf Platz drei mit neun Prozent (2022: 8 Prozent).
Bedenken gegenüber GenKI
Mit der steigenden Relevanz von generativer KI wurden in der diesjährigen Studie erstmals die konkreten Bedenken bei deren Einsatz abgefragt. Das Ergebnis zeigt, dass 22 Prozent der Digitalexperten eine Gefährdung der Privatsphäre sehen, beispielsweise wenn nicht verhindert wird, dass aus ungeschützten Trainingsdaten für generative KI-Modelle personenbezogene Informationen extrahiert werden.
Bei 14 Prozent der Befragten besteht die Sorge um mangelnde Transparenz, insbesondere wenn unklar ist, wie ein komplexes System aus Millionen von Datenpunkten eine bestimmte Information erstellt. Jeweils zwölf Prozent beunruhigen die Möglichkeit, dass manipulierte oder urheberrechtlich geschützte Trainingsdaten verwendet werden könnten.
GenKI birgt Risiken für Unternehmen
Wenn Unternehmen sich nicht aktiv mit den ethischen Risiken auseinandersetzen, könnten sie das Vertrauen von Kunden und Geschäftspartnern verlieren, was zu einem Schaden der Unternehmensreputation führen könnte, geben 38 Prozent der Befragten zu bedenken. 27 Prozent sehen mögliche Schäden für die Grundrechte von Einzelpersonen und der Gemeinschaft – von der Verletzung der Privatsphäre über Diskriminierung bis hin zu medizinischen Fehldiagnosen –, insbesondere wenn Technologien vorschnell eingeführt werden.
Zudem könnten regulatorische Strafen für Unternehmen denkbar sein (17 Prozent), beispielsweise durch die Verletzung des Urheberrechts.
Ethische Prinzipien etablieren
74 Prozent der Befragten geben an, dass ihre Unternehmen bereits den Einsatz von Generativer KI testen. Davon nutzen 65 Prozent die Technologie intern, während 31 Prozent sie bei externen Anwendungen einsetzen. Bei der Implementierung neuer Technologien ist es indes entscheidend, ethische Prinzipien frühzeitig zu etablieren, da die ethischen Risiken schnell skalieren können. Vor der Einführung neuer Technologien sollten daher digitale-ethische Leitlinien entwickelt werden, und verantwortungsbewusste Praktiken sollten im gesamten Unternehmen etabliert werden.
Die Studie gewährt auch Einblicke in die unterschiedlichen Ansätze von Unternehmen im Umgang mit ethischen Risiken. Vorreiterunternehmen tauschen sich in Netzwerken aus, reagieren mit zunehmender Dringlichkeit auf Innovationen und machen Ethikstandards zu einer Managementaufgabe. Sie entwickeln eigene Lösungen mithilfe ethischer Prinzipien und interner Gremien, um einen Handlungsrahmen mit konkreten Tools für ethisch fundierte Entscheidungen zu schaffen.
Im Gegensatz dazu gibt es eine beträchtliche Gruppe von Nachzüglern. 56 Prozent der Befragten geben an, dass ihre Unternehmen trotz des breiten Einsatzes von Generativer KI keine ethischen Grundsätze oder Orientierungsrahmen dafür haben.
Drei Schritte zur ethisch nachhaltiger Innovation
Unternehmen sollten für ethisch nachhaltige Innovationen in drei Schritten vorgehen und individuelle Leitlinien zu entwickeln:
- Im ersten Schritt, der Exploration, sollte die Bedeutung digitaler Ethik, spezifischer Regulierungen und die größten Bedenken von Mitarbeitern, Kunden und externen Stakeholdern ermittelt werden.
- Im zweiten Schritt können interne Verantwortlichkeiten sowie die dazugehörigen Prozesse und Strukturen ausgearbeitet werden.
- Der dritte Implementierungsschritt zielt darauf ab, alle Mitarbeiter in die Lage zu versetzen, die digital-ethischen Leitlinien zu verstehen und zu beachten. Dies ermöglicht es, in Transformationsprozessen Entscheidungshilfen bereitzustellen, die keine bürokratische Hürde darstellen.
Wenn sich die Geschäftsführung für ethische Standards im Unternehmen einsetzt, übernehmen diese 89 Prozent der Mitarbeiter.
Die Studie „Digitale Ethik und Vertrauen in Technologien 2023“ können Sie hier direkt herunterladen.
Mehr über das Partnerkonzept des Bank Blogs erfahren Sie hier.