leiter des projekts ingenieur hält briefing für ein team von wissenschaftlern

Trauen Sie Ihrer KI zu, die Vorschriften zu erfüllen?

Viele leistungsstarke KI-Plattformen sind nun für Anwender verfügbar. Jedoch stellt sich bei den KI-Lösungen die Vertrauensfrage.


Überblick

  • Der EU AI Act ist ein umfassender Verordnungsvorschlag, mit dem ein gemeinsamer Regulierungs- und Rechtsrahmen für künstliche Intelligenz eingeführt werden soll.
  • Mit KI-Lösungen sind viele technische und ethische Risiken verbunden, die durch eine angemessene KI-Governance gemildert werden sollen.

Produkte, die auf künstlicher Intelligenz (KI) basieren, sind bereits ein wichtiger Bestandteil unseres täglichen Lebens und bieten neue, vorher nicht vorstellbare Möglichkeiten. Doch wie jede andere neue Technologie birgt auch KI ihre eigenen Risiken. Hier sind insbesondere ethische Risiken, die sowohl die Menschenrechte als auch die Menschenwürde in Gefahr bringen, zu benennen. Um die sichere und gefahrenfreie Nutzung von KI-Produkten zu gewährleisten, arbeiten Staaten und Vereinigungen weltweit seit einiger Zeit an der Entwicklung und Harmonisierung erforderlicher Vorschriften. Der EU AI Act, der voraussichtlich bis Ende 2023 in Kraft treten soll, ist eine der führenden Regelungen dieser Art. 

Die Anwendung von KI-Lösungen auf dem Markt nimmt kontinuierlich zu

KI-Lösungen sind im Unternehmens- und KMU-Banking immer präsenter, wobei sich das Wachstum zwischen 2019 und 2021 vervierfacht hat. Dieses Wachstum hat seine Wurzeln in den explosiv gewachsenen Datenmengen, neuen Technologien und dem erhöhten Wettbewerb durch aufsteigende Disruptoren.

Die KI verändert dabei viele Aspekte des Bank- und Versicherungswesens sowie des Wealth and Asset Managements, indem die Genauigkeit erhöht, die Kosten gesenkt und neue Dienste angeboten werden können, die zuvor nicht verfügbar waren. KI-Algorithmen in Financial Services können darüber hinaus helfen, Betrug festzustellen, Risikofaktoren zu modellieren oder zur Verbesserung des Customer Service beitragen.

kl-einsatzmoeglichkeiten

Die klassische Betrugserkennung besteht darin, Transaktionen und Zahlungen auf verdächtige Aktivitäten hin zu überwachen. Es ist jedoch eine große Herausforderung, Anomalien in der Datenflut zu erkennen. Hier können KI-Lösungen wie beispielsweise Deep Neural Networks sehr effektiv sein. KI kann auch als wichtiges Instrument zur Risikobewertung in Bereichen wie Darlehen, Zahlungen, Kredite usw. eine Rolle spielen. Jedoch kann KI mehr als nur Risiken bewerten. Personalisiertes Banking und Kundenbindung sind einige der Bereiche, in denen KI die Erträge steigern könnte. Die Personalisierung kann Banken helfen, ihren Kunden frühzeitig maßgeschneiderte und passende Lösungen anzubieten, noch bevor sich diese ihres Bedarfs bewusst werden. Dies gelingt, indem KI-Lösungen Transaktionsmodelle und andere Datenquellen nutzen, um Banken zu helfen, das Kundenverhalten zu verstehen und die Kundenerfahrung zu verbessern.

Neue Technologie, neue Risiken

Fast zwei Drittel der Vorreiter in der Implementierung von KI haben Bedenken bezüglich der mit KI verbundenen Risiken. Mit dem Einsatz von KI-Produkten sind viele Risiken verbunden, was bereits bei den Daten beginnt. Obwohl Daten der Grundbaustein jeder KI-Lösung sind, stellen sie auch eine erhebliche Risikoquelle dar. So kann beispielsweise die Verwendung von uneingeschränkten Daten für die Entwicklung von KI-Lösungen für die Kreditwürdigkeitsprüfung zu falsch ausgerichteten Ergebnissen führen. Die Qualität der Daten ist ebenso wichtig wie ihre Quantität. Systematisch fehlende Werte, Datenredundanz, signifikante Datenkardinalitäten usw. sind einige der Probleme, zu deren Lösung angemessene Einschränkungen vorgenommen werden müssen. Andernfalls wird eine KI-Lösung schnell ein Beispiel für „garbage in, garbage out“.

Darüber hinaus können die Ergebnisse von KI-Lösungen zu einer Diskriminierung aufgrund von Geschlecht, Rasse, Alter, Glauben usw. führen, wenn diese Informationen während des Trainings/der Entwicklung überproportional vorhanden waren beziehungsweise gefehlt haben. Insbesondere bei der Verwendung persönlicher Informationen ist es zudem wichtig, die geltenden Regeln des Datenschutzes einzuhalten.

verteidigungslinien gegen ki-risiken

Technologisch gesehen wird von den KI-Lösungen erwartet, dass sie nicht nur genau genug sind, sondern auch fair gegenüber Bevölkerungsminderheiten. Unfairness ist ein häufiges Risiko, das aus unbedachten Entwicklungsplänen für KI-Lösungen resultiert. Man stelle sich ein unfaires Empfehlungssystem für die Kreditvergabe vor, das speziell für eine Gruppe von Personen entwickelt wurde. Ein solches KI-Produkt würde Kunden, die nicht zu dieser Gruppe gehören, falsche Empfehlungen aussprechen.

Die KI-Lösungen sollen robust gegenüber unvorhergesehenen Situationen sein. KI-basierte Investitionsmanagementsysteme sind beispielsweise anfällig für Fehlfunktionen bei unvorhersehbaren Ereignissen wie einer Pandemie. Viele Entscheidungsträger empfinden die mangelnde Transparenz von KI-Lösungen als Showstopper. Komplizierten mathematischen Algorithmen, die nicht leicht zu verstehen sind, zu vertrauen, ist ebenfalls schwer.

Wie jede andere digitale Technologie kann auch eine KI zum Ziel von Cyberangriffen werden. Gezielte Angriffe und eine absichtliche Datenvergiftung sind daher weitere Sicherheitsrisiken, die berücksichtigt werden müssen.

EU AI Act: Warum ist dieses Gesetz relevant für Sie?

Im April 2021 veröffentlichte die Europäische Kommission einen umfassenden Verordnungsvorschlag (EU AI Act), mit dem ein gemeinsamer regulatorischer und rechtlicher Rahmen für KI eingeführt werden soll. Es wird erwartet, dass der EU AI Act bis Ende 2023 in Kraft treten wird.

Dieses Gesetz soll KI-Innovationen menschenzentriert machen. Betroffen sind alle Dienstleister und Unternehmen, die KI-Lösungen anbieten oder Ergebnisse von KI in Europa nutzen wollen. Gemäß den Leitlinien sollen vertrauenswürdige KI-Systeme

  1. rechtmäßig sein, unter Einhaltung der geltenden Gesetze und Vorschriften,
  2. ethisch sein, unter Beachtung ethischer Werte und Grundsätze, und
  3. robust sein, sowohl aus technischer Sicht als auch unter Berücksichtigung des sozialen Umfeldes.

Dabei teilt die EU KI-Systeme in vier Klassen auf: verbotene KI, Hochrisiko-KI, Risiko-KI und Minimalrisiko-KI. Werden Verstöße gegen die Leitlinien registriert, werden teils hohe Strafzahlungen von der EU verlangt. Betreibt ein Unternehmen verbotene KI in Europa, müssen bis zu 30 Millionen Euro oder bis zu 6 Prozent des weltweiten Umsatzes als Strafe gezahlt werden.

Durch die EU-Regulierung werden KI-Systeme strengeren Regeln unterworfen, die im Vergleich zu den Chancen, die mit KI verbunden werden, die Mühe wert sind, diese Regeln umzusetzen. Bis 2030 soll KI dem Bankensektor eine Kostenreduktion um 22 Prozent im operativen Bereich – umgerechnet circa 1 Trillion US-Dollar – bescheren.

Um gar nicht erst von solchen Strafzahlungen bedroht zu werden und um früh von den Vorteilen der KI zu profitieren, sollten interne Kontrollprozesse bezüglich der KI-Systeme ergänzt und die Governance angepasst werden.

Fazit

Die europäischen Vorschriften werden die Art und Weise, wie KI entwickelt wird, für immer verändern. Das Streben nach einer Trustworthy AI ist ein wesentlicher Baustein zur weiteren Etablierung dieser Technologie. Die Schaffung vertrauenswürdiger KI erfordert eine iterative Zusammenarbeit aller Beteiligten, von den Entwicklern über die staatlichen Stellen bis hin zu den Prüfinstanzen – um so auch das Vertrauen der Öffentlichkeit zu erhalten. Zu diesem Zweck verfügt EY über zahlreiche Instrumente: Leitlinien zur Konformitätsbewertung, technische Best Practices, Technologie-Roadmap und Codes of Conduct. Diese ermöglichen es EY, KI-Systeme zu überwachen, zu validieren und zu benchmarken. Unternehmen, die jetzt handeln, werden die Pioniere des künftigen KI-Marktes sein.

Über diesen Artikel

Autoren

Mehr zum Thema

Wie die EU die Kontrolle der KI in menschlicher Hand behalten möchte

Die EU plant einen neuen Rechtsrahmen für künstliche Intelligenz. Lesen Sie hier, was Unternehmen erwartet.