Die internationale EY-Organisation besteht aus den Mitgliedsunternehmen von Ernst & Young Global Limited (EYG). Jedes EYG-Mitgliedsunternehmen ist rechtlich selbstständig und unabhängig und haftet nicht für das Handeln und Unterlassen der jeweils anderen Mitgliedsunternehmen. Ernst & Young Global Limited ist eine Gesellschaft mit beschränkter Haftung nach englischem Recht und erbringt keine Leistungen für Mandanten.
So unterstützen wir Sie
-
EY kann Ihrem Unternehmen dabei helfen, schnell auf mutmaßlichen Betrug, Bestechung und anderes Fehlverhalten zu reagieren. Erfahren Sie mehr.
Mehr erfahren
Risiken im Zusammenhang mit KI-basierten Untersuchungshandlungen
Der Einsatz einer spezialisierten KI, unabhängig von ihrer fortschrittlichen Verarbeitungs- und Analysefähigkeit, ist und bleibt sehr komplex. Entscheidend sind immer die zugrunde liegenden Daten und wie diese in die Anwendungen eingebracht werden, und auch die Formulierung der Texteingaben („Prompts“). Sind die Daten oder die „Fragen“ fehlerhaft oder ungenau, führt dies zu irreführenden Ergebnissen – frei nach dem Motto „Garbage in, garbage out“. Außerdem ist KI bis heute nur begrenzt in der Lage, Kontextnuancen und menschliche Urteile zu erfassen, die oft bei forensischen Untersuchungen entscheidend sind, um beispielsweise kodierte Absprachen zwischen Tatbeteiligten zu identifizieren. Dazu ist stets eine detaillierte Beschreibung der Prompts notwendig, was wiederum spezialisiertes Wissen für den operativen Betrieb und die Interpretation der Ergebnisse erforderlich macht. Man darf auch nicht der irrigen Annahme aufsitzen, dass KI die Denkarbeit des Ermittlers, insbesondere im konzeptionellen Bereich, überflüssig macht – je unstrukturierter und komplexer der Sachverhalt, desto mehr ist nach wie vor der Mensch gefragt.
Weitere Herausforderungen liegen im Bereich des Datenschutzes und rechtlicher Vorgaben. Bei der Analyse großer Datenmengen besteht immer die Gefahr einer Verletzung persönlicher Rechte, wenn sensible Daten unsachgemäß gehandhabt werden. Es ist daher essenziell, den Schutz privater Informationen der betroffenen Personen zu gewährleisten und das gesetzlich erforderliche Datenschutzniveau einzuhalten. Zudem variieren die Datenschutzvorgaben trotz eines europäischen Standards je nach Land, was die Verwendung von KI, insbesondere in länderübergreifenden Untersuchungen (besonders im Zusammenhang mit Drittstaaten), weiter erschwert. Insgesamt entwickelt sich die Technologie der künstlichen Intelligenz im Eiltempo unaufhaltsam weiter – die Gesetzgebung kann hier nur schwer Schritt halten. Da die interne Untersuchung in Deutschland immer noch einer spezifischen Rechtsgrundlage entbehrt, gibt es auch (noch) keine eindeutigen rechtlichen Rahmenbedingungen, Standards oder Best Practices für viele Aspekte eines Einsatzes von KI in forensischen Untersuchungen. Was als „lege artis“ gilt, wird sich erst noch entwickeln müssen.
Zuletzt sind auch die Entscheidungswege von KI oft nur schwer nachvollziehbar – ein Phänomen, das als „Black Box“-Problem der KI bekannt ist. Die fehlende Transparenz und Nachvollziehbarkeit kann es schwierig machen, Entscheidungen zu überprüfen und die Ergebnisse der Untersuchung gerichtsverwertbar zu präsentieren.
Die Zukunft: Wie wird sich KI in der internen Untersuchung entwickeln?
Künstliche Intelligenz ist ein sich exponentiell weiterentwickelndes Feld, und aufgrund der hohen Lern- und Adaptionsgeschwindigkeit der Large Language Models ist von einschneidenden Veränderungen im Bereich interner Untersuchungen auszugehen.
Zukünftige generative KI-Systeme werden in der Lage sein, komplexe Muster und Beziehungen innerhalb von Daten noch genauer zu identifizieren und präzisere Vorhersagen über zukünftige Ereignisse zu treffen. Die Fortschritte bei der natürlichen Sprachverarbeitung könnten dazu führen, dass KI in der Lage sein wird, verdächtige Konversationen zu identifizieren oder die Bedeutung verschlüsselter oder kodierter Nachrichten zu entschlüsseln – auf einem Niveau, das weit über das heute bestehende hinausgeht.
Denkbar wäre auch, dass Maschinen Interviews audiovisuell durchführen und in Echtzeit Angaben der Gesprächspartner mit Feststellungen aus den Datenanalysen oder dem E-Mail-Review vergleichen. Gleichzeitig erkennt das System menschliche Auffälligkeiten und trifft Einschätzungen über den Wahrheitsgehalt von Angaben. Was nach Science-Fiction klingt, erscheint plötzlich denkbar.
Auch das Reporting wird sich dadurch vereinfachen, dass insbesondere bei der Darstellung repetitiver Vorgänge (beispielsweise mehrere Betrugs- oder Diebstahlsdelikte mit gleichem Modus Operandi) KI dem Ermittler unter die Arme greift. Fragen der rechtlichen Verwertbarkeit bleiben bis dato offen.