Die internationale EY-Organisation besteht aus den Mitgliedsunternehmen von Ernst & Young Global Limited (EYG). Jedes EYG-Mitgliedsunternehmen ist rechtlich selbstständig und unabhängig und haftet nicht für das Handeln und Unterlassen der jeweils anderen Mitgliedsunternehmen. Ernst & Young Limited ist ein Schweizer Unternehmen mit Sitz in der Schweiz, das Dienstleistungen für Kunden in der Schweiz erbringt.
So unterstützen wir Sie
-
Our team works to give you the benefit of our broad sector experience, our deep subject-matter knowledge and the latest insights from our work worldwide.
Mehr erfahren
Das Ausmass, in dem generative KI unsere Wahrnehmung von Risiken von Grund auf verändern könnte, lässt sich an verschiedenen öffentlichkeitswirksamen Bildern und Videos verdeutlichen, welche die Öffentlichkeit in ihren Bann gezogen haben. Von harmlosen Spässen, wie dem Bild von Papst Franziskus in einem Puffermantel, bis hin zu diffamierenden Videos, die Prominente betrunken oder in anderen kompromittierenden Situationen zeigen, sind Deepfakes zu einer Quelle der Unterhaltung – und der Desinformation – geworden. Dieselben Techniken können auch von Betrügern eingesetzt werden. Angaben der US Federal Trade Commission zufolge wurden gefälschte Videos von Elon Musk verwendet, um Verbraucherinnen und Verbraucher innerhalb von sechs Monaten um mehr als 2 Millionen US-Dollar zu betrügen [1] . Überzeugt von den scheinbar authentischen Botschaften des Milliardärs in den Videos, überwiesen die Opfer hohe Summen in Kryptowährungen.
Noch niederträchtiger ist der Einsatz von Sprach-KI in einem aktuellen Fall [2], bei dem eine Mutter einen Anruf von jemandem erhielt, der wie ihre Tochter klang. Es wurde behauptet, die Tochter sei entführt worden und würde gegen Zahlung eines Lösegelds freigelassen werden. Erst als die Mutter versuchte, ihre Tochter direkt anzurufen, bemerkte sie, dass die Stimme am anderen Ende von einer KI erzeugt worden war.
Auch Banken werden direkt angegriffen, und es wurden bereits erste Fälle von Sprachbetrug bekannt [3]. Vermögende Kunden sind besonders gefährdet, da sie häufiger in der Öffentlichkeit auftreten und somit Material liefern, mit dem KI auf die Imitation ihrer Stimmen trainiert werden kann. Dies – in Verbindung mit Social Engineering, um Daten über deren Bankbeziehungen zu sammeln – verlangt in Zukunft eine sorgfältigere Prüfung der Authentizität von Telefonanweisungen.
Neue Ansätze zur Bekämpfung betrügerischer Aktivitäten
Finanzdienstleister sind darauf angewiesen, ihre Kunden richtig identifizieren zu können. Dies kann in Zukunft nur dann gewährleistet werden, wenn sie diese Bedrohungen erkennen und entsprechend auf sie reagieren. Hierzu bieten sich unter anderem folgende Schritte an:
- Überarbeitung des Modells zur Betrugsbekämpfung, um die Erkennung von Deepfakes als festen Bestandteil in die Erkennungs- und Präventionskontrollen aufzunehmen,
- Durchführung regelmässiger Bedrohungsanalysen, um potenzielle Risiken und Schwachstellen in Produkten und Dienstleistungen, die von Deepfakes angegriffen werden können, kontinuierlich zu ermitteln, zu bewerten und zu verstehen,
- Sicherstellung einer systematischen Bewertung und Analyse potenzieller Deepfake-Risiken, welchen Organisation oder ihre Kunden begegnen könnten.
Obwohl diese aufstrebende Technologie die Quelle dieser neuen Bedrohung ist, verspricht sie auch Abhilfe bei ihrer Bekämpfung. Dies beginnt mit dem Screening von Metadaten sowie dem Hinzufügen digitaler Wasserzeichen in Produkten von Anbietern generativer KI-Modelle [4]. Unglücklicherweise können böswillige Akteure solche Vorsichtsmassnahmen umgehen. Nicht wenige setzen ihre Hoffnungen auf die künstliche Intelligenz selbst, insbesondere auf das «bestärkende Lernen», um KI-generierte Inhalte zu erkennen. Bei Bildern wird dies zunächst einfacher sein, wohingegen Betrug mit Sprache und Videos schwieriger zu erkennen sein wird. Der Markt für Erkennungstools verzeichnet ein rasches Wachstum.