Facial recognition technology with mobile phone

Wird Gen-KI das Risiko oder die Reaktion in der Betrugslandschaft verändern?

Da es generative KI einfacher denn je macht, speziell zugeschneiderte Bilder, Audiodateien oder Videos zu generieren, sollten sich Banken mit den neuen Risiken des Identitätsbetrugs befassen.


Im Überblick

  • Wie verändert sich die Betrugslandschaft durch das Aufkommen der generativen KI?
  • Welche technischen Lösungen gibt es?
  • Welche Rolle spielt der Mensch nach wie vor bei der Betrugserkennung?

Betrügerische Atkvititäten sind vermutlich so alt wie die Menschheit selbst. Mit der Entwicklung von Werkzeuge und Gesellschaften entstanden auch raffiniertere Methoden des Betrugstatbestandes. Generative KI ist das neueste Werkzeug im Instrumentarium der Betrüger.

Banken und Versicherungen profitieren von einfacheren und effizienteren Onboarding-Prozessen dank Videoidentifikation und vollständig digitalen und ferngesteuerten Prozessen. Ermöglicht werden diese durch KI-Techniken, die helfen, vorgelegte Dokumente und Identifikationsvideos automatisch zu überprüfen. Mit dem Aufkommen von generativen KI-Tools und ihrer allgemeinen Zugänglichkeit hat sich jedoch ein neues Verhältnis zwischen Effizienz und Risiko eingestellt. Führungskräfte im Finanzdienstleistungssektor sollten sich des erhöhten Betrugsrisikos bewusst sein, das diese Technologie mit sich bringt.

Neue Bedrohungen

Die allgemein verfügbaren generativen KI-Tools sind inzwischen multimodal. Dies gilt für ihren Input sowie wie für ihren Output, d.h. sie können sowohl Text als auch Sprache oder Video verarbeiten. Betrügern eröffnen diese Techniken eine schnellere Rendite ihrer (zeitlichen) Investition und erleichtern ihnen die Durchführung komplexer und personalisierter Angriffe.

Mit generativen KI-Tools lassen sich realistisch erscheinende Phishing-E-Mails in einem Bruchteil der Zeit generieren, die ein menschliches Team benötigen würde. Diese sind oft so überzeugend, dass die von den Organisationen üblicherweise eingesetzten Filter nicht greifen.

Deepfake
Betrag, den Opfer einer gefälschten Videokampagne verloren haben, an der angeblich Elon Musk beteiligt war.

Das Ausmass, in dem generative KI unsere Wahrnehmung von Risiken von Grund auf verändern könnte, lässt sich an verschiedenen öffentlichkeitswirksamen Bildern und Videos verdeutlichen, welche die Öffentlichkeit in ihren Bann gezogen haben. Von harmlosen Spässen, wie dem Bild von Papst Franziskus in einem Puffermantel, bis hin zu diffamierenden Videos, die Prominente betrunken oder in anderen kompromittierenden Situationen zeigen, sind Deepfakes zu einer Quelle der Unterhaltung – und der Desinformation – geworden. Dieselben Techniken können auch von Betrügern eingesetzt werden. Angaben der US Federal Trade Commission zufolge wurden gefälschte Videos von Elon Musk verwendet, um Verbraucherinnen und Verbraucher innerhalb von sechs Monaten um mehr als 2 Millionen US-Dollar zu betrügen [1] . Überzeugt von den scheinbar authentischen Botschaften des Milliardärs in den Videos, überwiesen die Opfer hohe Summen in Kryptowährungen.

Noch niederträchtiger ist der Einsatz von Sprach-KI in einem aktuellen Fall [2], bei dem eine Mutter einen Anruf von jemandem erhielt, der wie ihre Tochter klang. Es wurde behauptet, die Tochter sei entführt worden und würde gegen Zahlung eines Lösegelds freigelassen werden. Erst als die Mutter versuchte, ihre Tochter direkt anzurufen, bemerkte sie, dass die Stimme am anderen Ende von einer KI erzeugt worden war.

Auch Banken werden direkt angegriffen, und es wurden bereits erste Fälle von Sprachbetrug bekannt [3]. Vermögende Kunden sind besonders gefährdet, da sie häufiger in der Öffentlichkeit auftreten und somit Material liefern, mit dem KI auf die Imitation ihrer Stimmen trainiert werden kann. Dies – in Verbindung mit Social Engineering, um Daten über deren Bankbeziehungen zu sammeln – verlangt in Zukunft eine sorgfältigere Prüfung der Authentizität von Telefonanweisungen.
 

Neue Ansätze zur Bekämpfung betrügerischer Aktivitäten

Finanzdienstleister sind darauf angewiesen, ihre Kunden richtig identifizieren zu können. Dies kann in Zukunft nur dann gewährleistet werden, wenn sie diese Bedrohungen erkennen und entsprechend auf sie reagieren. Hierzu bieten sich unter anderem folgende Schritte an:

  • Überarbeitung des Modells zur Betrugsbekämpfung, um die Erkennung von Deepfakes als festen Bestandteil in die Erkennungs- und Präventionskontrollen aufzunehmen,
  • Durchführung regelmässiger Bedrohungsanalysen, um potenzielle Risiken und Schwachstellen in Produkten und Dienstleistungen, die von Deepfakes angegriffen werden können, kontinuierlich zu ermitteln, zu bewerten und zu verstehen,
  • Sicherstellung einer systematischen Bewertung und Analyse potenzieller Deepfake-Risiken, welchen Organisation oder ihre Kunden begegnen könnten.

Obwohl diese aufstrebende Technologie die Quelle dieser neuen Bedrohung ist, verspricht sie auch Abhilfe bei ihrer Bekämpfung. Dies beginnt mit dem Screening von Metadaten sowie dem Hinzufügen digitaler Wasserzeichen in Produkten von Anbietern generativer KI-Modelle [4]. Unglücklicherweise können böswillige Akteure solche Vorsichtsmassnahmen umgehen. Nicht wenige setzen ihre Hoffnungen auf die künstliche Intelligenz selbst, insbesondere auf das «bestärkende Lernen», um KI-generierte Inhalte zu erkennen. Bei Bildern wird dies zunächst einfacher sein, wohingegen Betrug mit Sprache und Videos schwieriger zu erkennen sein wird. Der Markt für Erkennungstools verzeichnet ein rasches Wachstum.

Vorerst sind menschliches Urteilsvermögen und Wachsamkeit die wichtigsten Verteidigungslinien.

Die meisten Lösungen arbeiten mit der Erkennung, ob eine Person in einem Video die typischen Anzeichen eines Menschen aufweist, die in KI-generierten Video häufig fehlen. Dazu gehören Blinzeln, Leberflecke auf der Haut, das physikalisch korrekte Spiegeln einer Brille oder Gesichtsbehaarung. Die andere Informationsquelle stellen biometrische Daten dar, die von einem Eingabegerät, beispielsweise einem Smartphone oder einem Computer, erfasst werden und Aufschluss über die Verhaltensdaten des Benutzers geben. Weichen diese biometrischen Daten deutlich von den Erwartungen ab, wird ein Signal ausgelöst.

Auch wenn die Produkte immer besser werden, haben die meisten technologiebasierten Erkennungslösungen, die ausschliesslich mit dem Bild, der Stimme oder dem Video selbst arbeiten, immer noch Schwierigkeiten, die Authentizität zuverlässig festzustellen. Für zuverlässige Ergebnisse sind kontextbezogene Informationen erforderlich, z.B. über welche Kanäle die Daten empfangen wurden und ob diese mit dem erwarteten Kundenverhalten übereinstimmen. Für die Erkennung neuer Betrugsarten müssen die Bedrohungsinformationen zudem zeitnah sein. Vorerst sind menschliches Urteilsvermögen und Wachsamkeit die wichtigsten Verteidigungslinien. Die Schulung der Mitarbeitenden im Erkennen und Reagieren auf Deepfakes ist somit ein wichtiger Schritt, um die Betrugsabwehr einer Organisation zu stärken.

Fazit

Generative KI erleichtert Betrügern den Identitätsbetrug, um an Vermögenswerte oder Informationen zu gelangen. Auch wenn technische Erkennungslösungen auf dem Vormarsch sind, ist die menschliche Wachsamkeit nach wie vor unverzichtbar, um dieser Bedrohung entgegenzuwirken.

Über diesen Artikel

Related articles

Das Gesetz über Künstliche Intelligenz der EU: Auswirkungen auf Unternehmen

Die EU plant die weltweit erste Regulierung von künstlicher Intelligenz. Was bedeutet das für Sie und Ihr Unternehmen in der Schweiz?