EY désigne l'organisation globale et peut faire référence à l'un ou plusieurs des membres d'Ernst & Young Global Limited, dont chacun est une entité juridique distincte. Ernst & Young Limited est une société suisse, avec un siège en Suisse, qui fournit des services à des clients en Suisse.
Comment EY peut vous aider
-
Our team works to give you the benefit of our broad sector experience, our deep subject-matter knowledge and the latest insights from our work worldwide.
Pour en savoir plus.
Diverses images et vidéos très médiatisées, qui ont captivé l’imagination du public, illustrent dans quelle mesure l’IA générative pourrait perturber notre vision du risque. Qu’il s’agisse d’une plaisanterie inoffensive, comme la photo du pape François emmitouflé dans une doudoune, ou de vidéos calomnieuses montrant des célébrités ivres ou dans d’autres situations compromettantes, les « deepfakes » sont devenus une source de divertissement - et de désinformation. Les escrocs peuvent utiliser les mêmes techniques. Selon la Commission fédérale américaine du commerce, de fausses vidéos d’Elon Musk utilisées pour escroquer des consommateurs ont rapporté plus de 2 millions d’USD en six mois [1]. Convaincues par les messages apparemment authentiques du milliardaire contenus dans les vidéos, les victimes ont transféré d’importantes sommes en crypto-monnaies.
L’utilisation de l’IA vocale dans une affaire récente [2] est encore plus abjecte : une mère a reçu un appel d’une personne ayant la même voix que sa fille. On lui disait que sa fille avait été kidnappée et qu’elle serait libérée contre le versement d’une rançon. Ce n’est qu’après avoir essayé d’appeler directement sa fille que la mère s’est rendu compte que la voix à l’autre bout du fil avait été générée par l’IA.
Les banques sont également directement visées, de premiers exemples d’escroquerie vocale ont été rendus publics [3]. Les clients fortunés courent un risque particulièrement élevé, car ils sont plus susceptibles de faire des apparitions publiques, ce qui fournit du matériel pouvant être utilisé pour entraîner l’IA à imiter leur voix. Si l’on ajoute à cela l’ingénierie sociale qui vise à recueillir des données sur leurs relations bancaires, il faudra à l’avenir examiner de plus près les instructions téléphoniques pour en vérifier l’authenticité.
De nouvelles approches pour lutter contre la fraude
Les prestataires de services financiers ont besoin de pouvoir identifier correctement leurs clients et ne peuvent continuer à le faire qu’en reconnaissant ces menaces et en y faisant face efficacement. Certaines mesures peuvent être prises :
- modifier le modèle opérationnel de lutte contre la fraude pour que la détection des « deepfakes » fasse partie intégrante des contrôles de détection et de prévention ;
- réaliser des évaluations régulières des menaces afin d’identifier, d’évaluer et de comprendre en continu les risques potentiels et les vulnérabilités des produits et des services susceptibles d’être ciblés par des « deepfakes » ;
- assurer une évaluation et une analyse systématiques des risques potentiels liés aux « deepfakes » auxquels l’entreprise ou ses clients peuvent être confrontés.
Bien entendu, si les technologies émergentes sont à l’origine de cette nouvelle menace, on compte également sur elles pour apporter des solutions. Cela commence par le filtrage des métadonnées et l’ajout de filigranes numériques sur les produits par les fournisseurs de modèles d’IA générative [4]. Malheureusement, les acteurs malveillants peuvent contourner ces précautions. Beaucoup d’espoirs reposent sur l’intelligence artificielle elle-même, en particulier sur l’apprentissage par renforcement, pour détecter les contenus générés par l’IA. Dans un premier temps, cela facilitera la détection des fraudes pour les images, mais les fraudes utilisant la voix et les vidéos resteront plus difficiles à identifier. Le marché des outils de détection se développe rapidement.