Une fraude dans le nord de la Chine qui a utilisé une technologie de pointe de faux profond convaincre un homme de transférer de l’argent à un soi-disant ami a soulevé des inquiétudes quant au potentiel des techniques d’intelligence artificielle (IA) pour commettre des crimes financiers.
La Chine a intensifié l’examen de ces technologies et applications au milieu de l’augmentation de la fraude basée sur l’IA, qui implique principalement la manipulation de données faciales et vocales, et a adopté en janvier de nouvelles règles pour protéger légalement les victimes.
La police de la ville de Baotou, dans la région de la Mongolie intérieure, a déclaré que l’agresseur avait utilisé une technologie d’échange de visage basée sur l’IA pour se faire passer pour un ami de la victime lors d’un appel vidéo et recevoir un transfert de 4,3 millions de yuans (622 000 dollars).
La victime a viré l’argent en pensant que son ami devait faire un dépôt lors d’un processus d’appel d’offres, a déclaré la police dans un communiqué samedi.
L’homme n’a réalisé qu’il avait été dupé qu’après que son ami ait exprimé son ignorance de la situation, a ajouté la police, affirmant qu’ils avaient récupéré la plupart des fonds volés et s’efforçaient de localiser le reste.
L’affaire a déclenché un débat sur le site de microblogging Weibo sur la menace pour la vie privée et la sécurité en ligne, et le hashtag « Les escroqueries #AI explosent à travers le pays. » ) a enregistré plus de 120 millions de vues lundi.
« Cela montre que les escrocs peuvent utiliser des photos, des voix et des vidéos », a écrit un utilisateur. « Les normes de sécurité de l’information peuvent-elles suivre les techniques de ces personnes ?