Les nouvelles technologies en plein essor, dont ChatGPT, figurent parmi les facteurs négatifs de l'emploi des diplômés universitaires en 2023

Photo IA : VCG

Éviter les escroqueries à l’aide de l’intelligence artificielle (IA) est devenu un sujet de discussion passionné sur la plate-forme de médias sociaux chinoise Weibo lundi, après que la police de Baotou, dans la région autonome de Mongolie intérieure (nord de la Chine), a récemment publié un cas typique d’escroquerie à l’IA dans lequel l’escroc a utilisé la technologie de l’IA pour créer un faux visage et une fausse voix lors d’un appel vidéo, trompant la victime de 4,3 millions de yuans (611 000 $).

La victime surnommée Guo, propriétaire d’une entreprise technologique à Fuzhou, dans la province du Fujian (est de la Chine), a été escroquée de 4,3 millions de yuans en 10 minutes, selon la police.

L’escroc a passé un appel vidéo WeChat à Guo vendredi après-midi, en utilisant la technologie de l’IA pour le faire ressembler à l’ami réel de Guo.

Au cours de l’appel vidéo, l’escroc a convaincu Guo qu’il avait besoin du compte d’entreprise de Guo pour payer 4,3 millions de yuans d’acompte pour soumissionner un projet. L’escroc a demandé le numéro de carte bancaire de Guo, a affirmé qu’il avait déjà transféré 4,3 millions de yuans sur le compte de Guo et a envoyé une capture d’écran du reçu de virement bancaire à Guo via wechat.

Faisant confiance à son ami, Guo a transféré 4,3 millions de yuans à l’escroc en deux versements, sans vérifier si l’argent est arrivé.

« J’ai reçu l’appel vidéo. J’ai vérifié le visage et la voix. Alors j’ai baissé ma garde », a déclaré Guo.

Après avoir reçu le rapport de police, la police de Fuzhou et de Baotou a rapidement bloqué la transition et a réussi à arrêter le transfert de 3,36 millions de yuans. Cependant, le reste a été transféré et fait maintenant l’objet d’efforts de récupération.

L’affaire a déclenché une discussion animée sur la nécessité de rester vigilant face aux arnaques à l’IA sur les réseaux sociaux chinois. Lundi, le sujet sur la façon de prévenir les arnaques à l’IA a été consulté 170 millions de fois et a généré 9 579 discussions.

« Lorsqu’il s’agit d’emprunter de l’argent, en particulier de gros montants, assurez-vous de le faire en personne, et non par appels vidéo », a commenté un internaute chinois.

« Vérifiez toujours l’identité de la personne à qui vous parlez, avant d’agir », a commenté un autre.

Liu Dingding, un observateur chevronné de l’industrie technologique, a déclaré lundi au Chine Direct que la Chine travaillait sur une législation pertinente.

Le 11 avril, l’Administration du cyberespace de Chine a sollicité les commentaires du public sur un projet de mesures de gestion des services d’IA générative, qui accordait une grande attention à l’authenticité du contenu et à la sécurité des données de formation.

Selon le projet, le contenu généré par l’IA générative doit être vrai et exact, et des mesures doivent être prises pour empêcher la création de fausses informations.

En outre, l’industrie intensifie également son autorégulation, a déclaré M. Liu.

Il a noté que, si l’entrée contient des entrées sensibles et illégales, certains produits nationaux comme ChatGPT tels que le bot Ernie de Baidu ou Tongyi Qianwen d’Alibaba ne fourniront aucune sortie de réponse.

A lire également