À l’aide d’outils d’échange de visage et de clonage vocal, l’IA a été utilisée pour faire croire à une mère chinoise âgée que son fils était toujours en vie alors qu’elle passait des appels vidéo avec

Chaque jour, une mère âgée de la province du Shandong, dans l'est de la Chine, répondait à un appel vidéo familier : son fils unique, souriant depuis une pièce d'une autre province où il avait déménagé pour travailler.

Comme toutes les mères du monde entier, elle s'inquiétait à haute voix, se demandant s'il mangeait bien, s'il dormait, comment il se débrouillait si loin de chez lui et quand elle pourrait le revoir.

« Je m'inquiète de ta présence là-bas », lui a-t-elle dit lors d'un de leurs appels.

Ce qu'elle ne savait pas, c'est que l'appel avait eu lieu plus d'un an après la mort de son fils dans un accident de voiture. Terrifiée à l'idée que la vérité puisse briser un cœur déjà fragile, sa famille a pris une décision qui déstabilise encore les gens : ils ont engagé un professionnel de l'IA pour le « ramener » à l'écran et lui faire croire qu'il était vivant.

En raison de son âge et de sa maladie cardiaque, ils ont caché le secret à la femme de 80 ans. Avec l’IA, ils espéraient lui offrir quelque chose qui lui apporterait suffisamment de confort pour « profiter de ses dernières années en paix ».

« La famille est venue me voir pour lui donner la tranquillité d'esprit », explique Zhang Zewei, le technicien derrière le remplaçant numérique, dans une vidéo décrivant le projet. « Ils ont fourni des images, des enregistrements vidéo et audio. »

À l'aide d'outils d'échange de visage et de clonage de voix, Zhang a reconstruit les manières de son fils, à partir des mouvements de la bouche, des pauses et même du ton d'une « maman » de tous les jours. Il s'est filmé en train d'effectuer l'appel, puis a superposé l'image du mort sur la sienne avec des mains qui ressemblaient aux siennes, un visage qui bougeait comme le sien et une voix qui sonnait presque identique.

Lorsque l'appel a commencé, Zhang a déclaré qu'il n'était pas préparé au poids que pouvaient avoir les plus petits mots.

« Je ne m'attendais pas à entendre le mot 'maman' », a-t-il déclaré.

Leurs conversations étaient douces, presque ordinaires.

« Tu me manques », a dit la mère à l'écran. « Comment saurai-je si tu vas bien là-bas ? »

« Maman, s'il te plaît, prends soin de toi », répondit le « fils ».

« Je prends soin de moi… Je reviendrai vous rendre ma piété filiale. »

Si la mère soupçonnait quelque chose, elle ne le disait jamais. Mais en l'entendant demander : « Quand rentreras-tu à la maison ? atterrit comme un coup tranquille, surtout en sachant qu'elle ne reverra plus jamais son vrai fils.

Dans la vidéo qu'il a publiée sur les réseaux sociaux, Zhang qualifie l'IA d'« épée à double tranchant », capable de nuire mais aussi d'une sorte de miséricorde, capable de créer un « mensonge intelligent ».

Zhang dit que la femme âgée est décédée depuis et que la famille lui a donné la permission de partager l'histoire en ligne. Les réactions sur les réseaux sociaux ont été partagées : certains l’ont qualifié de compatissant, d’autres l’ont qualifié de cruel.

« C'est exploiter la bonne volonté pour l'auto-promotion… c'est comme profiter du malheur de quelqu'un d'autre », a écrit un utilisateur.

Un autre a vu autre chose : « C'est la première fois depuis longtemps que je vois le côté positif de l'IA. »

La vidéo, initialement publiée en juillet 2023, a refait surface à mesure que les « résurrections » de l’IA deviennent plus courantes.

Amener ses proches

Plus tôt ce mois-ci, la Chine a célébré Qingming, la fête du nettoyage des tombes au cours de laquelle les familles nettoient les tombes et commémorent ceux qui sont morts.

Aujourd’hui, même cet acte de commémoration est remodelé par la technologie. En Chine, les services en ligne font de plus en plus la promotion d'« avatars numériques » courts et mobiles d'êtres chers, bon marché au niveau d'entrée, et bien plus chers à mesure que l'illusion devient plus réaliste.

Et les ingrédients de ces produits sont simples : une poignée de photos, un court clip vidéo, d’anciens messages vocaux, des notes vocales WeChat. Avec les modèles génératifs d'aujourd'hui, conçus pour imiter le ton, le mouvement des lèvres et les modèles de conversation, ces éléments peuvent être intégrés dans quelque chose qui ressemble à une présence. En Chine, où le commerce en direct et les avatars « humains numériques » sont déjà monnaie courante, le cadre technique est abondant. À mesure que les outils deviennent plus faciles à utiliser, faire appel à une agence n’est plus la seule voie et les gens ordinaires peuvent en essayer eux-mêmes une version. Cette accessibilité ouvre un monde de possibilités.

Pour certains, ces avatars fonctionnent moins comme une séance que comme une aide à l'adaptation : un moyen de conserver des souvenirs, de répéter un au revoir ou enfin de dire les mots qu'ils ne disaient pas ou ne pouvaient pas dire auparavant.

Mais le confort n’est pas le seul élément généré. Les mêmes techniques qui permettent à un fils décédé de parler à nouveau à sa mère âgée peuvent également permettre à un étranger de lui mettre des mots dans la bouche. Et à mesure que le marché se développe, la tentation de transformer l’intimité en clics et le deuil en contenu augmente également.

Les régulateurs chinois ont indiqué qu’ils comprenaient les enjeux. Dans le projet de règles chinois récemment publié sur les « personnes virtuelles numériques », une disposition souligne que les services ne devraient pas porter atteinte aux droits à la vie privée des personnes décédées à l'insu de leurs proches.

Les autorités chinoises sont en train de réglementer les lois sur l’IA après avoir récemment publié de nouveaux projets de règles. /VCG

Cette crainte est devenue réelle pour Qiao Kangqiang, le père du regretté chanteur et acteur Qiao Renliang, décédé par suicide en 2016. En avril 2024, il s'est adressé aux médias et a exigé la suppression des vidéos générées par l'IA qui recréaient son fils sans le consentement de la famille. L'un de ces clips montrait un Qiao animé numériquement s'adressant à ses fans et à ses parents, affirmant qu'il n'était « pas vraiment parti » mais qu'il vivait en paix ailleurs. Le père de Qiao a décrit les vidéos comme « frottant du sel sur sa blessure » et ramenant leur chagrin privé aux yeux du public.

Les plateformes sociales ont également vu des comptes proposer des services de « résurrection de l'IA », utilisant parfois des célébrités décédées comme démonstrations marketing.

Même lorsque le contenu est présenté comme un hommage, les familles peuvent le vivre comme un nouveau deuil, le choc de voir un être cher « vivant » en mouvement, disant des paroles qu'ils n'ont jamais dites, à un public qu'ils n'ont jamais choisi.

Il existe également un risque de tromperie visant les vivants. Pour certaines familles, une réplique peut être un réconfort ou un moyen de maintenir la normalité, comme protéger les enfants ou les parents âgés de l'annonce d'un décès. Mais entre de mauvaises mains, un clone vocal peut devenir un outil de fraude, d’extorsion ou de coercition, exploitant la confiance ancrée dans un son familier.

En savoir plus: La Chine élabore de nouvelles règles pour les « humains » de l’IA et les technologies addictives pour les enfants