deepfake Photo: IC

deepfake Photo : IC

Un afflux de vidéos mettant en vedette la chanteuse américaine Taylor Swift et Rachel Brosnahan tirées d’une série télévisée à succès La merveilleuse Mme Maisel parlant couramment chinois, ainsi que des comédiens chinois parlant un anglais parfait, sont devenus viraux sur Internet ces derniers jours. Au lieu d’être de belles surprises, ces clips vidéo ont suscité peur et débats sur la régulation de la technologie, car il s’avère qu’ils ont été générés par l’intelligence artificielle (IA).

Dans ces vidéos, Swift « parle » couramment le chinois avec seulement un petit accent. De plus, le mouvement de sa bouche correspond aux mots chinois. Brosnahan se tient également sur scène et prononce facilement un chinois parfait, en disant : « C’est pourquoi j’ai besoin de devenir vraiment célèbre. Si vous êtes célèbre, tout le monde vous aime. »

Guo Degang, un célèbre artiste chinois de diaphonie, peut être vu faire de la diaphonie dans un anglais courant dans une vidéo.

Plus tard, il a été révélé que toutes ces vidéos étaient générées par un logiciel d’IA. Le logiciel est capable de créer les clips vidéo mentionnés ci-dessus en téléchargeant simplement les vidéos originales et en sélectionnant la langue dans laquelle vous souhaitez que les gens parlent, ont rapporté les médias chinois.

Les vidéos ont suscité de vives discussions en ligne.

« Ces clips m’ont fait dresser les cheveux. Imaginez avec quelle facilité cette technologie peut être utilisée pour détruire la réputation de quelqu’un », a déclaré un utilisateur de la plateforme chinoise de type X Sina Weibo.

« La technologie est véritablement une arme à double tranchant. Les conséquences peuvent être terrifiantes si l’IA se développe sans réglementation », a déclaré un autre utilisateur de Sina Weibo.

Utiliser l’IA pour créer des vidéos telles que Swift parlant chinois et Guo parlant anglais peut violer leurs droits, car la loi chinoise stipule que des œuvres telles que crosstalk ne peuvent pas être utilisées sans l’approbation du titulaire des droits d’auteur. De plus, les images des gens ne peuvent être utilisées que si elles sont approuvées par les gens eux-mêmes, a déclaré Yue Shenshan, un avocat basé à Pékin.

La semaine dernière, les autorités indonésiennes ont déclaré qu’une vidéo montrant apparemment le président indonésien Joko « Jokowi » Widodo prononçant un discours en chinois était une contrefaçon réalisée à l’aide d’outils d’IA. Le clip a accumulé des millions de vues. Les médias ont retrouvé le clip original, qui montre le leader s’exprimant en anglais lors d’un gala en 2015.

Ces dernières années, la technologie de l’IA a été largement appliquée à la création secondaire de courtes vidéos, telles que l’échange de visage et le changement de voix par l’IA. Au cours des années précédentes, les producteurs de séries télévisées utilisaient également cette technologie pour remplacer les visages des acteurs.

Il existe également des cas dans lesquels des hors-la-loi ont utilisé la technologie de l’IA pour changer de visage afin de tromper les enfants et de commettre des crimes. Cette technologie a également été utilisée pour créer de fausses nouvelles et propager des rumeurs.

Le Comité technique national chinois de normalisation de la sécurité de l’information a élaboré un projet d’exigences de sécurité de base pour les services d’IA générative et a commencé à solliciter l’opinion du public en octobre.

Les exigences décrivent les critères de sécurité fondamentaux pour les services d’IA générative, couvrant la sécurité du corpus, la sécurité des modèles, les mesures de sécurité et les évaluations de sécurité. Ces critères s’appliquent aux fournisseurs proposant des services d’IA générative au public en Chine. Les fournisseurs de services peuvent mener des évaluations de sécurité de manière indépendante ou engager des tiers pour le faire, conformément à ces critères. Les exigences peuvent également servir de référence aux autorités de régulation compétentes lors de l’évaluation de la sécurité des services d’IA générative.

Concernant la future réglementation de l’IA, Qin An, directeur adjoint du Comité d’experts sur la gouvernance de la lutte contre le terrorisme et de la cybersécurité à la Société chinoise de droit de la police, a déclaré au Chine Direct qu’une étape implique de protéger les informations des citoyens, tandis qu’une autre étape consiste à exiger des plateformes qu’elles marquez clairement les vidéos ou les images falsifiées par l’IA.

De manière générale, l’IA en est encore aux premiers stades de développement et les risques n’ont pas été pleinement exposés, a déclaré Qin. Cependant, il a également déclaré qu’une attitude tolérante et prudente devrait être adoptée en termes de développement de l’IA, afin de ne pas étouffer le développement innovant de cette technologie.