Vcg

Les nouvelles réglementations chinoises sur l'étiquetage du contenu généré par l'intelligence artificielle (AIGC) sont officiellement entrées en vigueur lundi.

Émis conjointement par l'administration du cyberespace de la Chine (CAC) et trois autres départements, les règles stipulent que tous les texte, les images, l'audio, la vidéo, les scènes virtuels et d'autres contenus doivent être étiquetés explicitement ou implicitement sur les plateformes de diffusion.

Les plateformes sont nécessaires pour revoir le contenu avant la libération, identifier les marqueurs AIGC et ajouter des avis de risque à l'AIGC non identifiée ou suspectée afin de limiter la propagation de fausses informations, selon les règlements.

Zhang Jiyu, directeur exécutif du Renmin Law and Technology Institute de l'Université de Renmin de Chine, a déclaré à China Media Group que le règlement décrit trois niveaux d'examen.

« Si les plates-formes détectent des marqueurs implicites à partir des métadonnées du contenu, ils peuvent alors les étiqueter comme générés par l'AI.

Étant donné que les limitations technologiques actuelles peuvent entraîner un contenu original à tort en tant que généré par l'AI, Zhang a souligné la nécessité de mécanismes pour protéger les droits des créateurs.

La Chine a resserré les réglementations sur l'IA abusive cette année. En avril, le CAC a lancé une campagne de trois mois de ciblage des pratiques de ciblage telles que l'échange de visage AI, l'imitation vocale de l'IA et le fait de ne pas étiqueter le contenu généré par l'IA. En juin, le CAC a indiqué que plus de 3 500 produits problématiques d'IA, y compris des mini-programmes, des applications et des agents, avaient été traités, plus de 960 000 informations illégales ou nuisibles supprimées et environ 3 700 comptes traités.

La poussée pour l'étiquetage génératif de l'IA est devenue un consensus mondial. La Chine a été parmi les premiers à légiférer dans ce domaine: les dispositions sur l'administration de la synthèse profonde des services d'information sur Internet, qui ont pris effet en 2023, ont été l'une des premières réglementations mondiales pour exiger explicitement l'étiquetage de l'étiquetage de l'IA génératif.

Certains comparent l'IA à la boîte de Pandora, offrant des opportunités sans limites mais aussi des risques imprévisibles.

« Notre situation actuelle est comme quelqu'un qui gardait un tigre comme animal de compagnie », a déclaré Geoffrey Hinton, connu sous le nom de parrain de l'IA, dans un discours à la conférence mondiale de l'IA à Shanghai en juillet. « Un petit tigre peut en effet être un animal de compagnie mignon, mais si vous continuez à le garder, vous devez vous assurer qu'il ne vous tue pas quand il grandit. »

« D'une manière générale, garder un tigre en tant qu'animal n'est pas une bonne idée, mais si vous gardez un tigre, vous n'avez que deux choix: entraînez-le pour ne pas vous attaquer ou l'éliminer », a-t-il expliqué. « Pour l'IA, nous n'avons aucun moyen de l'éliminer. »