Artificial Intelligence Photo: VCG

Photo d’Intelligence Artificielle : VCG

Une équipe d'intelligence artificielle (IA) de l'Université de Stanford s'est excusée d'avoir plagié un grand modèle de langage (LLM) d'une société chinoise d'IA, ce qui est devenu un sujet tendance sur les plateformes de médias sociaux chinoises, où il a suscité l'inquiétude des internautes mardi.

Nous nous excusons auprès des auteurs de MiniCPM [the AI model developed by a Chinese company] pour tout inconvénient que nous avons causé pour ne pas avoir fait toute la diligence nécessaire pour vérifier et examiner par les pairs la nouveauté de ce travail, les développeurs du modèle d'IA multimodal Llama3-V ont écrit dans un article sur la plateforme sociale X.

Les excuses sont intervenues après que l'équipe de l'Université de Stanford a annoncé Llama3-V le 29 mai, affirmant qu'il avait des performances comparables à celles du GPT4-V et d'autres modèles avec la capacité de s'entraîner pour moins de 500 $.

Selon les médias, l'annonce publiée par l'un des membres de l'équipe a rapidement été vue plus de 300 000 fois.

Cependant, certains internautes de X ont trouvé et répertorié des preuves de la façon dont le code du projet Llama3-V a été reformaté et similaire à MiniCPM-Llama3-V 2.5, un LLM développé par une société de technologie chinoise, ModelBest et l'Université Tsinghua.

Deux membres de l'équipe, Aksh Garg et Siddharth Sharma, ont republié la requête d'un internaute et se sont excusés lundi, tout en affirmant que leur rôle était de promouvoir le modèle sur Medium et X (anciennement Twitter) et qu'ils n'avaient pas pu contacter le membre qui avait écrit. le code du projet.

Ils ont examiné des articles récents pour valider la nouveauté du travail, mais n'avaient pas été informés ou n'étaient pas au courant des travaux de l'Open Lab for Big Model Base, fondé par le Natural Language Processing Lab de l'Université Tsinghua et ModelBest, selon à leurs réponses. Ils ont noté qu'ils avaient supprimé toutes les références à Llama3-V par rapport à l'œuvre originale.

En réponse, Liu Zhiyuan, scientifique en chef chez ModelBest, s'est exprimé sur la plateforme de médias sociaux chinoise Zhihu, affirmant que l'équipe Llama3-V n'avait pas respecté les protocoles open source pour respecter et honorer les réalisations des chercheurs précédents, compromettant ainsi sérieusement le pierre angulaire du partage open source.

Selon une capture d'écran divulguée en ligne, Li Dahai, PDG de ModelBest, a également publié un message sur son moment WeChat, affirmant qu'il avait été vérifié que les deux modèles présentaient une grande similitude en termes de fourniture de réponses et même les mêmes erreurs, et que certaines données pertinentes n'avait pas encore été rendue publique.

Il a déclaré que l'équipe espérait que leur travail recevrait plus d'attention et de reconnaissance, mais pas de cette manière. Il a également appelé à un environnement communautaire ouvert, coopératif et confiant.

Le directeur du laboratoire d'intelligence artificielle de Stanford, Christopher Manning, a également répondu dimanche aux explications de Garg, en commentant « Comment ne pas reconnaître ses erreurs ! » sur X.

Alors que l'incident est devenu un sujet d'actualité sur Sina Weibo, les internautes chinois ont déclaré que la recherche universitaire devrait être factuelle, mais l'incident prouve également que le développement technologique en Chine progresse.

Temps mondial