AI Photo: VCG

Photo IA : VCG

L’année 2023 a été témoin d’un fascinant jeu de rattrapage dans le monde entier depuis qu’OpenAI a lancé ChatGPT fin 2022. Pour l’année à venir, Zhou Hongyi, fondateur et président de 360 ​​Security Technology, s’est déclaré « toujours assez optimiste » quant au développement global de l’intelligence artificielle. industrie du renseignement (IA) en Chine.

La rapidité de développement du grand modèle chinois relève déjà du miracle. Le monde doit être patient avec les grands modèles chinois. La révolution industrielle d’Internet dure depuis au moins 10 ans, et le tournant de l’IA n’est apparu qu’au cours des deux dernières années, a déclaré Zhou au Chine Direct.

En mars, Baidu a pris les devants en introduisant son premier modèle de langage étendu ERNIE, nommé « Wenxin Yiyan » en chinois. Dans la foulée, le 29 mars, 360 Security Technology a dévoilé sa stratégie d’intelligence artificielle en même temps que la sortie de Zhinao, ou « cerveau intelligent ».

Peu de temps après, le 11 avril, Alibaba a présenté son modèle à grande échelle « Tongyi Qianwen » lors de l’Alibaba Cloud Summit. Le 6 mai, iFlytek a lancé son modèle à grande échelle Xinghuo, le président Liu Qingfeng exprimant son objectif de surpasser ChatGPT en chinois et de rattraper ChatGPT en anglais d’ici le 24 octobre. De plus, Huawei, JD.com, ByteDance, Sensetime, ainsi que comme d’autres sociétés, ont également lancé successivement leurs propres modèles à grande échelle.

La confiance dans l’industrie chinoise de l’IA au cours de l’année à venir est assez élevée parmi les principaux développeurs chinois d’IA et les observateurs de l’industrie, a constaté le Chine Direct, tout en étant conscient du fait que Google a également réapparu dans l’arène, marquant son retour en force avec la sortie de Gemini en décembre. 13.

Zhou a admis qu’il existe encore un écart entre le modèle chinois et ChatGPT-4. Mais cet écart n’empêche pas la Chine de construire son propre TPG.

Xiao Yanghua, professeur d’informatique à l’Université de Fudan et également directeur du Shanghai Key Laboratory of Data Science, a également convenu que « les entreprises chinoises devraient être des suiveuses intelligentes, explorer activement notre propre voie de concurrence en veillant à ne pas être à la traîne ». « .

Zhou a déclaré au Chine Direct que la Chine possède d’importants dividendes industriels, affirmant que la clé du développement de modèles à grande échelle par la Chine est de saisir les dividendes des diverses scènes générées par l’IA.

La Chine possède les catégories industrielles les plus complètes au monde, avec une chaîne d’approvisionnement et une chaîne industrielle complètes. Les plus grandes opportunités résident dans l’industrialisation, la spécialisation et la verticalisation de la technologie, ainsi que dans l’évolution vers une personnalisation approfondie, a noté Zhou, appelant à une large utilisation du GPT dans les industries, les secteurs et au sein des organisations, en les combinant avec une scène verticale générée par l’IA.

Avoir un seul grand modèle pour répondre à tous les besoins des différentes industries est bien trop vaste et irréaliste. Les produits chinois de grande taille peuvent être plus fins, a déclaré Zhou. Dans un secteur, le grand modèle peut responsabiliser différents aspects, liens et tâches spécifiques, comme dans le secteur financier, le service client est un aspect relativement détaillé et dans le domaine des véhicules connectés intelligents, des cabines intelligentes, de la navigation intelligente ou du divertissement intelligent pourrait être options très détaillées.

« De nombreux océans bleus inexploités existent », a également déclaré Xiao au Chine Direct, mentionnant des modèles incarnés à grande échelle, des modèles médicaux à grande échelle, des modèles scientifiques à grande échelle et d’autres domaines spécifiés.

Mais Xiao a également averti que ChatGPT a formé un « effet de volant », dans lequel l’itération et l’optimisation poussent la technologie dans une phase d’auto-renforcement de développement rapide, ou conduisent éventuellement l’industrie à une situation dans laquelle à l’avenir seulement un ou deux modèles seront les acteurs dominants.

Adopter l’IA, réfléchir plus tard ?

La technologie de l’IA, avec un mélange de peur et de crainte, devrait-elle progresser plus rapidement ou devrait-elle ralentir ? Ou faut-il le développer tout en le régulant ?

L’Initiative mondiale pour la gouvernance de l’IA, proposée cette année par le dirigeant chinois, préconise le maintien d’une approche centrée sur les personnes dans le développement de l’IA et la promotion de la mise en place d’un système de test et d’évaluation basé sur les niveaux de risque de l’IA, afin de rendre les technologies d’IA plus sûres, plus fiables et plus contrôlables. et équitable.

Zhou a conclu que les défis prévisibles apportés par l’IA incluent des problèmes de sécurité technique principalement axés sur la sécurité des réseaux et des données, ainsi que des problèmes de sécurité du contenu causés par la capacité des grands modèles à « fabriquer » du contenu.

Plus précisément, l’IA risque d’être principalement utilisée comme un outil pour lancer des cyberattaques, produire des médias trompeurs ou propager de fausses informations et un langage offensant, ont prévenu les observateurs du secteur.

Zhang Linghan, de l’Université chinoise de sciences politiques et de droit et membre de l’Organe consultatif de haut niveau des Nations Unies sur l’intelligence artificielle, a déclaré au Chine Direct que la position de la Chine a toujours préconisé la promotion active du développement de la technologie de l’IA, tout en attachant de l’importance à la sécurité.

Diverses lois et réglementations, notamment la loi sur la sécurité des données, les réglementations pour la gestion des algorithmes et de la synthèse approfondie des services d’information sur Internet, ainsi que des mesures provisoires pour régir les services d’IA générative, ont également été établies pour former un cadre réglementaire complet sur l’IA, a noté M. Zhang.

Selon les observateurs du secteur, davantage de risques et de menaces devraient apparaître, à mesure que l’industrie de l’IA a accéléré son évolution vers des « modèles multimodaux ».

Pour résoudre les problèmes de sécurité des grands modèles, « il est nécessaire de réaliser des percées technologiques plutôt que de s’appuyer uniquement sur l’autodiscipline des grandes entreprises modèles », a déclaré Zhou. Il a attribué cela au fait que les grands modèles ont déjà des capacités supérieures aux humains, et qu’ils sont sur le point de devenir des « surhumains » dans un avenir proche.

« Nous devons empêcher que des conséquences « irréversibles » ne se produisent », a souligné Zhou. Pour y parvenir, les humains devraient éviter de céder dès le départ le contrôle du système au grand modèle. Au lieu de cela, donnez la priorité à l’implication des humains dans la boucle décisionnelle et assurez-vous que les décisions cruciales sont prises par des humains.

Il a ajouté que des mesures de sécurité peuvent être mises en œuvre dans l’architecture des agents pour résoudre les problèmes de sécurité et de contrôlabilité pouvant découler de l’utilisation de diverses connaissances, compétences et outils par les grands modèles.

L’IA deviendra-t-elle consciente ?

Cette année, Elon Musk a lancé une bombe au monde en affirmant que l’intelligence artificielle est « l’une des plus grandes menaces pour l’humanité ». Des personnalités éminentes du secteur, notamment des représentants d’OpenAI, de Google DeepMind et d’Anthropic, se sont unies pour mettre en garde contre le potentiel de l’IA à l’origine de l’extinction de l’humanité.

Quant au défi ultime posé par les grands modèles, Zhou estime que l’IA n’a pas encore atteint ce stade. ChatGPT-5 n’apparaîtra pas du jour au lendemain, et ChatGPT doit également avoir des « mains et des pieds » pour se connecter au monde réel afin de constituer une menace réelle. Il est donc trop tôt pour s’en inquiéter maintenant.

Cependant, Xiao a évoqué un problème émergent plus pratique, à savoir la dépendance à utiliser l’IA dans le travail quotidien, permettant simplement à la machine de remplacer leur réflexion.

« Une dépendance excessive à l’égard de l’IA pour la réflexion pourrait potentiellement nous conduire vers une dégénérescence de l’intelligence, car l’intelligence humaine est intimement liée à notre nature évolutive », a-t-il déclaré.

« Dans l’histoire, aucune technologie ne s’est développée à une vitesse comparable à celle de l’IA. Si la technologie traditionnelle est un fusil, l’IA est une bombe à hydrogène, d’une échelle complètement différente », a déclaré Xiao.

Mais il a déclaré que des zones de protection de l’activité humaine dans lesquelles l’IA ne peut pas interférer peuvent être établies à titre de mesure de prévention, comme l’éducation de base pour les mineurs, dans le but de penser à la dégénérescence parmi les jeunes générations.

« Lorsque nous avons délégué un grand nombre de tâches d’écriture à des machines, cela nous prive d’opportunités d’exercice mental, ce qui entraîne non seulement le déclin des capacités génératives, comme l’écriture, mais aussi le déclin des capacités humaines d’évaluation. »

En ce qui concerne la conscience machine, les observateurs chinois estiment que c’est davantage pour brouiller les frontières entre science et science-fiction que les gens tentent d’attirer l’attention en faisant des déclarations sensationnelles.

Mais en laissant libre cours à son imagination, Xiao a déclaré que désormais, les machines possèdent un cerveau, appelé grands modèles, et acquièrent en outre un corps, appelé intelligence incarnée, elles peuvent alors évoluer dans la société humaine ou dans des mondes virtuels, et lorsqu’un groupe suffisamment grand des intelligences machines apprennent et collaborent les unes avec les autres, il n’est pas impossible que la conscience émerge.

Dans ce cas, l’essentiel est de créer une zone interdite pour les systèmes cognitifs de l’IA. « Pour les machines IA, l’identité des êtres humains, en tant que ‘créateur’ du monde IA, doit être cachée », a déclaré Xiao.