OpenClaw, un agent d'IA open source Photo : VCG
Les autorités chinoises ont mis en garde mardi contre les risques de sécurité du projet open source OpenClaw et ont exhorté les agences gouvernementales à faire preuve d'une extrême prudence, étant donné l'augmentation rapide des téléchargements à partir d'adresses IP chinoises et le fait que les vues de documents en langue chinoise ont dépassé celles de toutes les autres langues non anglaises depuis janvier.
Selon un avis publié mardi par un compte affilié à l'Administration nationale de la protection des secrets d'État, OpenClaw redessine rapidement les limites de l'intelligence artificielle (IA). Son adoption généralisée a déclenché début 2026 un débat mondial sur les limites de la vie privée et les risques numériques.
OpenClaw intègre des capacités de communication multicanal avec de grands modèles de langage pour créer des assistants d'IA personnalisés équipés d'une mémoire persistante et d'une exécution proactive des tâches. Il peut également être déployé localement dans des environnements privés. Contrairement aux systèmes d'IA conversationnelle traditionnels tels que ChatGPT, OpenClaw est positionné pour « faire avancer les choses » plutôt que simplement « discuter ». Cette orientation fonctionnelle signifie qu'il doit obtenir des autorisations système étendues afin de manipuler les fichiers et applications locaux.
Une fois l'autorisation accordée, OpenClaw peut naviguer de manière autonome sur le Web pour rechercher des prix plus bas, rédiger et envoyer des e-mails, organiser des calendriers et même effectuer des processus complexes d'achat et de paiement en ligne sans intervention humaine.
Cependant, étant donné qu'OpenClaw fonctionne avec des « frontières de confiance floues » lors de son déploiement, avec un fonctionnement continu, une prise de décision autonome et la possibilité d'accéder au système et aux ressources externes, un expert a averti que des risques importants peuvent survenir en l'absence de contrôles d'autorisation efficaces, de mécanismes d'audit et de renforcement de la sécurité.
« Les risques peuvent être globalement divisés en trois catégories. Premièrement, des autorisations excessives du système peuvent conduire à des fuites de données. Deuxièmement, les « hallucinations » du grand modèle de langage (LLM) peuvent provoquer des erreurs opérationnelles. Par exemple, lorsqu'il est demandé de supprimer un e-mail, le système peut supprimer par erreur des e-mails d'une journée entière, ce qui reflète les risques associés à la tendance plus large vers une interaction autonome. Troisièmement, lorsque des incidents de sécurité se produisent, il est difficile de retracer le processus de prise de décision du modèle, ce qui rend difficile l'identification de la cause et la correction du problème », a déclaré Li. Chaozhuo, chercheur à l'École de sécurité du cyberespace de l'Université des postes et télécommunications de Pékin, a déclaré mardi au Chine Direct.
Le 5 février, le ministère chinois de l'Industrie et des Technologies de l'information a publié une alerte de sécurité avertissant des risques liés à OpenClaw. L'alerte indiquait que la surveillance avait révélé que certains déploiements d'OpenClaw, avec des configurations par défaut ou inappropriées, déclenchaient des risques de sécurité relativement élevés, les rendant très vulnérables aux cyberattaques et aux fuites d'informations.
Les agences gouvernementales et les entreprises chinoises sont invitées à adhérer au principe fondamental selon lequel « les informations classifiées ne doivent pas être connectées à Internet, et les systèmes connectés à Internet ne doivent pas traiter d'informations classifiées ».
L'alerte conseille donc aux unités et utilisateurs concernés, lors du déploiement et de l'application d'OpenClaw, d'examiner minutieusement l'exposition du réseau public, les configurations d'autorisations et la gestion des informations d'identification, de fermer l'accès public inutile, de renforcer l'authentification d'identité, le contrôle d'accès, le cryptage des données et les mécanismes d'audit de sécurité, et de continuer à suivre les avis de sécurité officiels et les recommandations de durcissement afin de se prémunir contre les risques potentiels de cybersécurité.
Les risques ne sont pas seulement théoriques. Un expert en sécurité Meta AI a demandé à OpenClaw de classer ses e-mails pour décider lesquels supprimer et lesquels archiver. L'outil aurait perdu le contrôle, ignorant les trois commandes « stop » consécutives de l'expert et supprimant des centaines de messages du laboratoire de superintelligence de Meta lorsqu'il était connecté à un compte de messagerie professionnel.
De tels risques ont déjà déclenché ce que les observateurs ont qualifié de « fermetures défensives ». Plusieurs grandes entreprises technologiques sud-coréennes ont restreint l'utilisation d'OpenClaw au sein des réseaux d'entreprise en raison de préoccupations croissantes concernant la sécurité et la confidentialité des données, selon le Korea Times.
Pour les utilisateurs individuels, les autorités préviennent qu'OpenClaw reste à un stade précoce de développement et n'est pas adapté à une utilisation directe par le grand public. Ceux qui ont un réel besoin de l'utiliser devraient strictement limiter la portée des informations sensibles fournies, en fournissant uniquement les données de base nécessaires à l'accomplissement de tâches spécifiques, et ne devraient jamais saisir d'informations sensibles de base telles que les mots de passe de cartes bancaires ou les détails des comptes d'actions. Avant d'utiliser l'application pour organiser des fichiers, il est conseillé aux utilisateurs de supprimer de manière proactive les numéros d'identification personnels, les coordonnées privées et autres informations sensibles afin d'éviter toute divulgation par inadvertance, selon l'avis.
« Comme les mécanismes de fonctionnement des modèles actuels présentent des caractéristiques de « boîte noire », il est difficile de définir ou de réglementer clairement la responsabilité de telles vulnérabilités de sécurité. Cependant, de tels agents d'IA sont susceptibles de devenir de plus en plus répandus. À ce stade de développement technologique, il est donc essentiel que les utilisateurs gèrent strictement les autorisations d'accès et autres paramètres de contrôle », a déclaré M. Li.
