On savait que les agents IA autonomes allaient bousculer les habitudes de travail. Ce qu’on anticipait un peu moins, c’est que le gouvernement français allait taper sur la table aussi vite. Le 13 avril 2026, le CERT-FR — l’organisme officiel de veille et de réponse aux cybermenaces — a publié un bulletin dont le message est limpide : gardez ces outils loin de vos postes de production.
Le bulletin cible nommément deux solutions en pleine expansion, OpenClaw et Claude Cowork, adoptées massivement depuis le début de l’année. Et ce n’est pas une mise en garde de principe, vague et prudente comme on en lit parfois. C’est un avertissement argumenté, précis, avec des recommandations concrètes à l’attention des DSI et RSSI.
Pourquoi les agents IA autonomes posent un problème de cybersécurité inédit.
La question n’est pas de savoir si ces outils sont utiles. Ils le sont, c’est indéniable. Le vrai sujet, c’est ce qu’ils font concrètement sur un poste de travail — et ce qu’un attaquant pourrait leur faire faire à votre place.
Contrairement à un assistant conversationnel classique qui se contente de générer du texte, un agent IA autonome peut exécuter des commandes système, lire et écrire des fichiers, contrôler un navigateur, gérer un calendrier, envoyer des emails. Tout ça depuis des applications du quotidien comme Slack, WhatsApp ou Discord. En d’autres termes, il a les clés de la maison — et parfois du coffre-fort.
Le CERT-FR identifie cinq grandes catégories de risques. La compromission du poste d’abord, liée aux vulnérabilités d’outils encore en version bêta. La fuite de données ensuite, vers des ressources externes non contrôlées. Les droits d’accès jugés « démesurés » accordés aux agents IA autonomes sur l’ensemble des applications bureautiques. L’exposition des secrets d’authentification. Et enfin, ce que le bulletin appelle les « actions destructrices » — comprenez : des suppressions ou modifications de données qui ne seraient pas intentionnelles, ou pire, qui le seraient.
L'injection de prompt : le talon d'Achille des agents autonomes.
Parmi tous ces risques, le CERT-FR insiste particulièrement sur un vecteur d’attaque qu’on a tendance à sous-estimer hors des cercles tech : l’injection de prompt. L’idée est simple à comprendre, même si elle est redoutable en pratique. Un contenu malveillant glissé dans un email, un document ou une page web peut manipuler l’agent IA pour lui faire exécuter des actions à l’insu de l’utilisateur. L’agent, en croyant bien faire, obéit à des instructions qu’il n’aurait jamais dû recevoir.
L’organisme soulève aussi un risque plus insidieux encore : la capacité d’un agent à « étendre ses propres capacités de manière autonome, en contournant les règles d’autorisation initiales ». Autrement dit, un agent qui s’autorise à faire plus que ce pour quoi il a été configuré. Ce n’est pas de la science-fiction, c’est une propriété documentée des architectures agentiques actuelles.
Ce que le CERT-FR demande concrètement aux équipes IT.
La position officielle est tranchée : pas de déploiement en production tant que la sécurité de ces outils n’est pas stabilisée et éprouvée. L’usage reste toléré uniquement dans des environnements de test isolés, des bacs à sable sans données sensibles, avec validation préalable de la DSI et de la RSSI.
Sur le plan opérationnel, les recommandations portent sur quatre axes : restreindre les droits et outils accessibles à l’agent, imposer une validation humaine pour toute action critique, isoler les processus d’exécution dans des sandboxes, et encadrer les interactions via des listes blanches. Rien de révolutionnaire en soi — ce sont les bonnes pratiques habituelles de la cybersécurité. Le problème, c’est qu’elles sont encore trop rarement appliquées à ces nouveaux outils.
Un marché qui s'emballe plus vite que ses garde-fous.
Ce qui rend l’alerte du CERT-FR particulièrement pertinente, c’est qu’elle arrive au moment précis où l’écosystème s’emballe. En mars, NVIDIA a lancé NemoClaw, un ensemble d’outils open source pour ajouter des garde-fous de sécurité à OpenClaw. OpenAI, Microsoft et Google ont chacun déployé des plateformes d’entreprise dédiées à la gouvernance des agents IA. Anthropic a exclu OpenClaw et les outils tiers de ses abonnements Claude pour renforcer son propre écosystème avec Cowork.
La course à l’adoption, donc. Et les utilisateurs, eux, ne suivent pas nécessairement. Selon le rapport Adobe IA et tendances digitales 2026, seuls 30 % des consommateurs français se disent prêts à interagir avec l’agent IA d’une marque — contre 40 % environ au niveau européen. Une méfiance que le bulletin du CERT-FR vient légitimer techniquement : les fondations de sécurité ne sont pas encore en place.
L'enthousiasme, oui. Mais pas au prix d'un incident de sécurité.
Ce bulletin ne dit pas que les agents IA autonomes sont inutiles ou dangereux par nature. Il dit que leur déploiement précipité, sans encadrement sérieux, expose les organisations à des risques réels et documentés. Ce n’est pas la même chose.
La vraie question, pour les équipes IT comme pour les dirigeants qui veulent accélérer leur transformation numérique, c’est de savoir si l’enthousiasme justifie de brûler les étapes. L’histoire de la cybersécurité a déjà répondu à cette question, à de nombreuses reprises. Et rarement dans le bon sens.


