Actualités13 avril 20265 min

IA agentique en PME : le nouveau risque qui inquiète le CERT-FR

Le CERT-FR alerte sur les assistants IA autonomes déployés en entreprise. Ce qu'un dirigeant de PME doit savoir avant d'adopter ces outils.

Imaginez un assistant numérique qui, sans que vous ayez à cliquer quoi que ce soit, consulte vos emails, accède à vos fichiers, envoie des messages en votre nom et se connecte à vos outils métier. Pratique ? Oui. Risqué ? Énormément. C'est exactement ce que font les nouveaux assistants IA agentiques — comme OpenClaw ou Claude Cowork — déjà déployés sur des postes de travail en entreprise. Et c'est précisément pourquoi le CERT-FR (l'autorité nationale française en cybersécurité) tire la sonnette d'alarme. En tant que dirigeant de PME, vous devez comprendre ce que vous installez réellement avant de céder à l'enthousiasme de vos équipes.

Un assistant IA autonome, c'est quoi exactement ?

Un assistant IA classique — celui que vous utilisez peut-être déjà pour rédiger un email ou résumer un document — attend vos instructions et vous répond. Un assistant IA agentique, lui, va plus loin : il prend des initiatives. Concrètement, il peut lancer des recherches sur Internet, exécuter des tâches sur votre ordinateur, interagir avec d'autres logiciels (votre CRM, votre messagerie, votre comptabilité) et enchaîner plusieurs actions à la suite, sans vous demander votre accord à chaque étape. C'est cette autonomie qui fait toute la différence — et tout le danger. Ces outils ne sont pas de simples chatbots : ce sont des agents capables d'agir à votre place sur votre système d'information. Pour une PME dont les données clients, les contrats et les accès bancaires transitent par les mêmes postes de travail, c'est une exposition considérable.

Pourquoi le CERT-FR s'inquiète et pourquoi vous devriez aussi

Le CERT-FR a identifié plusieurs scénarios d'attaque concrets liés aux IA agentiques déployées en entreprise. Le premier s'appelle le prompt injection : un contenu malveillant glissé dans un email, un document ou une page web peut « piloter » l'assistant IA à l'insu de l'utilisateur. En clair, un cybercriminel peut formuler une instruction cachée dans un fichier que votre assistant va lire — et celui-ci exécutera l'ordre sans que vous le sachiez. Résultat possible : exfiltration de données confidentielles, envoi d'emails frauduleux depuis votre adresse, ou déclenchement d'actions sur vos systèmes. Le deuxième risque concerne les droits d'accès excessifs. Ces assistants demandent souvent des permissions très larges pour fonctionner. Une fois installés, ils deviennent une cible de choix pour les attaquants : compromettre l'IA, c'est potentiellement accéder à tout ce qu'elle peut faire. Pour les PME, qui ont rarement des équipes IT dédiées pour surveiller ces comportements, le risque IA autonome poste de travail est particulièrement élevé.

Les PME, cibles idéales pour ces nouvelles attaques

On pourrait penser que les grandes entreprises sont les cibles prioritaires des cyberattaques. C'est faux. Les PME représentent aujourd'hui plus de 60 % des victimes de ransomwares en France, selon l'ANSSI. Pourquoi ? Parce qu'elles adoptent les nouvelles technologies avec enthousiasme mais sans toujours en mesurer les risques — et parce qu'elles disposent de moins de ressources pour se défendre. Les risques IA autonome poste de travail s'inscrivent exactement dans cette logique. Un collaborateur enthousiaste installe un assistant IA agentique en quelques minutes, sans passer par le service informatique. L'outil se connecte à la messagerie, au drive partagé, au logiciel de facturation. Et voilà une brèche ouverte que personne n'a vue venir. La promesse de productivité est réelle — mais elle ne vaut pas grand-chose si elle se solde par une fuite de données ou une paralysie de votre activité.

Ce que vous pouvez faire dès maintenant

1. Faites l'inventaire des outils IA déjà installés. Demandez à votre responsable informatique (ou à un prestataire) de lister tous les assistants IA présents sur vos postes. Vous seriez surpris de ce qui tourne en silence. 2. Appliquez le principe du moindre privilège. Si un assistant IA doit être utilisé, limitez strictement ses droits d'accès : uniquement les fichiers et applications indispensables à sa fonction, rien de plus. 3. Interdisez l'installation autonome d'outils IA. Formalisez une règle claire dans votre politique informatique : aucun outil IA agentique ne doit être installé sans validation préalable. Communiquez-la à vos équipes. 4. Sensibilisez vos collaborateurs. Un email bizarre contenant un lien ou une pièce jointe peut suffire à déclencher une attaque via un assistant IA. Expliquez à vos équipes pourquoi la vigilance reste indispensable, même quand une IA gère les tâches. 5. Consultez un expert avant tout déploiement. Avant d'adopter un assistant IA sécurité entreprise ou tout outil agentique, faites réaliser une évaluation rapide des risques par un professionnel. Une heure de conseil peut vous éviter des semaines de crise.

Sources
#IA agentique PME#assistant IA sécurité entreprise#risques IA autonome poste de travail#CERT-FR

Articles liés

Actualités
GPT-5.4-Cyber : l'IA qui protège les PME sans DSI
Actualités
Patch Tuesday avril 2026 : deux failles déjà exploitées
Actualités
L'ANSSI tire la sonnette d'alarme : et votre PME ?