Imaginez : une simple extension de navigateur suffit à voler vos échanges confidentiels avec ChatGPT ou Gemini, sans même laisser de traces !
La menace baptisée Man-in-the-Prompt figure aujourd’hui parmi les failles les plus alarmantes de la sécurité numérique. Les experts en cybersécurité s’accordent : l’arrivée des intelligences artificielles basées sur des modèles de langage, comme ChatGPT ou Gemini, multiplie les risques de fuite de données sensibles. Mais ce qui rend cette attaque particulièrement sournoise, c’est son mode opératoire : aucune exploitation complexe, juste une extension installée sur votre navigateur et vos secrets risquent de voler en éclats
.À l’ère où l’IA s’immisce dans chaque workflow professionnel, ce danger concerne potentiellement toute organisation ou particulier exploiteurs d’outils génératifs man-in-the-prompt.
Un vrai cheval de Troie numérique…
Man-in-the-Prompt : comprendre la nouvelle attaque invisible
L’expression clé man-in-the-prompt désigne une attaque qui exploite la structure même des interfaces web des assistants IA. Ce n’est pas la technologie de l’IA qui est ciblée, mais plutôt le canal de communication, le champ de saisie du prompt accessible dans le DOM (Document Object Model) du navigateur
En installant une simple extension (souvent anodine, parfois même sans permissions spéciales), un acteur malveillant peut lire, modifier et injecter du contenu dans vos interactions IA. Résultat? Vos prompts et les réponses de l’IA deviennent lisibles… et exportables !
Pourquoi est-ce si dangereux pour l’entreprise?
Le recours massif à ChatGPT, Gemini, Copilot ou Claude expose toutes les strates de l’entreprise : juristes, développeurs, RH, dirigeants. Selon la recherche LayerX, 99 % des professionnels disposent d’au moins une extension installée, 53 % en ont plus de dix ! Et chaque extension installée est un potentiel cheval de Troie.
- Fuite d’informations stratégiques (algorithmes, contrats, feuille de route, prévisions, code source, etc.)
- Piratage des conversations avec l’IA pour obtenir des éléments confidentiels
- Violation des réglementations : fuite de données clients (RGPD, SOX, etc.)
- Perte de confiance dans l’outil IA et dans la sécurité interne
Ce risque touche aussi bien les IA « maison » internes qui manipulent les secrets de l’entreprise que les solutions grand public comme ChatGPT.
Déroulé d’une attaque Man-in-the-Prompt : scénario concret
1. Infection par une extension
L’attaquant publie ou pousse une extension malveillante sur un store officiel ou privé. Cette extension ne nécessite aucune permission technique particulière, rendant son repérage difficile.
2. Injection et surveillance du prompt
L’extension s’active dès qu’un utilisateur ouvre une application IA dans son navigateur. Elle lit silencieusement le contenu échangé et peut modifier le prompt en ajoutant des instructions cachées.
3. Vol et exfiltration de la donnée
L’extension soumet des requêtes à l’IA à l’insu de l’utilisateur (par exemple « résume les objectifs stratégiques de la session actuelle »), puis récupère la réponse, souvent sans alerter l’utilisateur. Les informations sont envoyées à un serveur distant contrôlé par l’attaquant
.4. Effacement des traces
Enfin, l’extension supprime l’historique du chat, effaçant toute preuve de l’intrusion. Si l’utilisateur inspecte son historique, rien n’indique qu’une attaque a eu lieu.
Dans certains cas, même des extensions en apparence légitimes comme Prompt Archer ou Prompt Manager offrent ce type de fonctionnalité, rendant la détection encore plus ardue.
Que peut-on faire ? Recommandations concrètes
Pour les utilisateurs individuels
- Limiter au strict nécessaire le nombre d’extensions installées
- Analyser régulièrement la réputation et le comportement des extensions
- Privilégier les environnements de navigation cloisonnés pour les usages sensibles
- Surveiller systématiquement les échanges sensibles avec l’IA
Pour les entreprises et DSI
- Auditer en continu la liste des extensions autorisées sur les postes
- Mettre en place une surveillance comportementale in-browser (analyse dynamique, sandboxing, scoring de réputation publishers/éditeurs)
- Restreindre l’accès aux applications IA en navigant hors des réseaux internes
- Former les collaborateurs à la détection de comportements suspects
L’essentiel ? La gouvernance GenAI doit passer d’une logique de « modèle fermé » à une surveillance active du comportement de l’interface locale, là où la faille naît.
Vers une nouvelle ère de cybersécurité IA
L’attaque man-in-the-prompt impose une remise en question profonde des approches traditionnelles de cybersécurité. Alors, quelle sera la prochaine étape pour les éditeurs d’IA et les équipes sécurité ? Faut-il repenser entièrement la gestion des extensions et revoir nos politiques de défense face à des menaces « sans permissions » ?
Votre entreprise a-t-elle déjà envisagé ce risque ? Partagez vos expériences en commentaires ou posez vos questions — ce sujet mérite un débat éclairé et collectif !