IA générative en entreprise : anatomie d’une catastrophe silencieuse

J’ai longuement hésité à écrire un article sur ce sujet tant il me semble délicat, mais inéluctable au regard de l’impact transformationnel (game changer cela faisait trop british) de l’IA pour nous tous.

Pendant que les directions d’entreprise célèbrent les gains de productivité apportés par ChatGPT et ses concurrents, les équipes de sécurité font face à une réalité autrement plus inquiétante : l’IA générative est devenue, en l’espace de deux ans, le premier vecteur d’exfiltration de données sensibles en milieu professionnel. Cette transformation ne relève pas du scénario catastrophe hypothétique, mais d’une réalité mesurée, documentée et en pleine accélération.

Les chiffres récemment publiés par LayerX dessinent un tableau sans équivoque : 45 % des employés utilisent désormais des outils d’IA générative, 77 % d’entre eux y transfèrent régulièrement des données, et 22 % de ces transferts contiennent des informations personnelles ou bancaires. Plus préoccupant encore, 82 % de ces opérations s’effectuent depuis des comptes personnels, totalement invisibles aux systèmes de sécurité d’entreprise. Pendant que les CISO perfectionnent leurs politiques DLP et affinent leurs périmètres de sécurité, les données sensibles quittent l’organisation par un canal qu’aucun outil traditionnel ne surveille : le copier-coller dans une fenêtre de navigateur.

Cette situation n’est pas le fruit d’une malveillance organisée, mais d’une collision entre l’enthousiasme légitime des collaborateurs pour des outils révolutionnaires et l’incapacité des architectures de sécurité traditionnelles à s’adapter à ces nouveaux usages. Samsung, qui a dû interdire temporairement ChatGPT après qu’un employé y ait téléchargé du code source sensible, n’a été que le premier d’une longue série d’incidents qui redéfinissent la notion même de fuite de données.

L’adoption massive de l’intelligence artificielle générative transforme radicalement le paysage de la sécurité des données en entreprise. Les dernières recherches menées par LayerX révèlent une réalité préoccupante : l’IA générative est désormais devenue le premier vecteur d’exfiltration de données sensibles, devançant tous les canaux traditionnels de fuite. Cette analyse détaillée examine les mécanismes, les incidents documentés et les implications opérationnelles pour les équipes de sécurité.

L’ampleur du phénomène : des chiffres sans appel

Le rapport Enterprise AI and SaaS Data Security Report 2025 de LayerX, basé sur la télémétrie réelle de navigateurs d’entreprise à travers le monde, établit un constat sans équivoque. Quarante-cinq pour cent des employés utilisent désormais des outils d’IA générative dans leur environnement professionnel, ChatGPT captant à lui seul 43 % de cette adoption. Cette pénétration place l’IA générative au niveau des applications les plus critiques de l’entreprise, représentant 11 % de l’ensemble de l’activité applicative, juste derrière la messagerie électronique et les réunions en ligne.

Parmi les utilisateurs d’IA générative, 77 % procèdent régulièrement à des opérations de copier-coller pour alimenter leurs requêtes. L’analyse détaillée de ces flux révèle que 22 % des données ainsi transférées contiennent des informations personnelles identifiables (PII) ou des données relevant du standard PCI. Plus alarmant encore, 82 % de ces opérations s’effectuent depuis des comptes personnels non gérés par l’entreprise, créant un angle mort majeur pour la visibilité et le contrôle des données sensibles.

Les téléchargements de fichiers constituent un second vecteur critique. Environ 40 % des fichiers transférés vers des plateformes d’IA générative contiennent des données PII ou PCI, avec 39 % de ces transferts provenant de comptes non corporatifs. L’ensemble de ces données échappe complètement aux systèmes de prévention de perte de données traditionnels, qui se concentrent sur les transferts de fichiers et les pièces jointes.

Incidents documentés : quand la théorie rencontre la réalité

Samsung et la fuite de code source (2023)

L’incident Samsung constitue l’un des premiers cas documentés d’exfiltration de données sensibles via ChatGPT. En 2023, un employé de Samsung a téléchargé du code source confidentiel dans ChatGPT, vraisemblablement pour obtenir de l’aide sur un problème technique. Cette action a déclenché une réaction immédiate de la direction : Samsung a temporairement interdit l’usage de ChatGPT à l’ensemble de son personnel. Cet incident illustre parfaitement la facilité avec laquelle des collaborateurs bien intentionnés peuvent compromettre des actifs critiques sans comprendre les implications de leurs actions.

La vulnérabilité Redis de mars 2023

En mars 2023, un bug dans la bibliothèque open-source Redis utilisée par l’infrastructure de ChatGPT a provoqué une fuite de données significative. Cette vulnérabilité a permis à certains utilisateurs d’accéder aux titres de conversation et aux premiers messages d’autres utilisateurs. Bien que l’incident ait été rapidement corrigé, il a mis en lumière les risques inhérents aux plateformes d’IA générative elles-mêmes, indépendamment des pratiques des utilisateurs.

La compromission massive de comptes (2022-2023)

Entre juin 2022 et mai 2023, les chercheurs de Check Point ont identifié plus de 101 000 dispositifs infectés par des stealers (Raccoon, Vidar, RedLine) contenant des identifiants ChatGPT sauvegardés. La région Asie-Pacifique a enregistré la concentration la plus élevée de comptes compromis. Cette campagne démontre que les comptes ChatGPT sont devenus des cibles de choix pour les cybercriminels, qui cherchent à exploiter l’historique des conversations susceptible de contenir des données sensibles.

L’indexation publique de juillet-août 2025

En juillet 2025, un incident majeur a révélé une faille de conception dans la fonctionnalité de partage de ChatGPT. Une option mal conçue intitulée « Make this chat discoverable » (Rendre cette conversation découvrable), associée à l’absence de balises de protection web appropriées, a permis à des milliers de conversations sensibles d’être indexées par les moteurs de recherche publics. Le 31 juillet, les chercheurs ont identifié plus de 4 500 liens indexés. OpenAI a désactivé cette fonctionnalité le 1er août et notifié les moteurs de recherche, mais les versions mises en cache sont restées accessibles pendant plusieurs semaines. Cet incident souligne l’importance des paramètres par défaut sécurisés et de la communication claire avec les utilisateurs.

CVE-2024-27564 : exploitation active d’une faille SSRF

Les chercheurs de Veriti ont découvert une vulnérabilité de type Server-Side Request Forgery (SSRF) dans l’infrastructure ChatGPT, référencée comme CVE-2024-27564 avec un score CVSS de 6.5. Cette faille permet aux attaquants d’injecter des URL malveillantes dans les paramètres d’entrée de ChatGPT, forçant l’application à effectuer des requêtes non intentionnelles en leur nom. L’analyse de Veriti révèle que cette vulnérabilité fait l’objet d’une exploitation active, avec plus de 10 000 tentatives d’attaque recensées, dont 33 % ciblant des organisations américaines, principalement dans le secteur financier. Trente-cinq pour cent des organisations analysées présentaient des configurations vulnérables au niveau de leurs IPS, WAF et pare-feu.

ShadowLeak : exfiltration zero-click via Deep Research

En septembre 2025, Radware a révélé une vulnérabilité particulièrement sophistiquée baptisée ShadowLeak, affectant l’agent Deep Research de ChatGPT. Cette attaque exploite une injection de prompt indirecte dissimulée dans le code HTML d’un email (polices minuscules, texte blanc sur fond blanc) invisible pour l’utilisateur mais interprétée par l’agent. Lorsqu’un utilisateur demande à ChatGPT Deep Research d’analyser ses emails Gmail, l’agent lit le prompt malveillant et transmet les données sensibles encodées en Base64 vers un serveur contrôlé par l’attaquant via l’outil browser.open(). Cette attaque zero-click ne nécessite aucune action de la part de la victime et fonctionne directement depuis l’infrastructure cloud d’OpenAI, échappant aux défenses locales et d’entreprise. La surface d’attaque s’étend potentiellement à tous les connecteurs supportés par ChatGPT : Box, Dropbox, GitHub, Google Drive, HubSpot, Microsoft Outlook, Notion et SharePoint.

Typologie des fuites : trois vecteurs principaux

Fuites côté utilisateur : le vecteur dominant

Les fuites côté utilisateur représentent le vecteur le plus fréquent et le plus difficile à contrôler. Les employés transfèrent des données sensibles dans ChatGPT pour accélérer leur travail, souvent sans comprendre les implications. Un responsable marketing colle la roadmap produit du prochain trimestre dans ChatGPT pour reformuler une annonce client. Un analyste financier télécharge un fichier Excel contenant des données commerciales sensibles. Un développeur soumet du code propriétaire pour résoudre un bug. Dans chacun de ces cas, les données quittent l’environnement protégé de l’entreprise et peuvent être stockées, traitées hors des frontières de conformité, ou même enregistrées par des infrastructures tierces. Ces actions contournent les politiques de sécurité internes et créent des violations réglementaires potentielles (RGPD, HIPAA, SOX).

La majorité des systèmes DLP traditionnels ne détectent pas ces transferts, car ils s’effectuent par copier-coller dans une fenêtre de navigateur plutôt que par téléchargement de fichiers ou envoi d’emails. Cette opacité transforme ces fuites en un risque de données générative silencieux mais omniprésent.

Fuites côté plateforme : rares mais critiques

Les fuites côté plateforme, bien que moins fréquentes, présentent un danger particulier car elles se produisent sans intention de l’utilisateur et passent souvent inaperçues. Le bug Redis de mars 2023 illustre parfaitement ce risque : une vulnérabilité dans l’infrastructure sous-jacente expose accidentellement l’historique de conversation d’un utilisateur à d’autres utilisateurs. Ces incidents soulignent l’importance de l’architecture de sécurité des plateformes d’IA elles-mêmes et la nécessité d’audits de sécurité rigoureux.

Interactions risquées avec les plugins : le maillon faible

Les plugins étendent les capacités de ChatGPT en permettant l’accès au web, aux fichiers internes ou à des systèmes tiers, mais introduisent simultanément des risques de sécurité significatifs. Une fois activé, un plugin peut lire le contenu des prompts et potentiellement l’envoyer vers des API externes ou des systèmes de stockage, souvent sans que l’utilisateur en ait conscience. Un analyste financier utilise un plugin pour analyser une feuille de calcul commerciale. Le plugin télécharge le fichier vers son propre serveur pour traitement. Sans que l’analyste ne le sache, le serveur enregistre et conserve le fichier, violant les politiques de résidence des données et de confidentialité.

La plupart des plugins sont développés par des tiers et ne font pas l’objet du même niveau de contrôle de sécurité que les outils internes. L’utilisation de plugins non validés peut entraîner une exfiltration de données incontrôlée et exposer des informations réglementées à des acteurs inconnus, représentant un risque majeur pour l’entreprise.

ChatGPT écrase la concurrence : implications stratégiques

L’étude LayerX met en évidence une domination écrasante de ChatGPT dans le paysage de l’IA générative en entreprise. Plus de 9 employés sur 10 l’utilisent, contre seulement 15 % pour Google Gemini, 5 % pour Claude et 2 à 3 % pour Microsoft Copilot. Cette prédominance s’explique par une préférence marquée : 83,5 % des utilisateurs se limitent à une seule plateforme d’IA, et ils choisissent massivement ChatGPT, indépendamment des outils officiellement approuvés par leur organisation.

Le faible taux d’adoption de Microsoft Copilot interpelle particulièrement. Avec une base de 440 millions d’abonnés Microsoft 365, Microsoft n’affiche qu’un taux de conversion vers Copilot de 1,81 %, un chiffre quasi identique aux observations de LayerX. Face à cette réalité, Microsoft a récemment adopté une approche pragmatique en autorisant l’utilisation de comptes Copilot personnels au sein des environnements Microsoft 365 professionnels, reconnaissant implicitement l’impossibilité de lutter contre les préférences des utilisateurs.

ChatGPT atteint désormais 43 % de pénétration en entreprise, se rapprochant d’applications établies comme Zoom (75 %) ou les services Google (65 %), et dépassant largement Slack (22 %), Salesforce (18 %) ou Atlassian (15 %). Cette adoption rapide positionne l’IA générative comme une catégorie applicative critique nécessitant le même niveau de gouvernance que la messagerie électronique ou les outils de productivité.

Le Shadow IT : un phénomène systémique

L’usage d’applications via des comptes non corporatifs ne se limite pas à l’IA générative. Le rapport LayerX révèle que le Shadow IT touche l’ensemble de l’écosystème applicatif d’entreprise : messagerie instantanée (87 %), réunions en ligne (60 %), Microsoft Online (68 %), Salesforce (77 %) et Zoom (64 %). Ces chiffres démontrent que les employés privilégient systématiquement la commodité et l’efficacité à la conformité avec les politiques de sécurité.

Cette tendance crée une convergence dangereuse entre le Shadow AI et le Shadow Chat, deux canaux majeurs de fuite de données. Soixante-deux pour cent des utilisateurs transfèrent des données PII ou PCI dans des applications de messagerie instantanée non gérées. Ensemble, ces pratiques créent un double angle mort où les données sensibles circulent constamment vers des environnements non surveillés.

Implications opérationnelles pour les équipes de sécurité

Inadéquation des outils traditionnels

Les systèmes de prévention de perte de données traditionnels se concentrent sur les transferts de fichiers, les pièces jointes suspectes et les emails sortants. Mais les conversations d’IA ressemblent à du trafic web normal, même lorsqu’elles contiennent des informations confidentielles. Les opérations de copier-coller dans des fenêtres de chat contournent entièrement ces mécanismes de détection, ne laissant aucune trace exploitable pour l’investigation.

Cette réalité impose une refonte fondamentale de l’approche de la sécurité des données. Le champ de bataille ne se situe plus dans les serveurs de fichiers ou les applications SaaS sanctionnées, mais dans le navigateur, où les employés mélangent comptes personnels et professionnels, basculent entre outils approuvés et Shadow IT, et déplacent fluidement des données sensibles entre ces environnements.

Nouvelles recommandations stratégiques

Face à cette adoption massive et difficilement contrôlable, les stratégies de sécurité doivent évoluer selon plusieurs axes :

Traiter l’IA générative comme une catégorie d’entreprise critique. Les stratégies de gouvernance doivent placer l’IA au même niveau que la messagerie électronique et le partage de fichiers, avec une surveillance des téléchargements, des prompts et des flux de copier-coller.

Déployer le Single Sign-On de manière systématique. Le SSO sur l’ensemble des applications critiques permet de maintenir une visibilité sur les flux de données, même lorsque les collaborateurs privilégient des outils non officiels. Cette mesure constitue un prérequis minimal pour toute organisation cherchant à comprendre son exposition réelle.

Étendre la surveillance au navigateur. Les solutions de sécurité doivent évoluer vers une surveillance au niveau du navigateur, capable d’intercepter les opérations de copier-coller et d’analyser le contenu transféré vers les plateformes d’IA, qu’elles soient approuvées ou non.

Implémenter des politiques d’accès adaptatif. Les organisations doivent déployer des politiques qui bloquent automatiquement les opérations de copier-coller ou de chat risquées basées sur l’analyse du contenu en temps réel, plutôt que de s’appuyer uniquement sur des interdictions générales rarement respectées.

Former les collaborateurs aux risques spécifiques. La sensibilisation doit aller au-delà des généralités sur la sécurité pour aborder des scénarios concrets d’exfiltration via l’IA, avec des exemples tangibles des conséquences organisationnelles.

Surveiller les identités externes. Quatre-vingt-deux pour cent des interactions risquées proviennent de sessions non enregistrées auprès des systèmes de gestion d’identité d’entreprise. Cette réalité impose d’élargir la surveillance au-delà du périmètre traditionnel de l’IAM.

Enjeux géopolitiques et réglementaires

L’utilisation de plateformes d’IA hébergées dans différentes juridictions introduit des dimensions géopolitiques complexes. L’exposition de données d’entreprise à des modèles d’IA chinois comme Qwen, par exemple, soulève des questions de souveraineté numérique et de potentielle exploitation stratégique des informations. Les données d’entreprise exposées via des comptes personnels risquent d’être utilisées pour l’entraînement de modèles, créant une fuite permanente de propriété intellectuelle.

Sur le plan réglementaire, l’exfiltration de données PII via l’IA générative crée des violations directes du RGPD, de HIPAA et de SOX. Les organisations des secteurs financiers et de la santé sont particulièrement exposées, avec des amendes potentielles massives et des atteintes réputationnelles durables. Le rapport LayerX indique que la clientèle la plus concernée se concentre dans les services financiers, la santé et les semi-conducteurs, précisément les secteurs où les implications réglementaires sont les plus sévères.

Méthodologie et limites

La méthodologie de LayerX repose sur la surveillance des données via une extension de navigateur d’entreprise déployée chez des dizaines d’entreprises mondiales et de grandes entreprises (1 000 à 100 000 utilisateurs), principalement en Amérique du Nord mais présentes sur les cinq continents. Cette approche offre une visibilité significative sur les interactions web avec l’IA, mais présente une limitation importante : elle n’inclut pas les appels API depuis les applications, qui constituent un vecteur d’interaction croissant avec les plateformes d’IA.

Perspective : vers un nouveau paradigme de sécurité

L’enthousiasme des collaborateurs pour l’IA générative ne faiblira pas. Les gains de productivité sont réels, mesurables et largement documentés. Plutôt que de lutter contre cette tendance par des interdictions inefficaces, les stratégies de sécurité doivent évoluer vers davantage de visibilité et de contrôle adaptatif.

La question n’est plus de savoir si les employés utiliseront ChatGPT, mais comment assurer la protection des données sensibles dans ce nouveau paradigme d’usage. Les organisations qui réussiront seront celles qui accepteront cette réalité et construiront des architectures de sécurité adaptées à un monde où les frontières traditionnelles du périmètre de sécurité n’ont plus de pertinence.

Les équipes de sécurité doivent abandonner le fantasme du contrôle total pour adopter une approche pragmatique de visibilité, de détection et de réponse rapide. L’IA générative représente simultanément une opportunité de transformation et un risque systémique. La capacité d’une organisation à naviguer entre ces deux réalités déterminera sa résilience dans les années à venir.

Enjoy !