Sentinelle PIISentinelle PII
Sentinelle PII

Livre blanc

RGPD & IA générative :
Guide pratique pour DPO

Comment encadrer l'usage de ChatGPT en entreprise

Édition Février 2026Robin Roellinger, Fondateur
Sommaire (7 sections)

Section 1

État des lieux : le Shadow AI en entreprise

L'adoption de l'IA générative en entreprise a atteint un point de bascule. Les collaborateurs utilisent massivement ChatGPT, Claude, Gemini et Copilot au quotidien, souvent sans encadrement ni visibilité de la DSI. Ce phénomène, le Shadow AI, représente aujourd'hui le principal angle mort de la conformité RGPD.

80%

des cadres utilisent l’IA chaque semaine

Microsoft / YouGov, février 2026

61%

via des comptes personnels

Microsoft / YouGov, février 2026

73%

des usages ChatGPT hors licences entreprise

Cyberhaven, 2025

L'outil ChatGPT d'OpenAI domine le marché avec 64,5% des parts de marché des plateformes d'IA générative, près de 900 millions d'utilisateurs actifs hebdomadaires et environ 2,5 milliards de requêtes par jour. En France, l'outil rassemble plus de 18,3 millions d'utilisateurs uniques. De manière préoccupante, 38% des utilisateurs en entreprise recourent quotidiennement à des comptes personnels, et plus de 7 cadres sur 10 déclarent n'avoir reçu aucune formation spécifique à l'utilisation sécurisée de l'IA.

Sources : Incremys / Semrush, 2026 ; Microsoft / YouGov, février 2026

Des fuites de données massives et documentées

Les études récentes confirment l'ampleur du problème. Selon Cyberhaven et LayerX (2025), 77% des employés ont déjà divulgué des données professionnelles via ChatGPT, incluant du code source, des données clients et des documents financiers. Le rapport Zscaler ThreatLabz 2025 a identifié 104 millions de transactions impliquant des fuites de données vers des outils d'IA générative, comprenant des informations médicales, du code source propriétaire, des numéros de sécurité sociale, des données financières et des données RH.

SourceDateConstat principal
Zscaler ThreatLabz2025104 millions de transactions impliquant des fuites de données sensibles (IBAN, RH, code source) via IA.
Cyberhaven / LayerX202577% des employés admettent avoir divulgué des données professionnelles dans ChatGPT.
Varonis202599% des organisations ont des informations sensibles exposées d’une manière ou d’une autre à l’IA.
IBM (Cost of Data Breach)202597% des entreprises signalant un incident IA ne disposaient pas de contrôles d’accès appropriés.

Sources : rapports publics des éditeurs cités

Incident Samsung (avril 2023). Des ingénieurs de la division semi-conducteurs de Samsung ont soumis du code source propriétaire défectueux à ChatGPT pour en demander l'optimisation, et ont inséré des notes de réunions stratégiques internes pour générer des synthèses. En utilisant la version gratuite, ils ont transféré la propriété intellectuelle de Samsung sur les serveurs d'OpenAI, rendant ces données potentiellement utilisables pour le réentraînement du modèle. Cet incident a conduit de nombreuses multinationales à prononcer des interdictions temporaires d'utilisation.
Vulnérabilité EchoLeak (CVE-2025-32711) — Microsoft Copilot (juin 2025). Les chercheurs d'Aim Labs ont découvert une faille zero-click de score CVSS 9.3 affectant Microsoft 365 Copilot. L'attaquant envoyait un courriel contenant des instructions Markdown cachées (injection de prompt indirecte). Lorsque l'utilisateur demandait à Copilot de résumer sa boîte de réception, l'IA ingérait les instructions malveillantes et exfiltrait silencieusement les données (emails, documents SharePoint) vers un serveur externe via le rendu d'images (Image Auto-Fetch), sans aucune interaction de la victime.

Ces incidents ne sont pas des cas isolés : ils révèlent un risque systémique. Chaque prompt contenant des données personnelles envoyé à une IA générative est potentiellement un transfert de données non encadré au sens du RGPD.

Section 2

Cadre juridique RGPD applicable

Le RGPD s'applique pleinement à toute utilisation d'IA générative impliquant des données personnelles. Plusieurs articles fondamentaux sont directement concernés.

Articles RGPD concernés

ArticleObjetRisque concret lié à l’IA
Art. 5Principes : licéité, minimisation, limitation de conservationLes prompts contiennent souvent des données excessives. Les modèles peuvent conserver les données au-delà de la finalité initiale.
Art. 6Base légale du traitementAbsence de base légale pour le transfert de données personnelles vers un LLM, en particulier via des comptes gratuits.
Art. 28Sous-traitant : contrat obligatoire (DPA)Les versions gratuites d'OpenAI, Anthropic ou Google ne proposent pas de DPA. L'entreprise agit sans cadre contractuel.
Art. 32Sécurité du traitementAbsence de mesures techniques pour empêcher l'envoi de PII dans les prompts. Pas de chiffrement ni d'anonymisation.
Art. 35Analyse d'impact (AIPD)L'utilisation d'IA générative avec des données personnelles nécessite une AIPD, rarement réalisée en pratique.
Art. 44-49Transferts hors UELes serveurs d'OpenAI, Anthropic et Google sont aux États-Unis. Le transfert nécessite des garanties (DPF, CCT) qui restent fragiles.

Sources : RGPD (Règlement UE 2016/679), fiches pratiques IA de la CNIL (2024-2025)

Alerte Article 28. L'utilisation de versions gratuites de ChatGPT, Claude ou Gemini constitue une violation structurelle de l'Article 28 du RGPD. Sans DPA (Data Processing Agreement), l'entreprise confie des données personnelles à un sous-traitant sans aucune garantie contractuelle. De plus, les conditions d'utilisation des versions gratuites autorisent explicitement la réutilisation des données pour l'entrainement des modèles.

Comparaison des fournisseurs : version gratuite vs Enterprise

Version gratuiteVersion Enterprise
OpenAI (ChatGPT)Pas de DPA. Données réutilisées pour l'entraînement. Pas d'opt-out garanti. Pas d'audit.DPA strict (déc. 2025). Opt-out entraînement. SOC 2 Type II. Résidence données EU disponible.
Anthropic (Claude)Pas de DPA. Données peuvent alimenter les modèles. Pas de garantie de suppression.DPA conforme. Opt-out entraînement. SOC 2 Type II. Trust Center avec documentation sécurité.
Google (Gemini)Données utilisées pour améliorer les services. Pas de DPA spécifique IA.DPA intégré via Google Workspace. Opt-out. Certifications ISO 27001, SOC 2. Serveurs EU possibles.

Sources : DPA OpenAI (déc. 2025), Trust Center Anthropic, Google Cloud Data Processing Terms

Positions de la CNIL et des autorités européennes

La CNIL s'est positionnée comme une autorité pionnière dans l'accompagnement de l'innovation responsable. Entre 2024 et 2025, elle a publié une série de fiches pratiques IA et a prononcé 87 sanctions pour un montant record de 478 millions d'euros en 2025 (dont 325 M€ contre Google). Depuis août 2025, la CNIL est également l'autorité de régulation de l'AI Act en France, avec une double compétence RGPD + AI Act.

La CNIL exige des entreprises la mise en place de « filtres robustes au niveau du système encapsulant le modèle » pour anonymiser ou pseudonymiser les requêtes, empêchant la divulgation de données personnelles dans les prompts. Elle rappelle que le droit d'accès et d'effacement doit pouvoir s'exercer non seulement sur les données d'apprentissage, mais également sur le modèle d'IA lui-même s'il est capable de restituer ces données (mémorisation).

Le Comité Européen de la Protection des Données (EDPB) a coordonné des actions à la suite de la suspension temporaire de ChatGPT par l'autorité italienne (Garante) début 2023. Les autorités espagnole (AEPD) et allemande (BfDI) ont emboîté le pas, instituant un front européen uni. La sanction record de 1,2 milliard d'euros infligée à Meta en mai 2023 pour des transferts illégaux vers les États-Unis rappelle que les régulateurs n'hésitent plus à frapper au cœur des modèles économiques technologiques.

Sources : fiches pratiques IA de la CNIL, bilan annuel CNIL 2025, liste de vérification IA CNIL (janvier 2026)

Section 3

Analyse des risques pour l'entreprise

Risques juridiques et financiers

Le nouveau régime de sanctions cumule désormais le RGPD et l'AI Act, atteignant un plafond théorique de 55 millions d'euros (20 M€ RGPD + 35 M€ AI Act, ou 4% + 7% du CA mondial). Au-delà de l'amende administrative, le dirigeant s'expose à une responsabilité pénale au titre de l'article 226-17 du Code pénal, qui punit le défaut de sécurité des données personnelles de 5 ans d'emprisonnement et 300 000 euros d'amende. En 2025, la CNIL a massivement eu recours à sa procédure simplifiée pour sanctionner aussi bien des PME que des grands groupes.

Type de risqueImpactBase légale
Amende RGPDJusqu'à 20 M€ ou 4% CA mondialArt. 83 RGPD
Amende AI Act (cumulative)Jusqu'à 35 M€ ou 7% CA mondialArt. 99 AI Act
Responsabilité pénale du dirigeant5 ans d'emprisonnement, 300 000 €Art. 226-17 Code pénal
Action de groupe (class action)Dommages et intérêts collectifsArt. 80 RGPD + Loi Lemaire
Atteinte réputationnellePerte de confiance clients, partenaires

Secret professionnel : professions réglementées

Les professions soumises au secret professionnel sont particulièrement exposées. Le Conseil National des Barreaux (CNB) a publié en 2025 un rapport détaillé intitulé « Grille de lecture — Synthèse des consultations sur l'intelligence artificielle ». Le CNB alerte sur les risques déontologiques majeurs : conflits d'intérêts, violation du secret de l'instruction et de la confidentialité client, « hallucinations » (inventions de jurisprudence) et biais systémiques (les LLM américains favorisant la Common Law au détriment du droit romano-civiliste français). Le CNB exige des cabinets qu'ils s'orientent vers des architectures de type RAG (Retrieval-Augmented Generation) couplées à un hébergement souverain et une interdiction de réentraînement sur les données du cabinet.

L'Ordre des Experts-Comptables (OEC) adopte une ligne de prudence similaire. L'analyse de données financières brutes, de factures ou de fiches de paie clients via ChatGPT contrevient aux obligations de confidentialité inhérentes à la profession. Les experts alertent : « l'IA n'est pas mauvaise, elle peut être dangereuse parce qu'on la met au mauvais endroit sans contexte, sans garde-fou, sans responsabilité ». L'OEC préconise le recours à des « IA métiers encadrées et auditées » avec un humain dans la boucle systématique.

DPO externes, avocats, experts-comptables : ces trois professions manipulent des données sensibles au quotidien et sont les premières concernées par le Shadow AI. Un seul prompt contenant des données client soumis à une version gratuite de ChatGPT peut constituer une violation du secret professionnel.

Risque Schrems III : fragilité du Data Privacy Framework

Le Data Privacy Framework (DPF) adopté en juillet 2023 pour encadrer les transferts UE-USA reste fragile. Le député français Philippe Latombe a demandé son annulation, arguant que le mécanisme de recours américain (DPRC) manquait d'indépendance. Si le Tribunal de l'UE a rejeté ce recours en septembre 2025, un appel a été interjeté devant la CJUE fin octobre 2025. En parallèle, NOYB (l'association de Max Schrems) prépare activement un « Schrems III ». Le DPF repose sur un décret présidentiel américain (Biden 14086), révocable par une nouvelle administration, et le Cloud Act permet toujours l'accès aux données hébergées en Europe si le prestataire est américain.

ScenarioConsequence pour les entreprises
DPF invalidé (Schrems III)Les CCT (Clauses Contractuelles Types) deviennent insuffisantes si les lois américaines de surveillance ne changent pas.
Seule solution pérenneAnonymisation pré-transfert en Europe : les données personnelles ne quittent jamais l'UE sous forme identifiable.
Impact sur l'IA générativeTout prompt contenant des PII envoyé à un serveur US sans anonymisation préalable deviendrait illicite.

Sources : CJUE, appel DPF octobre 2025, positions NOYB

Section 4

Comparaison des 4 approches de protection

Face au Shadow AI, quatre stratégies sont possibles. Chacune présente des avantages et des limites qu'il convient d'évaluer au regard de l'efficacité, de la conformité et de l'impact opérationnel.

CritèreInterdiction totaleCharte d'usageDLP classiqueProtection navigateur
Efficacité vs Shadow AIFaible — contourné par BYOD et mobileFaible — repose sur la bonne volontéMoyenne — ne couvre pas les SaaS webForte — intercepte au point d'entrée
Conformité RGPDConforme par abstentionInsuffisante seule (pas de mesure technique Art. 32)Partielle — logs mais pas d'anonymisationComplète — anonymisation locale = Art. 32 + Art. 25
Résilience Schrems IIIN/A — pas d'usageAucune — données envoyées en clairFaible — détecte mais ne masque pasMaximale — PII anonymisées avant transfert
Impact productivitéNégatif — prive les équipes de l'IANeutre — pas de frictionMoyen — alertes, blocages partielsPositif — usage IA autorisé et sécurisé
Complexité déploiementNulleFaible (rédaction + diffusion)Élevée (infra réseau, agents endpoint)Faible — extension navigateur, pas d'infra

L'interdiction totale est contre-productive : elle freine l'innovation et pousse les collaborateurs vers des usages clandestins. La charte d'usage est un préalable nécessaire mais insuffisant sans mesure technique. Le DLP classique (Purview, Forcepoint) est conçu pour l'email et les fichiers, pas pour les interfaces web conversationnelles. La protection au niveau du navigateur, basée sur l'anonymisation locale des PII avant envoi, offre le meilleur équilibre entre conformité, productivité et simplicité de déploiement.

Section 5

Checklist DPO opérationnelle

Sept actions concrètes et immédiatement applicables pour encadrer l'utilisation de l'IA générative dans votre organisation.

1

Cartographier les usages IA

Réalisez un inventaire exhaustif des outils d'IA utilisés dans l'organisation : systèmes, finalités, fournisseurs, localisation des serveurs, volumes de données. Identifiez les usages non déclarés (Shadow AI) via des enquêtes internes et l'analyse des logs réseau.

2

Mettre à jour le registre des traitements (Art. 30)

Ajoutez chaque usage d'IA générative au registre des activités de traitement. Documentez la base légale, les catégories de données traitées, les destinataires (fournisseurs IA) et les durées de conservation. Ce registre est votre première ligne de défense en cas de contrôle CNIL.

3

Réaliser une AIPD (Art. 35)

Conduisez une Analyse d'Impact relative à la Protection des Données pour chaque traitement IA à risque élevé. Évaluez spécifiquement les risques de biais algorithmique, d'hallucination (génération de fausses informations), d'injection de prompts et de fuite de données personnelles.

4

Exiger des DPA conformes (Art. 28)

Négociez des Data Processing Agreements avec chaque fournisseur d'IA. Interdisez formellement l'utilisation de versions gratuites en entreprise. Exigez l'opt-out de l'entraînement des modèles, des certifications de sécurité (SOC 2) et des clauses d'audit.

5

Déployer des mesures techniques (Art. 32)

Mettez en place un filtrage et masquage automatique des PII en local, avant l'envoi aux LLM. Privilégiez l'approche Privacy by Design (Art. 25) : l'anonymisation doit être intégrée dans le flux de travail, pas ajoutée après coup.

6

Former les collaborateurs — AI Literacy (Art. 4 AI Act)

Le Règlement européen sur l'IA (AI Act) impose une obligation de « maîtrise de l'IA » (Art. 4). Formez les collaborateurs aux risques spécifiques : ne jamais coller de données personnelles dans un prompt, vérifier les sorties des LLM, signaler les incidents.

7

Préparer le dossier de conformité CNIL

Constituez un dossier documenté comprenant : inventaire des traitements IA, DPA signés, AIPD réalisées, preuves des mesures techniques déployées (logs d'anonymisation, rapports de détection). Ce dossier sera demandé en cas de contrôle ou de plainte.

Matrice d'évaluation des risques IA

DimensionCritères de risqueMesures d'atténuation
Sensibilité des donnéesDonnées de santé, financières, judiciaires, code source, secrets d'affairesAnonymisation systématique pré-envoi. Interdiction d'envoi de données de catégories spéciales (Art. 9).
Statut du fournisseurVersion gratuite sans DPA, absence de certifications, réutilisation pour entraînementExiger DPA + opt-out entraînement. N'autoriser que les versions Enterprise certifiées SOC 2.
Localisation des serveursServeurs hors UE (USA principalement), risque Schrems III, lois de surveillance FISA 702Anonymisation locale avant transfert. Préférer les options de résidence de données EU quand disponibles.
Autonomie de l'IAAgents autonomes, accès aux bases de données, exécution de code, chaînes d'outilsSupervision humaine obligatoire (human-in-the-loop). Journalisation de toutes les actions. Périmètre d'action limité.

Section 6

Perspectives : AI Act et IA agentique

Le Règlement européen sur l'Intelligence Artificielle (AI Act / Règlement UE 2024/1689), entré en vigueur le 1er août 2024, est le premier cadre juridique global dédié à l'IA au monde. Il prévoit des sanctions pouvant atteindre 35 millions d'euros ou 7% du CA mondial, cumulables avec les amendes RGPD (plafond théorique : 55 M€). En France, la CNIL est désignée autorité de régulation de l'AI Act depuis août 2025.

Calendrier d'application

ÉchéanceObligations
Février 2025Interdiction des systèmes d'IA à risque inacceptable : notation sociale, manipulation subliminale, surveillance biométrique de masse, constitution de bases faciales par scraping.
Août 2025Obligations de transparence et documentation pour les modèles à usage général (GPAI : GPT-4, Claude, Gemini). Résumé des contenus d'entrainement protégés par le droit d'auteur. Obligation de maîtrise de l'IA (Art. 4 — AI Literacy) pour les entreprises.
Août 2026Échéance décisive : obligations lourdes pour les systèmes IA à haut risque (tri de CV, évaluation de crédit, infrastructures critiques). Évaluation de conformité, marquage CE, système de gestion des risques, supervision humaine, journalisation. Obligation de transparence pour les chatbots (informer l'utilisateur qu'il interagit avec une IA).

Source : Règlement (UE) 2024/1689 du 13 juin 2024 (AI Act)

L'IA agentique : surface d'attaque élargie

Les années 2026-2027 marquent le passage de l'IA comme simple outil de consultation à une intégration proactive qualifiée d' « Intelligence Artificielle Agentique ». Contrairement à un LLM classique, un agent IA est conçu pour orchestrer de manière autonome des workflows complexes : module de raisonnement, mémoire à court et long terme, et capacité d'actionner des outils externes (API, bases de données, envois d'emails, transactions financières).

Cette mutation décuple les enjeux. La surface d'attaque englobe désormais l'empoisonnement de la mémoire de l'agent, le détournement d'objectifs (goal hijacking) par injection de commandes, et les vulnérabilités des API manipulées par l'IA. La faille EchoLeak (Section 1) illustre déjà comment un agent peut être armé pour contourner les défenses périmétriques.

Dans ce contexte, l'anonymisation à la source — avant que les données n'entrent dans la chaîne de traitement de l'agent — devient la seule approche pérenne. Les mécanismes de contrôle post-hoc (DLP, audit logs) sont structurellement inadaptés à la vitesse et à l'autonomie des agents IA. L'architecture de sécurité de demain reposera impérativement sur une approche Zero Trust appliquée à l'algorithme lui-même.

Conclusion

Points essentiels à retenir

  • Le Shadow AI est une réalité massive : 80% des cadres utilisent l'IA chaque semaine, majoritairement hors du contrôle de la DSI.
  • Le RGPD s'applique pleinement à chaque prompt contenant des données personnelles envoyé à une IA générative.
  • Les versions gratuites de ChatGPT, Claude et Gemini ne fournissent pas de DPA — leur utilisation en entreprise est une violation structurelle de l'Article 28.
  • Le risque Schrems III rend l'anonymisation pré-transfert indispensable pour toute donnée envoyée vers des serveurs américains.
  • Seule l'anonymisation locale au niveau du navigateur offre une protection efficace, conforme et compatible avec la productivité.
  • Le DPO doit agir maintenant : cartographier, documenter, sécuriser et former, avant l'entrée en vigueur complète de l'AI Act en août 2026.

La mise en conformité n'est pas un projet à 6 mois. Elle commence par une mesure technique simple, déployable en 30 secondes.

Sentinelle PIISentinelle PII

C'est l'approche que nous avons implémentée. Sentinelle PII est une extension Chrome qui détecte et masque automatiquement les données personnelles (emails, IBAN, téléphones, numéros de sécurité sociale) avant leur envoi aux IA génératives. Le traitement est 100% local (regex + modèle NER embarqué), aucune donnée ne transite par un serveur externe. Rapport Article 32 exportable pour votre dossier de conformité.

Tester gratuitement

Robin Roellinger — Fondateur, Sentinelle PII

contact@sentinelle-pii.fr · sentinelle-pii.fr