Masteria, Centre de formation IA certifié Qualiopi
Certifié QualiopiFinançable OPCOFrance · Suisse · Belgique
Sécurité

Sécurité et confidentialité de l'IA en entreprise : le guide RGPD pour DSI et dirigeants

23 avril 2026 12 min de lecturePar Mathias Nizan
La sécurité des données est aujourd'hui le frein numéro un au déploiement de l'IA générative en entreprise. Selon une enquête CESIN 2026 menée auprès de 200 DSI français, 72 % ont retardé un projet IA pour des questions de conformité RGPD ou de souveraineté. Ce guide donne aux DSI, DPO et dirigeants les éléments concrets pour décider quelle solution déployer, à quelles conditions, et comment encadrer les usages.

Le constat de départ : il n'existe pas de réponse unique à la question « ChatGPT est-il RGPD-compatible ? ». La réponse dépend de la version utilisée, des données traitées, du paramétrage du compte et de la juridiction. Cet article distingue les vrais risques des risques imaginaires.

Les trois risques réels à considérer

Risque n°1 : exposition de données dans les conversations

Les versions grand public (ChatGPT Plus, Mistral Free, Claude Free) peuvent utiliser vos conversations pour entraîner leurs modèles, sauf opt-out explicite. Concrètement, un commercial qui colle un contrat client dans ChatGPT.com expose le contenu de ce contrat à un usage potentiel de réentraînement, et donc à une fuite probabilistique vers d'autres utilisateurs.

Sur les versions Team, Enterprise ou via API : par défaut, les données ne sont pas utilisées à des fins d'entraînement. C'est la différence clé entre un usage personnel et un usage professionnel encadré.

Risque n°2 : transfert de données hors UE

ChatGPT, Claude et Gemini hébergent leurs données principalement aux États-Unis. Depuis l'invalidation du Privacy Shield (Schrems II), ces transferts sont strictement encadrés par le RGPD. Les contrats Standard Contractual Clauses (SCC) et le Data Privacy Framework de 2023 fournissent un cadre, mais ne suppriment pas le débat juridique.

Pour les entreprises soumises à des contraintes de souveraineté forte (santé HDS, défense, secteurs régulés bancaires), l'option la plus simple consiste à choisir un fournisseur européen comme Mistral, ou à activer une option de localisation européenne quand elle existe (EU Data Boundary chez Microsoft Copilot).

Risque n°3 : violation du secret professionnel ou de clauses contractuelles

Les avocats, médecins, experts-comptables et certains métiers du conseil sont soumis à un secret professionnel renforcé qui interdit le partage d'informations clients avec un tiers, y compris un sous-traitant IT. Avant de déployer une IA générative dans ces métiers, il faut valider :

  • Que le contrat de service inclut un engagement de non-utilisation des données pour l'entraînement
  • Que la juridiction d'hébergement est compatible avec les obligations professionnelles
  • Que les utilisateurs sont formés à ne pas saisir de données nominatives dans l'IA
  • Que la traçabilité des conversations permet un audit en cas de demande

Tableau comparatif : conformité par solution

SolutionLocalisation donnéesEntraînement par défautAdapté secteur régulé ?
ChatGPT Free / PlusUSA principalementOui (opt-out possible)Non
ChatGPT TeamUSA principalementNon (par défaut)Oui sauf souveraineté stricte
ChatGPT EnterpriseUSA + options SCCNonOui sauf souveraineté stricte
Microsoft Copilot M365EU Data Boundary disponibleNonOui (largement déployé)
Google Gemini WorkspaceMulti-régions, options EUNon en WorkspaceOui sauf souveraineté stricte
Claude Team / EnterpriseUSA principalementNonOui sauf souveraineté stricte
Mistral Le Chat Pro / EnterpriseEurope (UE)NonOui (recommandé secteurs régulés)
Mistral on-premiseVos serveursNonOui (santé, défense, banque)

Peut-on utiliser ChatGPT avec des données clients ?

La réponse rapide : oui sur ChatGPT Team ou Enterprise avec un encadrement précis ; non sur la version Plus grand public. Détaillons :

  • Données client anonymisées (chiffres, structure, problématique sans nominatif) : autorisé sur version Team/Enterprise après évaluation DPO
  • Données client nominatives (nom, e-mail, contrat signé) : déconseillé même sur Enterprise, sauf clause spécifique négociée
  • Données soumises à secret professionnel (avocat-client, médecin-patient) : à proscrire, sauf déploiement souverain dédié
  • Données stratégiques internes (M&A, plan stratégique, finances non publiques) : à éviter sur tous les outils américains

Les 10 règles à inclure dans une charte d'usage IA en entreprise

  1. Ne jamais utiliser la version gratuite des outils IA pour un usage professionnel
  2. Ne jamais coller de données nominatives clients ou salariés dans une IA générative
  3. Ne jamais coller de données financières non publiques (résultats prévisionnels, plans stratégiques)
  4. Utiliser uniquement les comptes professionnels validés par la DSI (pas de comptes personnels)
  5. Vérifier systématiquement les sorties de l'IA sur les sujets juridiques, médicaux, financiers
  6. Citer l'usage de l'IA quand le contenu produit est diffusé (transparence interne et externe)
  7. Anonymiser tout document avant analyse par IA, sauf si l'outil est validé pour ce niveau de sensibilité
  8. Respecter les droits d'auteur : ne pas faire produire de contenu qui copie des œuvres protégées
  9. Ne pas utiliser l'IA pour des décisions automatisées affectant les droits des personnes (RGPD art. 22)
  10. Signaler à la DSI tout incident ou doute (fuite suspectée, sortie inappropriée, comportement anormal)

Que dit l'AI Act sur la sécurité de l'IA en entreprise ?

L'AI Act européen (Règlement (UE) 2024/1689), pleinement applicable en août 2026, ajoute trois obligations directement liées à la sécurité :

  • Formation obligatoire des utilisateurs : tout collaborateur qui utilise un système d'IA dans le cadre professionnel doit avoir reçu une formation appropriée
  • Documentation technique : pour les systèmes à risque élevé, l'entreprise doit pouvoir documenter le fonctionnement, les données d'entraînement et les mesures de mitigation
  • Gouvernance : désignation d'un référent IA, registre des systèmes utilisés, procédure d'incident

Sanctions associées : jusqu'à 35 M€ ou 7 % du CA mondial pour les violations les plus graves. Le pendant pratique : la formation à l'IA n'est plus une option, c'est une obligation légale.

FAQ

Questions fréquentes

Pas dans sa version Free ou Plus pour un usage professionnel impliquant des données personnelles, car les conversations peuvent être utilisées pour entraîner les modèles. ChatGPT Team et Enterprise peuvent l'être après évaluation DPO et signature des Standard Contractual Clauses, mais des doutes subsistent pour les secteurs à souveraineté stricte.

Non sur ChatGPT Plus grand public. Oui sur ChatGPT Team ou Enterprise après anonymisation des éléments nominatifs, ou sur Mistral Enterprise pour les contraintes de souveraineté forte. Dans tous les cas, vérifier la conformité avec votre DPO avant déploiement.

Les options privilégiées sont Mistral Enterprise on-premise, Microsoft Copilot M365 avec EU Data Boundary activée, ou des solutions verticales métier disposant d'un hébergement Europe certifié. Le secret professionnel renforcé impose souvent un déploiement souverain et un audit DPO préalable.

Pas en tant que telle. En revanche, si vous utilisez l'IA pour traiter des données personnelles, ce traitement doit figurer dans votre registre RGPD (article 30) et faire l'objet d'une analyse d'impact (AIPD) si le traitement présente un risque élevé pour les droits des personnes.

Activer immédiatement votre procédure de notification de violation : information du DPO, évaluation du risque pour les personnes concernées, notification à la CNIL dans les 72 heures si le risque est avéré, communication aux personnes si le risque est élevé. La traçabilité des prompts est essentielle pour reconstituer le périmètre de la fuite.

Sécuriser votre déploiement IA avec Masteria

Notre offre conseil inclut un audit RGPD-IA, l'aide à la rédaction de la charte d'usage et la formation des équipes. Certifié Qualiopi, finançable OPCO.

Aller plus loin

Ressources liées

MN
Mathias Nizan
Fondateur de Masteria, cabinet de conseil et centre de formation IA certifié Qualiopi. +500 professionnels formés.
À lire aussi

Autres articles Masteria