IA et cybersécurité : enjeux, risques et obligations pour les entreprises (RGPD, NIS2, IA Act)

Guides & Ressources pratiques
22 Feb 2026
-
7
min
Points clés de l'article
  1. Le déploiement de systèmes d'IA en entreprise crée des surfaces d'attaque inédites : empoisonnement de modèles, deepfakes, exfiltration de données d'entraînement.
  2. L'IA sert simultanément les défenseurs (détection d'anomalies) et les attaquants (automatisation de phishing, contournement de filtres).
  3. Quatre textes européens se superposent — RGPD, NIS2, IA Act, CRA — et imposent des obligations distinctes mais complémentaires.
  4. Les entités classées « essentielles » ou « importantes » au sens de NIS2 doivent notifier tout incident significatif à l'ANSSI sous 24 heures.
  5. La DSI et la direction juridique doivent co-piloter la conformité pour éviter les angles morts entre sécurité technique et exigences réglementaires.

Besoin d'un juriste freelance ou d'un avocat ?

Accédez en -24h à un avocat d'affaires sélectionné parmi les meilleurs, à des honoraires maîtrisés.

✓ 250+ spécialistes✓ 500+ clients satisfaits✓ -30 à -50% moins cher qu'un cabinet
Incubateur du Barreau de Paris
Réseau Entreprendre
Prix Innovation Barreau de Paris

Sommaire

IA et cybersécurité : de quoi parle-t-on ?

Cartographie des risques cyber spécifiques aux systèmes d'IA

L'IA comme arme et comme cible : double usage des cyberattaquants

Cadre réglementaire : RGPD, NIS2, IA Act et CRA

Obligations de gouvernance pour les entités essentielles et importantes

Bonnes pratiques de sécurisation des projets IA en entreprise

Rôle de la DSI et de la direction juridique dans la conformité

FAQ

Pour aller plus loin

IA et cybersécurité : de quoi parle-t-on ?

L'intelligence artificielle désigne, au sens de l'IA Act (règlement UE 2024/1689), tout système conçu pour fonctionner avec un niveau variable d'autonomie, capable de générer des résultats — prédictions, recommandations, décisions — à partir de données d'entrée. En entreprise, cela couvre aussi bien un modèle de machine learning de détection de fraude qu'un assistant conversationnel interne ou un outil de tri automatisé de candidatures.

La cybersécurité, elle, regroupe l'ensemble des mesures techniques et organisationnelles destinées à protéger les systèmes d'information contre les accès non autorisés, les altérations et les interruptions de service. La directive NIS2 (2022/2555), transposée en droit français par la loi du 26 avril 2024, en élargit le périmètre à plus de 15 000 entités en France, contre environ 500 sous NIS1.

Le croisement des deux domaines pose un problème précis : chaque composant d'un système d'IA — données d'entraînement, pipeline de traitement, modèle déployé, API exposée — constitue un point d'entrée potentiel pour un attaquant. Parallèlement, l'IA elle-même devient un outil offensif dans l'arsenal des cybercriminels. Ce double mouvement oblige les DSI à repenser leur posture de sécurité.

Cartographie des risques cyber spécifiques aux systèmes d'IA

Les systèmes d'IA introduisent des vulnérabilités qui n'existent pas dans les applications classiques. Trois catégories de risques se distinguent.

Catégorie de risqueMécanismeExemple concret
Empoisonnement de données (data poisoning)Injection de données corrompues dans le jeu d'entraînement pour biaiser les résultats du modèleUn modèle de scoring crédit qui valide systématiquement des dossiers frauduleux après manipulation du dataset
Extraction de modèle (model stealing)Requêtes répétées sur une API pour reconstituer les paramètres du modèleVol d'un algorithme propriétaire de tarification dynamique via des appels API automatisés
Inférence par inversion (model inversion)Exploitation des sorties du modèle pour reconstituer les données personnelles d'entraînementRécupération de données médicales à partir d'un modèle de diagnostic déployé en SaaS

À ces risques s'ajoutent les attaques par injection de prompt sur les modèles de langage (LLM), qui permettent de contourner les filtres de sécurité pour obtenir des informations confidentielles ou exécuter des instructions non autorisées. Selon l'ENISA (Threat Landscape for AI, mars 2024), 56 % des incidents signalés sur des systèmes d'IA en Europe relèvent de la manipulation de données ou de modèles.

Identifier les vulnérabilités propres à vos systèmes d'IA suppose une expertise croisée entre droit du numérique et sécurité technique.
Consulter un avocat spécialisé en cybersécurité

L'IA comme arme et comme cible : double usage des cyberattaquants

L'IA et cybersécurité forment un couple à double tranchant. Côté défensif, les outils de détection d'anomalies fondés sur le machine learning analysent des volumes de logs qu'aucun analyste humain ne pourrait traiter. Ils réduisent le temps moyen de détection d'une intrusion : IBM estime ce délai à 204 jours en moyenne en 2023, contre 277 jours pour les organisations sans automatisation.

Côté offensif, les attaquants exploitent l'IA générative pour :

  • Automatiser le spear phishing : génération de courriels personnalisés, grammaticalement corrects, imitant le style d'un dirigeant ciblé.
  • Produire des deepfakes audio et vidéo : en février 2024, une entreprise de Hong Kong a perdu 25 millions de dollars après qu'un employé a exécuté un virement ordonné lors d'une visioconférence entièrement générée par IA.
  • Contourner les CAPTCHA et les systèmes de détection : les modèles de vision par ordinateur résolvent désormais plus de 90 % des tests visuels de sécurité.

Ce double usage impose aux DSI d'intégrer la menace IA dans leur analyse de risques, et non de la traiter comme un sujet technologique distinct.

Cadre réglementaire : RGPD, NIS2, IA Act et CRA

Le déploiement d'un système d'IA en entreprise active simultanément plusieurs régimes juridiques. Leur articulation constitue un défi opérationnel concret.

TexteEntrée en applicationObjet principalObligation clé pour un système d'IA
RGPD (2016/679)25 mai 2018Protection des données personnellesAnalyse d'impact (AIPD) obligatoire pour tout traitement automatisé à grande échelle (art. 35)
NIS2 (2022/2555)17 octobre 2024 (transposition FR)Sécurité des réseaux et systèmes d'informationNotification d'incident sous 24 h, politique de gestion des risques cyber
IA Act (2024/1689)Application progressive 2025-2027Encadrement des systèmes d'IAÉvaluation de conformité pour les systèmes à haut risque (annexe III), documentation technique obligatoire
CRA (Cyber Resilience Act, 2024)Application progressive 2025-2027Sécurité des produits numériquesObligation de security by design pour tout produit comportant un composant logiciel, y compris les modèles embarqués

Le RGPD exige une base légale pour chaque traitement de données personnelles utilisé dans l'entraînement ou l'inférence. L'IA Act impose une classification par niveau de risque et des obligations graduées. NIS2 couvre la résilience opérationnelle. Le CRA ajoute une couche de sécurité produit. Ces textes ne se substituent pas les uns aux autres : ils se cumulent.

Articuler RGPD, NIS2 et IA Act sur un même projet d'IA nécessite une cartographie réglementaire précise.
Être accompagné par un avocat en cybersécurité

Obligations de gouvernance pour les entités essentielles et importantes

NIS2 distingue deux catégories d'organisations soumises à des obligations renforcées :

  • Entités essentielles : énergie, transports, santé, infrastructures numériques, secteur bancaire. Elles emploient plus de 250 salariés ou réalisent plus de 50 millions d'euros de chiffre d'affaires.
  • Entités importantes : services postaux, gestion des déchets, fabrication de dispositifs médicaux, fournisseurs numériques. Seuil fixé à 50 salariés ou 10 millions d'euros de chiffre d'affaires.

Pour ces entités, la directive impose :

  1. Une politique de gestion des risques cyber couvrant l'ensemble de la chaîne d'approvisionnement, y compris les fournisseurs de modèles d'IA tiers.
  2. La notification d'incidents significatifs à l'ANSSI dans un délai de 24 heures (alerte initiale), puis un rapport complet sous 72 heures.
  3. La responsabilité des organes de direction : les dirigeants doivent approuver les mesures de cybersécurité et suivre une formation adaptée. Le non-respect expose à des sanctions pouvant atteindre 10 millions d'euros ou 2 % du chiffre d'affaires mondial pour les entités essentielles.

Lorsqu'un système d'IA traite des données critiques ou pilote un processus opérationnel, il entre de facto dans le périmètre de ces obligations.

Bonnes pratiques de sécurisation des projets IA en entreprise

La sécurisation d'un projet IA s'organise autour de 3 phases :

Avant le déploiement

  • Réaliser une analyse d'impact sur la protection des données (AIPD) si le système traite des données personnelles à grande échelle.
  • Classifier le système selon les catégories de risque de l'IA Act (inacceptable, haut risque, risque limité, risque minimal).
  • Auditer la qualité et la provenance des données d'entraînement pour prévenir l'empoisonnement.

Pendant l'exploitation

  • Mettre en place un monitoring continu des entrées et sorties du modèle pour détecter les dérives (drift) et les tentatives d'injection.
  • Segmenter les accès aux API du modèle selon le principe du moindre privilège.
  • Journaliser l'ensemble des requêtes pour assurer la traçabilité exigée par l'IA Act (art. 12).

En cas d'incident

  • Activer le plan de réponse à incident intégrant le volet IA : isolation du modèle compromis, bascule sur un système de repli.
  • Notifier l'ANSSI dans les délais NIS2 et la CNIL si des données personnelles sont affectées.
  • Documenter l'incident pour alimenter le registre de conformité IA Act.
Structurer la sécurité de vos projets IA en amont réduit l'exposition juridique et opérationnelle.
Faire appel à un avocat en cybersécurité

Rôle de la DSI et de la direction juridique dans la conformité

La conformité IA et cybersécurité ne peut pas reposer sur un seul département. Elle exige une coordination structurée entre la DSI et la direction juridique.

La DSI est responsable de :

  • L'implémentation technique des mesures de sécurité (chiffrement, contrôle d'accès, monitoring).
  • La gestion opérationnelle des incidents et la notification technique à l'ANSSI.
  • L'évaluation technique des fournisseurs d'IA tiers (audits de sécurité, clauses contractuelles techniques).

La direction juridique assure :

  • La qualification réglementaire de chaque système d'IA (niveau de risque IA Act, base légale RGPD, périmètre NIS2).
  • La rédaction et la négociation des clauses contractuelles avec les fournisseurs (responsabilité en cas de faille, portabilité des données, droit d'audit).
  • Le suivi des évolutions réglementaires et l'adaptation des politiques internes.

Le point de jonction opérationnel se situe dans le registre des traitements IA, document transverse qui recense chaque système déployé, sa classification réglementaire, ses mesures de sécurité et son responsable. Ce registre sert de base commune aux deux directions et constitue la pièce maîtresse en cas de contrôle par l'ANSSI, la CNIL ou une autorité de surveillance IA.

FAQ

Un système d'IA interne non connecté à Internet est-il soumis à NIS2 ?

Oui, dès lors que l'entité qui l'exploite entre dans le périmètre de NIS2 (entité essentielle ou importante). La directive couvre l'ensemble des systèmes d'information, qu'ils soient exposés ou non sur Internet. Un modèle d'IA traitant des données critiques en réseau interne reste soumis aux obligations de gestion des risques et de notification.

Quelle différence entre l'AIPD du RGPD et l'évaluation de conformité de l'IA Act ?

L'AIPD (analyse d'impact relative à la protection des données) porte sur les risques pour les droits et libertés des personnes dont les données sont traitées. L'évaluation de conformité de l'IA Act porte sur la sécurité, la fiabilité et la transparence du système d'IA lui-même. Les deux peuvent être requises simultanément pour un même système.

Qui est responsable en cas de faille sur un modèle d'IA fourni par un prestataire SaaS ?

La responsabilité dépend du contrat et du rôle de chaque partie. Au sens du RGPD, l'entreprise reste responsable de traitement si elle détermine les finalités. Au sens de NIS2, l'entité exploitante doit avoir évalué la sécurité de son fournisseur. L'IA Act impose par ailleurs des obligations au fournisseur du système d'IA à haut risque.

Les deepfakes sont-ils encadrés par l'IA Act ?

Oui. L'IA Act (art. 50) impose une obligation de transparence : tout contenu généré ou manipulé par IA (image, audio, vidéo) doit être signalé comme tel. Cette obligation s'applique aux fournisseurs et aux déployeurs de systèmes d'IA générative, y compris en contexte professionnel.

Quel est le calendrier d'application de l'IA Act pour les entreprises ?

Les interdictions relatives aux systèmes à risque inacceptable s'appliquent dès février 2025. Les obligations de transparence pour l'IA générative entrent en vigueur en août 2025. Les exigences complètes pour les systèmes à haut risque s'appliqueront à partir d'août 2026. Les entreprises disposent donc d'un calendrier progressif pour se mettre en conformité.

Pour aller plus loin

IA : Garantir la sécurité du développement d’un système d’IA - CNIL

Sécurité : Intelligence artificielle, conception et apprentissage - CNIL

Notre stratégie - ANSSI

SWIM LEGAL est une alternative au cabinet d’avocats traditionnel pour les besoins juridiques des entreprises. Incubé par le Barreau de Paris, SWIM a reçu le Prix de l’Innovation pour sa solution permettant à toute entreprise, quelle que soit sa taille ou sa localisation, d’accéder rapidement via la plateforme à des avocats d’affaires expérimentés. Les entreprises peuvent déposer leur besoin — qu’il s’agisse d’un dossier, d’une consultation ou d’un renfort temporaire — de manière confidentielle et recevoir des propositions d’avocats pour répondre rapidement à leur demande.
Télécharger la ressource

Plateforme de mise en relation d’avocats d’affaires