
Accédez en -24h à un avocat d'affaires sélectionné parmi les meilleurs, à des honoraires maîtrisés.
IA et cybersécurité : de quoi parle-t-on ?
Cartographie des risques cyber spécifiques aux systèmes d'IA
L'IA comme arme et comme cible : double usage des cyberattaquants
Cadre réglementaire : RGPD, NIS2, IA Act et CRA
Obligations de gouvernance pour les entités essentielles et importantes
Bonnes pratiques de sécurisation des projets IA en entreprise
Rôle de la DSI et de la direction juridique dans la conformité
L'intelligence artificielle désigne, au sens de l'IA Act (règlement UE 2024/1689), tout système conçu pour fonctionner avec un niveau variable d'autonomie, capable de générer des résultats — prédictions, recommandations, décisions — à partir de données d'entrée. En entreprise, cela couvre aussi bien un modèle de machine learning de détection de fraude qu'un assistant conversationnel interne ou un outil de tri automatisé de candidatures.
La cybersécurité, elle, regroupe l'ensemble des mesures techniques et organisationnelles destinées à protéger les systèmes d'information contre les accès non autorisés, les altérations et les interruptions de service. La directive NIS2 (2022/2555), transposée en droit français par la loi du 26 avril 2024, en élargit le périmètre à plus de 15 000 entités en France, contre environ 500 sous NIS1.
Le croisement des deux domaines pose un problème précis : chaque composant d'un système d'IA — données d'entraînement, pipeline de traitement, modèle déployé, API exposée — constitue un point d'entrée potentiel pour un attaquant. Parallèlement, l'IA elle-même devient un outil offensif dans l'arsenal des cybercriminels. Ce double mouvement oblige les DSI à repenser leur posture de sécurité.
Les systèmes d'IA introduisent des vulnérabilités qui n'existent pas dans les applications classiques. Trois catégories de risques se distinguent.
| Catégorie de risque | Mécanisme | Exemple concret |
|---|---|---|
| Empoisonnement de données (data poisoning) | Injection de données corrompues dans le jeu d'entraînement pour biaiser les résultats du modèle | Un modèle de scoring crédit qui valide systématiquement des dossiers frauduleux après manipulation du dataset |
| Extraction de modèle (model stealing) | Requêtes répétées sur une API pour reconstituer les paramètres du modèle | Vol d'un algorithme propriétaire de tarification dynamique via des appels API automatisés |
| Inférence par inversion (model inversion) | Exploitation des sorties du modèle pour reconstituer les données personnelles d'entraînement | Récupération de données médicales à partir d'un modèle de diagnostic déployé en SaaS |
À ces risques s'ajoutent les attaques par injection de prompt sur les modèles de langage (LLM), qui permettent de contourner les filtres de sécurité pour obtenir des informations confidentielles ou exécuter des instructions non autorisées. Selon l'ENISA (Threat Landscape for AI, mars 2024), 56 % des incidents signalés sur des systèmes d'IA en Europe relèvent de la manipulation de données ou de modèles.
Identifier les vulnérabilités propres à vos systèmes d'IA suppose une expertise croisée entre droit du numérique et sécurité technique.
Consulter un avocat spécialisé en cybersécurité
L'IA et cybersécurité forment un couple à double tranchant. Côté défensif, les outils de détection d'anomalies fondés sur le machine learning analysent des volumes de logs qu'aucun analyste humain ne pourrait traiter. Ils réduisent le temps moyen de détection d'une intrusion : IBM estime ce délai à 204 jours en moyenne en 2023, contre 277 jours pour les organisations sans automatisation.
Côté offensif, les attaquants exploitent l'IA générative pour :
Ce double usage impose aux DSI d'intégrer la menace IA dans leur analyse de risques, et non de la traiter comme un sujet technologique distinct.
Le déploiement d'un système d'IA en entreprise active simultanément plusieurs régimes juridiques. Leur articulation constitue un défi opérationnel concret.
| Texte | Entrée en application | Objet principal | Obligation clé pour un système d'IA |
|---|---|---|---|
| RGPD (2016/679) | 25 mai 2018 | Protection des données personnelles | Analyse d'impact (AIPD) obligatoire pour tout traitement automatisé à grande échelle (art. 35) |
| NIS2 (2022/2555) | 17 octobre 2024 (transposition FR) | Sécurité des réseaux et systèmes d'information | Notification d'incident sous 24 h, politique de gestion des risques cyber |
| IA Act (2024/1689) | Application progressive 2025-2027 | Encadrement des systèmes d'IA | Évaluation de conformité pour les systèmes à haut risque (annexe III), documentation technique obligatoire |
| CRA (Cyber Resilience Act, 2024) | Application progressive 2025-2027 | Sécurité des produits numériques | Obligation de security by design pour tout produit comportant un composant logiciel, y compris les modèles embarqués |
Le RGPD exige une base légale pour chaque traitement de données personnelles utilisé dans l'entraînement ou l'inférence. L'IA Act impose une classification par niveau de risque et des obligations graduées. NIS2 couvre la résilience opérationnelle. Le CRA ajoute une couche de sécurité produit. Ces textes ne se substituent pas les uns aux autres : ils se cumulent.
Articuler RGPD, NIS2 et IA Act sur un même projet d'IA nécessite une cartographie réglementaire précise.
Être accompagné par un avocat en cybersécurité
NIS2 distingue deux catégories d'organisations soumises à des obligations renforcées :
Pour ces entités, la directive impose :
Lorsqu'un système d'IA traite des données critiques ou pilote un processus opérationnel, il entre de facto dans le périmètre de ces obligations.
La sécurisation d'un projet IA s'organise autour de 3 phases :
Structurer la sécurité de vos projets IA en amont réduit l'exposition juridique et opérationnelle.
Faire appel à un avocat en cybersécurité
La conformité IA et cybersécurité ne peut pas reposer sur un seul département. Elle exige une coordination structurée entre la DSI et la direction juridique.
La DSI est responsable de :
La direction juridique assure :
Le point de jonction opérationnel se situe dans le registre des traitements IA, document transverse qui recense chaque système déployé, sa classification réglementaire, ses mesures de sécurité et son responsable. Ce registre sert de base commune aux deux directions et constitue la pièce maîtresse en cas de contrôle par l'ANSSI, la CNIL ou une autorité de surveillance IA.
Oui, dès lors que l'entité qui l'exploite entre dans le périmètre de NIS2 (entité essentielle ou importante). La directive couvre l'ensemble des systèmes d'information, qu'ils soient exposés ou non sur Internet. Un modèle d'IA traitant des données critiques en réseau interne reste soumis aux obligations de gestion des risques et de notification.
L'AIPD (analyse d'impact relative à la protection des données) porte sur les risques pour les droits et libertés des personnes dont les données sont traitées. L'évaluation de conformité de l'IA Act porte sur la sécurité, la fiabilité et la transparence du système d'IA lui-même. Les deux peuvent être requises simultanément pour un même système.
La responsabilité dépend du contrat et du rôle de chaque partie. Au sens du RGPD, l'entreprise reste responsable de traitement si elle détermine les finalités. Au sens de NIS2, l'entité exploitante doit avoir évalué la sécurité de son fournisseur. L'IA Act impose par ailleurs des obligations au fournisseur du système d'IA à haut risque.
Oui. L'IA Act (art. 50) impose une obligation de transparence : tout contenu généré ou manipulé par IA (image, audio, vidéo) doit être signalé comme tel. Cette obligation s'applique aux fournisseurs et aux déployeurs de systèmes d'IA générative, y compris en contexte professionnel.
Les interdictions relatives aux systèmes à risque inacceptable s'appliquent dès février 2025. Les obligations de transparence pour l'IA générative entrent en vigueur en août 2025. Les exigences complètes pour les systèmes à haut risque s'appliqueront à partir d'août 2026. Les entreprises disposent donc d'un calendrier progressif pour se mettre en conformité.
IA : Garantir la sécurité du développement d’un système d’IA - CNIL
Sécurité : Intelligence artificielle, conception et apprentissage - CNIL
SWIM LEGAL est une alternative au cabinet d’avocats traditionnel pour les besoins juridiques des entreprises. Incubé par le Barreau de Paris, SWIM a reçu le Prix de l’Innovation pour sa solution permettant à toute entreprise, quelle que soit sa taille ou sa localisation, d’accéder rapidement via la plateforme à des avocats d’affaires expérimentés. Les entreprises peuvent déposer leur besoin — qu’il s’agisse d’un dossier, d’une consultation ou d’un renfort temporaire — de manière confidentielle et recevoir des propositions d’avocats pour répondre rapidement à leur demande.
Besoin d'un juriste freelance, d'un conseil ou d'aide sur un litige ?



