
Accédez en -24h à un avocat d'affaires sélectionné parmi les meilleurs, à des honoraires maîtrisés.
Télécharger une IA : définition et cas d'usage en entreprise
Quelles IA peut-on télécharger ? Panorama des modèles open source
Licences logicielles : risques juridiques des IA téléchargées
RGPD et IA téléchargée : sécuriser les traitements de données
Conformité AI Act : obligations selon le niveau de risque
Propriété intellectuelle des contenus générés par une IA téléchargée
Checklist juridique avant de télécharger et déployer une IA
Télécharger une IA consiste à récupérer les fichiers de pondération (weights) d'un modèle d'intelligence artificielle pour l'exécuter localement sur l'infrastructure de l'entreprise. Cette opération se distingue de l'appel à une API hébergée chez un fournisseur cloud : le modèle tourne sur les serveurs internes, ce qui confère à la DSI un contrôle direct sur les données traitées et les performances du système.
En pratique, les cas d'usage se multiplient. Un service juridique interne utilise un Large Language Model (LLM) pour analyser des contrats. Une direction financière déploie un modèle de détection d'anomalies sur ses flux comptables. Une équipe RH automatise le tri de candidatures à l'aide d'un réseau de neurones spécialisé. Dans chaque scénario, le DSI est le décisionnaire technique, mais les implications juridiques dépassent le périmètre IT.
Le déploiement on-premise ne supprime pas les obligations réglementaires. Il les déplace : la responsabilité du traitement, de la conformité et de la sécurité repose directement sur l'entreprise, et non plus sur un prestataire cloud.
Le marché des modèles téléchargeables s'est structuré autour de plusieurs acteurs. La plateforme Hugging Face référence plus de 700 000 modèles en accès libre à fin 2024. Parmi les LLM les plus déployés en entreprise figurent Llama 3 (Meta), Mistral (Mistral AI), Falcon (Technology Innovation Institute) et Gemma (Google DeepMind).
Chaque modèle est distribué sous une licence spécifique qui conditionne ses usages autorisés. Le terme open source recouvre des réalités très différentes :
| Modèle | Éditeur | Licence | Usage commercial |
|---|---|---|---|
| Llama 3 | Meta | Llama Community License | Autorisé sous conditions (seuil de 700 millions d'utilisateurs actifs mensuels) |
| Mistral 7B | Mistral AI | Apache 2.0 | Autorisé sans restriction |
| Falcon 180B | TII | Falcon License | Autorisé avec attribution |
| GPT-NeoX | EleutherAI | Apache 2.0 | Autorisé sans restriction |
Le DSI doit vérifier la licence avant tout téléchargement. Un modèle qualifié d'open source par son éditeur peut comporter des restrictions d'usage commercial, des obligations de partage du code dérivé ou des limitations géographiques.
Le principal risque juridique lié au téléchargement d'une IA réside dans les licences logicielles. Trois catégories de licences coexistent, avec des conséquences distinctes pour le code propriétaire de l'entreprise.
Ces licences autorisent la modification, la redistribution et l'usage commercial du modèle. L'entreprise conserve la propriété de ses développements dérivés. L'obligation se limite généralement à mentionner la licence d'origine.
Ces licences imposent que tout logiciel dérivé soit distribué sous la même licence. En d'autres termes, si un modèle sous GPL est intégré dans un outil interne, le code source de cet outil pourrait devoir être publié. C'est l'effet dit de contamination. Pour un DSI, le risque est de transformer involontairement un actif propriétaire en logiciel libre.
Certains éditeurs créent des licences ad hoc (Llama Community License, Stability AI License). Ces textes contiennent souvent des clauses de seuil d'utilisation, des restrictions sectorielles ou des interdictions d'usage pour certaines finalités. Leur non-respect expose l'entreprise à une action en contrefaçon.
Concrètement, un audit de licence doit précéder tout déploiement. Cet audit identifie les composants tiers embarqués dans le modèle, vérifie la compatibilité des licences entre elles et évalue le risque de contamination du code propriétaire.
Identifier les obligations de licence avant de déployer un modèle d'IA protège l'entreprise contre des risques de contrefaçon et de perte de propriété sur son code.
Consultez un avocat spécialisé en intelligence artificielle
Le déploiement local d'une IA ne dispense pas du respect du RGPD. Dès que le modèle traite des données à caractère personnel, l'entreprise agit en qualité de responsable de traitement au sens de l'article 4 du règlement européen 2016/679.
Trois phases du cycle de vie du modèle sont concernées :
Le DSI doit s'assurer que chaque traitement repose sur une base légale valide (consentement, intérêt légitime, exécution contractuelle). Une analyse d'impact relative à la protection des données (AIPD) est obligatoire lorsque le traitement présente un risque élevé pour les droits des personnes, ce qui est fréquent avec les systèmes d'IA traitant des données à grande échelle.
La CNIL a publié en 2024 des recommandations spécifiques sur l'utilisation de l'IA, rappelant que le principe de transparence impose d'informer les personnes concernées du recours à un traitement automatisé.
Le règlement européen sur l'intelligence artificielle (AI Act), entré en vigueur le 1er août 2024, s'applique à toute entreprise qui déploie un système d'IA sur le territoire de l'Union européenne, y compris un modèle téléchargé et exploité on-premise.
L'AI Act classe les systèmes d'IA en 4 niveaux de risque. Les obligations varient selon la catégorie :
| Niveau de risque | Exemples | Obligations principales | Sanctions maximales |
|---|---|---|---|
| Inacceptable | Notation sociale, manipulation subliminale | Interdiction totale | 35 M€ ou 7 % du CA mondial |
| Haut risque | Recrutement automatisé, scoring crédit, dispositifs médicaux | Évaluation de conformité, documentation technique, supervision humaine, gestion des risques | 15 M€ ou 3 % du CA mondial |
| Risque limité | Chatbots, génération de contenu | Obligation de transparence (informer l'utilisateur qu'il interagit avec une IA) | 7,5 M€ ou 1,5 % du CA mondial |
| Risque minimal | Filtres anti-spam, jeux vidéo | Aucune obligation spécifique | — |
Pour le DSI, la qualification du niveau de risque détermine l'ensemble du dispositif de conformité à mettre en place. Un LLM utilisé pour résumer des documents internes relève du risque limité. Le même modèle utilisé pour évaluer des candidatures dans un processus RH bascule dans la catégorie haut risque.
L'entreprise qui déploie un modèle téléchargé est qualifiée de deployer au sens de l'AI Act. Elle assume les obligations de documentation, de surveillance et de signalement des incidents, même si elle n'a pas développé le modèle.
Le niveau de risque AI Act d'un système d'IA dépend de son usage concret, pas du modèle lui-même. La qualification juridique conditionne l'ensemble des obligations de conformité.
Faites qualifier votre système par un avocat en intelligence artificielle
La question de la propriété intellectuelle des outputs générés par une IA téléchargée reste ouverte en droit français. Le Code de la propriété intellectuelle (article L. 111-1) conditionne la protection par le droit d'auteur à l'existence d'une création originale portant l'empreinte de la personnalité de son auteur. Or, un texte, une image ou un code produit par un modèle de langage sans intervention créative humaine ne remplit pas cette condition.
En pratique, cela signifie que les contenus générés par une IA téléchargée ne bénéficient pas automatiquement de la protection du droit d'auteur. L'entreprise ne peut pas revendiquer un monopole d'exploitation sur ces outputs au titre du droit d'auteur classique.
Toutefois, deux mécanismes juridiques peuvent offrir une protection partielle :
Le DSI doit anticiper ces limites en intégrant des clauses de propriété intellectuelle dans les contrats avec les prestataires impliqués dans le déploiement du modèle, et en documentant le degré d'intervention humaine dans la production des outputs.
Avant tout déploiement, le DSI peut structurer sa démarche de conformité autour de 7 vérifications :
Structurer la conformité juridique dès la phase de sélection du modèle évite des coûts de remédiation et des risques réglementaires en production.
Anticipez vos obligations avec un avocat en intelligence artificielle
Oui. La licence Apache 2.0 autorise l'usage commercial, la modification et la redistribution du modèle. L'entreprise doit conserver la mention de la licence d'origine et le fichier NOTICE s'il existe. En revanche, elle n'est pas tenue de publier le code source de ses développements dérivés.
Oui. Le lieu d'hébergement du modèle ne modifie pas l'applicabilité du RGPD. Dès que le système traite des données à caractère personnel de personnes situées dans l'Union européenne, le règlement s'applique. Le déploiement on-premise transfère la responsabilité du traitement à l'entreprise.
L'annexe III du règlement européen sur l'IA liste les catégories de systèmes à haut risque. Les usages en recrutement, évaluation de crédit, accès aux services publics ou dispositifs médicaux y figurent. La qualification dépend de la finalité du déploiement, pas de la nature technique du modèle.
Pas automatiquement. En droit français, le droit d'auteur protège les créations originales portant l'empreinte de la personnalité de leur auteur. Un contenu produit sans intervention créative humaine ne remplit pas ce critère. L'entreprise peut toutefois protéger ces contenus par le secret des affaires ou par des clauses contractuelles.
Les sanctions prévues par le règlement européen varient selon la catégorie d'infraction. Le déploiement d'un système interdit expose à une amende pouvant atteindre 35 millions d'euros ou 7 % du chiffre d'affaires annuel mondial. Le non-respect des obligations applicables aux systèmes à haut risque est sanctionné jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial.
IA : la CNIL finalise ses recommandations sur le développement des systèmes d'IA - CNIL
Recommandations de sécurité pour un système d'IA générative - ANSSI
Législation sur l'IA (AI Act) - Commission européenne
SWIM LEGAL est une alternative au cabinet d’avocats traditionnel pour les besoins juridiques des entreprises. Incubé par le Barreau de Paris, SWIM a reçu le Prix de l’Innovation pour sa solution permettant à toute entreprise, quelle que soit sa taille ou sa localisation, d’accéder rapidement via la plateforme à des avocats d’affaires expérimentés. Les entreprises peuvent déposer leur besoin — qu’il s’agisse d’un dossier, d’une consultation ou d’un renfort temporaire — de manière confidentielle et recevoir des propositions d’avocats pour répondre rapidement à leur demande.
Besoin d'un juriste freelance, d'un conseil ou d'aide sur un litige ?



