Mon cours sur les enjeux juridique de l’intelligence artificielle – LexWeb

Mon cours sur les enjeux juridique de l’intelligence artificielle

Dans le cadre de mes cours, j’utilise des outils numériques afin de proposer des contenus interactifs et dynamiques à mes étudiants. Cette plateforme me permet de créer des présentations engageantes, des quiz, ou encore des simulations, facilitant ainsi l’apprentissage du droit de manière plus vivante et accessible.

Premier cours sur les enjeux de l’IA

Deuxième cours sur les enjeux de l’IA

Dépêche fictive – Le Monde du Droit, 29 septembre 2025

Un grand cabinet parisien teste une IA pour rédiger ses conclusions

Le cabinet “Durand & Associés”, l’un des plus réputés du barreau de Paris, a annoncé hier avoir intégré un système d’intelligence artificielle générative dans sa pratique quotidienne. L’outil, présenté comme capable de rédiger des conclusions en quelques minutes et de synthétiser la jurisprudence en temps réel, est testé depuis plusieurs semaines par une équipe d’avocats spécialisés en contentieux des affaires.

Selon les premiers retours, les gains de productivité seraient considérables : réduction du temps de recherche, amélioration de la réactivité et baisse des coûts facturés aux clients. « Nos collaborateurs peuvent se concentrer sur la stratégie, tandis que l’IA s’occupe du travail répétitif », explique Me Durand.

Mais cette initiative suscite déjà de vifs débats. Le “Conseil national des barreaux (CNB)” rappelle que le recours à l’IA ne doit pas mettre en péril le “secret professionnel”, ni conduire à une délégation prohibée de la mission de l’avocat. Plusieurs confrères craignent également une remise en cause du **rôle des jeunes collaborateurs**, traditionnellement chargés de ces travaux préparatoires.

Du côté des clients, l’accueil est mitigé : certains se félicitent de la perspective d’honoraires réduits, d’autres s’inquiètent d’une « justice automatisée » où l’humain disparaîtrait derrière l’algorithme.

Enfin, des experts en protection des données s’interrogent : l’IA utilisée est développée par une société américaine soumise au Cloud Act, ce qui pourrait poser problème au regard du RGPD et de la future A Act en Europe.

La profession s’interroge désormais : jusqu’où peut-on aller dans l’utilisation de l’IA par les avocats, sans franchir la ligne rouge de la déontologie ?

1. Lecture du cas

Prenez connaissance de la dépêche de presse distribuée en début de séance (*Cabinet Durand & Associés et l’IA*).

2. Travail en groupes (30 min)

Vous êtes répartis en **4 groupes de rôle** :

1. **Avocats du cabinet Durand & Associés** : justifiez votre choix d’utiliser l’IA et répondez aux critiques.
2. **Clients du cabinet** : exprimez vos attentes, vos inquiétudes et vos conditions d’acceptation.
3. **Conseil national des barreaux (CNB)** : soulignez les enjeux déontologiques et les limites juridiques.
4. **Éditeur de l’IA** : mettez en avant la conformité de votre solution et vos arguments commerciaux.

Chaque groupe doit préparer une **position argumentée** (10 min d’exposé oral).

3. Débat contradictoire

Un débat est organisé entre les 4 groupes.
Questions possibles :

* Un avocat peut-il déléguer une partie de son travail à une IA sans violer le **RIN** et le secret professionnel ?
* Faut-il informer le client de l’utilisation d’outils d’IA dans son dossier ?
* L’IA peut-elle remplacer le travail des collaborateurs juniors ?
* Le recours à un fournisseur américain est-il compatible avec le **RGPD** et le futur **IA Act** ?
* Quels mécanismes de contrôle ou de certification pourraient être mis en place ?

## ⚖️ Textes de référence

### 1. **Déontologie des avocats**

* **Règlement Intérieur National (RIN)** :

* Art. 2 : principes essentiels (indépendance, secret professionnel, confidentialité).
* Art. 3 : devoir de compétence (un avocat doit rester maître de son travail, il ne peut pas se reposer uniquement sur une machine).
* Art. 4 : secret professionnel et confidentialité.
* Art. 6.2 : interdiction de délégation de mission (l’avocat ne peut pas transférer sa mission à un tiers non avocat).
* Art. 10 : fixation des honoraires (impact si l’IA réduit le coût du travail).

### 2. **Protection des données personnelles**

* **RGPD** (Règlement (UE) 2016/679) :

* Art. 5 : principes (limitation des finalités, minimisation, sécurité des données).
* Art. 6 : base légale du traitement.
* Art. 9 : traitement de données sensibles (un dossier peut en contenir).
* Art. 22 : décisions automatisées et profilage (interdiction sauf garanties spécifiques).
* Art. 44 et s. : transferts hors UE (enjeu si l’IA est hébergée aux États-Unis).

### 3. **Projet de règlement européen sur l’IA (AI Act – adoption 2024, application progressive à partir de 2026)**

* Classe les systèmes d’IA selon leur risque.
* Outils utilisés dans le droit : souvent **IA à usage général** (obligation de transparence, documentation, conformité CE).
* Les systèmes d’IA dans la justice peuvent être considérés à **haut risque** (art. 6 et annexe III).
* Exigences : transparence, supervision humaine, gestion des biais, auditabilité.

### 4. **Cloud Act (États-Unis, 2018)**

* Permet aux autorités américaines d’accéder à des données stockées par des prestataires américains, même si elles sont hébergées hors des USA → conflit potentiel avec le RGPD pour les données d’avocats hébergées chez un prestataire US.

### 5. **Jurisprudence & doctrines pertinentes**

* CE, 12 juin 2020, CNB : rappel de la nécessité de garantir la protection du secret professionnel face aux plateformes.
* Décisions CNIL sur l’usage de ChatGPT et les risques de données personnelles (2023-2024).
* Avis du CNB sur les legaltech et l’IA : insistent sur le **contrôle humain et la responsabilité de l’avocat**.

Troisième cours  les enjeux de l’IA

Nuit du droit : suivez un procès fictif d’anticipation !

Procès fictif – “2055 – Le procès du cyber patron – Faut-il se débarrasser du meilleur manager de l’année ?” 3/10/2025

https://www.courdecassation.fr/toutes-les-actualites/2025/09/30/nuit-du-droit-suivez-un-proces-fictif-danticipation

Débat

Madame Dupont est une personnalité publique de premier plan en Mayenne et au niveau national, reconnue notamment pour son engagement contre le « mal-mangé » et son action pour déclarer la lutte contre les maladies cardiovasculaires grande cause nationale en janvier 2025.
En janvier 2025, des fragments audiovisuels de l’un de ses discours ont été assemblés pour créer une vidéo satirique par hypertrucage (deepfake). Cette vidéo, dont la voix off est remarquablement similaire à celle de Madame Dupont, décrivait une journée fictive de sa vie. On y voyait notamment Madame Dupont déjeunant tous les mercredis midi avec ses enfants dans des restaurants connus pour leur nourriture riche en énergie et en sucre. Elle y apprenait également qu’elle s’accordait une pause mensuelle de 15h à 17h inscrite à son agenda sous les initiales « JR ». Ce processus d’hypertrucage, réalisé par une IA générative dénommée Justia, n’a fait l’objet d’aucun consentement de la part de Madame Dupont.
La diffusion de cette fausse vidéo sur plusieurs plateformes de réseaux sociaux a été massive et rapide.
Les conséquences ont été immédiates pour Madame Dupont :
1. Sa sincérité politique, notamment en matière de santé humaine, a été directement remise en cause.
2. L’enquête médiatique sur le mystère « JR » a révélé qu’elle entretenait en réalité une liaison extra-conjugale avec le chef du parti politique de l’opposition. Ils se rencontraient tous les jeudis de 17h à 19h dans un relais château discret.
Madame Dupont assigne l’IA Justia devant le Tribunal Judiciaire dans sa formation civile, le Tribunal du West Data Festival.

II. Demandes de Madame Dupont
Par la voix de son avocate, Maître ….., Madame Dupont demande au tribunal :
1. 20 000 € de dommages et intérêts en réparation de son préjudice moral pour atteinte à son image et à sa vie privée.
2. L’interdiction de poursuivre la diffusion de la vidéo et l’ordre de destruction du montage, sous astreinte de 1 000 € par jour.
3. La publication d’un communiqué dans la presse locale et nationale faisant état de la condamnation de Justia, jugée responsable de l’atteinte.

III. Problème de Droit et Enjeux
La question centrale qui est posée au Tribunal est la suivante : L’IA Justia, en tant qu’entité non humaine et système automatisé, est-elle susceptible d’être attraite en justice, de se voir reconnaître la personnalité juridique (électronique ou autre) et, par conséquent, d’être tenue responsable des dommages qu’elle a causés, permettant ainsi l’indemnisation de la victime ?
Cet enjeu soulève également la question de la chaîne de responsabilité (humains concepteurs, utilisateurs, hébergeurs) et de l’encadrement juridique des systèmes d’IA (Règlement sur l’IA de l’UE – RIA).

Les étudiants seront divisés en quatre groupes principaux représentant les parties et les acteurs clés du dossier.
Groupe 1 : Les Demandeurs (Partie Civile)
Rôle : Représenter Madame Dupont et son avocate, Maître ….
Objectifs de la simulation :

1. Justifier l’assignation de l’IA elle-même : Argumenter que l’action est recevable malgré l’absence de personnalité juridique reconnue, en invoquant la nécessité d’une personnalité juridique électronique ou fonctionnelle.

2. Mettre en avant la complexité : Insister sur la difficulté d’identifier l’utilisateur et de retracer la chaîne de responsabilités humaines dans le contexte de la pluralité des acteurs (concepteurs, utilisateurs, sources de données) et de l’opacité de l’IA (capacité d’apprentissage et de générer des sorties imprévisibles).

3. Démontrer l’atteinte aux droits fondamentaux : Prouver le préjudice moral résultant de l’atteinte à l’image et à la vie privée de Madame Dupont, et souligner l’impact sur le processus démocratique (remise en cause de son engagement politique).

4. Conclure sur la Politique Juridique : Affirmer que le droit doit être proactif et se saisir de ce fait social pour rester au service des hommes, et que tout ce qui est illégal hors ligne doit l’être en ligne (Digital Service Act).

Groupe 2 : La Défense (L’IA Justia)
Rôle : Représenter l’IA Justia et son avocat, Maître …., pour l’association « IA sans frontière ».
Objectifs de la Plaidoirie :
1. Inadmissibilité de la demande : Soutenir l’irrecevabilité de la demande faute de reconnaissance de la personnalité juridique à l’intelligence artificielle. Affirmer qu’en droit français, Justia est une chose, pas une personne.

2. Définir l’IA comme un outil : Justia n’est qu’un modèle de langage ou un outil informatique, programmé pour suivre des instructions, sans volonté propre, autonomie, intentionnalité ou conscience.

3. Déresponsabilisation de l’IA : La responsabilité doit incomber aux acteurs humains. Demander si l’IA a été conçue pour des usages légitimes et si le concepteur a inclus des clauses interdisant les usages malveillants.

4. Cibler l’utilisateur/diffuseur : La responsabilité incombe à la personne qui a utilisé Justia pour créer et diffuser la vidéo. Rappeler qu’il existe toujours des traces numériques permettant théoriquement de remonter à l’utilisateur humain, même si les plateformes de réseaux sociaux refusent souvent l’accès aux données

Groupe 3 : Les Experts et Consultants

Objectifs de l’Exposé (Présentations thématiques) :
1. Explication Technique  : Détailler le processus d’hypertrucage (deepfake), le deep learning (apprentissage profond), et la fabrication de contenu (modèles génératifs). Discuter des solutions de détection : tatouage numérique (méthode active, exigence de l’article 50 de l’IA Act) et modèles discriminatifs (méthode passive).

2. Enjeux de la Désinformation et de la Diffusion  : Se concentrer sur les impacts sociaux et le rôle des réseaux sociaux. Affirmer que le problème n’est pas tant la fabrication du faux contenu que sa diffusion et l’ampleur qu’elle prend, souvent amplifiée par les algorithmes jouant sur l’émotion et le sensationnel.

3. Cadre Légal et Éthique  : Présenter le Règlement européen sur l’IA (RIA). Classifier le deepfake comme un système d’IA à risque limité soumis à une obligation de transparence (article 50 RIA). Discuter des régimes de responsabilité existants (faute, fait des choses, produits défectueux) et l’impératif éthique de ne pas influencer les choix individuels.

4. Perspective du Développeur/Industrie  : Rappeler les usages positifs de l’IA (médecine, sécurité, assistance). Expliquer l’origine de Justia comme un outil d’usage légitime (créer des vidéos de célébrités consentantes) et évoquer la possibilité que les couches de protection aient été contournées par oblitération ou ablitération, rendant le développeur initial non responsable de l’usage détourné.

Groupe 4 : Le Tribunal (Juges et Assesseurs)

Rôle : Les juges
Objectifs du Délibéré et du Jugement :

1. Réaffirmation de la nature de l’IA : Délibérer sur la question fondamentale de la personnalité juridique. Rappeler que l’IA ne peut être qu’un outil d’aide et de décision au service de l’homme, et qu’elle est plus artificielle qu’intelligente. Affirmer que la reconnaissance de la personnalité juridique est politiquement inopportune et techniquement inutile.

2. Décision sur la recevabilité : Trancher si l’action contre Justia est recevable. (Le jugement rendu dans la source conclut que l’IA n’est pas une personne juridique et ne peut être attraite en justice).

3. Indemnisation et Innovation : Proposer une solution alternative pour l’indemnisation de la victime, même sans assignation directe de l’IA. Le jugement des sources propose la saisine de la nouvelle Commission d’indemnisation des victimes de l’IA qui s’appuierait sur le Fond d’indemnisation West Data (financé par la taxe sur l’IA des géants de la technologie).

4. Mesures Coercitives : Ordonner des mesures contre les humains responsables (fermeture du site web, ouverture d’une enquête pour identifier les programmeurs et utilisateurs, interdiction d’utiliser l’image de la victime pour entraîner l’IA, obligation de tatouage numérique pour les futurs contenus). Le jugement des sources condamne également les hébergeurs/plateformes de réseaux sociaux (Instagram, TikTok) à retirer promptement les vidéos et à verser chacun 20 000 € à la victime.

Quatrième cours  les enjeux de l’IA

Simulation Juridique : Le Cas Tilly Norwood, Actrice Virtuelle et Contrefaçon d’Identité

Faits à Analyser

La société Xicoia, filiale du studio Particle6, a créé et introduit sur le marché une actrice virtuelle entièrement générée par Intelligence Artificielle (IA) nommée Tilly Norwood. La productrice Eline Van der Velden a clairement exprimé l’ambition que Tilly Norwood devienne la « prochaine Scarlett Johansson ou Natalie Portman ».

Tilly Norwood a déjà décroché son premier rôle dans un film généré également par IA, AI Commissioner, et le studio prévoit de développer plus de 40 acteurs IA. Xicoia défend ce modèle en soulignant qu’il permet de pallier les problèmes économiques de l’industrie et que « la créativité n’a pas besoin d’être limitée par un budget ».

L’arrivée de Tilly Norwood a provoqué une vive réaction :

  • Le syndicat américain SAG-AFTRA a fustigé le fait que Tilly Norwood soit un personnage généré par un programme informatique qui a été « entraîné à partir du travail d’innombrables artistes professionnels, sans autorisation ni rémunération ».
  • L’actrice Mara Wilson a accusé Xicoia d’être des « voleurs d’identité » pour avoir « volé les visages de centaines de jeunes femmes » pour créer cet avatar.

Le studio Xicoia tente d’apaiser les tensions en affirmant que Tilly Norwood « ne remplace pas un être humain, c’est une œuvre d’art ».

——————————————————————————–

Travail de Groupe et Attribution des Rôles

Les étudiants sont répartis en trois groupes, chacun représentant un rôle professionnel avec des intérêts opposés ou un rôle d’arbitrage. Ils doivent argumenter et préparer leurs conclusions en se basant sur les faits ci-dessus et les principes juridiques établis dans la documentation.

Rôle 1 : Conseil Juridique de Xicoia/Particle6 (La Défense Technologique)

Vous êtes l’équipe juridique chargée de sécuriser l’exploitation de Tilly Norwood dans l’Union Européenne. Votre objectif est de justifier la légalité du processus de création et d’exploitation de cette actrice virtuelle, et de revendiquer la protection maximale pour les contenus générés.

  1. Sur la légalité de l’Entraînement (Input) :

    ◦ Comment Xicoia peut-elle défendre l’utilisation massive du travail d’« innombrables artistes » (visages, performances) pour l’entraînement de l’IA, en s’appuyant sur l’exception de fouille de textes et de données (Text and Data Mining – TDM) en droit européen ?

    ◦ Quels arguments le studio peut-il opposer aux accusations de contrefaçon liées à l’absence d’autorisation et de rémunération, et quel est le risque résiduel en cas de non-respect du droit d’opt-out des artistes ?

  1. Sur la Protection du Contenu Généré (Output) :

    ◦ En tant que utilisateur/créateur, le studio Xicoia peut-il revendiquer le droit d’auteur sur l’image et les performances de Tilly Norwood dans le film AI Commissioner ?

    ◦ Quelles preuves l’équipe d’Eline Van der Velden doit-elle conserver (prompts, retouches, processus) pour tenter de démontrer que Tilly Norwood est le fruit d’une contribution créative significative d’une personne physique éligible à la protection ?

Rôle 2 : Juristes pour le Syndicat SAG-AFTRA et la CISAC (Défense des Créateurs)

Vous représentez les intérêts des acteurs et des créateurs audiovisuels humains. Votre objectif est de démontrer l’illégalité du modèle de Xicoia/Particle6 et de défendre les droits des artistes humains spoliés.

  1. Sur l’Illégalité de l’Entraînement (Input) :

    ◦ Comment qualifier juridiquement les accusations de « vol d’identité » et d’utilisation non autorisée du travail d’acteurs pour l’entraînement de l’IA, au regard de la contrefaçon et des droits voisins (droits des artistes-interprètes) ?

    ◦ En l’absence d’autorisation explicite, quel argument tiré de la concurrence peut-on utiliser pour renforcer les poursuites en contrefaçon, sachant que Tilly Norwood est un produit commercial visant à concurrencer directement les acteurs humains ?

  1. Sur l’Absence de Protection (Output) :

    ◦ Rappelez pourquoi Tilly Norwood (en tant que machine) ne peut pas être l’auteur de ses propres performances et pourquoi le droit d’auteur repose exclusivement sur une personne physique.

    ◦ En quoi le fait de fournir des prompts (instructions) pour générer l’actrice ou ses dialogues n’est-il généralement pas suffisant pour conférer la qualité d’auteur à l’utilisateur humain, selon la jurisprudence sur l’originalité et la créativité ?

Rôle 3 : Rapporteurs d’une Haute Juridiction (Juges et Régulateurs)

Vous êtes chargés d’examiner l’affaire Tilly Norwood pour en tirer des conclusions applicables aux litiges futurs. Votre objectif est d’arbitrer les arguments des parties et de proposer des pistes réglementaires fondées sur l’évolution actuelle du droit.

  1. Arbitrage sur la Protection (Output) :

    ◦ En vous appuyant sur la jurisprudence internationale (notamment les cas américains comme Zarya of the Dawn ou les décisions contraires comme le cas chinois Li v. Liu), quelle est la position majoritaire concernant la protection des œuvres créées avec l’assistance d’une IA, et comment cela s’appliquerait-il au cas de Tilly Norwood ?

    ◦ À la lumière de l’article L. 111-1 du CPI, l’exploitation des contenus générés par Tilly Norwood (si non protégeables) ne tombe-t-elle pas dans le domaine public, permettant à quiconque de les utiliser ?

  1. Réglementation et Transparence :

    ◦ Comment les obligations de transparence imposées par l’AI Act (publication de la synthèse des données d’entraînement) pourraient-elles aider les acteurs humains (Groupe 2) à vérifier le respect de leurs droits d’auteur, et quelles sanctions encourent les fournisseurs d’IA en cas de manquement ?

    ◦ Quelles sont les solutions réglementaires actuellement examinées par des organismes comme le CSPLA en France (mission de juin 2025) ou le Parlement (proposition de loi de septembre 2023) pour adapter le cadre juridique à des entités comme Tilly Norwood, sans fragiliser le droit d’auteur classique ?

Modalité de l’examen 

Pour les deux unités d’enseignement Problématiques et enjeux de l’IA et DMA/DSA, l’examen prendra la forme d’un oral individuel.

  • Durée : 10 à 15 minutes par étudiant·e.

  • Contenu : l’entretien portera exclusivement sur les notions vues en cours. Il y aura une question principale, suivie de quelques questions complémentaires pour préciser ou approfondir votre réponse.

  • Préparation : il suffit de réviser les PDF mis en ligne sur Lexweb ; aucune documentation supplémentaire n’est requise.

Bon courage !

Vincent Gorlier

Express Your Reaction
Like
Love
Haha
Wow
Sad
Angry

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *