La fiche prospective du CA Paris parle de comment réparer les dégâts économiques causés par l’utilisation de l’IA, en soulignant qu’il n’y a pas encore de jurisprudence bien établie sur le sujet.
fiche 24 CA Paris - usage d’un système d’IA.pdf (280,7 Ko)
Elle explique que la régulation de l’IA évolue : on passe d’une approche surtout éthique à quelque chose de plus législatif, avec le Règlement européen sur l’IA (RIA) qui pose un cadre clair basé sur différents niveaux de risque.
La fiche indique aussi que le robot ne peut pas être tenu responsable personnellement, c’est le droit classique de la responsabilité pour faute ou du fait des choses qui s’applique, même si c’est difficile de prouver le lien entre le dommage et la cause.
Enfin, elle détaille les responsabilités spécifiques liées aux défauts des produits contenant de l’IA et aux questions de contrefaçon, notamment quand on s’appuie sur des données protégées pour entraîner les modèles d’IA.
Note d’Information sur le Cadre Juridique Européen de la Réparation des Préjudices Causés par l’Intelligence Artificielle
Introduction Générale
L’encadrement de l’intelligence artificielle (IA) en Europe connaît une mutation fondamentale. Après une période où les autorités privilégiaient une approche souple, fondée sur des principes éthiques et une autorégulation par les acteurs du marché, la nécessité d’un cadre juridique contraignant s’est imposée. L’Union européenne s’est ainsi engagée dans l’élaboration de normes visant à passer de l’éthique à la responsabilisation concrète. Cette note adopte une approche prospective, car le contentieux en la matière n’est pas encore établi et le droit français est en pleine évolution pour intégrer ces nouvelles règles. Son objectif est de fournir aux juristes et aux décideurs politiques les clés d’analyse essentielles du nouveau cadre normatif applicable à la réparation des préjudices économiques causés par les systèmes d’IA.
1. Le Cadre Normatif Fondamental : Le Règlement sur l’IA (RIA)
1.1. Contexte et Principes Directeurs
Le Règlement européen sur l’IA (Règl. UE 2024/1689, ci-après « RIA ») constitue la pierre angulaire de cette nouvelle architecture réglementaire, s’imposant comme le premier texte législatif horizontal dédié à ce sujet. Il s’inscrit dans la continuité du « nouveau cadre législatif européen (NCL) », qui vise à harmoniser les conditions d’accès au marché de l’Union par renvoi à un mécanisme de conformité, avec des obligations qui impliquent tous les acteurs de la chaîne de valeur.
1.2. Analyse de l’Approche par les Risques
Le RIA adopte une approche graduée, souvent décrite comme une « pyramide des risques ». Le principe est simple : la rigueur des obligations normatives est directement proportionnelle à l’ampleur du risque qu’un système d’IA (SIA) représente pour la santé, la sécurité et les droits fondamentaux consacrés par la Charte des droits fondamentaux de l’UE, notamment la démocratie, l’État de droit et la protection de l’environnement. Cette approche peut aller jusqu’à l’interdiction pure et simple des SIA dont le risque est jugé inacceptable.
La catégorie la plus régulée est celle du SIA à haut risque, défini par le considérant 46 du texte comme un système ayant « une incidence préjudiciable substantielle sur la santé, la sécurité et les droits fondamentaux des citoyens dans l’Union ». Cette qualification déclenche l’application d’un corpus d’obligations particulièrement strictes pour ses concepteurs et utilisateurs.
1.3. Le Régime Spécifique des Modèles d’IA à Usage Général
Le RIA consacre également un régime spécifique pour les modèles d’IA, notamment ceux qui sous-tendent les applications d’IA générative. Cette régulation est nécessaire car l’usage final de ces modèles n’est pas toujours prédéterminé par leurs concepteurs. La réglementation est ici aussi graduée, mais elle se fonde sur la notion de risque systémique. Ce risque est présumé lorsque la puissance de calcul utilisée pour l’entraînement du modèle dépasse un seuil technique fixé à 10²⁵ flops (opérations en virgule flottante par seconde), conformément à l’art. 51 § 2 du RIA.
Le texte fournit des définitions précises pour ces concepts clés :
Risque (RIA, art. 3, 2)) : « la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci ».
Risque systémique (RIA, art. 3, 65)) : « le risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur ».
1.4. Portée et Implications
Conformément à son article 2, le RIA a une portée extraterritoriale. Cette disposition est cruciale car elle garantit des conditions de concurrence équitables et une protection efficace des citoyens en s’appliquant à tous les acteurs, y compris extraeuropéens, qui mettent des systèmes d’IA sur le marché de l’Union. Ce cadre réglementaire solide pose les fondations des régimes de responsabilité qui permettront de réparer les préjudices causés.
2. Les Régimes de Responsabilité Applicables aux Préjudices de l’IA
2.1. Contexte et Enjeux de la Responsabilisation
L’enjeu central de la réparation des dommages causés par l’IA réside dans l’imputation de la responsabilité. La question de doter le « robot » d’une personnalité juridique propre a été un temps débattue, mais cette approche a été unanimement rejetée par les autorités européennes. Une telle solution aurait en effet créé un risque majeur de déresponsabilisation des acteurs économiques qui conçoivent, fournissent et déploient ces technologies. La responsabilité doit donc nécessairement être recherchée auprès des personnes physiques ou morales de la chaîne de valeur.
2.2. L’Application du Droit Commun de la Responsabilité
Les mécanismes traditionnels du droit de la responsabilité français restent pertinents, bien que leur application soulève des défis spécifiques.
- La Responsabilité pour Faute (art. 1240 et 1241 C. civ.) Le droit commun exige de la victime qu’elle prouve trois éléments : une faute, un préjudice et un lien de causalité entre les deux. Dans le contexte de l’IA, le principal défi probatoire réside dans l’établissement du lien de causalité, en raison de la complexité technologique des systèmes et de leur « effet boîte noire ». Le législateur européen a reconnu cet obstacle, comme en témoigne un projet de directive de 2022 (aujourd’hui retiré) qui visait à introduire des facilitations probatoires. En l’absence de texte spécifique, le juge pourrait jouer un rôle clé en s’appuyant sur la preuve par présomption judiciaire (prévue à l’art. 1382 C. civ.), à condition que les présomptions invoquées soient « graves, précises et concordantes ». Il est à noter que la violation d’une obligation imposée par le RIA pourra constituer une faute engageant la responsabilité de son auteur.
- La Responsabilité du Fait des Choses (art. 1242 C. civ.) Ce régime de responsabilité sans faute peut également s’appliquer lorsqu’un SIA, considéré comme une « chose », cause un dommage alors qu’il est sous la garde d’un professionnel (le « déployeur »). La distinction doctrinale entre la garde de la structure (liée à la conception du système et imputable au fournisseur d’IA) et la garde du comportement (liée à l’utilisation du système et imputable au déployeur) s’avère particulièrement utile pour répartir les responsabilités en fonction de l’origine du dommage.
2.3. Les Responsabilités Spéciales Émergentes
Pour mieux répondre aux spécificités des nouvelles technologies, des régimes de responsabilité spéciaux sont en cours de consolidation.
- La Responsabilité du Fait des Produits Défectueux Une réforme majeure de ce régime a été adoptée avec la Directive (UE) 2024/2853 du 23 octobre 2024. Ce texte, d’harmonisation maximale, devra être transposé en droit français avant le 9 décembre 2026. Il introduit plusieurs évolutions significatives pour s’adapter à l’ère numérique :
- Élargissement des définitions de
produitetcomposantpour inclure explicitement les éléments incorporels comme les logiciels et les fichiers de fabrication numériques. - Introduction de nouveaux critères de
défectuositéadaptés aux produits connectés et aux systèmes d’IA. - Mise en place de
facilitations probatoirespour les victimes, notamment des présomptions de défectuosité du produit et de lien de causalité dans certaines situations, ainsi qu’une injonction de divulgation de preuves techniques détenues par le fabricant.
- Élargissement des définitions de
- Ce nouveau régime, qui ne bénéficiera qu’aux particuliers, couvrira tous les types de dommages : corporels, matériels, et même pour les dommages immatériels, par exemple résultant de la perte de données.
- La Responsabilité en Matière de Propriété Intellectuelle L’essor des IA génératives soulève des questions complexes en matière de droits d’auteur, tant en amont qu’en aval de leur fonctionnement.
- En amont (entraînement des modèles) : Le principal risque est celui de la contrefaçon, lorsque des modèles sont entraînés sur d’immenses corpus de données contenant des œuvres protégées. Le droit européen prévoit une exception de fouille de textes et de données (art. L. 122-5-3 du Code de la propriété intellectuelle), mais ses conditions sont restrictives : l’accès aux œuvres doit être licite et les titulaires de droits ne doivent pas avoir exprimé leur opposition via une clause de réservation (
opt out). De surcroît, l’application de cette exception est limitée par le « test en trois étapes », un filtre juridique qui interdit toute utilisation portant atteinte à l’exploitation normale de l’œuvre ou causant un préjudice injustifié aux intérêts légitimes de l’auteur. Pour renforcer la protection des droits, le RIA impose d’ailleurs aux fournisseurs de modèles une obligation de transparence sur les contenus utilisés pour l’entraînement (art. 53, 1, c)).
- En amont (entraînement des modèles) : Le principal risque est celui de la contrefaçon, lorsque des modèles sont entraînés sur d’immenses corpus de données contenant des œuvres protégées. Le droit européen prévoit une exception de fouille de textes et de données (art. L. 122-5-3 du Code de la propriété intellectuelle), mais ses conditions sont restrictives : l’accès aux œuvres doit être licite et les titulaires de droits ne doivent pas avoir exprimé leur opposition via une clause de réservation (
- Au-delà des risques juridiques liés à la phase d’entraînement, l’utilisation de ces modèles pour générer des contenus soulève des problématiques distinctes.
- En aval (génération de contenus) : Deux scénarios doivent être distingués. Si une IA « régurgite » des éléments d’œuvres protégées, il s’agit d’un acte de contrefaçon. En revanche, si elle ne fait que reprendre un « style » (« à la manière de »), la contrefaçon est exclue. La responsabilité pourrait alors être recherchée sur le terrain de la concurrence déloyale et du parasitisme, si la pratique cause un préjudice à l’auteur ou à ses ayants droit.
Le paysage juridique de la responsabilité liée à l’IA combine ainsi des régimes de droit commun éprouvés et des textes spéciaux en pleine évolution, créant un environnement complexe mais de plus en plus structuré.
3. Synthèse et Perspectives
Le cadre juridique européen pour la réparation des préjudices liés à l’IA se consolide rapidement, avec le RIA comme pièce maîtresse. Cependant, ce cadre demeure en construction, particulièrement sur le plan contentieux où la jurisprudence reste à bâtir. Le défi majeur pour les victimes est et restera la preuve, notamment celle du lien de causalité. Le législateur européen, à travers la nouvelle directive sur les produits défectueux, et le juge, par le recours potentiel aux présomptions judiciaires, apportent des réponses concrètes pour rééquilibrer le rapport de force procédural. Pour les praticiens du droit et les décideurs politiques, une vigilance constante sur l’évolution de la jurisprudence et sur la transposition des nouvelles directives sera essentielle pour naviguer efficacement dans ce nouvel environnement juridique et garantir une réparation juste et effective des dommages causés par l’intelligence artificielle.