À l’horizon du 1 er septembre 2026, les cabinets d’avocats , comme toutes les entreprises assujetties à la TVA, devront non seulement recevoir mais aussi émettre leurs factures sous un format électronique...
Extrait du commentaire par Sébastien De Monès, avocat associé, Bredin Prat et Victor Camatta, avocat, counsel, Bredin Prat Revue Droit fiscal, 26 juin 2025, n° 26, comm. 239 Conventions fiscales internationales...
Entretien par Amélie Morineau, Avocate, Présidente de la commission Libertés et Droits de l'Homme du Conseil national des barreaux Droit pénal, 1er juin 2025, n° 6 La proposition de loi « visant à...
L’Open data des décisions de justice, encadré par la Loi Lemaire et l’arrêté du 28 avril 2021, révolutionne l’accès à l’information juridique . L’initiative vise à mettre à la disposition du public, gratuitement...
En bon politique, Gérald Darmanin n’est jamais à court d’idées chocs et improductives. La dernière en date concerne les frais d’incarcération que le garde des Sceaux a proposé, le 28 avril dernier, de...
Le règlement européen sur l'intelligence artificielle du 13 juin 2024 (RIA) (PE et Cons. UE, règl. 2024/1689, 13 juin 2024 : JOUE L 12 juill. 2024) définit l'IA comme « un système automatisé qui est conçu pour fonctionner à différents niveaux d'autonomie et peut faire preuve d'une capacité d'adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties telles que des prédictions, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels ».
La question de savoir comment la victime d'un dommage causé par une IA peut faire valoir son droit à indemnisation n'est pas anodine.
Sur le terrain de la responsabilité pour faute, la première difficulté à laquelle se heurtera la victime sera d'établir l'existence d'une faute et de l'imputer à un auteur en raison, précisément, de l'autonomie des systèmes et de leur autoadaptation. Certes, on pourrait envisager que l'IA soit elle-même responsable mais se poserait la question de sa capacité à régler les dommages-intérêts. L'approche de la proposition de directive du 28 septembre 2022 sur la responsabilité extracontractuelle en matière d'IA est moins radicale mais elle n'en est pas moins innovante. Sur demande de la victime, le juge pourrait ordonner aux acteurs participant au développement et au déploiement des systèmes d'IA de divulguer toutes les informations pertinentes sur le système concerné par le dommage, sous peine de s'exposer à une présomption de faute.
La responsabilité du fait des choses prévue à l'article 1242 du Code civil, qui repose sur une présomption de responsabilité sans faute, pourrait s'appliquer aux systèmes d'IA. Les juges exigent que la « chose » soit « anormale » et qu'elle ait joué un « rôle actif » dans le dommage. Cependant, démontrer l'anormalité d'une IA peut être ardu en raison de la complexité technique des algorithmes, surtout dans les cas où il est difficile de prouver l'origine exacte du défaut. Pour résoudre cette difficulté, une distinction entre la garde de la structure physique et la garde de son comportement (l'algorithme) a été proposée. Cela permettrait de répartir la responsabilité entre le fabricant matériel et le développeur logiciel. Cette solution ne couvre cependant pas les IA sans enveloppe physique, appelant à une adaptation plus poussée du régime.
La directive 85/374/CEE du 25 juillet 1985 sur les produits défectueux, intégrée au Code civil aux articles 1245 et suivants, est souvent citée comme une réponse potentielle aux dommages causés par des IA. Toutefois, le cadre actuel montre ses limites face aux produits numériques et autonomes. Une nouvelle directive européenne, du 28 septembre 2022 également, étend la définition de « produit » aux logiciels, incluant les IA, et introduit une présomption de défectuosité : la victime peut prouver la probabilité d'un défaut, sans devoir démontrer la source exacte de l'anomalie. Mieux encore, le texte établit une présomption de causalité entre le dommage et la défectuosité du produit. Cependant, la directive continue de prévoir des causes d'exonération pour le producteur, telles que l'impossibilité de détecter le défaut au moment de la mise en circulation, alors qu'une une IA peut développer des comportements imprévus après sa mise en service, complexifiant les recours pour les victimes. Une réflexion sur ces exonérations serait donc nécessaire pour assurer une protection adéquate face aux spécificités des IA autonomes et adaptatives.
En somme, la présomption - de faute, de défectuosité, de causalité - apparaît comme l'outil juridique favorisé par le législateur pour s'adapter aux spécificités des IA et faciliter les actions en indemnisation des victimes de dommages, en allégeant considérablement la charge de la preuve qui normalement leur incombe.
Un cadre juridique nouveau se dessine, qu'il appartiendra aux juridictions de préciser au gré des affaires qui leur sont soumises. Qu'il soit permis de souhaiter qu'au-delà de ce système de responsabilité civile « présumée », animé par le souci légitime d'indemnisation des victimes, les juges sauront définir un équilibre préservant aussi les intérêts des entrepreneurs et de l'innovation.
Tous les champs marqués d'un astérisque (*) sont obligatoires