Réparation des préjudices économiques liés à l’usage d’une IA
26 juin 2025

L’intelligence artificielle n’est plus un sujet, mais devient le sujet des entreprises qui profitent, subissent ou tentent d’ignorer cette vague technologique qui déferle, gagne en puissance et redessine les contours mêmes de l’économie.
Dans ce contexte de transformation accélérée, la Cour d’appel de Paris vient d’apporter sa contribution, en publiant une fiche pédagogique visant à guider les entreprises sur la réparation des préjudices économiques liés à l’usage de l’IA.
Cette initiative s’inscrit dans le sillage du Règlement européen sur l’intelligence artificielle (RIA), entré en vigueur en juillet 2024, qui impose une régulation différenciée selon le niveau de risque des systèmes d’IA, avec des exigences renforcées en matière de transparence, de sécurité et de conformité.
Trois types de responsabilité et la réparation des préjudices liés.
La cour distingue trois régimes de responsabilité en cas de dommage économique :
- La responsabilité pour faute (Art. 1240 et 1241 C. civ.) : applicable dès qu’un manquement à une obligation de prudence ou de diligence dans l’usage de l’IA est démontré.
> Toute atteinte à un droit, qui devra être démontrée, y compris par un faisceau d’indices suffisants, pourra constituer une faute. De même, pour toute violation d’une obligation consacrée par le RIA. - La responsabilité du fait des choses (Art. 1242 du C. civ.) : mobilisable lorsque l’IA est considérée comme une « chose » dont l’entreprise a la garde (notamment le comportement autonome).
> Cette responsabilité suppose la double preuve du fait de la chose et de la qualité de gardien du responsable. En raison de l’autonomie du SIA, la distinction entre la garde de la structure et la garde du comportement pourrait servir à répartir les responsabilités entre le fournisseur d’IA et le déployeur. - La responsabilité du fait des produits défectueux, bientôt renforcée par la directive (UE) 2024/2853. Cette réforme majeure étendra la notion de produit aux systèmes IA, avec des présomptions favorables aux victimes, notamment sur le lien de causalité.
> Seuls les particuliers pourront se prévaloir de ce nouveau régime de responsabilité, qui leur offre des facilités probatoires, notamment par des présomptions de défectuosité et de lien de causalité dans certains cas, ainsi que par des injonctions de divulgation de preuves.
Propriété intellectuelle et data : des risques croissants
Les modèles d’IA s’entraînent sur de grandes quantités de données, y compris des contenus protégés par le droit d’auteur. La directive 2019/790 autorise la fouille de textes et de données, même à des fins commerciales, à condition que l’accès aux contenus soit licite et que les titulaires de droits n’aient pas exprimé leur refus via une clause de réservation (« opt out »).
En cas d’utilisation non autorisée d’œuvres protégées, la contrefaçon peut être retenue à la fois sur les données d’entrée et sur les contenus générés. Le RIA impose désormais aux fournisseurs de systèmes génératifs de publier un résumé des sources utilisées, renforçant ainsi la traçabilité.
L’usage de l’IA en entreprise ne relève plus d’un simple choix technologique : c’est un acte engageant sur les plans juridique, stratégique et réputationnel. Face à la combinaison du Règlement européen sur l’IA, des régimes de responsabilité activables et des risques croissants en matière de propriété intellectuelle, les dirigeants sont appelés à une prise de position claire et anticipatrice.
Pour éviter les écueils (contentieux, atteintes aux droits tiers, défauts de conformité…), les entreprises doivent adopter une posture proactive, en commençant par encadrer l’usage de l’IA via des chartes internes, protéger leurs contenus informationnels par l’exercice du droit d’opt-out, et s’entourer de conseils spécialisés pour sécuriser l’ensemble de leur chaîne de valeur numérique.
La fiche complète est consultable sur le site de la Cour d’appel de Paris :