Bruxelles veut faciliter l'indemnisation des dommages causés par l'intelligence artificielle

La Commission européenne poursuit ses travaux autour de l'encadrement de l'intelligence artificielle. Elle vient de dévoiler une proposition de directive pour faciliter la réparation des dommages causés par un produit ou service doté d'un système d'apprentissage automatique, tel qu'un drone. Le texte prévoit une présomption de causalité pour les demandeurs et une facilitation d'accès aux informations détenues par les entreprises du secteur. 

Partager
Bruxelles veut faciliter l'indemnisation des dommages causés par l'intelligence artificielle

La Commission européenne a présenté ce 28 septembre une proposition de directive sur la responsabilité en matière d'intelligence artificielle. L'objectif est de "donner aux personnes des instruments de recours en cas de dommages causés par l'IA, de sorte qu'ils bénéficient du même niveau de protection que celui offert pour les technologies traditionnelles", a expliqué Vera Jourová, vice-présidente chargée des valeurs et de la transparence.

Des législations obsolètes

La plupart des législations nationales actuelles ne permettent pas de traiter les demandes en réparation pour les dommages causés par des produits ou des services dotés d'un système d'apprentissage automatique, regrette l'exécutif bruxellois. En effet, le régime de la responsabilité pour faute nécessite que la victime prouve le dommage (matériel, corporel ou moral), la faute et le lien de causalité. Or, le manque de transparence des algorithmes et les difficultés d'accès à l'information sont deux obstacles majeurs pour les victimes souhaitant obtenir satisfaction devant les tribunaux. D'où la nécessité d'adapter les règles pour l'ensemble des Etats membres.

Les exemples dans lesquels un système doté d'IA peut causer un dommage sont nombreux : un drone qui s'écrase sur un véhicule ou le toit d'une maison, un algorithme de recrutement qui discrimine un candidat… En pratique, les cas portés en justice ne sont pas encore très nombreux car il s'agit de jeunes contentieux.

Une définition large de l'IA

Pour ce qui est de la définition de l'IA, le texte renvoie à la proposition de règlement sur l'IA présentée en avril 2021. Il s'agit "d'un logiciel (…) capable, pour un ensemble donné d'objectifs définis par l'homme, de générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions influençant les environnements avec lesquels ils interagissent". Cette définition a le mérite d'être assez large pour englober de nombreuses situations. En revanche, elle n'est pas très claire car tous les algorithmes ne sont pas de l'intelligence artificielle.

Le texte précise également d'emblée qu'il ne traite pas des règles relatives à la responsabilité pénale. Schématiquement, la responsabilité civile permet de réparer un préjudice pour des dommages causés par un tiers. La responsabilité pénale oblige l'auteur ou le complice de répondre d'une infraction commise (comportement prohibé par la loi).

Autre précision importante : la future directive s'appliquera à tous les systèmes d'IA, qu'ils soient ou non à "haut risque". Cependant la proposition de règlement différencie bien les systèmes en fonction de leur risque. Si peu de restrictions s'appliquent aux systèmes dont l'usage n'est pas susceptible d'entraîner des risques significatifs, une régulation plus stricte est mise en place pour les systèmes dont l'usage présente un haut risque, telle que la reconnaissance faciale.

Une présomption de causalité

Dans les détails, cette proposition introduit deux principes majeurs. Le premier porte sur la charge de la preuve, c'est-à-dire l'obligation faite à une personne d'apporter la preuve qu'une proposition avancée est vraie ou fausse. Le texte introduit une présomption réfragable de causalité : les juridictions nationales présument "le lien de causalité entre la faute du défendeur et le résultat produit par le système d'IA ou l'incapacité de celui-ci à [en produire un]". Charge au défendeur de prouver que ce lien n'existe pas.

La Commission explique avoir choisi d'instaurer une présomption réfragable – c'est-à-dire qu'il est possible de contredire ou de réfuter par la production d'une preuve contraire – pour éviter "d'exposer les fournisseurs, les opérateurs et les utilisateurs (…) à des risques plus élevés en matière de responsabilité". Dans le cas contraire, le risque serait d'entraver l'innovation dans ce secteur.

Un meilleur accès aux informations

Le second principe vise à aider les victimes à accéder aux éléments de preuve pertinents leur permettant de prouver la faute et le dommage. Elles pourront ainsi demander à la juridiction d'ordonner la divulgation d'informations concernant les systèmes d'IA dits à "haut risque" (biométrie, reconnaissance faciale…). Des garanties sont prévues pour préserver le secret des affaires. Avant de définir définitive, la proposition doit encore être adoptée par le Parlement européen et le Conseil.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

LES ÉVÉNEMENTS USINE DIGITALE

Tous les événements

Les formations USINE DIGITALE

Toutes les formations

ARTICLES LES PLUS LUS