Recevez chaque jour toute l'actualité du numérique

x

La Cnil suédoise condamne la police pour avoir utilisé la technologie de Clearview AI

Après le Canada, c'est la Suède qui se penche sur l'utilisation de la technologie de reconnaissance faciale de Clearview AI par les forces de l'ordre. L'autorité de protection des données vient de condamner la police à une amende de 250 000 euros. Elle estime que l'institution a illégalement utilisé les photographies des citoyens suédois.  
Twitter Facebook Linkedin Flipboard Email
×

La Cnil suédoise condamne la police pour avoir utilisé la technologie de Clearview AI
La Cnil suédoise condamne la police pour avoir utilisé la technologie de Clearview AI © Polisen

L'autorité suédoise de protection des données personnelles (IMY), l'équivalent de notre Cnil, condamne la police nationale à une amende de 250 000 euros pour l'utilisation illégale du logiciel de reconnaissance faciale de l'entreprise Clearview AI.

Informer les personnes
La police doit également informer les personnes dont les données personnelles ont été envoyées à Clearview AI et s'assurer que ces photographies ont été supprimées.

"L'IMY conclut que (…) la police n’a pas mis en œuvre des mesures organisationnelles suffisantes pour garantir et être en mesure de démontrer que le traitement des données personnelles a été effectué conformément à la loi sur les données criminelles", a expliqué l'autorité. Elle ajoute qu'en ayant recours à la technologie de Clearview AI, la police a traité illégalement des données biométriques et n'a pas procédé à une analyse d'impact sur la protection des données, alors que la situation l'exigeait.

Un moteur de recherche pour les criminels
L'entreprise Clearview AI, basée à New-York, a développé un outil de recherche reposant sur une technologie de reconnaissance qui a pour objectif de recherche et d'identifier des auteurs d'infraction. Son fonctionnement est le suivant : il suffit de prendre une personne en photo, de téléverser l'image puis de consulter toutes les images correspondantes. Le système repose sur une base de données qui regroupe plusieurs milliards de photo aspirées de Facebook, YouTube et Venmo principalement.

Ce sont des enquêtes journalistiques, notamment celle du New York Times publiée en janvier 2019, qui ont poussé la Cnil suédoise à vérifier si les forces de l'ordre recouraient ou non à cet outil, à l'image de la Gendarmerie royale du Canada (GRC) qui a dû suspendre son compte cet été. Il y a quelques semaines, un rapport des commissaires à la protection de la vie privée du Québec, de l'Alberta et de la Colombie-Britannique a d'ailleurs conclut que Clearview AI est à l'origine "d'une surveillance de masse" au Canada.

Ce sont des données "publiques", d'après Clearview AI
Clearview AI se défend en affirmant qu'elle n'a pas besoin de recueillir le consentement des personnes parce qu'il s'agit de renseignements auxquels le public a déjà accès sur Internet. "Clearview AI explore le web accessible à tous et ne peut pas rechercher d'informations privées ou protégées, notamment dans les comptes de réseaux sociaux privés", explique l'avocat de la jeune pousse, Doug Mitchell.

Cet argument ne convainc pas la start-up française Jumbo Privacy, spécialisée dans la protection des données, qui a déposé un recours devant la Cnil afin qu'une enquête soit ouverte pour violation du Règlement général sur la protection des données (RGDP). Zoé Vilain, présidente de la jeune pousse, expliquait à L'Usine Digitale que l'objectif était de savoir quelles données Clearview AI a en sa possession.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.