Actualité web & High tech sur Usine Digitale

Recevez chaque jour toute l'actualité du numérique

x

La Californie interdit la reconnaissance faciale dans les caméras corporelles des policiers

Le 8 octobre 2019, la Californie a adopté la loi "AB 1215" interdisant l'utilisation de la reconnaissance faciale dans les caméras corporelles portées par les policiers. Dans le viseur de ce texte, la crainte d'une surveillance massive fondée sur des biais inhérents à cette technologie.  
Twitter Facebook Linkedin Flipboard Email
×

La Californie interdit la reconnaissance faciale dans les caméras corporelles des policiers
Le "Body Camera Accountability Act" entrera en vigueur à partir du 1er janvier 2019. © AXON

La Californie continue de montrer l'exemple dans le domaine de la régulation technologique. Après l'adoption de son RGPD en juin 2018, cet Etat a adopté la loi "AB 1215" pour abolir totalement l'utilisation des logiciels de reconnaissance faciale dans les caméras corporelles des forces de l'ordre directement intégrées dans leur uniforme. 

 

Le texte avait été voté par l'Assemblée californienne en mai 2019 et le vote du Sénat était attendu pour finaliser la procédure législative. Le "Body Camera Accountability Act" entrera donc en vigueur à partir du 1er janvier 2019 pour une durée de trois ans.

 

"Une victoire pour les libertés civiles"

Cette loi a été portée par Phil Ting, un élu de la ville de San Francisco, qui estimait que "l'utilisation de cette technologie transforme les caméras embarquées en outil de surveillance 24 heures sur 24". Il s'est immédiatement réjoui de la signature de ce texte par le Gouverneur Gavin Newsom. "Une victoire pour les libertés civiles", a-t-il twitté. 

 


Des parlementaires identifiés comme des délinquants

Cet élu ne s'est pas emparé de cette problématique par hasard. Il avait fait partie des 26 parlementaires des membres de l'Assemblée de l'Etat de Californie à avoir été identifié à tort comme un délinquant par la technologie de reconnaissance faciale d'Amazon, une affaire révélée par l'American Civil Liberties Union (ACLU) en août 2019.

 

Le test consistait à comparer les visages de 120 parlementaires à ceux d'une base de données de 25 000 clichés de délinquants à l'aide de Rekognition, le logiciel d'Amazon. Plus d'une personne sur cinq a été identifiée à tort comme un individu figurant dans la base de données. Phil Ting avait réagi à cette expérience : "la technologie de reconnaissance faciale n'est pas prête à être déployée et encore moins pour l'utilisation avec des caméras équipant les forces de l'ordre". Amazon s'était défendu en arguant que le logiciel avait été mal utilisé et qu'il ne s'agissait que d'un "coup de publicité".

Microsoft avait refusé de délivrer cette technologie
Le New Hampshire et l'Oregon ont déjà interdit cette année l'utilisation de la reconnaissance faciale dans les caméras embarquées. La crainte derrière l'adoption de ces législations est la banalisation d'une surveillance massive par ces "body cameras" et surtout le risque de faux positifs. Microsoft avait d'ailleurs refusé de délivrer cette technologie à la Californie. "La reconnaissance faciale est dangereuse lorsqu'on lui attribue un objectif auquel elle ne peut pas répondre", nous avait confié John Frank, vice-président du géant technologique en charge des affaires gouvernementales pour l'Union européenne.

 

La carnation d'une personne fausse les résultats

Les études se multiplient et se ressemblent : les logiciels de reconnaissance faciale identifient de manière beaucoup plus efficace les hommes à la peau blanche. Pour n'en citer qu'une, publiée en 2018, des scientifiques du Massachusetts Institute of Technology (MIT) avaient démontré que plus la carnation d'une personne est foncée, plus le taux d'erreur grimpe en flèche. Le maximum était atteint pour les femmes à la peau noire, avec un taux d'erreur pouvant s'élever à 35%.

 

Ces biais proviennent essentiellement de deux sources. D'abord le programmeur lui-même, qui intègre dans ses algorithmes ses propres croyances et biais cognitifs. Ensuite, ceux qui découlent des données nourrissant le système, à partir desquelles il est entraîné. Le rapport "Algorithmes : biais, discriminations et équité" réalisé par des chercheurs de Télécom ParisTech et de l'Université de Nanterre, publié en mars 2019, prend l'exemple d'Amazon. En 2015, le géant de l'e-commerce a décidé d'utiliser un système automatisé pour l'aider dans le choix de ses recrutements. L'initiative a été interrompue car seuls des hommes étaient choisis. "Les données entrées étaient complètement déséquilibrées entre hommes et femmes, les hommes constituant l'écrasante majorité des cadres recrutés dans le passé, l'algorithme ne laissant du coup aucune chance aux nouvelles candidates pourtant qualifiées", explique le rapport.

 

Mais cette loi ne répondra certainement pas à toutes ces problématiques car elle n'interdit pas l'utilisation de la reconnaissance faciale par les caméras fixes.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media
Suivez-nous Suivre l'Usine Digitale sur twitter Suivre l'Usine Digitale sur facebook Suivre l'Usine Digitale sur Linked In RSS Usine Digitale