La Défenseure des droits alerte sur la banalisation de la reconnaissance faciale

Il est temps d'encadrer plus strictement le recours aux technologies biométriques, estime la Défenseure des droits dans un rapport qui vient d'être publié. Elle recommande de s'interroger sur la réelle utilité de déployer de tels dispositifs et de combattre les biais algorithmiques engendrant des discriminations.

Partager
La Défenseure des droits alerte sur la banalisation de la reconnaissance faciale

La Défenseure des droits Claire Hédon, une autorité administrative indépendante chargée de promouvoir l'égalité, publie ce mardi 20 juillet un rapport sur les technologies biométriques, dont la reconnaissance faciale constitue le coeur.

Un recours massif
Tout en reconnaissant que ces technologies peuvent présenter un certain nombre d'avantages, le rapport s'inquiète de leur utilisation massive et de leur banalisation au regard de la protection des données personnelles et du respect de la vie privée. "Ces technologies ne sauraient en aucun cas être considérées comme purement inoffensives", écrit l'autorité dans son rapport.

La Défenseure des droits ajoute que les algorithmes, sur lesquels se reposent les technologies biométriques, peuvent dès leur conception intégrer des biais ce qui peut provoquer des discriminations. "Les conséquences de ces erreurs varient en fonction des usages et peuvent aller du refus d'accès physiques à un lieu ou à un événement à une arrestation erronée par les forces de l'ordre", détaille-t-elle. Ainsi, ces conséquences discriminatoires ne peuvent être tolérées du simple fait que les technologies sont respectueuses des données personnelles.

s'Interroger sur l'utilité du dispositif
Face à ces dangers, la Défenseure des droits adresse une série de recommandations. Elle préconise de s'interroger systématiquement sur l'utilité d'une technologie biométrique avant de la déployer y compris dans un cadre expérimental. Ce questionnement doit concerner autant les fournisseurs que les utilisateurs qui ne doivent pas être crédules. Les techniques d'aide au recrutement ou d'évaluation des candidats sont ici citées comme exemple.

Le rapport conseille aussi la mise en place de garanties fortes et effectives pour s'assurer du respect des droits des individus. Par conséquent, dans un contexte policier, les mesures dédiées à la prévention de la criminalité ne doivent pas porter une "atteinte disproportionnée" à d'autres droits. De plus, "le recours à l'identification biométrique ne saurait concerner tout type d'infraction".

En dehors de l'usage policier, une attention particulière doit être apportée au respect du principe de non-discrimination, ajoute le rapport. Ainsi, les éventuels biais discriminatoires doivent être contrôlés à chaque étape du déploiement de ces technologies. Aussi, le droit au recours des personnes victimes de discriminations doit être assuré par le responsable de traitement.

Elargir le contrôle des technologies
Claire Hédon appelle également à la mise en place de nouveaux modes de contrôle non plus centrés uniquement sur la cybersécurité et la protection des données mais aussi sur la lutte contre les biais discriminatoires et le respect du droit des mineurs. A cet égard, elle note que les analyses d'impact relative à la protection des données, rendues obligatoires par le Règlement général sur la protection des données (RGDP), font référence au "risque élevé que peut engendrer un traitement pour les droits et libertés des personnes physiques".

Sur ce sujet, la Commission européenne qui travaille actuellement sur l'encadrement de la reconnaissance faciale à travers son futur texte sur l'intelligence artificielle prévoit que les dispositifs d’identification biométrique à distance auront pour obligation de recourir à un audit externe et indépendant de leur conformité. Pour la Défenseure des droits, une telle obligation devrait être étendue à l’ensemble des dispositifs d’évaluation et de catégorisation biométriques.

Une inquiétude partagée
Ce n'est pas la première fois qu'une autorité s'inquiète du recours, parfois incontrôlé, aux technologies de reconnaissance faciale. La Cnil européenne (EDPB pour European Data Protection Board) et l'European Data Protection Supervisor (EDPS) ont confirmé vouloir interdire les outils de reconnaissance faciale dans l'espace public. Les deux organes européens ont rendu le 21 juin 2021 un avis commun sur la proposition de règlement de la Commission européenne sur l'intelligence artificielle, allant dans ce sens.

Pourtant, de nombreux projets d'expérimentation de la reconnaissance faciale sont aujourd'hui à l'étude. Ainsi, Laurent Wauquiez, président de la région Auvergne-Rhône-Alpes, a proposé lors de l'Assemblée plénière du Conseil régional le 19 juillet la mise en place d'un dispositif de reconnaissance faciale dans les gares et les trains . "La reconnaissance faciale a posteriori permettra d'identifier les criminels et de les interpeller", a-t-il argué.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS