IBM se retire du marché de la reconnaissance faciale

IBM arrête ses activités dans la reconnaissance faciale. Dans une lettre adressée aux démocrates américains, porteurs d'un projet de réforme de la police suite au mouvement de protestation suscité par la mort de George Floyd, Arvind Krishna estime qu'aujourd'hui les systèmes connaissent trop de biais à l'origine de discriminations. 

Partager
IBM se retire du marché de la reconnaissance faciale

IBM arrête la vente de logiciels de reconnaissance faciale, annonce son CEO Arvind Krishna dans une lettre publiée le 8 juin 2020. Ce texte s'inscrit dans un contexte très particulier aux Etats-Unis puisqu'il est adressé au Congrès américain dans le cadre d'un projet de réforme de la police déposé par les démocrates en réponse au mouvement de protestation suscité par la mort de George Floyd lors d'une interpellation à Minneapolis. Par ailleurs, Arvind Krishna précise à The Verge que l'entreprise américaine ne mènera de projets de recherche liés à cette technologie.

Entamer un dialogue
"IBM s'oppose fermement et ne tolérera pas l'utilisation de toute technologie, y compris la technologie de reconnaissance faciale proposée par d'autres fournisseurs, pour la surveillance de masse, le contrôle au faciès, les violations des droits de l'Homme et des libertés fondamentales ou tout autre objectif qui ne serait pas conforme à nos valeurs et à nos principes de confiance et de transparence", prévient le CEO du géant informatique dans sa lettre. "Nous pensons qu'il est temps d'entamer un dialogue national sur la question de savoir si et comment la technologie de reconnaissance faciale devrait être utilisée par les services répressifs nationaux", poursuit-il.

Grâce aux progrès de l'intelligence artificielle, les logiciels de reconnaissance faciale se sont améliorés. Mais ces avancées n'ont pas permis de supprimer les biais provoquant des discriminations. En 2018, une étude menée par Joy Buolamwini et Timnit Gebru révélait l'ampleur des préjugés dont souffrent de nombreux systèmes de reconnaissance faciale (y compris ceux d'IBM). Les chercheurs ont examiné trois logiciels dans lesquels le taux d'erreur dans la détermination du sexe des hommes à la peau claire n'a jamais été inférieur à 0,8%. En revanche, pour les femmes à la peau plus foncée, les taux d'erreur ont augmenté de façon spectaculaire : plus de 20% dans un cas et plus de 34% dans les deux autres.

La majorité des biais algorithmiques proviennent des données elles-mêmes. L'un des biais les plus fréquents est le manque de représentativité des données mobilisées. IBM a tenté de résoudre cette problématique en publiant en 2018 un dataset d'un million de visages se voulant être représentatif. Ces initiatives sont intéressantes mais ne suffisent pas à régler le problème notamment lorsque la reconnaissance faciale est utilisée par les forces de l'ordre.


La question des caméras corporelles
Dans sa lettre, Arvind Krishna déclare que "les vendeurs et les utilisateurs des systèmes d'IA ont une responsabilité commune de s'assurer que les biais de l'IA sont évalués surtout lorsqu'elle est utilisée par les forces de l'ordre et que cette évaluation est contrôlée et publiée". En effet, aux Etats-Unis, certains officiers de police portent des caméras corporelles pour identifier plus facilement les contrevenants grâce à la reconnaissance faciale. Or, les biais font craindre des arrestations illégales. En octobre 2019, la Californie a d'ailleurs suivi le New Hampshire et l'Oregon en interdisant l'utilisation de la reconnaissance faciale dans les caméras corporelles policières.

En stoppant ses activités dans la reconnaissance faciale, IBM ne perd pas une source de revenu majeure. En effet, cette branche ne génère pas de revenus significatifs pour le géant de l'informatique, admet une source proche du dossier interrogée par CNBC. Cette décision reste tout de même notable pour une grande entreprise technologique qui compte le gouvernement américain parmi ses principaux clients. Mais cette prise de position ne changera finalement pas grand-chose tant qu'une vraie législation sur la reconnaissance facile ne sera pas adoptée. En effet, le retrait d'IBM n'empêchera pas que des systèmes de reconnaissance faciale continuent d'être commercialisé et utilisé.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

CHERCHE TALENTS NUMERIQUE

Les formations USINE DIGITALE

Toutes les formations

ARTICLES LES PLUS LUS