Recevez chaque jour toute l'actualité du numérique

x

Des chercheurs américains s'alarment du manque du régulation autour de l'intelligence artificielle

Les scientifiques de l'AI Now Institute de l'Université de New-York s'alarment du manque de réglementation autour de l'IA. Les craintes soulevées concernent surtout les technologies de reconnaissance faciale et les biais algorithmiques.    
Twitter Facebook Linkedin Flipboard Email
×

Des chercheurs américains s'alarment du manque du régulation autour de l'intelligence artificielle
Des chercheurs américains s'alarment du manque du régulation autour de l'intelligence artificielle © Unsplash/Bill Oxford

Le centre de recherche AI Now Institute de l'Université de New-York a publié jeudi 12 décembre 2019 un rapport sur les implications de l'intelligence artificielle (IA) dans la société. Cette année, les chercheurs ont mis l'accent sur les aspects négatifs de l'IA.

 

La conclusion est très claire : cette technologie doit être encadrée beaucoup plus strictement. "Il apparaît de plus en plus clairement que dans divers domaines, l’IA amplifie les inégalités, place les informations et les moyens de contrôle dans les mains de ceux qui ont le pouvoir, démunissant du même coup ceux qui n’en ont déjà pas", peut-on lire dans le document.

 

Etudier les risques de la reconnaissance faciale

Deux points inquiètent particulièrement les scientifiques américains : la reconnaissance faciale et les biais algorithmiques. "Les gouvernements et les entreprises devraient cesser toute utilisation de la reconnaissance faciale dans des contextes sociaux et politiques sensibles jusqu'à ce que les risques soient pleinement étudiés et qu'une réglementation adéquate soit en place", préconise l'AI Now Institute.

 

Le rapport note que cette technologie a pris un essor considérable en 2019, notamment en Chineles citoyens sont obligés de se faire scanner le visage pour souscrire un forfait téléphonique. Pourtant, il a été démontré que ces technologies sont loin d'être parfaites. Par exemple, en juillet 2019, le National Institute of Standards and Technology (NIST) des Etats-Unis a publié une étude qui démontre que ces systèmes ont du mal à distinguer les visages des femmes à la peau noire.

 

Le rapport conseille au législateur de prendre un moratoire imposant des exigences de transparence qui permettraient aux chercheurs, aux décideurs et à la société civile de décider de la meilleure approche pour réglementer la reconnaissance faciale. Le public doit également pouvoir comprendre comment ces technologies fonctionnent afin de se faire son propre avis.

 

Le danger des biais algorithmiques

"L'industrie de l'IA est terriblement homogène", s'alarme le rapport. Ce manque de diversité a des conséquences sur les algorithmes qui connaissent des biais. Ils peuvent provenir de deux sources. D'abord le développeur lui-même, qui intègre dans ses algorithmes ses propres croyances et biais cognitifs. Ensuite, d'autres découlent des données qui nourrissent le système, à partir desquelles il est entraîné.

 

Le rapport "Algorithmes : biais, discriminations et équité" réalisé par des chercheurs de Télécom ParisTech et de l'Université de Nanterre, publié en mars 2019, prend l'exemple d'Amazon. En 2015, le géant de l'e-commerce a décidé d'utiliser un système automatisé pour l'aider dans le choix de ses recrutements. L'initiative a été interrompue car seuls des hommes étaient choisis. "Les données entrées étaient complètement déséquilibrées entre hommes et femmes, les hommes constituant l'écrasante majorité des cadres recrutés dans le passé. L'algorithme ne laissait du coup aucune chance aux nouvelles candidates pourtant qualifiées", explique le rapport.

 

Pour lutter contre ces biais, les chercheurs du AI Now Institute préconisent d'ouvrir véritablement les postes d'ingénieurs aux femmes et aux minorités. Ils estiment aussi que la création d'algorithmes ne doit pas rester dans les seules mains des chercheurs en sciences de l'information, mais qu'elle doit s'ouvrir aux sciences sociales. 
 

Comment encadrer ?

Ce rapport n'est pas le premier à s'alarmer du manque de réglementation autour de l'IA. Il faut dire que les Etats peinent à adopter des législations sur ce sujet. Fin août 2019, on apprenait que la Commission européenne planchait sur un texte. La communauté internationale s'intéresse également à cette problématique. Fin novembre 2019, l'Unesco a été mandaté pour élaborer un "instrument normatif mondial" en 18 mois. Mais cette belle initiative se heurte à la réalité concrète du droit international. Dans la très grande majorité des cas, il est impossible de rendre les sanctions internationales effectives et donc efficaces. Les Etats peuvent s'y soustraire très facilement.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media