Recevez chaque jour toute l'actualité du numérique

x

Centre d'excellence, investissements, responsabilité, évaluation… L'UE dévoile sa stratégie sur l'IA

La Commission européenne publie un livre blanc dans lequel elle présente sa stratégie sur l'intelligence artificielle. Son objectif est d'instaurer un "écosystème d'excellence" et un "écosystème de confiance" pour promouvoir l'IA tout en tenant compte des risques associés. Au programme : création d'un centre d'excellence, augmentation des investissements, biais algorithmiques, évaluation ex ante et labellisation.  
Twitter Facebook Linkedin Flipboard Email
×

Centre d'excellence, investissements, responsabilité, évaluation… L'UE dévoile sa stratégie sur l'IA
Centre d'excellence, investissements, responsabilité, évaluation… L'UE dévoile sa stratégie sur l'IA © Commission européenne

Dans un livre blanc très attendu, publié le 19 février 2020, la Commission européenne présente sa stratégie sur l'intelligence artificielle. Elle prône une approche axée sur la régulation et l'investissement qui poursuit un double objectif : promouvoir le recours à l'IA et tenir compte des risques associés à certaines utilisations de cette nouvelle technologie.

 

Sa stratégie repose sur l'élaboration d'un cadre de politique publique et d'un cadre réglementaire. A noter que l'exécutif européen ne traite pas, dans ce document, du développement et de l'utilisation de l'IA à des fins militaires. 

 

Des investissements trop faibles

"L'Europe est bien placée pour tirer parti du potentiel de l'IA (…) Elle dispose d'excellents centres de recherche et de start-up innovantes", note la Commission. Mais le montant des investissements privés et publics n'est pas suffisant. Au cours des trois dernières années, le financement de l'UE en faveur de la recherche et de l'innovation dans l'intelligence artificielle a atteint 1,5 milliard d'euros, soit une augmentation de 70% par rapport à la période précédente.

 

Or, ce montant est assez faible par rapport aux investissements alloués à ce domaine dans d'autres régions du monde. Au total, 3,2 milliards d'euros ont été investis dans l'IA en Europe en 2016, contre environ 12,1 milliards d'euros en Amérique du Nord et 6,5 milliards d'euros en Asie. "L'Europe doit réagir en augmentant considérablement ses niveaux d'investissements", affirme l'institution.

 

Pour créer "un écosystème d'excellence", la Commission appelle à renforcer la coopération entre les différents centres de recherches européens. Elle propose également la création d'un centre pour coordonner ces efforts et "attirer les investissements et les chercheurs les plus talentueux de la discipline". Elle note par ailleurs la nécessité de veiller à ce que le secteur privé soit pleinement associé à la définition du programme de recherche et d'innovation. Dans le secteur privé, l'IA pourrait créer d'importantes d'inégalités entre les petites entreprises et les mastodontes. "Il sera important de veiller à ce que les PME puissent avoir accès à l'IA et l'utiliser", affirme l'institution, qui prévoit d'améliorer l'accès au financement dans ce domaine.

 

Créer un écosystème de confiance

Le second pilier de la stratégie de la Commission européenne est la mise en place d'un cadre réglementaire pour l'intelligence artificielle, baptisé "l'écosystème de confiance". "Si l'IA peut contribuer à renforcer la sécurité des citoyens et à leur permettre de jouir de leurs droits fondamentaux, elle suscite également chez eux une certaine méfiance quant à ses effets indésirables potentiels, voire à son utilisation à des fins malveillantes", affirme-t-elle. Le livre blanc dénombre trois secteurs dans lesquels l'IA doit absolument être réglementée : la protection des droits fondamentaux, la sécurité des utilisateurs et la responsabilité des acteurs économiques.

 

La problématique des droits humains est directement liée aux biais algorithmiques. La Commission prend l'exemple d'un algorithme capable de prédire la récidive de certains actes délictueux qui présentait des biais de nature sexiste et raciste. Il fournissait des prédictions différentes selon qu'il s'agissait de femmes ou d'hommes, ou de ressortissants nationaux ou d'étrangers. Elle indique que les biais sont des risques inhérents à toute activité sociétale ou économique et que les décisions humaines ne sont pas à l'abri. Mais les biais algorithmiques "pourraient avoir un effet bien plus important, entraînant des conséquences et créant des discriminations (…) en l'absence de mécanismes de contrôle social qui régissent le comportement humain".

 

Certaines applications de l'intelligence artificielle posent également des questions de sécurité. L'absence de règles claires créent une insécurité juridique pour les entreprises du secteur. Les autorités de surveillance du marché et les autorités répressives peuvent également se retrouver dans une situation où elles ne savent pas si elles peuvent intervenir. De plus, l'imprécision des exigences applicables rendrait difficile toute tentative de reconstituer l'historique des décisions potentiellement problématiques résultant de l'utilisation de l'IA. Il serait donc difficile pour les personnes ayant subi un préjudice d'obtenir réparation. A noter que l'UE possède une directive sur la responsabilité du fait des produits défectueux qui aurait pu s'appliquer. Elle prévoit qu'un fabricant est responsable des dommages du fait d'un produit défectueux. Mais, dans le cas de l'IA, il s'avère "difficile de prouver la défectuosité du produit, le dommage survenu et le lien de cause à effet entre les deux".

 

5 principes pour l'intelligence artificielle à "haut risque"

Un aspect essentiel de la future réglementation est son champ d'application. Le livre blanc ne fournit pas de définition de l'IA. Il précise néanmoins que toute définition devra être "souple", pour tenir compte des progrès technologiques, tout en étant suffisamment précise pour garantir la sécurité juridique nécessaire. La Commission européenne envisage donc une réglementation à double niveau pour garantir "le caractère ciblé et proportionné de toute intervention réglementaire".

 

Ainsi les applications d'IA à "haut risque" et les autres ne seront pas soumises aux mêmes règles. Pour qu'une IA soit considérée à "haut risque", elle doit cumulativement être employée dans un secteur où des risques importants sont à prévoir et être utilisée dans ce secteur de telle façon que ces risques sont susceptibles d'apparaître. Elle devra alors respecter cinq principes axés sur les données d'entrainement, la conservation des données et des dossiers, la fourniture d'information, la robustesse et la précision, et le contrôle humain.

 

Les normes seront applicables à tous les opérateurs économiques qui fournissent des produits ou des services reposant sur l'intelligence artificielle dans l'Union européenne, qu'ils soient ou non établis dans l'UE. L'autorité note que "chaque obligation devrait s'appliquer à l'acteur ou aux acteurs qui seront le mieux placés pour éliminer tout risque potentiel". A titre d'exemple, elle déclare que les développeurs sont plus aptes à éliminer les risques liés à la phase de développement plutôt que ceux liés à la phase d'utilisation.

 

Une procédure de labellisation

La Commission européenne estime que certaines applications d'IA devront être contrôlées préalablement via "des procédures d'essai, d'inspection ou de certification". Mais cette évaluation ne doit pas exempter les autorités compétentes de contrôler ces technologiques par la suite. Pour les applications d'IA qui ne sont pas à haut risque, "il pourrait être envisagé de mettre en place un système de label non obligatoire". Dans le cadre de ce système, les opérateurs économiques intéressés pourraient décider de se soumettre à ces exigences. Ils recevraient alors un "label de qualité". La Commission lance également une vaste consultation en ligne où universitaires, entreprises, organisations, société civile… peuvent venir déposer leurs avis sur ces propositions jusqu'au 19 mai 2020.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.

 
media