Recevez chaque jour toute l'actualité du numérique

x

[Etude] La future réglementation européenne sur l'IA va coûter 31 milliards d'euros aux entreprises

Étude La future réglementation sur l'IA risque de coûter cher aux entreprises européennes. Ce coût est estimé à 31 milliards d'euros sur cinq ans avec une réduction de 20% des investissements, selon une étude. En cause : les coûts de mises en conformité avec la nouvelle législation.
Twitter Facebook Linkedin Flipboard Email
×

La future réglementation européenne sur l'IA va coûter 31 milliards d'euros aux entreprises
[Etude] La future réglementation européenne sur l'IA va coûter 31 milliards d'euros aux entreprises © Unsplash/freestocks.org

Combien coûtera la future réglementation européenne sur l'intelligence artificielle ? Voici la question que s'est posée une étude publiée par le Center for data innovation, un groupe de réflexion autour de l'IA, des données et des politiques publiques. Repérée par Euractiv, elle a été écrite par Benjamin Mueller, senior analyst spécialisé dans les politiques liées à l'IA.

31 milliards d'euros 
Selon les estimations du rapport, la future réglementation – considérée comme la plus stricte au monde – devrait coûter près de 31 milliards d'euros à l'économie européenne au cours des cinq prochaines années et réduira les investissements dans l'IA de 20%.
 

Ces coûts sont en contradiction avec l'ambition de la Commission européenne : faire que 75% des entreprises situées en Europe utilisent quotidiennement l'IA, argue Benjamin Mueller. En effet, cet objectif nécessiterait environ 10 fois le niveau d'investissement actuel dans la technologie mais l'étude affirme que les coûts de mise en conformité consommeraient un peu moins de 20% de ces investissements.

Des obligations plus strictes pour les IA à haut risque
Ce sont les IA considérées à "haut risque", au sens de la future réglementation, qui constituent le sujet de préoccupation majeure, d'après le rapport. En effet, la proposition de réglementation souhaite instaurer des obligations plus strictes pour les systèmes d'apprentissage automatique considérés comme plus sensibles. Dans le détail, pour qu'une IA soit considérée à "haut risque", elle doit cumulativement être employée dans un secteur où des risques importants sont à prévoir et être utilisée dans ce secteur de telle façon que ces risques sont susceptibles d'apparaître.


On peut citer les technologies utilisées dans les infrastructures critiques, telles que les transports, et qui sont susceptibles de mettre en danger la vie des personnes, celles utilisées dans l'éducation et la formation professionnelle, celles intégrées dans les composants de sécurité, celles utilisées dans la gestion des contrôles aux frontières ou encore l'administration de la justice et les processus démocratiques.

Une possible fuite des cerveaux
Benjamin Mueller estime qu'environ 35% des secteurs d'activités rentrent dans le champ d'application des IA à "haut risque", ce qui représenterait 230 milliards d'euros. Une PME qui déploie une IA considérée à "haut risque", au sens de la loi, devra couvrir des coûts de mise en conformité d'environ 400 000 euros, ce qui entraînerait une baisse de 40% de son bénéfice, d'après l'étude qui ne détaille pas son calcul. Une situation qui risque de provoquer une fuite des cerveaux et une prédominance des entreprises étrangères sur certains secteurs, alerte l'analyste.

Comme le Règlement général sur la protection des données (RGPD), cette réglementation "entraînera une concentration accrue du marché et des conditions plus favorables pour les grands opérateurs historiques", conclut le rapport qui appelle la Commission européenne à prendre en compte ses estimations.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.