Recevez chaque jour toute l'actualité du numérique

x

La France ne veut pas bloquer l'utilisation de l'IA par les forces de l'ordre

Vu ailleurs Le projet de règlement encadrant le recours à l'intelligence artificielle est en cours de discussion devant les institutions bruxellois. La France, présidente du Conseil de l'Union européenne, compte bien promouvoir sa vision des choses en particulier sur les forces de l'ordre.
Twitter Facebook Linkedin Flipboard Email
×

La France ne veut pas bloquer l'utilisation de l'IA par les forces de l'ordre
La France ne veut pas bloquer l'utilisation de l'IA par les forces de l'ordre © Ministère de l'Intérieur

La présidence française du Conseil de l'Union européenne a présenté un ensemble de modifications pour l'Artificial Intelligence Act, le futur règlement encadrant l'intelligence artificielle, rapporte Euractiv dans un article publié le 5 avril. Elles portent en particulier sur le recours par les forces de l'ordre à cette technologie. L'objectif de la France semble être de ne pas bloquer cette utilisation.

L'aspect répressif de la législation est un point de friction majeur des discussions, au point où l'Allemagne et la Finlande demandent de séparer ces dispositifs dans un autre texte. 

Exclure les vérifications d'identité
En premier lieu, les négociateurs français souhaitent exclure les vérifications et contrôles d'identité pour accéder par exemple à un aéroport afin que ces technologies ne soient pas soumises à des obligations trop strictes. En effet, pour rappel, la législation européenne classe les différents systèmes d'IA en fonction de leur risque. Si peu de restrictions s’appliquent aux systèmes dont l’usage n’est pas susceptible d’entraîner des risques significatifs, à l’inverse, plusieurs types d'usage sont expressément interdits et une régulation est mise en place pour les systèmes dont l’usage présente un haut risque.

Ils veulent aussi élargir les cas dans lesquels la reconnaissance biométrique peut être utilisée, en supprimant l'exemple spécifique des enfants disparus et la référence au caractère "imminent" de la menace. En outre, la garantie de la sécurité des infrastructures physiques a été ajoutée.

Des modifications ont également été apportées sur la possibilité d'utiliser l'IA pour localiser un suspect dans le cadre d'une enquête policière. A l'origine, elle était autorisée lorsque l'infraction pénale tombait sous le coup d'un mandat d'arrêt européen. La France souhaite remplacer cette condition par "toute infraction pénale pouvant entraîner une période de détention d'au moins cinq ans".

Instaurer une autorisation ex-post
Dans la version originale, la Commission instaurait une autorisation préalable pour chaque utilisation à des fins répressives. Dans une situation d'urgence "dûment justifiée", l'utilisation peut débuter sans autorisation. La France souhaite ajouter un nouvel article instaurant "une demande d'autorisation ex-post pour les forces de l'ordre afin de [leur] fournir plus de flexibilité". Dans ce cas, elle doit être faite "sans retard excessif".

L'exécutif bruxellois prévoyait également la possibilité de contester l'autorisation dans un délai de deux semaines. Cette faculté doit être supprimée, d'après les représentants français. Ils veulent aussi s'assurer que la surveillance post-commercialisation d'un système d'IA à haut risque n'affecte pas la confidentialité des autorités chargées de l'application de la loi dans la conduite de leurs enquêtes.

Ils ont en outre reformulé l'article relatif à l’autorité de surveillance du marché chargée de superviser l’application des systèmes d’IA par les services de police "pour indiquer que les autorités de protection des données ne doivent pas nécessairement être le premier choix à cet égard".

Pour être intégré dans la version finale du règlement, ces dispositions devront recevoir l'approbation des autres institutions européennes. 

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.