Ysens de France (Gendarmerie nationale) : "Toutes nos actions d'intelligence artificielle doivent être justifiées"

La gendarmerie nationale développe de plus en plus de projets basés sur l'intelligence artificielle. Chargée de mission en la matière au sein de l'institution, Ysens de France dresse un état des lieux.

Partager
Ysens de France (Gendarmerie nationale) :

La gendarmerie nationale investit depuis longtemps dans l'intelligence artificielle. C'est le général de brigade Patrick Perrot, coordinateur national pour l'IA, qui supervise ce travail de recherche et développement. Ysens de France, chargée de mission en intelligence artificielle au sein de la gendarmerie nationale, travaille sous sa houlette depuis janvier 2022. Issue du monde de la recherche, après une thèse en droit international portant sur les robots militaires terrestres dans les guerres en 2050, elle accompagne désormais de nombreux projets menés par environ 25 personnes. Elle revient pour nous sur la stratégie de la force armée française.

L'Usine Digitale : Depuis quand la gendarmerie nationale se penche-t-elle sur l'intelligence artificielle ?

Ysens de France : Cela fait plus de 15 ans que la gendarmerie s'intéresse au sujet. Dans son ADN et dans celui des armées, il y a la question de savoir anticiper la menace. Pour cela, on booste la recherche scientifique, il faut qu'on soit les plus alertes au niveau technologique pour pouvoir répondre de manière réactive et pour être plus précis dans la réponse qu'on donne. Plus on anticipe, moins on est pris de cours quand le danger est là. Le fait d'avoir nommé un coordinateur pour l'intelligence artificielle il y a trois ans a permis de mettre en place une vraie stratégie d'intelligence artificielle. Depuis, il y a eu plus d'actions de communication, de formations, de sensibilisation.

L'essor et le succès récent du secteur, notamment en matière d'IA générative, ont-ils renforcé cet intérêt ?

Quand ChatGPT est arrivé, cela faisait deux ans que la gendarmerie se penchait sur l'IA générative. À la direction générale, on a un laboratoire d'intelligence artificielle créé il y a un peu plus de deux ans qui a créé une application permettant de détecter rapidement le vrai du faux d'une information. Ce qui fait qu'il n'y a pas eu de surprise scientifique avec ChatGPT. En revanche, on s'est un peu mis sur les rangs en voyant qu'un usage était en train de se démocratiser et parce que c'est une énorme opportunité. On est très alertes sur les capacités de désinformation que cela peut créer, sur les capacités de nos criminels et de nos délinquants à être encore plus réactifs avec ChatGPT.

La gendarmerie nationale développe donc plusieurs projets basés sur l'intelligence artificielle, notamment en ce qui concerne la détection de la pédocriminalité sur le web mais aussi pour des usages plus basiques…

Concernant la pédocriminalité, l'IA est essentielle. Le sujet a explosé ces derniers temps et il y a eu une vraie demande de la part des gendarmes qui s'occupaient de ce secteur-là et qui avaient devant eux de la pédocriminalité à longueur de journée. L'objectif a donc été de les soulager psychologiquement, en mettant en place une IA qui puisse traiter ces images, puis de faire en sorte qu'il y ait moins de pédocriminalité dans l'espace numérique.

Sont aussi menés des projets pour détecter l'usurpation d'identité ou les deepfakes, traiter des heures de vidéo pour identifier par exemple une voiture rouge, compter la foule… Il y a une cinquante de projets en R&D. Nous sommes aussi en train de développer ce qu'on appelle le speech-to-text, c'est-à-dire un outil qui permette de retranscrire automatiquement la voix à l'écrit, par exemple dans le cadre d'une plainte. Ce n'est pas sensationnel mais c'est révolutionnaire pour le gendarme qui gagne du temps et peut être plus à l'écoute d'une victime.

Cet outil est-il déjà opérationnel ou bien reste-t-il à l'état d'ébauche pour le moment ?

On commence l'expérimentation à la rentrée mais ça a été longtemps en recherche et développement. On ne peut rien déployer, rien expérimenter sans que ça passe par un service dédié à la conformité. Et pour les projets les plus sensibles, cela peut durer un an et demi à deux ans. C'est très long.

Il existe justement un projet qui peut être considéré comme sensible et qui est appelé "cartographie prédictive de la délinquance". Pouvez-vous expliquer ce en quoi il consiste ?

Il est encore à l'état de recherche. Pour qu'il soit expérimenté, il nous faut toutes les autorisations juridiques et c'est en cours. Concrètement, c'est une technologie qui, au regard des faits de délinquance, crée une carte avec ce qu'on appelle des zones de chaleur, qui sont mises à jour régulièrement. Cela permet à un commandant de compagnie de regarder sa carte et de dire : "Tiens, sur cette zone-là, il y a des faits de vol ou de cambriolage qui ont augmenté." C'est de la gestion de patrouille, une aide pour de l'analyse humaine de terrain. Cette cartographie permet aux gendarmes d'aller plus rapidement, d'avoir une vue à 360 degrés de leur département, de leur région, qui peut être un soulagement dans la réflexion.

Je n'aime pas le terme "prédictif" parce que dans l'état d'esprit des gens, c'est Minority Report. Mais oui, c'est un outil prédictif dans le sens où il va dessiner une carte supposément du futur (les trois jours qui arrivent, par exemple) sur la base du présent. Mais la technologie fait des recommandations pour parfaire la décision humaine, elle ne décide pas.

On a vu que certains outils d'intelligence artificielle, par leur modèle d'apprentissage, pouvaient se tromper. Comment la gendarmerie travaille-t-elle sur les enjeux éthiques de ces technologies ?

Nous avons mis en place une charte éthique pour l'IA. Notre équipe est très diverse dans les profils, mais aussi dans les compétences, il y a un partage d'informations, une confrontation de visions sur ce que va être la technologie. Moi, je leur dis ce que le droit nous autorise à faire aujourd'hui et, au regard de la vision qu'on a de l'intelligence artificielle et au regard des projets de réglementation de demain, qu'on va aller jusqu'à un certain seuil et pas plus loin.

L'éthique nous oblige à toujours maîtriser cette technologie, de ne pas lui donner de capacité de décision, de maîtriser son apprentissage, de faire ce que nous, techniciens, appelons du compromis dans la performance. On va maîtriser le plus possible ces technologies au moment du développement justement pour maîtriser les erreurs qui peuvent être faites et les biais qui peuvent exister. C'est la raison pour laquelle on expérimente dans les conditions réelles et qu'on ajuste en fonction afin d'assurer le contrôle humain.

Comment informez-vous la population de ces projets d'IA ?

Cette institution a une spécificité, c'est qu'elle est redevable. Toutes nos actions d'intelligence artificielle doivent être justifiées. Au-delà de ça, on est la force de sécurité de l'État. C'est pour cela qu'on est toujours un sujet de crispation pour la société : si la confiance envers le gouvernement est mauvaise, ça se retourne contre celui qui essaie de maintenir cette espèce de contrat social de sécurité, de lien entre la population et l'État. Vis-à-vis de la population, il faut démystifier le sujet de l'intelligence artificielle. Je fais personnellement beaucoup de conférences.

L'usage de l'intelligence artificielle suppose la collecte, le traitement et le stockage de grands volumes de données, parfois sensibles. Quelle stratégie en matière de protection des données et de souveraineté numérique la gendarmerie met-elle en place ?

L'institution va privilégier un développement en interne, justement pour des raisons de traitement de données car le sujet de la souveraineté est central. Si elle fait travailler des partenaires, ce seront en priorité des entreprises françaises ou, au moins, des entreprises qui se mettent au service de l'institution et qui ne touchent pas et ne stockent pas nos données. Tout est stocké en interne, il n'y a pas de données qui partent ailleurs que chez nous.

Donc pas d'utilisation de ChatGPT ?

Des premières expérimentations ont été faites avec le code source de ChatGPT mais on essaie de voir comment faire pour créer notre propre modèle ou travailler avec une entreprise française qui créerait son propre modèle. Il y a toute une succession d'acteurs juridiques qui vérifient le traitement, l'anonymisation, le stockage des données, le fait que la finalité d'un outil soit unique. Il y a un département de la conformité au service de la transformation qui travaille avec le service juridique du ministère de l'Intérieur et qui fait remonter jusqu'à la CNIL ou au Conseil d'État qui donnent leurs avis.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS