Reconnaissance des émotions : La Cnil menace de sanctions en vertu de l'AI Act
En plus de leur inefficacité, la Cnil alerte sur les atteintes à la vie privée liées à l'usage de technologies de reconnaissance des émotions pour contrôler les salariés et évaluer les candidats. Si les entreprises continuent à commercialiser de tels dispositifs, elle se prépare à infliger des sanctions en vertu de la réglementation européenne sur l'IA.
La Commission nationale de l'informatique et des libertés (Cnil) se dit prête à hausser le ton contre les entreprises qui commercialisent et utilisent des logiciels utilisant la reconnaissance émotionnelle. C'est ce qu'a indiqué Thomas Dautieu, directeur de l'accompagnement juridique à la Cnil, à nos confrères de Cash Investigation, dans le cadre de leur émission sur l'intelligence artificielle diffusée le 10 avril 2025.
Une technique largement contestée
La reconnaissance des émotions vise à identifier et analyser les émotions humaines à partir de signaux observables (traits du visage, intonation de la voix, posture...). Cette technique est très largement remise en cause car, d'un point de vue scientifique, il est reconnu que les expressions faciales et corporelles ne reflètent pas de manière fiable les émotions réelles des individus.
"C'est illégal de proposer ce type de système d'IA", a rétorqué Thomas Dautieu. Or, les équipes de Cash Investigation disent avoir repéré plusieurs entreprises basées en France commercialisant des logiciels basés sur la reconnaissance émotionnelle, en particulier dans le secteur du recrutement. Elles citent la start-up lyonnaise Sweeeft (ex-Skilder), dont le slogan est "Booster vos opérations RH grâce aux superpouvoirs de l'IA". D'après son site, elle propose "une suite RH innovante, basée sur le cloud, conçue pour augmenter la productivité des recruteurs grâce aux automatisation, évaluer les compétences professionnelles des candidats à l'aide de mises en situations et favoriser la croissance des talents avec la formation".
L'interdiction d'analyser les émotions sur le lieu de travail
Or, depuis le 2 février 2025, l'Artificial Intelligence Act (AI Act) interdit les systèmes d'IA "aux risques inacceptables". Est notamment interdite "la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité".
Pour la partie "recrutement", le texte classe dans la catégorie des systèmes d'IA "à haut risque". Il s'agit notamment des "systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats". Pour pouvoir être utilisés, ces systèmes doivent respecter une série de conditions. Avant de les déployer, il est impératif de réaliser une évaluation des risques pour analyser les impacts du modèle sur les droits des individus. Si le système présente des risques trop élevés, des mesures correctives doivent être mises en place.
Depuis l'entrée en vigueur de l'AI Act, la start-up Sweeeft dit avoir laissé tomber la reconnaissance des émotions pour se concentrer sur "le logiciel" sans davantage de précision.
Jusqu'à 35 millions d'euros d'amende
"Si elles [les entreprises, ndlr] continuent à l’utiliser dans le périmètre de ce qui est interdit, en effet, il va y avoir des actions de la Cnil", a prévenu le directeur de l'accompagnement juridique. Selon l'AI Act, les sanctions pour une entreprise qui vend ou utilise un système d'IA présentant des risques inacceptables peuvent aller jusqu'à 7% de son chiffre d'affaires annuel mondial ou jusqu'à 35 millions d'euros d'amende, selon le montant le plus élevé.
SUR LE MÊME SUJET
Reconnaissance des émotions : La Cnil menace de sanctions en vertu de l'AI Act
Tous les champs sont obligatoires
0Commentaire
Réagir