Reconnaissance des émotions : La Cnil menace de sanctions en vertu de l'AI Act

En plus de leur inefficacité, la Cnil alerte sur les atteintes à la vie privée liées à l'usage de technologies de reconnaissance des émotions pour contrôler les salariés et évaluer les candidats. Si les entreprises continuent à commercialiser de tels dispositifs, elle se prépare à infliger des sanctions en vertu de la réglementation européenne sur l'IA. 

Siège de la Cnil
Siège de la Cnil

La Commission nationale de l'informatique et des libertés (Cnil) se dit prête à hausser le ton contre les entreprises qui commercialisent et utilisent des logiciels utilisant la reconnaissance émotionnelle. C'est ce qu'a indiqué Thomas Dautieu, directeur de l'accompagnement juridique à la Cnil, à nos confrères de Cash Investigation, dans le cadre de leur émission sur l'intelligence artificielle diffusée le 10 avril 2025. 

Une technique largement contestée

La reconnaissance des émotions vise à identifier et analyser les émotions humaines à partir de signaux observables (traits du visage, intonation de la voix, posture...). Cette technique est très largement remise en cause car, d'un point de vue scientifique, il est reconnu que les expressions faciales et corporelles ne reflètent pas de manière fiable les émotions réelles des individus. 

"C'est illégal de proposer ce type de système d'IA", a rétorqué Thomas Dautieu. Or, les équipes de Cash Investigation disent avoir repéré plusieurs entreprises basées en France commercialisant des logiciels basés sur la reconnaissance émotionnelle, en particulier dans le secteur du recrutement. Elles citent la start-up lyonnaise Sweeeft (ex-Skilder), dont le slogan est "Booster vos opérations RH grâce aux superpouvoirs de l'IA". D'après son site, elle propose "une suite RH innovante, basée sur le cloud, conçue pour augmenter la productivité des recruteurs grâce aux automatisation, évaluer les compétences professionnelles des candidats à l'aide de mises en situations et favoriser la croissance des talents avec la formation".

L'interdiction d'analyser les émotions sur le lieu de travail

Or, depuis le 2 février 2025, l'Artificial Intelligence Act (AI Act) interdit les systèmes d'IA "aux risquesinacceptables". Est notamment interdite "la mise sur le marché, la mise en service à cette fin spécifique ou l’utilisation de systèmes d’IA pour inférer les émotions d’une personne physique sur le lieu de travail et dans les établissements d’enseignement, sauf lorsque l’utilisation du système d’IA est destinée à être mise en place ou mise sur le marché pour des raisons médicales ou de sécurité".

Pour la partie "recrutement", le texte classe dans la catégorie des systèmes d'IA "à haut risque". Il s'agit notamment des "systèmes d'IA destinés à être utilisés pour le recrutement ou la sélection de personnes physiques, en particulier pour publier des offres d'emploi ciblées, analyser et filtrer les candidatures et évaluer les candidats". Pour pouvoir être utilisés, ces systèmes doivent respecter une série de conditions. Avant de les déployer, il est impératif de réaliser une évaluation des risques pour analyser les impacts du modèle sur les droits des individus. Si le système présente des risques trop élevés, des mesures correctives doivent être mises en place. 

Depuis l'entrée en vigueur de l'AI Act, la start-up Sweeeft dit avoir laissé tomber la reconnaissance des émotions pour se concentrer sur "le logiciel" sans davantage de précision.

Jusqu'à 35 millions d'euros d'amende

"Si elles [les entreprises, ndlr] continuent à l’utiliser dans le périmètre de ce qui est interdit, en effet, il va y avoir des actions de la Cnil", a prévenu le directeur de l'accompagnement juridique. Selon l'AI Act, les sanctions pour une entreprise qui vend ou utilise un système d'IA présentant des risques inacceptables peuvent aller jusqu'à 7% de son chiffre d'affaires annuel mondial ou jusqu'à 35 millions d'euros d'amende, selon le montant le plus élevé. 

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.