La FTC enquête sur l'impact des chatbots développés par les Big Tech sur les plus jeunes

L’enquête actuelle s'inscrit dans une tendance croissante de régulation et de surveillance des chatbots, motivée par des incidents concrets et des préoccupations pour la santé mentale et la sécurité des enfants. La FTC et d’autres régulateurs cherchent désormais à systématiser la protection des mineurs face à ces technologies.

Enfant sur un téléphone
Enfant sur un téléphone

La Federal Trade Commission (FTC) s'attaque au sujet des chatbots alimentés par l'intelligence artificielle à destination du grand public. Elle vient d'émettre des ordonnances à l’encontre de sept entreprises qui proposent ces chatbots afin d’obtenir des informations sur la manière dont ces sociétés mesurent, testent et surveillent les impacts potentiellement négatifs de cette technologie sur les enfants et les adolescents. Alphabet (Google), Character AI, Instagram, Meta, OpenAI, Snap et xAI.

"Les chatbots dotés d’IA peuvent utiliser des technologies d'IA générative pour simuler des communications et des relations interpersonnelles semblables à celles des humains. Ces chatbots peuvent imiter efficacement les caractéristiques, les émotions et les intentions humaines, et sont généralement conçus pour communiquer comme un ami ou un confident. Cela peut inciter certains utilisateurs, en particulier les enfants et les adolescents, à leur faire confiance et à nouer des relations avec eux", rappelle la FTC.

Quelles mesures prises en amont pour éviter toute déviance ?

Cette enquête doit lui permettre de connaître les mesures prises, le cas échéant, par les entreprises pour évaluer la sécurité de leurs chatbots lorsqu’ils agissent en tant que compagnons, pour limiter leur utilisation par les enfants et les adolescents ainsi que leurs effets négatifs potentiels, et pour informer les utilisateurs et les parents des risques associés à ces produits.

Elle cherche notamment à savoir quels sont les actions mises en place pour atténuer les effets négatifs potentiels, limiter ou restreindre l’utilisation de ces plateformes par les enfants ou les adolescents, ou se conformer à la règle sur la protection de la vie privée des enfants en ligne (Children’s Online Privacy Protection Act Rule).

Meta pointé du doigt pour son manque de protection envers les enfants

Cette enquête intervient par ailleurs quelques semaines après qu'un rapport exclusif de Reuters a révélé que Meta autorisait des comportements provocateurs de chatbots avec des enfants, notamment en laissant les bots s'engager dans des "conversations romantiques ou sensuelles."

Ce à quoi Meta a déclaré qu'elle ajouterait de nouvelles protections pour les adolescents à ses produits d'intelligence artificielle en formant les systèmes à éviter les conversations de flirt et les discussions sur l'automutilation ou le suicide avec des mineurs, et en limitant temporairement leur accès à certains personnages d'intelligence artificielle.

De nombreuses informations souhaitées

Dans le cadre de son enquête, la FTC cherche donc à obtenir les informations suivantes sur la manière dont les entreprises monétisent l’engagement des utilisateurs ; traitent les entrées des utilisateurs et génèrent des réponses ; développent et approuvent les personnages (des chatbots) ; mesurent, testent et surveillent les impacts négatifs avant et après le déploiement ; atténuent les impacts négatifs, en particulier pour les enfants.

Elle s'intéresse également à la façon dont les entreprises utilisent des divulgations, de la publicité et d’autres moyens pour informer les utilisateurs et les parents sur les fonctionnalités, les capacités, le public cible, les impacts négatifs potentiels, ainsi que les pratiques de collecte et de gestion des données ; surveillent et font respecter le respect des règles et des conditions d’utilisation de l’entreprise (par exemple, les directives communautaires et les restrictions d’âge) ; utilisent ou partagent les informations personnelles obtenues par le biais des conversations des utilisateurs avec les chatbots.

D'autres enquêtes ont eu lieu par le passé

Il ne s'agit pas de la première enquête du genre. En juin dernier, plus de 20 groupes de défense des consommateurs ont déposé une plainte auprès de la FTC et des procureurs généraux des États, alléguant que des plateformes d’IA comme Meta AI Studio et Character.AI permettent l’exercice non autorisé de la médecine en hébergeant des "robots thérapeutiques" sans supervision professionnelle. Le procureur général du Texas a également ouvert une enquête sur Meta et Character.AI, les accusant de pratiques commerciales trompeuses et de violations de la vie privée, notamment en induisant des enfants en erreur avec des services de santé mentale générés par l’IA.

En outre, la FTC a déjà utilisé son autorité 6(b) pour mener des études de marché sur les pratiques des entreprises technologiques, notamment en matière de protection des données et de conformité à la loi COPPA (Children’s Online Privacy Protection Act), qui encadre la collecte de données personnelles des enfants de moins de 13 ans. Parallèlement, plusieurs États américains, comme l’Illinois, l’Utah et le Nevada, ont adopté des lois pour encadrer l’utilisation de ces fameux chatbots, notamment en interdisant aux IA de prendre des décisions thérapeutiques sans supervision humaine ou en exigeant une transparence sur leur statut non humain. Toutefois, l'enquête actuelle de la FTC est considérée comme la plus large et la plus ciblée à ce jour.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.