OpenAI veut utiliser l'IA générative pour modérer les réseaux sociaux

Le concepteur de ChatGPT, qui vient de lancer une phase d’expérimentation, promet d'améliorer la modération des plateformes, tout en réduisant "la charge mentale" des modérateurs humains.

OpenAI API ChatGPT Whisper
OpenAI API ChatGPT Whisper

Et si l’intelligence artificielle générative révolutionnait la modération des réseaux sociaux ? C’est en tout cas l’ambition d’OpenAI, qui vient de lancer une phase d’expérimentation en s’appuyant sur GPT-4, la dernière version de son grand modèle de langage, qui alimente notamment son robot conversationnel ChatGPT.

"Soulager la charge mentale"

Utiliser GPT-4 pour modérer les contenus postés par les utilisateurs “offre une vision plus positive de l'avenir des plateformes numériques”, assure la start-up américaine dans un message publié sur son blog. “L'IA peut aider à modérer le trafic en ligne conformément à la politique spécifique de la plateforme et soulager la charge mentale d'un grand nombre de modérateurs humains”, poursuit-elle.

Les principaux réseaux sociaux utilisent déjà l’intelligence artificielle pour modérer les contenus, en détectant des messages haineux ou des images violentes - l’IA est même au cœur des pratiques de X, ex-Twitter, qui a licencié une grande partie de ses équipes de modération. Mais les algorithmes actuellement en place restent limités, assistant simplement les modérateurs humains, qui doivent examiner les cas les plus complexes.

S'adapter plus rapidement

Les derniers grands modèles de langage pourraient changer la donne. Une fois entraînés, “ils peuvent prendre des décisions de modération en se basant sur les lignes directives qui leur sont fournies”, assure OpenAI. Pour la start-up, un tel système permettrait d’abord de soulager les équipes de modération, dont le travail est particulièrement éprouvant. La semaine dernière, un sous-traitant kényan de Meta a ainsi renoncé à son contrat, parlant d’employés “traumatisés”.

Selon OpenAI, utiliser GPT-4 permet aussi d’accélérer la modération des contenus. Et de déployer beaucoup plus rapidement des ajustements de la politique de modération, car le modèle peut être ajusté “en quelques heures”, là où chaque modification doit aujourd'hui être expliquée puis appliquée par les équipes de modération. “Certains modérateurs peuvent mettre plus de temps à assimiler les nouvelles modifications de politique, ce qui peut entraîner des classifications incohérentes”, souligne la start-up.

Encore des biais

Si OpenAI ne le mentionne pas dans son message, l’utilisation de l’IA générative pourrait aussi permettre aux plateformes de réaliser des économies. Meta, la maison mère de Facebook et d’Instagram, assure avoir dépensé 13 milliards de dollars dans la “sécurité” de ses membres entre 2016 et 2021. Elle verse notamment 500 millions de dollars par an à Accenture, son principal sous-traitant pour la modération des contenus.

Mais l’utilisation de l’IA générative présente encore des limites importantes. “Les jugements émis par les modèles de langage sont vulnérables à des biais indésirables qui pourraient avoir été introduits dans le modèle pendant son entraînement”, reconnaît ainsi OpenAI. “Les résultats devront être soigneusement surveillés, validés et affinés en maintenant les humains dans la boucle”, poursuit la start-up, qui assure qu’elle continuera à partager ses progrès dans le domaine au nom de la transparence.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.