OpenAI promet un outil pour détecter les photos générées par l'IA

Selon le concepteur de ChatGPT, ce nouvel outil, encore en phase de tests en interne, sera “fiable à 99%”.

OpenAI Dall-e
OpenAI Dall-e

OpenAI promet de résoudre l’un des principaux problèmes de l’intelligence artificielle générative. Mercredi 18 octobre, le concepteur de ChatGPT a annoncé le prochain lancement d’un outil capable de détecter les images créées par une IA.

"Fiable" à 99%

Encore en phase de tests en interne, cet outil sera “fiable à 99%”, a promis Mira Murati, la directrice de la technologie de la start-up américaine, qui s’exprimait dans le cadre d’une conférence organisée par le Wall Street Journal. Aucun autre détail n’a été fourni par la responsable.

En plus de son robot conversationnel ChatGPT, OpenAI propose aussi un générateur d’images, baptisé Dall-E dont la troisième version a été lancée en septembre. Son concurrent Midjourney est plus avancé, pouvant produire des images ultra-réalistes.

A mesure qu’ils progressent, ces services représentent de nouveaux risques, notamment en matière de désinformation ou de campagne d’influence. Si des outils de détection des images réalisées par des IA existent déjà, leur fiabilité s'avère assez limitée.

Réglementation européenne

Il y a encore quelques mois, il pouvait être assez facile de distinguer une photo créée par une IA, par exemple en regardant le nombre de doigts - à l’image du faux cliché d’un policier qui enlaçait une manifestante qui avait beaucoup fait parler en début d'année. Mais les modèles sous-jacents se sont depuis grandement améliorés.

En Europe, la prochaine réglementation obligera les services d'IA à mettre en place un système d’identification des contenus qu'ils génèrent, permettant par exemple de distinguer les fausses photos. Aux Etats-Unis, cela fait aussi partie d’une liste d'engagements pris par OpenAI, Google ou encore Meta.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.