L'Usine Digitale : Dans la première partie de cet entretien, nous évoquions l'assistant conversationnel Meta AI, présent sur les réseaux sociaux et applications du groupe. Que pensez-vous de l'interdiction par l'UE de laisser Meta entraîner ses modèles sur les données des Européens, et par conséquent d'y déployer ses services d'IA générative ?
Joëlle Pineau : Mon expertise, c'est vraiment le développement des modèles et je m'appuie sur tous mes collaborateurs qui ont une compréhension beaucoup plus fine des questions de régulation. Il y a des choix à faire et c'est normal que chaque société se positionne par rapport à ces choix-là. Parce que si l'intelligence artificielle bouge rapidement et que ça pose toutes sortes d'enjeux, nous essayons de comprendre les enjeux le mieux et le plus rapidement possible. Cet effort de rendre la recherche ouverte, disponible pour tous, c'est un des ingrédients pour nous permettre de mieux savoir comment doser.
Évidemment, nous voulons protéger la vie privée des gens. Évidemment, nous voulons des modèles qui soient développés de façon responsable. Nous voulons aussi favoriser l'innovation. Il y a énormément de bénéfices sociaux et économiques qui vont être dérivés de l'intelligence artificielle.
Il ne faut pas non plus fermer la porte sur la façon dont nous nous positionnons par rapport à toutes ces questions-là. C'est là qu'il faut trouver le juste milieu. Mon cheval de bataille, c'est la transparence et la disponibilité des modèles parce qu'avec plus de transparence, nous pouvons mieux informer ce débat-là. C'est un débat de société. Ce n'est pas seulement un débat à avoir entre les gouvernements et les grosses entreprises.
Vous pensez que l'UE est en train de brider, voire de stopper l'innovation en matière d'IA avec ses nouvelles réglementations ?
C'est un peu fort de l'exprimer comme ça, mais je pense que lorsqu'on limite la disponibilité des modèles, cela peut limiter l'innovation. C'est une question qui appartient à l'Europe, elle fait ses propres choix. Nous allons évidemment respecter les règles en vigueur dans toutes les géographies où nous opérons. Toutefois, c'est plus facile de sortir certains produits rapidement aux États-Unis aujourd'hui.
Pensez-vous qu'à terme, il y aura finalement des produits qui sortiraient uniquement aux États-Unis et d'autres qui sortiraient seulement en Europe pour ces raisons-là ?
Je pense que oui, c'est définitivement ce qu'il faut envisager, en fonction de comment les lois vont évoluer.
Vous avez évoqué plus tôt l'approche "open science" de Meta. Cependant, les modèles open source ne génèrent pas beaucoup de profits. La firme pourrait-elle changer d'avis à l'avenir ?
Nous réévaluons en permanence notre position pour plusieurs raisons. D'une part, il y a toute une discussion au sujet des modèles que nous appelons les "frontier models". Il faut savoir qu'il y a toutes sortes d'exigences qui sont sujets à l'étude actuellement. Notre position à ce sujet est basée sur l'analyse des risques potentiels de ces modèles-là. Cela nous est déjà arrivé de ne pas sortir certains modèles en mode ouvert parce que nous trouvions que les risques étaient trop importants, notamment des modèles qui font de la synthèse vocale, qui sont capables de reproduire la voix de quelqu'un et qui peuvent être utilisés pour des cas d'abus.
Notre position est toujours réévaluée avec chaque sortie. Chacun des modèles que nous partageons aujourd'hui a été évalué pour s'assurer qu'il n'y avait pas de risque ou que les risques étaient bien compris. C'est quelque chose que nous continuerons à faire. L'entreprise va bien, nous avons toutes sortes d'autres façons de faire des profits qui assurent la viabilité financière de l'entreprise. Nous n'avons pas nécessairement besoin de s'appuyer sur une commercialisation de ces modèles, il faut se rappeler que nous sommes au tout début de la commercialisation de l'IA.
Il y a énormément à apprendre sur comment bien faire les choses au niveau du développement des modèles et au niveau de la responsabilité. Notre approche ouverte nous permet d'apprendre beaucoup plus rapidement, notamment d'appeler à contribution les chercheurs et de collaborer avec eux pour assurer un développement responsable, sécurisé et rapide de cette technologie.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
