Entretien

[Interview] "Nous sommes en train de créer un réseau global sur lequel votre agent sera capable de vous suivre", Olivier Godement, OpenAI

Leader incontesté de l'IA grand public avec ChatGPT, OpenAI accélère désormais sur le marché professionnel. L'Usine Digitale s'est entretenue avec Olivier Godement, Head of Product pour les usages business chez OpenAI, pour faire le point sur ses dernières annonces et évoquer sa stratégie.

Olivier Godement
Olivier Godement

L'Usine Digitale - Les annonces faites à DevDay semblaient distinctement tournées vers les entreprises, avec en particulier AgentKit pour le déploiement d'agents en interne. C'était une demande récurrente de vos clients ?

Olivier Godement - Cela faisait clairement partie des produits que les clients demandaient. Nous construisons des agents pour les entreprises depuis deux à trois ans, notamment pour des cas d'usage de maintenance de code, d'automatisation du service client, d'optimisation des processus de vente… Nos équipes refaisaient la même chose de client en client, donc nous avons décidé de créer directement un produit pour répondre à ce besoin.

Vous anticipez une forte accélération de votre croissance au sein des entreprises suite à ce lancement ?

Des centaines de milliers d'entreprises l'ont déjà utilisé depuis deux semaines, et pour le moment les retours sont très positifs. C'est une première version et nous voulons améliorer beaucoup de choses mais les bases sont là : création simplifiée des agents, évaluations pour en améliorer la pertinence puis déploiement.

Et puis cela démystifie pas mal le fonctionnement de ces systèmes. Il y a très peu de bonnes pratiques en ligne et on trouve beaucoup d’informations conflictuelles, donc avoir une boite à outils standardisée donne des rails pour que les équipes internes puissent développer quelque chose de fiable. Nous avons eu beaucoup de retours sur ce point et sur la visualisation du workflow. A l'avenir nous voulons rendre les choses encore plus simples, par exemple en créant le workflow par un prompt plutôt que de faire manuellement.

Des fournisseurs comme Salesforce ou SAP, qui ont leur propre plateforme agentique, martèlent qu’ils gèrent les données des entreprises et donc qu’ils peuvent fournir des agents beaucoup plus pertinents qu'OpenAI, et sans exfiltration des données. Quelle est votre réponse à ce type de discours ?

Quand je parle avec de grandes entreprises, par exemple récemment avec un grand opérateur télécoms américain, elles ont 200 bases de données qui proviennent de fournisseurs différents. Le nerf de la guerre pour elles c’est avant tout de connecter ces silos entre eux. Comme nous ne vendons pas ce type de solutions, nous sommes agnostiques et donc bien positionnés pour répondre à ces besoins. Par ailleurs, les entreprises qui travaillent avec nous veulent les produits les plus pointus du marché, c'est ce qui nous différencie.

Vous communiquez beaucoup sur Codex ces dernières semaines : est-ce que c’est la priorité pour OpenAI aujourd’hui ? C’est une réponse à Claude Code ?

Oui nous mettons le paquet sur Codex. Quant à sa création, l'outil existe en interne depuis pas mal de temps en fait et nous est très utile, l’intégralité de nos ingénieurs l’utilise aujourd'hui. C’est venu de deux manières : la réalisation au début de l’année dernière que les modèles sont excellents pour le code, et donc nous avons créé l’outil qu'on voulait utiliser. Ensuite, cela tient à la mission d'OpenAI de créer un agent scientifique, capable de faire de la recherche, et Codex est une manière d’y parvenir.

Quels sont les retours des développeurs ?

L'adoption a été assez folle ces dernières semaines, il y a eu un vrai point d’inflexion en particulier grâce à Codex CLI. Le fait d'avoir accès à l'outil directement dans son environnement de développement plutôt que d’aller sur le site web change tout. Un second point d’inflexion est d’avoir un modèle spécifique pour le code avec GPT-5 Codex.

Depuis août l’utilisation a été multipliée par dix, et aujourd'hui nous traitons environ 40 000 milliards de tokens par jour sur Codex. L'autre facteur de croissance que nous observons c'est qu'au-delà des développeurs indépendants, nous commençons à voir de grosses entreprises comme Cisco, Instacart ou Rakuten qui équipent leurs développeurs avec Codex pour augmenter leur productivité.

Les clients n'ont plus de réticences quant à la qualité du code produit ? Par le passé certaines entreprises m'ont confié qu'elles retardaient le déploiement à l'échelle de ce type d'outils car elles n'avaient pas encore assez de recul.

La fiabilité est en effet très importante pour le code, mais l'arrivée des modèles de raisonnement a vraiment aidé à réduire le problème des hallucinations, et avec GPT-5 on arrive sur des niveaux très bas. Et puis il y a des bonnes pratiques, par exemple le fait de pouvoir exécuter le code pour voir comment il se comporte. Cela reste une crainte chez certains clients, mais c'est mitigeable avec des évaluations et des bons tests. Evidemment cela dépend aussi des industries et des cas d'usage spécifiques, certains sont plus sensibles que d'autres.

Au sujet des évaluations, c'est l'une des briques d'AgentKit sur laquelle il y a visiblement eu beaucoup de travail. En quoi est-ce déterminant ?

C’est un sujet à la fois important et compliqué. Comme les modèles sont probabilistiques il faut évaluer pour s'assurer que les résultats seront bons sur beaucoup d'échantillons différents. C’est aussi nécessaire car désormais les modèles utilisent beaucoup d’outils tiers.

Et c’est difficile à faire car c’est un peu le syndrome de la page blanche : un commercial saura facilement juger si un email de prospection est bon ou pas, mais s'il doit en écrire un à partir de zéro c'est beaucoup plus difficile. De la même manière, on veut évaluer les performances des agents à partir de données réelles pour ensuite créer une boucle de feedback et les améliorer à répétition.

Et les résultats sont là. Par exemple Bain a vu une accélération du déploiement de ses agents de 25% avec cet outil. Le groupe Carlyle se sert d'agents pour faire de la due diligence et les déploie 50% plus vite qu'auparavant.

Sans même parler de vitesse de déploiement, j'ai l'impression que beaucoup d'entreprises abandonnent carrément leurs projets car elles réalisent des POC qui ne sont pas suffisamment qualitatifs pour permettre un passage en production... 

C'est vrai qu'au départ les entreprises sous-estiment souvent la difficulté. Elles testent ChatGPT et se disent qu'elles vont automatiser leur service client en deux temps trois mouvements. La difficulté c'est le passage du prototype au déploiement en masse, et les évaluations permettent d’optimiser et d'acquérir la confiance suffisante pour y aller.

Quelle est la priorité aujourd'hui pour OpenAI entre le marché grand public et celui des entreprises ? ChatGPT reste clairement votre produit phare.

OpenAI investit énormément sur la partie grand public, mais aussi sur les développeurs et les solutions pour les entreprises. Nous avons 800 millions d’utilisateurs hebdomadaire donc on en entend beaucoup parler, mais il y a aussi 4 millions de développeurs qui utilisent notre API sur un total de 30 millions de développeurs dans le monde. C'est significatif.

Lorsque nous en discutons en interne il me semble évident que les parties grand public et business vont se rejoindre éventuellement. Je veux avoir le même agent où que je sois, dans un contexte perso ou pro. Je veux qu’il me suive. ChatGPT va être l'une des fenêtres dans lesquelles vous pourrez y accéder, mais cela sera aussi le cas sur Booking.com, au bureau sur une application comme Notion, etc. Nous sommes en train de créer un réseau global sur lequel votre agent sera capable de vous suivre. C’est ça l'objectif.

Le navigateur web Atlas, que vous venez d'annoncer, s'inscrit dans ce projet ?

Nous avons commencé à travailler dessus il y a un peu plus d’un an en parlant d’un constat simple : les gens faisaient beaucoup d’allers-retours entre ChatGPT et leurs autres outils. Donc on s'est demandé s'il n’était pas possible de créer une meilleure expérience en mettant ChatGPT là où les gens en ont le plus besoin, et cela s'avère être le navigateur web. C’est à la fois une stratégie grand public et pro, car de nos jours les gens travaillent énormément dans leur navigateur. Cela ne fait que commencer. Nous allons beaucoup innover dans les semaines et les mois à venir.

Entre le navigateur, votre solution de commerce agentique et les applications dans ChatGPT, vous êtes en train d'en faire une véritable plateforme… L'objectif c'est de proposer une interface unique qui réponde à tous les besoins ?

La vision d’OpenAI n'a jamais été de créer un chatbot, c’est un assistant qui doit pouvoir vous aider pour tout, et cela veut dire avoir plus d’outils, une brique de paiement, un navigateur web… A l'origine ChatGPT fonctionnait en vase clos mais désormais il peut faire de plus en plus de choses, et ce n'est que le début.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.