Nom de code : Olympus. Projet : un modèle multimodal capable de traiter à la fois des images, des vidéos et du texte. Objectif : gagner en indépendance. Voilà en quelques mots les contours du plan d'Amazon en matière d'intelligence artificielle.
Le géant du cloud et du e-commerce veut en effet avoir son propre LLM, comme le rapporteThe Information. Si pour l'heure, on en sait peu sur ce modèle, il y a fort à parier que la firme fera toute la lumière sur le sujet dès la semaine prochaine lors de son événement annuel AWS re:Invent à Las Vegas.
Un modèle à 2000 milliards de paramètres
Le modèle permettrait entre autres de comprendre des scènes dans des images et des vidéos et d'aider les clients à rechercher des scènes spécifiques, comme un tir de basket gagnant, en utilisant de simples commandes textuelles. Comportant 2 000 milliards de paramètres, il dépasserait donc GPT-4, modèle d'OpenAI qui compte 1 000 milliards de paramètres et deviendrait de fait le "plus gros" modèle existant. Il serait par ailleurs disponible sur Bedrock, le service d'IA générative dédié d'AWS.
L'année dernière, lors de la dernière édition de sa conférence annuelle, AWS a livré en preview le modèle Amazon Titan Image Generator pour Bedrock. Ce dernier "peut servir à générer et à faire rapidement de l’itération d’images à un coût peu élevé, peut comprendre des messages complexes et générer des images pertinentes avec une composition précise des objets et des distorsions limitées", précise le fournisseur cloud. La firme comptait déjà plusieurs modèles d'IA générative dans son portefeuille, incluant Titan Text Lite et Titan Text Express.
Se défaire progressivement de LLM développés par des tiers
En proposant son propre modèle multimodal, Amazon cherche à réduire sa dépendance à la famille de modèles Claude développée par la start-up Anthropic. Les deux entreprises se connaissent bien désormais, preuve en est avec le second coup de pouce financier dont a bénéficié la start-up. Ce financement réalisé par Amazon à hauteur de quatre milliards de dollars doit aider la jeune pousse à avancer dans le développement de ses produits et modèles d'IA.
En retour, le rival d'OpenAI fait une concession de taille et adopte les puces d'AWS pour l'entraînement et l'inférence de ses modèles. Autre contrepartie : Anthropic met à disposition des clients AWS un accès à ses modèles – incluant la famille de modèles Claude 3 –, notamment via Amazon Bedrock.
En parallèle, Amazon prévoit de s'appuyer sur Claude pour la prochaine version de son assistant Alexa afin de rendre ce dernier capable de répondre à des requêtes complexes. Bien évidemment, le géant compte monétiser cette offre. Toutefois, on ne sait pas si Amazon devra payer en plus à Anthropic pour l'utilisation de Claude dans Alexa. Et il est encore possible que tout bascule avec l'arrivée d'Olympus. Affaire à suivre.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
