La start-up Stability.ai dévoile une troisième version de son modèle de génération d'images Stable Diffusion ce 23 février. "Les performances ont été considérablement améliorées en matière de prompts multi-sujets, de qualité des images et de capacités d'écriture", précise l'entreprise.
Stable Diffusion 3 utilise une architecture de "Transformers de diffusion", une technique mise au point en 2022 et désormais capable de fonctionner à grande échelle. Sora, l'outil lancé récemment par OpenAI et capable de générer des vidéos jusqu'à une minute, fonctionne sur des principes similaires. Cette technique relativement nouvelle permet une meilleure évolutivité à SB3. Le modèle utilise aussi une technique de "correspondance de flux" pour améliorer la qualité de ce qu'il produit sans devenir trop gourmand en ressources.
La famille de modèles Stable Diffusion 3 comprend actuellement entre 800 millions et 8 milliards de paramètres. L'objectif est d'offrir aux utilisateurs un large choix pour s'adapter au mieux à leurs besoins. Cependant, ils ne sont accessibles qu'en s'inscrivant sur une liste d'attente pour le moment. Cette phase de bêta, comme pour les modèles précédents, doit permettre à Stability.ai de recueillir des premiers commentaires et retours d'expérience. Davantage de détails techniques devraient être donnés par la suite.
Stability.ai attaché à la sécurité
La start-up indique par ailleurs avoir pris des mesures pour empêcher une utilisation abusive de Stable Diffusion 3 par des acteurs malveillants. "La sécurité commence dès l'entraînement de notre modèle et se poursuit tout au long des tests, de l'évaluation et du déploiement". Il s'agit notamment d'éviter la création de "deepfakes" qui contribuerait à la propagation de fausses informations et images.
Stability.ai s'est aussi engagée en parallèle à lutter contre toute ingérence ayant lieu durant les élections en raison d'une mauvaise utilisation de l'intelligence artificielle générative. L'accord, qui compte 20 entreprises signataires (dont Anthropic, Google, Meta, Microsoft, OpenAI...) est toutefois non contraignant et repose pleinement sur la bonne volonté de ces sociétés.
La problématique des deepfakes est telle que la FTC s'est emparée de la question la semaine dernière et a annoncé vouloir proposer de nouvelles mesures de protection pour contrer les fausses représentations visuelles. Le gendarme américain de la concurrence veut interdire toute pratique pouvant mener à l’usurpation d’identité d'un citoyen des États-Unis.


![[ÉNERGIES] Déployez vos projets IA à l’échelle, inspirez-vous du cas ENGIE Entreprises et Collectivités](https://cdn.webikeo.com/webinar_logo/2025-10-24-ac93013fcd6c2ea907b5a091f0e74c90.png)
