Au Royaume-Uni, l'AI Safety Institute lance une plateforme d'évaluation des modèles d'IA

Baptisé Inspect, ce cadre doit aider dans l'évaluation des grands modèles de langage, notamment pour évaluer leurs connaissances de base, leur capacité à raisonner et leurs capacités autonomes. Publiée via une licence open source, la plateforme est désormais disponible gratuitement pour l'ensemble de la communauté de l’IA.

Inspect - AI Safety Institute UK
Un aperçu de la plateforme Inspect configurée avec le modèle GPT-4 d'OpenAI.

En novembre dernier s'est tenu l'AI Safety Summit, une conférence internationale sur la sécurité et la réglementation de l'intelligence artificielle, dans le domaine de Bletchley Park, au Royaume-Uni. Dans la foulée des discussions qui se sont tenues durant ce sommet, le gouvernement britannique a dévoilé son projet d'AI Safety Institute. Sa mission : tester rigoureusement les nouveaux modèles d’IA avant et après leur sortie dans le but de contenir au mieux tous les risques qui en découleraient.

Le 10 mai dernier, l'organisation a concrétisé sa mission par le dévoilement d'une plateforme d'évaluation de ces modèles. Baptisée Inspect, elle consiste en une bibliothèque logicielle qui permet aux testeurs – qu'il s'agisse de start-ups, d'universités, de développeurs d'IA ou de gouvernements internationaux – d'évaluer les capacités spécifiques de modèles d'IA.

Un large éventail de LLM pris en charge

Dans le détail, Inspect fournit de nombreux composants intégrés, notamment des fonctionnalités de prompt engineering, l'utilisation d'outils et des évaluations graduées de modèles. Des extensions d'Inspect (par exemple pour prendre en charge de nouvelles techniques de notation) peuvent être fournies par d'autres packages Python. A date, la plateforme prend en charge les fournisseurs de modèles suivants : Anthropic, Google, Hugging Face, Microsoft, OpenAI. En plus des fournisseurs de modèles indiqués, Inspect prend également en charge les modèles hébergés sur Azure AI, AWS Bedrock et Cloudflare.

Concernant les ensembles de données qui fournissent des échantillons pour les tâches d'évaluation, il est précisé qu'Inspect peut également inclure des données multimodales (images, etc.). Un moyen de prendre en compte davantage de modèles dans la mesure où l'on observe une montée en puissance de modèles multimodaux tels que Gemini (Google), MM1 (Apple), GPT-4 ou encore Claude 3

Publiée via une licence open source, la plateforme est disponible dès à présent gratuitement pour la communauté de l'IA. Bien évidemment, ce choix n'a rien d'anodin dans un domaine où la concurrence est pour le moins rude.

Le choix de l'open source

Ian Hogarth qui dirigeait le “Frontier AI Task Force”, créé en juin dernier – dont l’objectif était d’évaluer et atténuer les risques posés par les formes les plus avancées d’IA pour la sécurité nationale, notamment le développement d’armes biologiques et les cyberattaques – préside désormais l'institut qui n'est autre qu'une évolution du groupe de travail sur l'IA. Selon lui, "les logiciels open source peuvent permettre à davantage de personnes de contribuer, contrecarrer la centralisation du pouvoir, améliorer la transparence et la reproductibilité, donner aux utilisateurs finaux plus de contrôle sur leurs outils et réduire les coûts pour tous".

Citant les projets développés par DeepMind avec AlphaFold et Meta avec OpenCatalyst, Ian Hogarth se veut rassurant sur le caractère "ouvert" de projets qui tentent d'ouvrir véritablement la boîte de pandore qu'est le processus complet d'entraînement des modèles d'IA. "L’un des défis structurels de l’IA est la nécessité d’une coordination au-delà des frontières et des institutions. C'est peut-être une vérité qui dérange, mais les logiciels open source sont actuellement l'un des moyens par lesquels l'Amérique et la Chine "travaillent ensemble" dans la recherche sur l'IA – cela indique peut-être un autre mécanisme de collaboration internationale en matière de sécurité.

Le Royaume-Uni veut aussi sa place sur le marché de l'IA

"Nous espérons que la communauté mondiale de l'IA utilisera Inspect non seulement pour effectuer ses propres tests de sécurité des modèles, mais aussi pour contribuer à l'adaptation et à la construction de la plateforme open source afin que nous puissions produire des évaluations de haute qualité dans tous les domaines", ajoute Ian Hogarth. La mise à disposition d'une telle plateforme est également un atout pour le Royaume-Uni qui soutient l'initiative. Le pays espère notamment tirer son épingle du jeu et se faire une place sur le marché de l'intelligence artificielle, aujourd'hui largement dominée par les Etats-Unis et la Chine.

Parallèlement au lancement d'Inspect, l'AI Safety Institute, l'Incubator for AI (i.AI) et Number 10 réuniront des spécialistes de l'IA issus de divers domaines afin de tester et de développer rapidement des outils de sécurité de l'IA en open source. "Ces outils sont plus faciles à intégrer dans les modèles des développeurs", indique le gouvernement britannique.

Vous souhaitez être en veille sur l’actualité du secteur de l’intelligence artificielle ? Inscrivez-vous gratuitement à la newsletter IA Insider.

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.