Des failles de sécurité dans ChatGPT et ses plug-ins pourraient compromettre des milliers de comptes

Des chercheurs en cybersécurité ont identifié des vulnérabilités dans les plug-ins de la plateforme d’IA générative ChatGPT, pouvant permettre à des hackers d’accéder aux données sensibles de milliers de comptes. Ces plug-ins permettent à la plateforme d’interagir avec d’autres services pour améliorer l’expérience utilisateur. Les failles en question ont depuis été corrigées.

ChatGPT OpenAI
ChatGPT OpenAI

Les chercheurs en cybersécurité de la société américaine Salt Security ont identifié différentes failles de sécurité relative aux plug-ins de ChatGPT, pouvant être à l’origine d’une fuite de données et d’un accès aux comptes utilisateur. Les plug-ins de ChatGPT sont des extensions intégrées permettant à la plateforme de bénéficier de davantage de fonctionnalités et d’améliorer l’expérience utilisateur. Ils peuvent ajouter de nouvelles fonctions de traitement de langage naturel, effectuer des recherches en ligne ou se connecter à d’autres services, comme GitHub, Google Drive ou encore Salesforce.

Le pirate informatique peut écrire son propre plug-in

Dans un rapport publié le 13 mars, les chercheurs de Salt Labs ont mis en évidence trois principales vulnérabilités, la première ayant été directement identifiée dans ChatGPT. Cette faille de sécurité repose sur l’authentification OAuth, qui autorise un site web à utiliser l’interface logicielle sécurisée d’un autre site web pour qu’un utilisateur puisse s’identifier.

Or lors de l’identification, “le pirate peut écrire son propre plug-in, qui indique à ChatGPT de transférer la quasi-totalité des données de chat vers celui-ci”, décrit le rapport. Ensuite, le hacker peut envoyer un lien piégé à la victime pour installer le plug-in. Si la cible clique dessus, le pirate peut avoir accès à des informations d’identification, des mots de passe… mais aussi à toutes les conversations privées sur ChatGPT.

De possibles attaques en 0-click, sans action de la part de la victime

Les chercheurs ont également détecté une faille de sécurité dans le plug-in “AskTheCode”, auquel de nombreux utilisateurs ont recours pour accéder aux dépôts GitHub. Ce plug-in est développé par PluginLab.ai, framework utilisé par de nombreux développeurs pour la conception de plug-ins. Cette vulnérabilité permet au pirate informatique de s’infiltrer dans le compte GitHub d’un utilisateur.

Faille de sécurité dans Chat GPT

Source : Rapport de Salt Security

Le pirate peut alors injecter l’identifiant d’un utilisateur cible, simplement à partir de son adresse e-mail, à la suite de la requête OAuth demandée par le plug-in. Il peut alors prendre le contrôle du compte de l’utilisateur sans que la victime n’ait à cliquer sur un lien (attaque 0-click). Après avoir eu accès au compte, le pirate peut avoir accès aux dépôts privés de l’utilisateur sur GitHub, et s’emparer de clés API, de code propriétaire et de fichiers confidentiels. 

Une troisième vulnérabilité a enfin été repérée sur plusieurs plug-ins, dont “Charts by Kesem AI”, qui ne peuvent pas vérifier la destination des tokens OAuth. Dans ce cas de figure, il suffit à un pirate de prendre le contrôle du lien d’authentification et le modifier avant de l’envoyer à l’utilisateur cible. Dès que la victime clique sur le lien, le hacker peut avoir accès à son compte ChatGPT.

Des failles corrigées mais régulières

Selon le rapport de Salt Labs, ces failles critiques, repérées en juin 2023, ont depuis été corrigées par OpenAI, PluginLab.AI et Kesem.ai. Aucune exploitation de ces vulnérabilités n’a par ailleurs été détectée pour l'instant. “Nous pensons que certaines de ces vulnérabilités pourraient être évitées si les développeurs étaient plus conscients du risque, alerte toutefois Salt Security. Nous appelons également OpenAI à mettre davantage l’accent sur la sécurité dans sa documentation destinée aux développeurs.”

Ce n’est pas la première fois que des vulnérabilités sont détectées sur ChatGPT. En décembre 2023, par exemple, des chercheurs de l’université de l’Indiana étaient parvenus à récupérer les adresses mail professionnelles et personnelles d’une trentaine d’employés du New York Times. Ils avaient alors joué sur le “réglage fin” de l’API de ChatGPT-3.5 Turbo, qui permet de fournir à un LLM davantage d’informations sur un domaine, en obtenant ces adresses-mail à partir de requêtes concernant quelques noms et adresses de journalistes.  

Newsletter L'Usine Digitale
Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.