Sept vulnérabilités critiques ont été découvertes dans ChatGPT, y compris dans sa dernière version. Ces failles permettent le vol de données personnelles à l’insu des utilisateurs, rendant le chatbot d’OpenAI vulnérable face aux cybercriminels. Parmi elles, une technique d’attaque permet de compromettre des milliers d’utilisateurs par le biais de commentaires piégés sur des blogs. De plus, des intrusions invisibles peuvent être réalisées via des recherches sur le web, exploitant des failles dans le système de partage de liens et les protections de sécurité d’OpenAI. Tenable, le spécialistes en cybersécurité qui a révélé ces problèmes, souligne que certaines vulnérabilités persistent encore, posant de réelles menaces pour les utilisateurs.
Résumé
Dans un récent rapport publié par Tenable, spécialiste de la cybersécurité, des vulnérabilités critiques ont été révélées dans le célèbre chatbot ChatGPT, impactant potentiellement des millions d’utilisateurs. Bien que OpenAI ait pris des mesures pour corriger certaines failles, plusieurs restent actives dans la dernière version, ChatGPT-5, transformant le logiciel en un outil à risques majeurs pour la sécurité des données personnelles.
Des vulnérabilités troublantes
Le rapport de Tenable fait état de sept failles essentielles, réunies sous le nom de HackedGPT. Ces vulnérabilités permettent aux cybercriminels d’exfiltrer des données confidentielles, laissant les utilisateurs à la merci des attaques invisibles. Certaines de ces failles n’ont pas été corrigées dans la dernière version de ChatGPT, et les menaces persistent.
Le piège des commentaires de blogs
Une des méthodes les plus intrigantes consiste à insérer un commentaire malveillant sur un blog populaire. Lorsque l’utilisateur demande à ChatGPT de résumer l’article, le chatbot lit également les commentaires. Ce faisant, il peut exécuter des instructions malveillantes sans que l’utilisateur ne s’en aperçoive. Aucune protection antipirate ne peut détecter cette manipulation.
L’attaque 0-click
Les chercheurs ont également identifié une technique d’attaque 0-click, où une simple question posée à ChatGPT peut compromettre l’utilisateur. En effet, si l’un des sites indexés contient un code malveillant, l’utilisateur est exposé sans même avoir cliqué sur un lien, ce qui rend l’attaque particulièrement sournoise.
Exploitation des fonctionnalités innocentes
Une autre vulnérabilité exploite une fonctionnalité apparemment innocente d’OpenAI. ChatGPT permet de partager des liens avec des questions pré-remplies. Cependant, un pirate peut facilement remplacer une question innocente par des instructions malveillantes. Un clic sur ce lien peut alors activer des commandes cachées, compromettant la sécurité de l’utilisateur.
Protections de sécurité contournées
OpenAI a tenté d’implémenter un système de sécurité appelé url_safe pour bloquer les liens dangereux. Malheureusement, Tenable a découvert que les liens de traçage de Bing réussissent à contourner cette protection, permettant aux attaquants d’accéder à des sites malveillants en toute impunité.
Techniques d’exfiltration complexes
Les chercheurs ont mis au point des techniques d’exfiltration innovantes pour contourner les protections en place. Par exemple, ils peuvent créer plusieurs pages web pour chaque lettre de l’alphabet, permettant ainsi d’envoyer des messages codés à travers des liens de confiance, trompant le logiciel sur la nature de l’information transmise.
Une menace persistante pour la vie privée
Enfin, la septième vulnérabilité permet l’injection d’instructions directement dans la mémoire à long terme de ChatGPT. Cela signifie que même après la fermeture de l’application, l’assistant peut continuer à être abusé pour voler des données, transformant ainsi chaque interaction future en une opportunité de faille.
Tenable a averti qu’il est crucial pour les utilisateurs de prendre conscience de ces menaces et de concevoir des contrôles adaptés pour protéger leurs données. Pour des conseils sur la sécurité numérique, n’hésitez pas à consulter d’autres ressources.
- Failles Critiques : Sept vulnérabilités découvertes, appelées HackedGPT.
- Vol de Données : Exfiltration possible de conversations privées et données sensibles.
- Quatre Failles Actives : Toujours présentes dans ChatGPT-5 malgré des tentatives de correction.
- Injection de Commandes : Technique exploite l’architecture double de ChatGPT, permettant des manipulations.
- Liens Dangeureux : Système « url_safe » contourné par des liens de tracking Bing.
- Attaques 0-click : Compromission sans interaction de l’utilisateur via des contenus malveillants.
- Mémoire Infectée : Instructions malveillantes pouvant infecter la mémoire à long terme de ChatGPT.

Des experts en cybersécurité ont récemment mis en lumière sept failles de sécurité critiques trouvées dans ChatGPT. Ces vulnérabilités permettent aux cybercriminels de voler des données personnelles sans que les utilisateurs en soient conscients. Notamment, quatre de ces failles demeurent actives dans le modèle le plus récent, ChatGPT-5, entretennant l’inquiétude autour de la sérénité des utilisateurs.
Parmi les problèmes identifiés, l’une des plus préoccupantes est la facilité avec laquelle un attaquant peut compromettre des milliers d’utilisateurs via un simple commentaire malveillant sur un blog populaire. Lorsque ChatGPT est utilisé pour résumer l’article, il inclut également cette instruction cachée, et cela échappe à tout logiciel antivirus.
Les techniques d’attaque ne s’arrêtent pas là. Une méthode astucieuse est celle dite 0-click, où un utilisateur formule une requête innocente, entraînant ChatGPT à effectuer une recherche sur le web. Si un site dans les résultats contient du code malveillant, l’utilisateur est exposé sans avoir à cliquer, évoquant une menace sournoise et pernicieuse.
Une autre vulnérabilité majeure réside dans la manière dont ChatGPT gère les liens partagés. Bien que l’outil ait la capacité de pré-remplir automatiquement certaines requêtes via un lien, un pirate peut y insérer des instructions malveillantes. Cela devient un piège mortel pour quiconque clique sur un tel lien, déclenchant des actions non désirées dans ChatGPT.
OpenAI a tenté de renforcer la sécurité de son produit à travers un système nommé url_safe, visant à bloquer les liens dangereux. Cependant, des experts ont découvert une importante faille : les liens de tracking Bing passent à travers les filtres de sécurité, augmentant ainsi le risque d’exposition à des contenus malveillants.
Les cybercriminels ont également démontré leur ingéniosité en utilisant une technique d’exfiltration lettre par lettre pour contourner les protections. En créant plusieurs pages web, chacun représentant une lettre de l’alphabet, ils peuvent faire passer des instructions cachées à ChatGPT sans alerter l’utilisateur.
Une vulnérabilité encore plus alarmante permet aux attaquants d’injecter des instructions directement dans la mémoire à long terme de ChatGPT. Ce qui aurait dû servir à améliorer l’expérience utilisateur devient un terrain de jeu pour le vol de données, perdurant même après la fermeture de l’application.
Malgré les tentatives de sécurité d’OpenAI, la situation demeure préoccupante. Les chercheurs engagent à repenser la manière dont les outils d’intelligence artificielle sont conçus et surveillés, afin qu’ils soient bénéfiques et non exploitables par des acteurs malveillants.
Les failles critiques de sécurité de ChatGPT
La récente découverte de sept failles de sécurité majeures dans ChatGPT a fait l’effet d’une onde de choc dans le monde de la technologie et de l’intelligence artificielle. Ces vulnérabilités, rapportées par Tenable, exposent les utilisateurs à des risques allant du vol de données personnelles à des attaques malveillantes orchestrées par des cybercriminels. Le fait que quatre de ces failles demeurent actives dans la dernière version, ChatGPT-5, soulève de sérieuses inquiétudes quant à la sécurité des utilisateurs.
Une des failles les plus préoccupantes révèle comment un commentaire malveillant sur un blog peut compromettre des milliers d’utilisateurs en manipulant le chatbot. Ce type d’attaque démontre une simplicité troublante et souligne la nécessité d’une vigilance accrue face aux menaces invisibles. En plus des attaques par injection de code malveillant, des techniques telles que la Conversation Injection exposent encore plus la diversité des approches utilisées par les hackers pour exploiter ces failles.
Il est également inquiétant de constater que les protections mises en place par OpenAI, comme le système url_safe, ne sont pas à la hauteur des risques encourus. Les liens faisant appel à des redirections non sécurisées soulignent une lacune dans le processus de sécurisation des données. Cela incite à repenser sérieusement les méthodes de protection des utilisateurs contre des attaques de ce type.
Avec ces révélations, il est clair que les outils d’intelligence artificielle, bien qu’innovants, doivent être accompagnés de mesures de sécurité robustes pour garantir la protection des utilisateurs. Les appels à la vigilance, à la gouvernance et à la mise en place de tests continus ne peuvent être ignorés. Les utilisateurs et les organisations doivent partir du principe que ces technologies, tout en étant bénéfiques, peuvent être manipulées, et il est crucial d’adopter des stratégies qui garantissent leur utilisation en toute sécurité.
