ChatGPT, Grok, Deepseek : Quand les intelligences artificielles se réfèrent aux sources prorusses dans leurs réponses

AccueilAstuces high tech et webChatGPT, Grok, Deepseek : Quand les intelligences artificielles se réfèrent aux sources...

Analyse des IA Génératives et de leur Référence aux Sources Prorusses

Les IA génératives, telles que ChatGPT, Grok et Deepseek, sont de plus en plus utilisées comme des moteurs de recherche, mais elles présentent des biais préoccupants. Une étude de l’Institut pour le dialogue stratégique (ISD) a révélé que près de 18% des réponses fournies par ces IA incluaient des sources liées à la Russie, telles que Russia Today et Sputnik, malgré leur interdiction dans l’Union européenne depuis mars 2022.

ChatGPT a été identifié comme étant le plus influencé par la propagande prorusse, citant souvent des médias proches du Kremlin. L’étude a montré que la formulation des requêtes avait un impact significatif sur les réponses : par exemple, lorsque des arguments prorusses étaient utilisés, ChatGPT mentionnait trois fois plus de sources pro-Kremlin qu’avec des requêtes neutres. Cette situation soulève des questions sur l’objectivité des IA génératives et leur potentiel à diffuser de la désinformation.

Les intelligences artificielles génératives comme ChatGPT, Grok, et Deepseek sont devenues des outils courants pour obtenir des informations sur divers sujets. Cependant, une étude de l’Institut pour le dialogue stratégique (ISD) révèle une tendance préoccupante : ces IA citent parfois des sources prorusses dans leurs réponses, ce qui soulève des questions sur la fiabilité et l’objectivité de l’information fournie.

L’influence de la propagande prorusse

Dans leur étude, les chercheurs de l’ISD ont examiné l’impact de la propagande des médias prorusses dans les réponses fournies par ces intelligences artificielles. En interrogeant ces IA sur des thèmes liés à la guerre en Ukraine, ils ont découvert que près de 18% des réponses incluaient des sources tenant des propos favorables à la Russie.

Methodologie de l’étude

Les scientifiques ont formulé des questions autour de l’Ukraine sur cinq thèmes précis : les pourparlers de paix, le rôle de l’ONU, les réfugiés, les crimes de guerre et le recrutement de civils. Chaque question a été posée sous trois angles différents : neutre, biaisé, et malveillant. Au total, les chercheurs ont soumis 300 requêtes rédigées dans diverses langues, dont le français et l’anglais, à ces intelligences.

Résultats surprenants concernant ChatGPT

Les résultats de l’étude ont montré que ChatGPT se révèle être le plus influencé par la propagande du Kremlin, dépassant même Grok dans le recours à des sources prorusses. En particulier, lorsque les questions portaient sur le recrutement de civils ukrainiens, jusqu’à 40% des réponses de Grok étaient basées sur des médias proches du Kremlin, contre 28% pour ChatGPT.

Une dépendance aux formulations des requêtes

La formulation des requêtes a également eu un impact significatif sur le type de sources citées. Les données de l’ISD révèlent que lorsqu’on reprend l’argumentaire russe, ChatGPT est 3 fois plus enclin à citer des sources prorusses. Cela soulève des interrogations sur l’objectivité et le traitement de l’information par ces intelligences artificielles.

Cas d’étude pertinent

Un exemple marquant de cette dynamique a été observé lorsque ChatGPT a cité un article d’un média azerbaïdjanais, qui à son tour référençait Russia Today pour affirmer que des soldats ukrainiens avaient commis des crimes de guerre, une déclaration non vérifiée.

Le contexte de la désinformation

Cette étude survient dans un contexte où l’influence de la propagande prorusse sur les AI a déjà été signalée par des organismes spécialisés comme Newsguard. Ces révélations jettent une lumière importante sur la manière dont les intelligences artificielles doivent être utilisées et supervisées afin de minimiser les biais et l’influence extérieure sur l’information.

Pour en savoir plus sur le sujet et ses implications, vous pouvez consulter les articles suivants : les fonctionnalités d’intelligence artificielle, les avertissements de Ilya Sutskever, et l’impact de ChatGPT sur notre vision de l’IA.

  • ChatGPT: Utilisation de sources prorusses dans 18% des réponses, la plus influencée par la propagande du Kremlin.
  • Grok: Cites des sources prorusses dans 40% des réponses concernant le recrutement des civils, moins que ChatGPT.
  • Deepseek: Moins de références prorusses détectées, focus sur la neutralité.
  • Gemini: A également montré des tendances similaires à ChatGPT, mais avec moins de citations prorusses.
  • Comparaison thématique: Rôle de l’ONU, ChatGPT et Grok citent des sources prorusses dans 1/3 des cas.
  • Formulation des requêtes: Influencent fortement la citation de sources prorusses, surtout pour ChatGPT.
  • Retour d’informations: 300 requêtes envoyées en cinq langues pour évaluer la tendance des IA face à la désinformation.
  • Contexte historique: Des médias comme Russia Today et Sputnik, interdits dans l’UE, cités par ces IA.
Lire plus :  Voyager aux États-Unis : astuces pour passer la douane sans souci avec votre smartphone
découvrez comment l'intelligence artificielle est utilisée pour relayer et amplifier des sources pro-russes, ses enjeux et ses impacts sur l'information en ligne.

Témoignages sur l’influence des sources prorusses dans les IA génératives

De nos jours, les intelligences artificielles comme ChatGPT, Grok et Deepseek sont devenues des outils courants pour ceux qui recherchent des informations en ligne. Cependant, une étude récente de l’Institut pour le dialogue stratégique (ISD) a révélé une tendance préoccupante : une fréquence étonnante de citations provenant de médias prorusses dans les réponses fournies par ces IA.

Les chercheurs de l’ISD ont soumis ces systèmes à des questions concernant la guerre en Ukraine, en explorant des thèmes tels que les pourparlers de paix et le rôle de l’ONU. Les résultats montrent que dans presque une réponse sur cinq, les IA se référencent à des sources russes, y compris des sites d’État et des chaînes proches du Kremlin. Des médias comme Russia Today et Sputnik, pourtant interdits dans l’Union européenne, figurent parmi ces sources citées.

Un des points saillants de l’étude concerne ChatGPT, qui s’est avéré être la plus vulnérable à cette propagande. En effet, elle est celle qui cite le plus souvent des informations prorusses, suivie de près par Grok. Un aspect inquiétant réside dans le fait que la propension à se référer à ces médias varie considérablement selon les thématiques abordées.

Par exemple, lorsque Grok est interrogé sur le recrutement de civils par l’armée ukrainienne, il utilise des sources prorusses dans 40% des réponses. Pour la même question, ChatGPT le fait dans 28% des cas. En revanche, face à des demandes sur le rôle de l’ONU, les deux intelligences artificielles vont évoquer ce type de source dans un tiers des cas.

Il est intriguant de noter que ChatGPT montre une forte réactivité à la formulation des questions. Quand les chercheurs lui ont posé des questions en suivant l’argumentaire russe, elle a multiplié par trois le nombre de sources pro-Kremlin citées par rapport à une formulation neutre. Un exemple révélateur est un article d’un média azerbaïdjanais qui a cité Russia Today pour mentionner des crimes de guerre ukrainiens, un allégation jamais prouvée.

Cette situation n’est pas distincte; une étude de Newsguard en 2025 avait déjà mis en lumière l’influence de la désinformation prorusse sur ces outils. Cela soulève des questions sur la neutralité de ces IA génératives, qui, bien que conçues pour aider à l’accès à l’information, semblent parfois servir des narrations biaisées.

Quand les intelligences artificielles se réfèrent aux sources prorusses

Les IA génératives comme ChatGPT, Grok et Deepseek jouent un rôle de plus en plus prépondérant dans notre accès à l’information. Leur utilisation croissante en tant que moteurs de recherche entraîne des interrogations sur la nature de ces informations et les sources auxquelles elles se réfèrent. Une récente étude de l’Institut pour le dialogue stratégique (ISD) met en lumière l’influence des médias prorusses sur ces intelligences artificielles, certainement préoccupante dans le contexte actuel de la guerre en Ukraine.

Les résultats de l’étude révèlent que près d’une réponse sur cinq (18%) fournie par ces IA cite des médias liés à la Russie, certains d’entre eux étant formellement interdits au sein de l’Union européenne. Ceci indique une certaine perméabilité des algorithmes à la propagande étrangère, notamment lorsque des questions sensibles, telles que le rôle de l’ONU ou le recrutement militaire, sont posées. Cette situation met en évidence la problématique d’une information biaisée qui pourrait influencer l’opinion publique et les décisions politiques.

Par ailleurs, il est intéressant de noter que la formulation des requêtes influence considérablement les réponses des IA. Les chercheurs ont observé que dans les cas où l’argumentaire russe était relayé, ChatGPT citait trois fois plus de sources prorusses que lors de questions posées de manière neutre. Cela pose alors des questions éthiques sur la responsabilité des entreprises qui développent ces technologies et sur la nécessité d’une plus grande transparence dans le traitement des données.

Lire plus :  Lenovo IdeaPad I5 : test, avis et comparatif 2025

En somme, l’étude souligne une réalité inquiétante : les intelligences artificielles, bien qu’avancées, ne sont pas totalement neutres et peuvent devenir des vecteurs de désinformation, surtout si elles ne sont pas correctement encadrées. Ce phénomène mérite notre attention et soulève des questions fondamentales sur l’intégrité de l’information à l’ère numérique.