Lors d’une comparution immédiate au tribunal de Niort, des policiers ont utilisé ChatGPT, un chatbot d’intelligence artificielle, pour traduire les déclarations d’un accusé de nationalité arménienne. Faute d’interprète disponible, cette méthode a conduit à une série d’insultes en russe, provoquant l’hilarité dans la salle d’audience. Le président du tribunal a ironisé sur la qualité de la traduction, soulignant les limites de l’IA face aux subtilités linguistiques. Cet incident soulève des questions sur le recours à l’intelligence artificielle dans des contextes nécessitant une interprétation humaine précise.
Lors d’une audition dans un tribunal, des policiers ont utilisé un outil d’IA pour traduire des déclarations en russe. Ce choix technologique a mené à une situation cocasse lorsque le résultat a révélé un florilège d’insultes, suscitant des rires au tribunal et soulevant des questions sur la fiabilité et l’éthique de l’utilisation de l’intelligence artificielle dans le domaine judiciaire.
Une méthode peu conventionnelle
Le jeudi 24 juillet 2025, en l’absence d’un interprète, la police des Deux-Sèvres a décidé d’utiliser ChatGPT pour traduire les propos d’un suspect arménien, traduit pour des accusations de violences conjugales et menaces de mort. Cette initiative a été prise rapidement pour permettre une compréhension des déclarations du prévenu.
Une traduction inattendue
Au lieu de recevoir une traduction professionnelle, les policiers ont été confrontés à des insultes familières telles que « putain » et « salope ». Lors de l’audience, le prévenu a justifié ces propos en expliquant que dans sa langue, ces expressions ne sont pas considérées comme des injures. Cependant, le président de l’audience, Igor Souchu, a rétorqué avec humour, soulignant que la traduction ne ressemblait pas à celle d’un grand écrivain comme Tolstoï, provoquant rires et amusement dans la salle.
Les limites de l’IA
Cette situation soulève des interrogations sur les limites de l’intelligence artificielle, surtout dans le domaine de la justice. La dépendance croissante à des solutions comme ChatGPT met en lumière le risque de malentendus et d’erreurs de traduction. Une étude de Microsoft a récemment montré que de nombreux métiers, y compris celui de traducteur, pourraient ne pas être correctement reflétés par l’IA en raison des subtilités linguistiques.
Des enjeux éthiques à considérer
Les incidents comme celui-ci rappellent l’importance d’une supervision humaine dans l’utilisation de l’IA. Si l’IA peut offrir des solutions rapides, elle ne doit pas remplacer l’expertise humaine, surtout dans des situations critiques comme celles rencontrées par les forces de l’ordre. Des entreprises ayant adopté l’IA de manière précipitée ont déjà subi les conséquences d’erreurs qui auraient pu être évitées grâce à une intervention humaine.
Pour en savoir plus
Si cet incident vous intrigue, découvrez d’autres articles sur l’impact de la technologie dans divers domaines :
- Retour sur l’histoire des jouets cultes, Playmobil
- Visitez San José, la capitale sécurisée du Costa Rica
- Les meilleurs sets de Lego Police
- Des policiers traduisent avec ChatGPT et tombent sur des insultes inattendues
- Les films emblématiques de Jackie Chan
Quand l’IA surprend les policiers
- Utilisation de l’IA : ChatGPT en tant qu’outil de traduction.
- Contexte judiciaire : Comparution pour violences conjugales.
- Autonomie de l’IA : Recours à une technologie sans interprète humain.
- Résultat inattendu : Traduction d’insultes en russe.
- Réaction du tribunal : Rires à l’audience face à la situation.
- Limitations de l’IA : Questions sur la fiabilité des traductions.
- Besoin d’humain : Importance de l’intervention humaine dans certains domaines.
- Conséquences professionnelles : Risque de réduire des métiers à cause d’outils imparfaits.

Une expérience inédite avec l’IA en milieu judiciaire
Lors d’une récente audience au tribunal de Niort, des policiers ont été confrontés à une situation pour le moins surprenante. En l’absence d’un interprète, ils ont décidé d’utiliser ChatGPT, un outil d’intelligence artificielle, pour traduire les propos d’un suspect d’origine arménienne poursuivi pour violences conjugales. Ce choix a rapidement entraîné des rires dans la salle d’audience.
Le président du tribunal, Eric Duraffour, a décrit la méthode des policiers comme étant à la fois innovante et insolite. Ils ont cru pouvoir faire confiance à l’IA pour fournir une traduction fidèle et précise des déclarations en russe du suspect. Pourtant, ce qui s’est présenté sous forme de traduction était un mélange d’ insultes et de grossièretés qui ne correspondait pas à l’intention initiale de l’accusé.
Face à la vague d’incompréhension, le suspect a tenté d’expliquer que, dans sa culture et pour lui, ces mots n’étaient pas réellement des insultes. Cependant, l’ironie du président de l’audience, Igor Souchu, n’a pas manqué de faire rire les spectateurs, laissant entendre que ce langage ne traduisait certainement pas la finesse littéraire de Tolstoï.
Cette situation cocasse soulève des questions plus larges sur l’intégration des outils d’IA dans le système judiciaire. Bien que l’intelligence artificielle puisse offrir des solutions rapides, elle ne remplace pas toujours le besoin d’une intervention humaine qualifiée. Les agents de police, tout en cherchant à innover, se sont aperçus des limites de l’IA dans un contexte où une précision linguistique est cruciale.
L’incident met également en avant la dépendance de certaines institutions à une technologie qui, malgré ses progrès, présente encore des défauts significatifs dans des domaines tels que la traduction et le droit. Pour les détenus et les avocats, ces erreurs peuvent avoir des conséquences graves. Ainsi, le recours à l’IA, même pour des raisons de rapidité, doit se faire avec prudence et discernement, surtout dans la sphère judiciaire.
Une utilisation surprenante de l’IA dans le domaine judiciaire
Récemment, une situation cocasse s’est déroulée au tribunal de Niort, mettant en lumière les défis et les surprises engendrés par l’utilisation de l’intelligence artificielle dans le processus judiciaire. Lors de l’audition d’un accusé arménien de 36 ans, les policiers ont fait appel à ChatGPT pour traduire ses propos en russe, en l’absence d’interprète. Ce choix inhabituel a conduit à une série de quiproquos, avec des traductions qui ont provoqué l’hilarité dans la salle d’audience.
Ce cas illustre les implications complexes de l’utilisation des outils d’IA au sein des forces de l’ordre. Alors que la technologie est souvent vantée pour sa rapidité et son efficacité, cet incident rappelle que l’IA peut manquer de nuance et de précision dans certaines situations. Les insultes traduites par ChatGPT ont mis en évidence les limites des algorithmes dans la compréhension des contextes culturels et linguistiques.
Il est remarquable de noter que même dans un cadre aussi sérieux que celui de la justice, l’usage d’outils comme les chatbots suscite des réactions inattendues. Le président de l’audience a utilisé l’ironie pour souligner l’inadéquation de la traduction proposée, ce qui montre que la technologie, bien qu’avancée, nécessite une supervision humaine. Ce besoin de validation humaine est d’autant plus crucial lorsque des enjeux aussi sérieux que les droits et la sécurité d’individus sont en jeu.
En conclusion, cet épisode illustre clairement que l’intégration de l’IA dans des secteurs sensibles comme la justice doit se faire avec prudence. Les forces de l’ordre doivent trouver un équilibre entre l’utilisation de ces technologies prometteuses et la nécessité de garantir une justice équitable et précise. Les avancées technologiques, bien qu’impressionnantes, ne peuvent pas remplacer l’intuition et la compréhension humaine, essentielles à la mise en œuvre de la justice.
