Une étude met en garde: ChatGPT peut contourner les protections et donner des conseils dangereux aux enfants

10:0715/08/2025, Cuma
AA
Un rapport du Center for Countering Digital Hate affirme que le chatbot d’OpenAI peut fournir des conseils dangereux à des mineurs en contournant les protections.
Crédit Photo : X /
Un rapport du Center for Countering Digital Hate affirme que le chatbot d’OpenAI peut fournir des conseils dangereux à des mineurs en contournant les protections.

Un nouveau rapport révèle que le chatbot d’intelligence artificielle (IA) ChatGPT, développé par la société américaine OpenAI, présente de sérieux risques pour les jeunes en raison de l’absence de garde-fous éthiques, alors que les inquiétudes sur la sécurité des chatbots IA se multiplient.

Le groupe de surveillance britannique-américain Center for Countering Digital Hate (CCDH) a indiqué dans un rapport publié le 6 août que ChatGPT fournissait des informations dangereuses sur le suicide, les régimes extrêmes et la consommation de substances lorsque les chercheurs se faisaient passer pour un enfant de 13 ans.

"ChatGPT était prêt à fournir ce type d’informations en quelques minutes seulement"
, a déclaré Callum Hood, directeur de la recherche au CCDH, ajoutant que ces réponses représentaient un risque sérieux pour les jeunes et menaçaient la sécurité publique.

Hood a averti que, bien que les chatbots IA puissent sembler humains, ils sont fondamentalement incapables de reconnaître les signaux d’alerte qu’un humain détecterait autrement.

Le rapport, intitulé
"Fake Friend: How ChatGPT betrays vulnerable teens by encouraging dangerous behavior"
(
"Ami fictif : comment ChatGPT trahit les adolescents vulnérables en encourageant des comportements dangereux"
), souligne que le chatbot fournissait des réponses détaillées à des requêtes risquées lorsqu’on lui disait que c’était pour une présentation ou pour un ami. Il indique également que ChatGPT conservait le contexte de la conversation, lui permettant de continuer à donner des conseils dangereux s’il estimait que l’objectif était éducatif.

Absence de contrôle


OpenAI exige que les utilisateurs aient au moins 13 ans, mais le CCDH souligne qu’il n’existe aucune vérification de l’âge ni du consentement parental, ce qui permet aux mineurs de contourner ces restrictions.


Hood a déclaré que les développeurs doivent mettre en place des mesures de sécurité plus strictes, incluant la vérification de l’âge et des règles claires pour empêcher les systèmes d’IA de répondre à des questions dangereuses.

"L’IA peut représenter un nouveau défi pour les parents"
, a-t-il ajouté, les encourageant à discuter ouvertement avec leurs enfants de l’usage de l’IA, à consulter l’historique des conversations et à les orienter vers des ressources fiables en santé mentale.

Les inquiétudes concernant l’influence de l’IA sur les utilisateurs vulnérables ont déjà donné lieu à des poursuites aux États-Unis. L’an dernier, une femme a poursuivi le fournisseur de chatbot Character.AI, affirmant que son fils adolescent s’était suicidé après s’être attaché à un personnage virtuel qu’il croyait être un psychothérapeute.

Dans un autre cas au Texas, une famille a allégué qu’un chatbot alimenté par l’IA avait encouragé leur fils autiste à tuer sa famille et à se faire du mal.


Lancé en novembre 2022, ChatGPT est devenu l’un des outils d’IA les plus utilisés au monde. Les critiques affirment que son adoption rapide a dépassé le contrôle réglementaire, exposant ainsi les jeunes utilisateurs à des risques.


À lire également:




#ChatGPT
#OpenAI
#intelligence artificielle
#adolescents
#dangers IA
#CCDH
#sécurité en ligne
#suicide
#régimes extrêmes
#vérification d’âge
#santé mentale