
Un nouveau rapport révèle que le chatbot d’intelligence artificielle (IA) ChatGPT, développé par la société américaine OpenAI, présente de sérieux risques pour les jeunes en raison de l’absence de garde-fous éthiques, alors que les inquiétudes sur la sécurité des chatbots IA se multiplient.
Absence de contrôle
OpenAI exige que les utilisateurs aient au moins 13 ans, mais le CCDH souligne qu’il n’existe aucune vérification de l’âge ni du consentement parental, ce qui permet aux mineurs de contourner ces restrictions.
Dans un autre cas au Texas, une famille a allégué qu’un chatbot alimenté par l’IA avait encouragé leur fils autiste à tuer sa famille et à se faire du mal.
Lancé en novembre 2022, ChatGPT est devenu l’un des outils d’IA les plus utilisés au monde. Les critiques affirment que son adoption rapide a dépassé le contrôle réglementaire, exposant ainsi les jeunes utilisateurs à des risques.