Santé mentale: la thérapie IA devient réalité, pas toujours sous contrôle

10:495/05/2025, lundi
AFP
Le chatbot "Therabot" de Dartmouth a égalé la thérapie de référence lors de son premier essai clinique, réduisant la dépression de 51 % et l'anxiété de 31 %, tout en établissant de véritables liens émotionnels avec les utilisateurs.
Crédit Photo : X /
Le chatbot "Therabot" de Dartmouth a égalé la thérapie de référence lors de son premier essai clinique, réduisant la dépression de 51 % et l'anxiété de 31 %, tout en établissant de véritables liens émotionnels avec les utilisateurs.

Alors que la demande en soutien psychologique dépasse largement les capacités du système de santé, des chercheurs de l’université américaine de Dartmouth ont développé Therabot, une interface d’intelligence artificielle générative dédiée à la psychothérapie.

Contrairement aux nombreuses applications de thérapie par IA déjà disponibles sur le marché, Therabot n’est pas encore commercialisé: ses concepteurs souhaitent privilégier la sécurité et la rigueur scientifique avant un lancement public.


Une IA pensée par des experts, pas une start-up pressée


"Nous devons encore creuser le terrain de la sécurité"
, explique Michael Heinz, psychiatre et coresponsable du projet. L’équipe a travaillé pendant près de six ans, d’abord à partir de retranscriptions de consultations, puis de vidéos de formation, avant de générer manuellement des conversations simulées.

Une première étude clinique publiée en mars démontre que l’outil améliore l’état de patients souffrant d’anxiété, de dépression ou de troubles du comportement alimentaire. Une comparaison avec des thérapies classiques est désormais en préparation.

"Je vois un avenir avec des chatbots testés scientifiquement, développés spécifiquement pour la santé mentale"
, commente Vaile Wright, responsable de l’innovation à l’American Psychological Association. Mais pour l’heure,
"aucun produit équivalent n’est sur le marché"
.

Risques d'abus et dangers pour les plus vulnérables


Certaines plateformes comme Earkick, qui revendique plus de 100.000 utilisateurs, affirment garantir la sécurité des données et la détection des crises via des alertes IA intégrées.
"Les cas graves, ce n’est pas pour une IA"
, insiste son fondateur Herbert Bay, qui rappelle que son assistant Panda n’est qu’un outil de soutien quotidien.

Une référence au cas tragique d’un adolescent de 14 ans ayant utilisé Character AI avant de se suicider montre à quel point ces technologies peuvent manquer de contrôle et exposer les plus jeunes.

La FDA américaine n’a pour l’instant aucune procédure de certification des applications de santé mentale basées sur l’IA. Elle estime néanmoins que ces solutions peuvent
"améliorer l’accès aux soins"
, tout en laissant planer une grande incertitude sur leur encadrement éthique.

Des outils d’avenir, à condition de rester encadrés


Des usagers comme Darren, atteint de stress post-traumatique, trouvent un réconfort temporaire dans des IA comme ChatGPT, même si elles ne sont pas conçues pour la thérapie. Il confie que l’échange avec l’outil lui a été bénéfique, en attendant de consulter un thérapeute humain.


Pour Darlene King de l’American Psychiatric Association, le potentiel de l’IA générative est indéniable, mais il nécessite une supervision stricte:
"Avant de soutenir ces technologies, il faut répondre aux nombreuses questions encore en suspens."

Face au risque de dérives commerciales, les concepteurs de Therabot envisagent de créer une structure à but non lucratif pour garantir un accès éthique et gratuit à leur solution.


À lire également:





#IA
#psychologie
#santé
#technologies
#IA santé mentale
#thérapie IA
#chatbot psychothérapie
#Therabot
#intelligence artificielle Dartmouth
#santé mentale numérique
#FDA thérapie numérique
#Character AI
#Earkick Panda
#applications IA psychothérapie