Cette analyse de la publication scientifique « Attitudes toward artificial intelligence and its application in psychotherapy: Assessment in healthy adults and validation of an assessment measure » a été réalisée par l’équipe scientifique de Docmeup.
L’IA en psychothérapie : les patients veulent-ils vraiment un robot thérapeute ?
L’intelligence artificielle s’intègre progressivement dans le domaine de la santé mentale. Mais la psychothérapie occupe une place à part : l’alliance thérapeutique et la relation interpersonnelle y jouent un rôle central. Que pensent réellement les patients de l’IA dans ce contexte spécifique ? C’est la question que pose cette étude publiée dans la revue Digital Health.
Ce qu’une enquête auprès de 205 adultes révèle
Nagel et al. (2026) ont mené une enquête transversale en ligne auprès de 205 adultes germanophones. Objectif double : évaluer les attitudes du grand public vis-à-vis de l’IA en psychothérapie, et valider une nouvelle échelle de mesure baptisée ATUAIP. Les analyses biostatistiques ont mobilisé des tests non paramétriques, des régressions multiples et des analyses factorielles exploratoires et confirmatoires (EFA/CFA).
Le résultat central est clair : l’attitude globale reste majoritairement neutre, mais avec un gradient net. L’IA est bien plus acceptée en arrière-plan (soutien au diagnostic, applications mobiles informatives) qu’en agent autonome (robotique). Les hommes, les personnes ayant un niveau d’éducation académique et celles sans charge symptomatique présentent des attitudes plus favorables. Un chiffre interpelle : bien que l’étude cible des « adultes sains », 43,4 % des participants rapportent une charge symptomatique psychologique notable.
LIRE AUSSI : L’IA en santé mentale a-t-elle vraiment atteint un consensus scientifique ?
Quelques limites importantes
Les conclusions sont fragiles, la prudence est de mise avant toute extrapolation. L’échantillon de convenance (jeunes, éduqués, numériquement lettrés) n’est pas représentatif d’une patientèle psychiatrique réelle. L’échelle de référence utilisée (ATAI) présente une fiabilité modérée (alpha de Cronbach à 0,65). Les validations EFA et CFA ont été réalisées sur le même échantillon de 205 individus, ce qui soulève un risque de surajustement de la nouvelle échelle. Les intervalles de confiance sont absents, et le taux d’attrition n’est pas documenté. Ces failles méthodologiques empêchent toute généralisation solide à ce stade.
LIRE AUSSI : Alliance thérapeutique et IA : qui crée vraiment le lien en thérapie ?
Ce que vous pouvez en retenir
Un message clé émerge : en santé mentale, l’IA doit être conçue comme un « copilote » d’aide à la décision clinique, jamais comme un agent relationnel autonome. Ce principe du Human-in-the-Loop semble indispensable pour éviter le rejet des patients les plus vulnérables. En pratique, l’échelle ATUAIP n’est pas encore utilisable en cabinet : elle nécessite des validations externes sur de véritables cohortes psychiatriques. Notre synthèse complète détaille les implications précises pour les psychiatres, psychologues et concepteurs de solutions e-santé.
Référence : Jannis Nagel, Karsten Hollmann, Annika K Alt, Tobias J Renner. Attitudes toward artificial intelligence and its application in psychotherapy: Assessment in healthy adults and validation of an assessment measure. Digital health. Mars 2026. DOI: 10.1177/20552076251410978. PMID: 41836625. Mots-clés : Artificial intelligence, attitudes, interindividual differences, mental health, personality, psychotherapy.



