Cette analyse de la publication scientifique « The benefits and future potential of generative artificial intelligence (GAI) on mental health: a Delphi study. » a été réalisée par l’équipe scientifique de Docmeup.
L’IA générative en santé mentale : des experts ont été consultés, mais un consensus a-t-il vraiment été atteint ?
Les outils d’IA générative s’invitent de plus en plus dans les discussions sur la psychiatrie, la psychologie et le soin en santé mentale. Chatbots d’accompagnement thérapeutique, aide à l’évaluation clinique, psychoéducation assistée : les usages potentiels se multiplient. Dans ce contexte, une étude publiée en décembre 2025 a cherché à cartographier l’opinion d’experts sur les bénéfices actuels et le potentiel futur de ces technologies. Les résultats affichés semblent rassurants. Mais une lecture critique révèle un tableau nettement plus nuancé.
IA et santé mentale : ce que les chercheurs ont investigué
L’étude a mobilisé une méthode Delphi à méthodes mixtes, conduite sur deux rounds successifs auprès de 15 experts issus de la psychiatrie, de la psychologie clinique, du conseil et de la santé mentale numérique. La méthode Delphi est conçue pour faire émerger un consensus structuré à partir d’opinions expertes initialement disparates. Le taux de rétention a atteint 100 %. Les chercheurs ont utilisé le Modèle d’Acceptation de la Technologie (TAM) pour structurer l’analyse des thèmes identifiés.
Au total, 28 thèmes ont été recensés sur 8 dimensions de bénéfices actuels, et 29 thèmes sur 8 dimensions de potentiel futur. Parmi les résultats mis en avant : l’accessibilité et la disponibilité se sont imposées comme les avantages jugés les plus importants à ce jour. Pour l’avenir, les experts perçoivent l’IA générative davantage comme un outil collaboratif aux côtés du praticien que comme son remplacement.
Un « consensus » qui mérite d’être questionné
Les auteurs concluent que le consensus a été « adéquatement atteint ». L’analyse critique que nous avons menée identifie pourtant une faille méthodologique centrale : la confusion entre significativité statistique et force réelle de l’accord. Le coefficient de concordance de Kendall (W) reporté dans l’étude est de l’ordre de 0,15. Or, cette valeur traduit mathématiquement un accord qualifié de « pauvre » ou « léger » selon les standards en vigueur. En arrêtant le processus Delphi après seulement deux tours sur cette base, les auteurs concluent à un consensus là où les opinions expertes restaient, en réalité, encore divergentes.
À cela s’ajoute un problème de constitution du panel. Les 15 experts ont été recrutés exclusivement via le réseau professionnel des auteurs. Cette méthode introduit un risque de biais de sélection et de pensée de groupe. Elle limite également la généralisabilité des résultats à l’ensemble de la communauté médicale en santé mentale. La fiabilité globale des conclusions est qualifiée de faible dans notre analyse.
LIRE AUSSI : Comment évaluer la qualité et la fiabilité d’une source scientifique avant de l’utiliser dans votre pratique ?
Ce que vous pouvez en retenir : quels enjeux pour la santé mentale ?
Cette étude produit un inventaire utile des thèmes et des préoccupations que les professionnels associent à l’IA générative en santé mentale. Elle soulève des enjeux réels : accessibilité, éthique, rôle futur des technologies, articulation entre IA et clinicien. Pour les responsables de politiques de santé, les comités d’éthique ou les directions d’établissements, c’est un point de départ pertinent pour alimenter une réflexion collective.
En revanche, elle ne fournit pas de base solide pour guider des décisions cliniques ou modifier des protocoles de soin. L’impact sur la pratique professionnelle quotidienne est évalué comme faible dans l’analyse. Les résultats doivent être considérés comme une étape exploratoire de génération d’hypothèses. Ils appellent une validation ultérieure par un panel plus large et méthodologiquement indépendant.
La synthèse complète disponible sur Docmeup détaille l’intégralité des biais identifiés, les limites méthodologiques point par point, et les implications concrètes selon votre profil de praticien.
Référence : Chit Thet Lal Oo, Walton Wider, Nicholas Tze Ping Pang et al. The benefits and future potential of generative artificial intelligence (GAI) on mental health: a Delphi study. International journal of qualitative studies on health and well-being. Décembre 2025. DOI: 10.1080/17482631.2026.2621802. PMID: 41589742. Mots-clés : Delphi method, Generative artificial intelligence, ethical AI integration, long-term digital health strategy, mental health care services.



