L’IA pour diagnostiquer le TDAH de l’adulte : une promesse encore bridée par ses angles morts

Cette analyse de la publication scientifique « Integrating explainable AI with clinical features to enhance ADHD diagnostic understanding » a été réalisée par l’équipe scientifique de Docmeup.

Diagnostiquer le TDAH chez l’adulte : un problème que l’IA ne résout pas encore seule

Le diagnostic du TDAH chez l’adulte reste l’un des défis les plus difficiles en psychiatrie. Pas de biomarqueurs objectifs, des comorbidités qui brouillent le tableau clinique, une forte dépendance au jugement subjectif du praticien. Dans ce contexte, l’idée d’un algorithme capable d’aider au diagnostic et d’expliquer son raisonnement est séduisante. C’est précisément ce que Shakeel, Antoniou et Adamou ont tenté de construire dans cette étude publiée en décembre 2025 dans Frontiers in Psychiatry.

786 patients, 66 variables et un algorithme qui se justifie

Les chercheurs ont analysé les dossiers de 786 adultes évalués dans un service de santé mentale du NHS britannique entre 2019 et 2024. Leur approche repose sur 66 variables cliniques issues de quatre échelles standardisées (CAARS, DIVA, PHQ-9 et EQ-5D-3L), traitées par un algorithme XGBoost couplé à la méthode SHAP. Cette combinaison permet, pour chaque prédiction, de visualiser quels facteurs ont pesé dans la décision : c’est ce qu’on appelle l’IA explicable.

Le résultat le plus frappant ne vient pas de la performance globale, mais de ce qu’elle masque. La précision générale du modèle atteint environ 78 %, avec une aire sous la courbe (AUC-ROC) entre 0,82 et 0,87. Mais sa sensibilité pour identifier les vrais cas de TDAH s’effondre à 56,7 %. En clair : près de 43 % des patients véritablement atteints passent entre les mailles du filet algorithmique.

LIRE AUSSI : Vous souhaitez apprendre à évaluer la solidité d’une publication scientifique ? Découvrez comment certifier vos synthèses et juger la qualité de vos sources.

Des révélations sur les interactions cliniques, une fiabilité à nuancer

L’apport le plus intéressant de cette étude est peut-être là où on ne l’attendait pas : dans la cartographie des interactions entre variables. Notre analyse révèle que l’algorithme met en évidence des phénomènes non linéaires cliniquement significatifs. Une dépression sévère peut amplifier artificiellement les scores d’inattention. À l’inverse, un niveau de qualité de vie fonctionnelle élevé peut masquer les symptômes latents du TDAH. Ce sont des dynamiques que les praticiens connaissent empiriquement, mais que l’outil rend ici quantifiables et visualisables.

La fiabilité des conclusions de cette étude reste moyenne. Le design rétrospectif monocentrique, l’absence de validation sur une cohorte externe, et le risque de circularité diagnostique (l’algorithme a appris à partir de diagnostics humains établis avec ces mêmes échelles) limitent la portée des résultats. L’impact sur la pratique clinique actuelle reste faible : l’outil ne peut pas, en l’état, être utilisé pour écarter un diagnostic de TDAH.

LIRE AUSSI : Les algorithmes investissent de plus en plus la pratique clinique. Découvrez comment d’autres équipes explorent ce territoire dans notre article sur algorithmes et réhabilitation.

Ce que vous pouvez retenir dès aujourd’hui

Cette étude ne change pas les pratiques diagnostiques à court terme. Elle apporte en revanche une contribution conceptuelle solide : l’IA explicable peut modéliser des interactions cliniques complexes que les outils traditionnels ne capturent pas. Les valeurs SHAP, qui montrent visuellement l’influence de chaque variable sur la décision, ouvrent une piste pour les consultations de restitution diagnostique.

Avant toute application clinique pour la détection du TDAH, des essais prospectifs multicentriques et une recalibration de l’algorithme pour réduire les faux négatifs seront indispensables. La synthèse complète détaille l’analyse critique de chaque critère méthodologique, les biais identifiés, et les conditions précises dans lesquelles ces résultats sont (ou ne sont pas) applicables.

Lire la synthèse complète


Référence : Shakeel HM, Antoniou G, Adamou M. Integrating explainable AI with clinical features to enhance ADHD diagnostic understanding. Frontiers in Psychiatry. Décembre 2025. DOI: 10.3389/fpsyt.2025.1706216. PMID: 41383990. Mots-clés : ADHD, CAARS, DIVA, explainability, machine learning, mental health, model interpretability.

Articles récents :