Une étude publiée dans Nature Health montre que la manière dont l’IA est intégrée dans le flux de travail du radiologue influence considérablement la perception de responsabilité en cas d’erreur diagnostique.
L’intégration de l’intelligence artificielle en radiologie progresse rapidement : c’est dans cette spécialité que le nombre d’applications d’IA approuvées par la FDA est le plus élevé tous domaines confondus. Mais une question demeure largement inexporée — et pourtant décisive pour la pratique quotidienne : quand l’IA signale une anomalie que le radiologue ne retient pas, qui porte la responsabilité juridique de l’erreur ? Une étude publiée le 10 mars 2026 dans Nature Health par des chercheurs de Penn State College of Medicine, Brown University et Seton Hall University School of Law apporte des réponses empiriques à cette question, avec des implications directes pour l’organisation du travail en imagerie médicale.
Les chercheurs ont présenté à 282 participants, jouant le rôle de jurés, un scénario fictif de faute médicale. Un patient souffre de lésions cérébrales irréversibles parce qu’un radiologue n’a pas détecté une hémorragie intra-crânienne sur un scanner cérébral, alors que le système d’IA avait correctement identifié l’examen comme anormal. Les participants ont été randomisés en deux groupes correspondant à deux workflows distincts. Dans le premier (lecture unique), le radiologue consultait les résultats de l’IA, puis interprétait le scanner une seule fois. Dans le second (double lecture), le radiologue réalisait une première interprétation avant de recevoir le retour de l’IA, puis relisait le scanner une seconde fois après avoir pris connaissance de l’alerte. Dans les deux cas, la conclusion du radiologue était identique : absence d’hémorragie.
Dans le scénario de lecture unique, près de 75 % des jurés ont estimé que le radiologue n’avait pas respecté son devoir de diligence. Ce taux tombait à 53 % dans le scénario de double lecture (p = 0,0002 ; odds ratio 2,6 ; IC 95 % [1,6–4,3]). Autrement dit, les jurés étaient près de 50 % plus susceptibles de donner raison au plaignant lorsque le radiologue n’avait lu l’examen qu’une seule fois après l’alerte de l’IA. Les résultats soulignent que de multiples biais incitent désormais les radiologues à ne pas contredire l’IA, car le coût d’être en désaccord avec elle et d’avoir tort est trop élevé sur le plan médico-légal.
Par ailleurs, cette étude rappelle l’importance de communiquer les performances de l’IA (taux de faux positifs, taux de faux négatifs) de manière transparente, tant aux cliniciens qu’aux patients. La question de la responsabilité juridique liée à l’IA en médecine n’est plus théorique : elle structure déjà les perceptions du public et, potentiellement, les décisions judiciaires.








