Un mois après leur publication historique, les dix principes directeurs communs à l'Agence européenne des médicaments (EMA) et à la Food and Drug Administration (FDA) américaine sont en train de bouleverser les processus de R&D des géants pharmaceutiques. Cette semaine, plusieurs consortiums majeurs, réunis lors du sommet HealthTech 2026, ont annoncé la mise en conformité de leurs pipelines d'algorithmes avec ce nouveau "code de conduite" mondial.
Jusqu'ici, le développement de médicaments assisté par intelligence artificielle (IA) naviguait dans une zone grise réglementaire. Le document conjoint, validé le 14 janvier dernier, impose désormais un cadre strict pour garantir que l'innovation ne se fasse pas au détriment de la sécurité des patients.
Voici les 10 principes fondamentaux que doivent désormais respecter tous les développeurs d'IA en santé pour espérer une approbation de leurs traitements en Europe et aux États-Unis :
1. Conception centrée sur l'humain (Human-centric by Design) : L'IA doit être développée dans le respect des valeurs éthiques fondamentales, garantissant que la technologie sert le patient et non l'inverse.
2. Approche fondée sur le risque : Le niveau de validation et de surveillance exigé sera proportionnel au risque que l'IA fait courir au patient (un outil de diagnostic critique sera plus surveillé qu'un outil de gestion administrative).
3. Conformité aux normes existantes : Les outils doivent respecter strictement les cadres légaux en vigueur (RGPD, AI Act en Europe, GxP) ainsi que les standards de cybersécurité.
4. Contexte d'utilisation clair : Chaque algorithme doit avoir un champ d'application (rôle et portée) parfaitement défini et documenté dès le départ.
5. Expertise multidisciplinaire : Le développement ne peut plus être laissé aux seuls informaticiens ; des équipes mixtes (médecins, pharmaciens, data scientists) doivent être impliquées à chaque étape du cycle de vie.
6. Gouvernance des données et documentation : Une traçabilité totale est exigée sur l'origine des données (provenance), leur traitement et les décisions analytiques prises, pour assurer la reproductibilité.
7. Conception robuste et transparente : Les modèles doivent être construits pour être fiables, généralisables (efficaces sur différentes populations et aussi transparents que possible ("Glass Box" vs "Black Box").
8. Évaluation de la performance basée sur le risque : Les tests doivent démontrer que l'IA fonctionne correctement dans des conditions réelles et sur des groupes démographiques variés pour éviter les biais.
9. Surveillance continue (Post-Market Monitoring) : La responsabilité ne s'arrête pas à la mise sur le marché ; la performance des modèles doit être surveillée en permanence pour détecter toute dérive (data drift) ou baisse de précision dans le temps.
10. Information claire et accessible : Les utilisateurs (médecins et patients) doivent recevoir des informations intelligibles sur le fonctionnement de l'IA, ses limites et la nature des données utilisées.
Pour les industriels, c'est une contrainte à court terme mais une formidable accélération à long terme.
Lire aussi: Intelligence artificielle et R&D : le pipeline numérique (V.Kokoszka)







