L'encadrement de l'IA dans le secteur de la santé
Nos réflexions (parfois critiques) sur les tendances qui façonnent notre écosystème.
Publié le Mardi 20 Mai 2025
Évaluer l’intelligence artificielle en médecine : un encadrement nécessaire
Cet article est rédigé en référence à l’article “The testing of AI in medicine is a mess. Here’s how it should be done” de la journaliste Mariana Lenharo publié le 21 août 2024 sur Nature.com.
L’intégration de l’IA dans les dispositifs médicaux progresse rapidement, offrant des promesses considérables d’amélioration des soins. Elle réduit par exemple les temps d’attente aux urgences et affine les diagnostics. Cependant, cette évolution soulève des interrogations majeures : comment ces outils sont-ils évalués ? Selon quelles normes ? Par qui ? Sur quelles bases ?
Aujourd’hui, de nombreux systèmes basés sur l’IA sont proposés sur le marché suite à une validation par des études aux méthodologies discutables. Le manque de standardisation dans les protocoles d’évaluation, la faiblesse des échantillons cliniques utilisés — parfois peu représentatifs de la diversité réelle des patients — et l’absence fréquente de validation indépendante, compromettent la fiabilité de ces technologies. Ce manque de rigueur expose à un risque : celui de voir des IA performantes dans des conditions idéales échouer lorsqu’elles sont confrontées à la complexité du monde réel.
Les pistes d’amélioration
Afin d’améliorer la situation, plusieurs pistes sont avancées. Il est essentiel d’établir des normes d’évaluation claires, comparables à celles qui régissent les essais cliniques de médicaments. Cela inclut la nécessité d’utiliser des jeux de données diversifiés, de rendre publics les protocoles d’essai et de publier les résultats négatifs autant que les positifs. La validation externe par des équipes indépendantes doit devenir systématique afin d’éviter les biais d’auto-évaluation.
De plus, un suivi rigoureux après la mise sur le marché est indispensable pour s’assurer que les performances observées en laboratoire se traduisent dans la pratique médicale. À cet effet, la création d’une base de données publique recensant tous les essais cliniques impliquant des IA médicales est proposée, permettant une transparence accrue et facilitant l’analyse indépendante.
Face aux enjeux éthiques et sanitaires que soulève l’usage de l’Intelligence Artificielle en santé, l’ensemble du processus de développement et d’évaluation doit être repensé. À l’image des exigences imposées aux produits pharmaceutiques, les outils d’IA doivent répondre à des standards stricts pour garantir leur efficacité, leur sécurité et leur équité pour l’ensemble des patients.