Un rapport souligne l’importance du “contrôle humain” dans l’utilisation de l’IA en santé

Les Comités nationaux d’éthique du numérique et des sciences de la vie et de la santé se sont penchés sur les enjeux éthiques liés à l’utilisation de systèmes d’intelligence artificielle dans le diagnostic médical. Ils appellent les pouvoirs publics à mettre l’humain et la transparence au cœur de leur approche. 

Partager
Un rapport souligne l’importance du “contrôle humain” dans l’utilisation de l’IA en santé

L’intelligence artificielle (IA) s’immisce dans tous les pans de la société et la santé n’est pas en reste, soulevant de plus en plus des questions d’ordre éthique.

Mais, comme le souligne le Comité national pilote d’éthique du numérique (CNPED) et le Comité consultatif national d’éthique pour les sciences de la vie et de la santé (CCNE), les systèmes d’IA appliqués au diagnostic médical “produisent des résultats basés d’une part sur des approches probabilistes et d’autre part ils peuvent être entachés d’erreurs”. Si bien que quelques garde-fous s’imposent.

Ces systèmes peuvent aujourd’hui être utilisés dans le domaine de l’imagerie médicale et du dépistage pour détecter des cancers et des maladies, par exemple, avec une fiabilité parfois impressionnante — en plus du gain de temps qu’ils permettent, alors même que le monde hospitalier connait une raréfaction de ses ressources et de sa main-d’œuvre.

Dans un rapport rendu public mardi 10 janvier, sur saisine du Premier ministre en 2019, les deux collèges d’experts estiment que si “les équipes soignantes et les patients ne doivent pas se priver des avantages apportés pas ces outils”, elles doivent se donner “constamment les moyens de prendre de la distance avec le résultat fourni”.

Contrôle humain et explicabilité

Leur avis fixe deux conditions indispensables à l’intégration de ces dispositifs dans notre système de soins : ils doivent toujours “être soumis à un contrôle humain”, même si cela “ne lèvera pas forcément les incertitudes”, et leurs résultats doivent être “explicables”.

Le CNPED et le CCNE dressent ainsi une liste de 16 recommandations pour concilier les opportunités promises par l’IA pour les patients et les risques que fait poser la technologie.

Ils invitent d’abord, sans surprise, à poursuivre la recherche, notamment par le biais d’essais cliniques pour évaluer le rapport bénéfice-risque, et pour perfectionner ces outils sans pour autant miser exclusivement sur eux pour la santé de demain. Les méthodes déjà établies pour établir un diagnostic médical devraient ainsi continuer d’être enseignées. Le cas échéant, ils notent l’importance de la formation des professionnels de santé à l’IA en prenant en compte ses enjeux éthiques.

La confiance et la transparence, selon eux, doivent également faire partie intégrante de notre approche de l’IA. Ils suggèrent ainsi que le compte rendu médical d’une consultation mentionne s’il y a lieu l'utilisation d’IA, que les développeurs fournissent un “certain niveau d’explicabilité” lorsqu’ils mettent un outil sur le marché et qu’ils étaient leurs performances et leurs limites “en termes compréhensibles”. Ou encore que soient publiés les “justifications étayant les promesses” de ces dispositifs, mais aussi les “résultats de recherche négatifs”.

Pas de solutionnisme technologique

Enfin, les deux comités consultatifs appellent à la vigilance face au développement et à l’utilisation de ces outils. Ils “doivent être envisagés en tant qu’outils complémentaires des réponses à apporter aux insuffisances du système de soins, en particulier de la désertification médicale, mais ne doivent pas être considérés comme des solutions de substitution des équipes médicales”, note leur avis, qui insiste sur le fait que les considérations économiques ne doivent pas primer.

Une attention toute particulière doit être portée, par ailleurs, aux risques de surveillance et d'anti-sélection opérées par les assurances, ainsi qu'aux enjeux de sécurité des données.

SUR LE MÊME SUJET

Sujets associés

NEWSLETTER L'Usine Digitale

Nos journalistes sélectionnent pour vous les articles essentiels de votre secteur.

Votre demande d’inscription a bien été prise en compte.

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes...

Votre email est traité par notre titre de presse qui selon le titre appartient, à une des sociétés suivantes du : Groupe Moniteur Nanterre B 403 080 823, IPD Nanterre 490 727 633, Groupe Industrie Service Info (GISI) Nanterre 442 233 417. Cette société ou toutes sociétés du Groupe Infopro Digital pourront l'utiliser afin de vous proposer pour leur compte ou celui de leurs clients, des produits et/ou services utiles à vos activités professionnelles. Pour exercer vos droits, vous y opposer ou pour en savoir plus : Charte des données personnelles.

ARTICLES LES PLUS LUS