Recevez chaque jour toute l'actualité du numérique

x

Un système de détection de septicémie est critiqué pour son manque de fiabilité

Vu ailleurs L'entreprise Epic Systems a mis au point un outil de détection de septicémie, une infection généralisée qui peut entraîner le décès des patients, mais il n'est pas aussi efficace qu'annoncé. Une étude montre que l'outil a raté 1 709 cas de septicémie sur 2 552 et qu'il n'a été capable d'identifier que 7% de cas qui ont été manqués par des médecins.
Twitter Facebook Linkedin Flipboard Email
×

Un système de détection de septicémie est critiqué pour son manque de fiabilité
Un système de détection de septicémie est critiqué pour son manque de fiabilité © Siemens

Un logiciel utilisé dans un hôpital pour détecter les septicémies passe à côté de nombreux cas, rapporte The Verge. Une étude publiée dans le JAMA Internal Medicine vient contredire les bons résultats mis en avant par Epic Systems. Cette société, qui est la plus grande entreprise de dossiers de santé électroniques aux Etats-Unis, est à l'origine de cet outil qui assure pouvoir identifier les signes de septicémie. Cette infection généralisée peut entraîner la défaillance des organes et le décès de la personne.

Près d'un quart des hôpitaux américains utilisent les dossiers médiaux électroniques proposés par Epic Systems et des centaines d'hôpitaux utilisent son outil de prédiction de la septicémie, y compris le centre de santé de l'université du Michigan au sein duquel l'auteur de l'étude, Karandeep Singh, est un professeur assistant. Il a examiné des données provenant de 40 000 hospitalisations de l'hôpital de l'université du Michigan en 2018 et 2019.

1 709 cas ratés sur 2 552
Il est difficile de détecter les signes de septicémie, mais débuter le traitement le plus rapidement possible permet d'augmenter les chances de survie. Le logiciel d'Epic Systems, et d'autres outils similaires d'alerte, analyse divers résultats des patients afin de détecter le plut tôt possible les signes évocateurs d'une septicémie.

Epic Systems assure que son système d'alerte identifie correctement les patients souffrants d'une septicémie des patients non atteint de cette maladie dans 76% des cas. L'étude de Karandeep Singh assure qu'en réalité le taux de réussite de l'algorithme est de seulement 63%. Un porte-parole d'Epic Systems a contesté les résultats de cette étude auprès de Stat News, affirmant que d'autres recherches montraient que l'algorithme était précis.

En examinant les dossiers de l'hôpital de l'université du Michigan, Karandeep Singh s'est aperçu que les patients ont développé une septicémie dans 2 552 de ces hospitalisations. L'outil d'Epic Systems a raté 1 709 de ces cas, dont environ deux tiers ont été identifiés et traités rapidement par des médecins. Le logiciel n'a été capable d'identifier que 7% de cas de septicémies qui ont été manqués par des médecins. L'étude révèle également un taux élevé de faux positif : lorsqu'une alerte est déclenchée pour un patient, en réalité il ne déclare une septicémie que dans 12% des cas.

Besoin de transparence
Une partie du problème semble être liée à la façon dont l'algorithme d'Epic Systems a été développé, selon Karandeep Singh. La septicémie a été définie à partir du moment où un médecin soumettait une facture pour le traitement, et non pas nécessairement lorsque la personne développait des symptômes pour la première fois. Cela signifie que l'algorithme est entraîné à détecter les cas à un moment où le médecin pense déjà qu'il y a un problème. "Il essaye principalement de prédire ce que le médecin fait déjà", résume Karandeep Singh.

Les outils qui analyse les données des patients pour prédire ce qui pourrait arriver sont nombreux et peuvent être utiles pour les docteurs. Mais, ils sont aussi bons que les données utilisées pour les développer, et ils devraient sujets à des évaluations externes, temporise The Verge.

Il est également important de faire attention aux biais algorithmiques qui peuvent avoir de graves conséquences dans le domaine de la santé. Par exemple, une étude a récemment mis en lumière les biais d'un système d'apprentissage automatique. Utilisé dans un groupement hospitalier américain, ce système a évincé 64 patients noirs de la liste d'attente pour une transplantation rénale. Les sociétés à l'origine de ces technologies se doivent d'être transparentes et d'expliquer au mieux comment l'algorithme a été développé.

Réagir

* Les commentaires postés sur L’Usine Digitale font l’objet d’une modération par l’équipe éditoriale.