NewsSante

Les mauvaises données saperont-elles la bonne technologie ?

18 mai 2022 – Imaginez entrer dans la Bibliothèque du Congrès, avec ses millions de livres, et avoir pour objectif de tous les lire. Impossible, non ? Même si vous pouviez lire chaque mot de chaque œuvre, vous ne seriez pas capable de vous souvenir ou de tout comprendre, même si vous passiez votre vie à essayer.

Maintenant, disons que vous aviez en quelque sorte un cerveau super puissant capable de lire et de comprendre toutes ces informations. Vous auriez encore un problème : vous ne sauriez pas quoi n’était pas couverts dans ces livres – quelles questions ils n’avaient pas répondu, quelles expériences ils avaient laissées de côté.

De même, les chercheurs d’aujourd’hui ont une quantité stupéfiante de données à parcourir. Toutes les études mondiales évaluées par des pairs contiennent plus de 34 millions de citations. Des millions d’autres ensembles de données explorent l’impact d’éléments tels que les analyses de sang, les antécédents médicaux et familiaux, la génétique et les caractéristiques sociales et économiques sur les résultats des patients.

L’intelligence artificielle nous permet d’utiliser plus de ce matériau que jamais. Les modèles émergents peuvent organiser rapidement et avec précision d’énormes quantités de données, prédire les résultats potentiels des patients et aider les médecins à passer des appels concernant des traitements ou des soins préventifs.

Les mathématiques avancées sont très prometteuses. Certains algorithmes – des instructions pour résoudre des problèmes – peuvent diagnostiquer le cancer du sein avec plus de précision que les pathologistes. D’autres outils d’IA sont déjà utilisés dans les milieux médicaux, permettant aux médecins de consulter plus rapidement les antécédents médicaux d’un patient ou d’améliorer leur capacité à analyser les images radiologiques.

Mais certains experts dans le domaine de l’intelligence artificielle en médecine suggèrent que si les avantages semblent évidents, des biais moins remarqués peuvent saper ces technologies. En fait, ils préviennent que les préjugés peuvent conduire à une prise de décision inefficace ou même préjudiciable dans les soins aux patients.

Nouveaux outils, mêmes préjugés ?

Alors que de nombreuses personnes associent le «préjugé» à des préjugés personnels, ethniques ou raciaux, au sens large, le préjugé est une tendance à pencher dans une certaine direction, soit en faveur ou contre une chose particulière.

D’un point de vue statistique, un biais se produit lorsque les données ne représentent pas entièrement ou avec précision la population qu’elles sont censées modéliser. Cela peut se produire en raison de données médiocres au départ, ou cela peut se produire lorsque les données d’une population sont appliquées à une autre par erreur.

Les deux types de préjugés – statistiques et raciaux/ethniques – existent dans la littérature médicale. Certaines populations ont été plus étudiées, tandis que d’autres sont sous-représentées. Cela soulève la question suivante : si nous construisons des modèles d’IA à partir des informations existantes, ne faisons-nous que transmettre d’anciens problèmes à de nouvelles technologies ?

“Eh bien, c’est certainement une préoccupation”, déclare David M. Kent, MD, directeur du Centre d’analyse prédictive et d’efficacité comparative du Tufts Medical Center.

Dans une nouvelle étude, Kent et une équipe de chercheurs ont examiné 104 modèles qui prédisent les maladies cardiaques – des modèles conçus pour aider les médecins à décider comment prévenir la maladie. Les chercheurs voulaient savoir si les modèles, qui avaient fonctionné avec précision auparavant, fonctionneraient aussi bien lorsqu’ils seraient testés sur un nouvel ensemble de patients.

Leurs trouvailles ?

Les modèles « ont fait pire que ce à quoi les gens s’attendaient », dit Kent.

Ils n’étaient pas toujours en mesure de distinguer les patients à haut risque des patients à faible risque. Parfois, les outils ont surestimé ou sous-estimé le risque de maladie du patient. Fait alarmant, la plupart des modèles avaient le potentiel de causer des dommages s’ils étaient utilisés dans un cadre clinique réel.

Pourquoi y avait-il une telle différence dans les performances des modèles par rapport à leurs tests d’origine, par rapport à maintenant ? Biais statistique.

« Les modèles prédictifs ne généralisent pas aussi bien que les gens pensent qu’ils généralisent », dit Kent.

Lorsque vous déplacez un modèle d’une base de données à une autre, ou lorsque les choses changent dans le temps (d’une décennie à l’autre) ou dans l’espace (d’une ville à l’autre), le modèle ne parvient pas à capturer ces différences.

Cela crée un biais statistique. Par conséquent, le modèle ne représente plus la nouvelle population de patients, et il peut ne pas fonctionner aussi bien.

Cela ne signifie pas que l’IA ne devrait pas être utilisée dans les soins de santé, dit Kent. Mais cela montre pourquoi la surveillance humaine est si importante.

“L’étude ne montre pas que ces modèles sont particulièrement mauvais”, dit-il. « Cela met en évidence une vulnérabilité générale des modèles essayant de prédire le risque absolu. Cela montre qu’un meilleur audit et une meilleure mise à jour des modèles sont nécessaires.

Mais même la supervision humaine a ses limites, comme le mettent en garde les chercheurs dans un nouvel article plaidant en faveur d’un processus standardisé. Sans un tel cadre, nous ne pouvons que trouver le biais que nous pensons rechercher, notent-ils. Encore une fois, nous ne savons pas ce que nous ne savons pas.

Biais dans la “boîte noire”

La race est un mélange d’attributs physiques, comportementaux et culturels. C’est une variable essentielle dans les soins de santé. Mais la race est un concept compliqué et des problèmes peuvent survenir lors de l’utilisation de la race dans les algorithmes prédictifs. Bien qu’il existe des différences de santé entre les groupes raciaux, on ne peut pas supposer que toutes les personnes d’un groupe auront le même résultat de santé.

David S. Jones, MD, PhD, professeur de culture et de médecine à l’Université de Harvard et co-auteur de Hidden in Plain Sight – Reconsidérer l’utilisation de la correction raciale dans les algorithmesdit que “beaucoup de ces outils [analog algorithms] semblent orienter les ressources de soins de santé vers les Blancs.

À peu près à la même époque, des biais similaires dans les outils d’IA étaient identifiés par les chercheurs Ziad Obermeyer, MD, et Eric Topol, MD.

Le manque de diversité dans les études cliniques qui influencent les soins aux patients est depuis longtemps une préoccupation. Une préoccupation maintenant, dit Jones, est que l’utilisation de ces études pour construire des modèles prédictifs non seulement transmet ces biais, mais les rend également plus obscurs et plus difficiles à détecter.

Avant l’aube de l’IA, les algorithmes analogiques étaient la seule option clinique. Ces types de modèles prédictifs sont calculés manuellement au lieu d’être automatiques.

“Lorsque vous utilisez un modèle analogique”, explique Jones, “une personne peut facilement consulter les informations et savoir exactement quelles informations sur le patient, comme la race, ont été incluses ou non.”

Désormais, avec les outils d’apprentissage automatique, l’algorithme peut être propriétaire, ce qui signifie que les données sont cachées à l’utilisateur et ne peuvent pas être modifiées. C’est une “boîte noire”. C’est un problème car l’utilisateur, un fournisseur de soins, peut ne pas savoir quelles informations sur le patient ont été incluses ou comment ces informations peuvent affecter les recommandations de l’IA.

“Si nous utilisons la race en médecine, elle doit être totalement transparente afin que nous puissions comprendre et porter des jugements raisonnés quant à savoir si l’utilisation est appropriée”, déclare Jones. “Les questions auxquelles il faut répondre sont : comment et où utiliser les étiquettes raciales pour qu’elles fassent du bien sans faire de mal.”

Devriez-vous vous inquiéter de l’IA dans les soins cliniques ?

Malgré le flot de recherches sur l’IA, la plupart des modèles cliniques n’ont pas encore été adoptés dans les soins réels. Mais si vous êtes préoccupé par l’utilisation de la technologie ou de la race par votre fournisseur, Jones suggère d’être proactif. Vous pouvez demander au prestataire : « Y a-t-il des façons dont votre traitement envers moi est basé sur votre compréhension de ma race ou de mon origine ethnique ? Cela peut ouvrir un dialogue sur le fournisseur qui prend des décisions.

Pendant ce temps, le consensus parmi les experts est que les problèmes liés aux préjugés statistiques et raciaux au sein de l’intelligence artificielle en médecine existent et doivent être résolus avant que les outils ne soient largement utilisés.

“Le vrai danger est que des tonnes d’argent soient versées dans de nouvelles entreprises qui créent des modèles de prédiction qui sont sous pression pour un bien [return on investment]”, dit Kent. “Cela pourrait créer des conflits pour diffuser des modèles qui ne sont peut-être pas prêts ou suffisamment testés, ce qui peut aggraver la qualité des soins au lieu de l’améliorer.”

Articles similaires