Médecine: Eviter les systèmes qui renforcent les préjugés

Médecine: Eviter les systèmes qui renforcent les préjugés / ©iStock
i
Médecine: Eviter les systèmes qui renforcent les préjugés
©iStock

Médecine: Eviter les systèmes qui renforcent les préjugés

Santé
Suivi du patient, prévention des interactions entre médicaments, aide à l’interprétation d’imagerie médicale, détection des urgences, etc. Dans le domaine médical, les solutions basées sur l’intelligence artificielle sont déjà légion.

Si bien que la Fédération des médecins suisses (FMH) s’est penchée sur la question et a publié plusieurs documents de recommandations et d’informations, en particulier en ce qui concerne les logiciels médicaux et l’intelligence artificielle. «Comme pour les essais cliniques, le développement ou l’entraînement de systèmes d’IA doit être soumis à la précision méthodologique et à la reproductibilité des résultats, à la gestion des effets de sélection et de distorsion des échantillons ou à des préoccupations éthiques», souligne Alexander Zimmer, membre du comité central de la FMH et responsable de son département de la numérisation/eHealth. Des préoccupations qu’il vaut particulièrement la peine de souligner puisque ces solutions informatiques sont développées non seulement par des acteurs classiques de la santé ou de la recherche (universités, laboratoires, hôpitaux), mais aussi par des acteurs nouveaux comme les entreprises technologiques ou des start-up.

«Lors du développement de systèmes d’IA, il est notamment essentiel d’utiliser une base de données large et variée, de sorte que les systèmes soient justes, fiables et adaptés à différents cas d’utilisation. Le choix de la population de données influence ici de manière déterminante la capacité des systèmes d’IA à bien fonctionner dans des scénarios médicaux réels. En outre, la possibilité d’expliquer les processus de décision et d’éviter de renforcer involontairement les préjugés et la discrimination existant dans les modèles joue un rôle dans l’intelligence artificielle», précise Alexander Zimmer.

Les IA peuvent être plus difficiles à surveiller

«Pour les médecins, des questions importantes se posent: par exemple, dans quelle mesure restent-ils décideurs? Sont-ils informés lorsque des systèmes d’IA influencent indirectement leurs actions en arrière-plan?» prévient le spécialiste. A ce propos, la FMH préconise l’utilisation d’outils dont le fonctionnement et les choix restent explicables, à la différence du modèle de «boîte noire» que représente le deep learning. «En raison de leur structure complexe, les modèles ‹boîte noire› peuvent être plus difficiles à surveiller en ce qui concerne les préjugés et la discrimination dans les résultats», selon Alexander Zimmer. «Les recherches sur Internet et les chatbots, même s’ils sont basés sur des systèmes intelligents, ne peuvent pas remplacer un entretien avec un médecin. En raison de leur formation et de leur expérience, les médecins sont les mieux placés pour évaluer la situation médicale dans laquelle se trouve le patient ou la patiente», avertit également Alexander Zimmer. «A l’heure actuelle, les systèmes intelligents ne fournissent pas la ‹bonne› réponse, mais la ‹réponse la plus probable›.»

i
Alexander Zimmer, membre du comité central de la FMH et responsable de son département de la numérisation/eHealth.
©DR