Académie de la relève en santé : L’IA et les biais

3 min
L’IA et les biais
Article 4 


En novembre 2022, ChatGPT est arrivé en ligne et, pour beaucoup d’entre nous, c’était la première fois qu’on utilisait un outil d’intelligence artificielle (IA). Depuis, ce genre de service semble changer beaucoup de choses, que ce soit dans l’éducation ou dans les arts. Et aujourd’hui, les grandes entreprises technologiques se livrent une véritable course pour créer des outils toujours plus puissants.

Mais avec l’arrivée de ces outils, de nombreuses questions se posent. L’une des plus importantes est celle des biais dans les résultats créés par ces outils. Cela se remarque particulièrement dans un domaine très sérieux : la médecine.

Les biais de l’IA en médecine

Pour commencer, qu’est-ce qu’un biais? C’est une sorte d’erreur qui se répète, comme une mauvaise habitude. Imagine un chasseur qui rate toujours sa cible parce que sa lunette est mal réglée. C’est ce genre d’erreur, mais appliquée à un outil ou un système.

Dans le domaine médical, les premières IA qui se développent posent déjà certains défis. Le plus gros souci, c’est que, si on n’est pas vigilant, les IA répéteront les erreurs que les humains ont déjà faites. Pourquoi? Parce qu’elles apprennent à partir de données fournies par des humains. En gros, elles observent ce qu’on fait pour essayer de reproduire nos actions.

Prenons un exemple : si on crée un logiciel pour écrire automatiquement des notes médicales à partir de la voix et qu’on lui donne des exemples d’entraînement avec des erreurs, le logiciel fera aussi des erreurs. C’est pourquoi il est très important d’utiliser des exemples de haute qualité pour entraîner ces outils.

Un autre problème fréquent vient des banques de données, surtout en radiologie. Quand on crée un logiciel médical, il faut que les données utilisées représentent toutes les personnes qui pourraient en avoir besoin. Par exemple, si on veut développer un logiciel pour détecter des maladies pulmonaires sur des radiographies et qu’on utilise uniquement des images provenant d’hommes, le logiciel sera moins bon pour reconnaître les maladies chez les femmes. Ce genre de problème a été observé lors de tests au MIT.

Il ne faut pas prendre les biais à la légère

Ces inégalités peuvent vite devenir graves. Si un groupe de personnes est mal représenté dans les données utilisées, les outils risquent de ne pas fonctionner correctement pour eux. Cela pourrait entraîner des différences de qualité dans les soins médicaux, ce qui n’est pas acceptable, et augmenter des inégalités déjà présentes dans nos sociétés.

Heureusement, des experts travaillent déjà pour éviter ces problèmes. Ils mettent en place des règles pour guider le développement de ces outils, comme les six principes d’éthique de l’IA en santé créés par l’Organisation mondiale de la santé.

Enfin, à notre niveau, il est important de comprendre que des outils comme ChatGPT ne sont pas parfaits. Ils ont des limites et il faut les utiliser en gardant cela en tête. Un outil, aussi intelligent soit-il, n’est jamais meilleur que les humains qui l’ont créé.


 

Cédrik Marchildon


Cédrik Marchildon
Étudiant en médecine et collaborateur de 
l’Académie de la relève en santé du CHUM

 

Académie virtuelle

Découvre, apprends, et inspire-toi pour bâtir ton avenir en dans le domaine de la santé!

Tu veux en savoir plus sur les opportunités de carrière en santé? Les sciences, les technologies, l’ingénierie ou encore les mathématiques te passionnent?

Découvre la programmation virtuelle


Sources:

Trafton, Anne. 2024. « Study reveals why AI models that analyze medical images can be biased ». MIT Newshttps://news.mit.edu/2024/study-reveals-why-ai-analyzed-medical-images-can-be-biased-0628 (consulté le 19 janvier 2025). 

Koçak, Burak et al. 2024. « Bias in Artificial Intelligence for Medical Imaging: Fundamentals, detection, avoidance, mitigation, challenges, ethics, and prospects ». Diagnostic and interventional radiologyhttps://pubmed.ncbi.nlm.nih.gov/38953330/ (consulté le 19 janvier 2025).

Autres articles

Académie de la relève en santé : L’IA et les biais