Nous joindre
X
Rechercher
Publicité

Applications biaisées

La collecte massive de données que requiert l'IA sous-représente certains groupes

durée 12h00
27 novembre 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Les outils et applications utilisant l'intelligence artificielle (IA) ont le potentiel d'améliorer la qualité de vie des gens. Cependant, dans le processus de collecte massive de données que l'IA requiert pour fonctionner, certains groupes sont sous-représentés, ce qui rend ces applications biaisées.

Une récente étude de l'Université McGill a révélé que les applications de santé assistées par l'IA qui permettent d'obtenir un diagnostic médical s'appuient en effet souvent sur des données biaisées. Les résultats concluent que l'utilisateur risque d'obtenir des conseils inexacts et dangereux pour sa santé.

«Les nombreux modèles de l’IA sont formés sur des ensembles de données qui vont normalement sous-représenter certains groupes comme les minorités raciales, les femmes et les personnes âgées. Ça va entraîner des inexactitudes quand ces modèles vont être appliqués à des populations un peu plus diversifiées», a expliqué Ma'n H. Zawati, auteur principal de l'étude et professeur agrégé au Département de médecine de l’Université McGill.

M. Zawati a indiqué que la grande majorité des applications mobiles de santé sont des applications de suivi, telles que des outils pour suivre le pouls, le nombre de pas, intégrer des données sur la santé, le sommeil, la consommation de nourriture, etc. Ces applications peuvent aussi être utiles aux professionnels de la santé, par exemple pour leurs journaux de progression d'une maladie ou l'utilisation d'un médicament. Ces technologies sont moins complexes et ont surtout des enjeux de vie privée, c'est-à-dire de savoir qui a accès aux données.

«Ce qui est plus complexe […] ce sont les applications qui vont essayer de mieux comprendre les symptômes et essayer d’expliquer ce qui se passe derrière ces symptômes», soutient M. Zawati. Selon la dernière recension qui a été faite avant la pandémie, on recensait environ 350 000 applications mobiles de santé (pas seulement celles assistées par l’intelligence artificielle). «Ce chiffre aujourd’hui est peut-être aux alentours de 500 000», évalue le professeur.

Des recommandations pour une meilleure inclusion

Les enjeux de discrimination dans la collecte de données ne touchent pas seulement les applications mobiles ou l’utilisation de l’intelligence artificielle, souligne M. Zawati.

En abordant l'IA au sens plus large, le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) ainsi que Mila - l'Institut québécois de l'intelligence artificielle ont d'ailleurs publié mardi ce qu'ils décrivent comme «le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA».

Ces deux institutions de premier plan dans le domaine de l'intelligence artificielle ont pointé que les progrès rapides de l'IA risquent d'exacerber les inégalités existantes en amplifiant les préjugés, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés.

Ce rapport a été publié en même temps qu'un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations qu'il comporte pour favoriser une plus grande inclusivité dans le développement technologique. Les deux documents ont été présentés à Montréal, mardi, dans le cadre d'un événement auquel ont participé des représentants de la communauté de l'IA, des dirigeants internationaux de même que la présidente du Conseil du Trésor du Canada, Anita Anand.

Dans un communiqué, l'institut Mila soulève que «le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives». Il cite l'exemple de groupes marginalisés pour lesquels les opportunités d'emploi sont limitées et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.

Le rapport dresse plusieurs recommandations, dont celle «d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA».

Il suggère aussi «de favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous».

M. Zawati abonde dans le même sens en prônant le concept de co-conception. «Il est important d'avoir une perspective d’inclusivité et de collaboration. Surtout quand on parle de communauté, il faut impliquer les parties prenantes dans le processus de développement de l’outil», dit-il.

Selon le professeur Zawati, il faudrait aussi améliorer la transparence quand on développe des modèles d’intelligence artificielle. «Cela permettrait pour l’utilisateur de comprendre comment les décisions sont prises. De plus, il serait plus facile de repérer si certaines recommandations d'une application sont biaisées et de les corriger le cas échéant.»

M. Zawati fait aussi valoir que l'un des enjeux cruciaux est de rendre les choses beaucoup plus accessibles, que ce soit les outils eux-mêmes ou l'utilisation de la langue, par exemple. «C’est une des stratégies les plus importantes. Si on veut que ce soit représentatif, il faut avoir des données qui sont diversifiées et représentatives. Donc, il faut collecter des données qui représentent une large gamme de démographie, y compris la race, le sexe, l’âge, les milieux socioéconomiques. Ça va permettre de combler les lacunes où certaines de ces populations sont sous-représentées», explique-t-il.

Le contenu en santé de La Presse Canadienne obtient du financement grâce à un partenariat avec l’Association médicale canadienne. La Presse Canadienne est l’unique responsable des choix éditoriaux.

Katrine Desautels, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


Publié le 16 avril 2025

Les aides à domicile indispensables à la prochaine Stratégie nationale de prévention

Il faut attribuer plus de place aux aides à domicile en tant qu’acteurs de premier plan en matière de prévention en santé, plaide le Réseau de coopération des entreprises d’économie sociale en aide à domicile (EÉSAD) dans le cadre des consultations publiques sur la Stratégie nationale de prévention en santé. Les aides à domicile de ce réseau ...

Publié le 15 avril 2025

La Maison de la Sérénité célèbre son 15e anniversaire

La Maison de la Sérénité, la seule maison de soins palliatifs à Laval, célèbre cette année son 15e anniversaire. Depuis son inauguration, elle offre gratuitement des soins de fin de vie empreints de dignité et de compassion à ses patients et un accompagnement à leurs familles. Plus de 3300 personnes ont été accueillies à La Maison depuis janvier ...

Publié le 14 avril 2025

Nouvelles lignes directrices pour prendre en charge l'obésité chez les jeunes

Les nouvelles lignes directrices développées en partenariat avec Obésité Canada pour encadrer la prise en charge de l'obésité chez les jeunes ont été conçues afin de favoriser le dialogue entre les différentes parties prenantes, a expliqué en primeur à La Presse Canadienne une scientifique montréalaise qui a participé à leur ...