Nous joindre
X
Rechercher
Publicité

Applications biaisées

La collecte massive de données que requiert l'IA sous-représente certains groupes

durée 12h00
27 novembre 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Les outils et applications utilisant l'intelligence artificielle (IA) ont le potentiel d'améliorer la qualité de vie des gens. Cependant, dans le processus de collecte massive de données que l'IA requiert pour fonctionner, certains groupes sont sous-représentés, ce qui rend ces applications biaisées.

Une récente étude de l'Université McGill a révélé que les applications de santé assistées par l'IA qui permettent d'obtenir un diagnostic médical s'appuient en effet souvent sur des données biaisées. Les résultats concluent que l'utilisateur risque d'obtenir des conseils inexacts et dangereux pour sa santé.

«Les nombreux modèles de l’IA sont formés sur des ensembles de données qui vont normalement sous-représenter certains groupes comme les minorités raciales, les femmes et les personnes âgées. Ça va entraîner des inexactitudes quand ces modèles vont être appliqués à des populations un peu plus diversifiées», a expliqué Ma'n H. Zawati, auteur principal de l'étude et professeur agrégé au Département de médecine de l’Université McGill.

M. Zawati a indiqué que la grande majorité des applications mobiles de santé sont des applications de suivi, telles que des outils pour suivre le pouls, le nombre de pas, intégrer des données sur la santé, le sommeil, la consommation de nourriture, etc. Ces applications peuvent aussi être utiles aux professionnels de la santé, par exemple pour leurs journaux de progression d'une maladie ou l'utilisation d'un médicament. Ces technologies sont moins complexes et ont surtout des enjeux de vie privée, c'est-à-dire de savoir qui a accès aux données.

«Ce qui est plus complexe […] ce sont les applications qui vont essayer de mieux comprendre les symptômes et essayer d’expliquer ce qui se passe derrière ces symptômes», soutient M. Zawati. Selon la dernière recension qui a été faite avant la pandémie, on recensait environ 350 000 applications mobiles de santé (pas seulement celles assistées par l’intelligence artificielle). «Ce chiffre aujourd’hui est peut-être aux alentours de 500 000», évalue le professeur.

Des recommandations pour une meilleure inclusion

Les enjeux de discrimination dans la collecte de données ne touchent pas seulement les applications mobiles ou l’utilisation de l’intelligence artificielle, souligne M. Zawati.

En abordant l'IA au sens plus large, le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) ainsi que Mila - l'Institut québécois de l'intelligence artificielle ont d'ailleurs publié mardi ce qu'ils décrivent comme «le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA».

Ces deux institutions de premier plan dans le domaine de l'intelligence artificielle ont pointé que les progrès rapides de l'IA risquent d'exacerber les inégalités existantes en amplifiant les préjugés, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés.

Ce rapport a été publié en même temps qu'un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations qu'il comporte pour favoriser une plus grande inclusivité dans le développement technologique. Les deux documents ont été présentés à Montréal, mardi, dans le cadre d'un événement auquel ont participé des représentants de la communauté de l'IA, des dirigeants internationaux de même que la présidente du Conseil du Trésor du Canada, Anita Anand.

Dans un communiqué, l'institut Mila soulève que «le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives». Il cite l'exemple de groupes marginalisés pour lesquels les opportunités d'emploi sont limitées et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.

Le rapport dresse plusieurs recommandations, dont celle «d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA».

Il suggère aussi «de favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous».

M. Zawati abonde dans le même sens en prônant le concept de co-conception. «Il est important d'avoir une perspective d’inclusivité et de collaboration. Surtout quand on parle de communauté, il faut impliquer les parties prenantes dans le processus de développement de l’outil», dit-il.

Selon le professeur Zawati, il faudrait aussi améliorer la transparence quand on développe des modèles d’intelligence artificielle. «Cela permettrait pour l’utilisateur de comprendre comment les décisions sont prises. De plus, il serait plus facile de repérer si certaines recommandations d'une application sont biaisées et de les corriger le cas échéant.»

M. Zawati fait aussi valoir que l'un des enjeux cruciaux est de rendre les choses beaucoup plus accessibles, que ce soit les outils eux-mêmes ou l'utilisation de la langue, par exemple. «C’est une des stratégies les plus importantes. Si on veut que ce soit représentatif, il faut avoir des données qui sont diversifiées et représentatives. Donc, il faut collecter des données qui représentent une large gamme de démographie, y compris la race, le sexe, l’âge, les milieux socioéconomiques. Ça va permettre de combler les lacunes où certaines de ces populations sont sous-représentées», explique-t-il.

Le contenu en santé de La Presse Canadienne obtient du financement grâce à un partenariat avec l’Association médicale canadienne. La Presse Canadienne est l’unique responsable des choix éditoriaux.

Katrine Desautels, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


durée Hier 11h00

Loto-Québec remet 5 500 $ à la Fondation Jeunesse des Basses-Laurentides

Des personnes chanceuses ont remporté des lots totalisant 5 500 $ à la salle Kinzo Galeries Laval en octobre durant la promotion Qui gagne fait gagner. Pour l’occasion, Loto-Québec a offert du même coup 5 500 $ à la Fondation Jeunesse des Basses-Laurentides, une cause chère à l’équipe du Kinzo Galeries Laval. La promotion Qui gagne fait ...

durée Hier 10h00

Êtes-vous paraskevidékatriaphobe?

Avez-vous regardé votre calendrier ce matin? Vous aurez compris que ce mot signifie la peur du vendredi 13. Son étymologie est issue du grec, soit paraskevi (vendredi), decatreis (treize) et bien sûr, le très usité phóbos, qui signifie peur.  C'est le deuxième vendredi 13 de l'année 2024; le premier était en septembre. L'an qui s'en vient n'en ...

durée Hier 9h00

Les créanciers ont approuvé l’accord proposé de 32,5 milliards $ sur le tabac

Des créanciers ont approuvé jeudi les plans d'arrangement visant à indemniser les victimes du tabac, représentant une «étape charnière» dans la bataille juridique menée par le Conseil québécois sur le tabac et la santé (CQTS). Le projet de règlement de 32,5 milliards $ entre les trois géants du tabac — JTI-Macdonald, Rothmans, Benson & Hedges et ...

app-store-badge google-play-badge