Nous joindre
X
Rechercher
Publicité

Applications biaisées

La collecte massive de données que requiert l'IA sous-représente certains groupes

durée 12h00
27 novembre 2024
ici

commentaires

ici

likes

 

vues

imprimante
email
Par La Presse Canadienne

Les outils et applications utilisant l'intelligence artificielle (IA) ont le potentiel d'améliorer la qualité de vie des gens. Cependant, dans le processus de collecte massive de données que l'IA requiert pour fonctionner, certains groupes sont sous-représentés, ce qui rend ces applications biaisées.

Une récente étude de l'Université McGill a révélé que les applications de santé assistées par l'IA qui permettent d'obtenir un diagnostic médical s'appuient en effet souvent sur des données biaisées. Les résultats concluent que l'utilisateur risque d'obtenir des conseils inexacts et dangereux pour sa santé.

«Les nombreux modèles de l’IA sont formés sur des ensembles de données qui vont normalement sous-représenter certains groupes comme les minorités raciales, les femmes et les personnes âgées. Ça va entraîner des inexactitudes quand ces modèles vont être appliqués à des populations un peu plus diversifiées», a expliqué Ma'n H. Zawati, auteur principal de l'étude et professeur agrégé au Département de médecine de l’Université McGill.

M. Zawati a indiqué que la grande majorité des applications mobiles de santé sont des applications de suivi, telles que des outils pour suivre le pouls, le nombre de pas, intégrer des données sur la santé, le sommeil, la consommation de nourriture, etc. Ces applications peuvent aussi être utiles aux professionnels de la santé, par exemple pour leurs journaux de progression d'une maladie ou l'utilisation d'un médicament. Ces technologies sont moins complexes et ont surtout des enjeux de vie privée, c'est-à-dire de savoir qui a accès aux données.

«Ce qui est plus complexe […] ce sont les applications qui vont essayer de mieux comprendre les symptômes et essayer d’expliquer ce qui se passe derrière ces symptômes», soutient M. Zawati. Selon la dernière recension qui a été faite avant la pandémie, on recensait environ 350 000 applications mobiles de santé (pas seulement celles assistées par l’intelligence artificielle). «Ce chiffre aujourd’hui est peut-être aux alentours de 500 000», évalue le professeur.

Des recommandations pour une meilleure inclusion

Les enjeux de discrimination dans la collecte de données ne touchent pas seulement les applications mobiles ou l’utilisation de l’intelligence artificielle, souligne M. Zawati.

En abordant l'IA au sens plus large, le Centre d'expertise International de Montréal en intelligence artificielle (CEIMIA) ainsi que Mila - l'Institut québécois de l'intelligence artificielle ont d'ailleurs publié mardi ce qu'ils décrivent comme «le rapport le plus complet à ce jour sur l'égalité des sexes et la diversité dans l'IA».

Ces deux institutions de premier plan dans le domaine de l'intelligence artificielle ont pointé que les progrès rapides de l'IA risquent d'exacerber les inégalités existantes en amplifiant les préjugés, la discrimination et les stéréotypes, en particulier ceux qui touchent les femmes et d'autres groupes historiquement marginalisés.

Ce rapport a été publié en même temps qu'un guide d'accompagnement pour aider les décideurs politiques à mettre en œuvre les recommandations qu'il comporte pour favoriser une plus grande inclusivité dans le développement technologique. Les deux documents ont été présentés à Montréal, mardi, dans le cadre d'un événement auquel ont participé des représentants de la communauté de l'IA, des dirigeants internationaux de même que la présidente du Conseil du Trésor du Canada, Anita Anand.

Dans un communiqué, l'institut Mila soulève que «le manque de diversité dans les écosystèmes d'IA peut également renforcer les stéréotypes et la discrimination en excluant certaines perspectives». Il cite l'exemple de groupes marginalisés pour lesquels les opportunités d'emploi sont limitées et où les ressources ont été distribuées de manière inéquitable, en particulier envers les personnes handicapées.

Le rapport dresse plusieurs recommandations, dont celle «d'orienter le financement vers des initiatives alignées sur les principes de conception de technologies inclusives, promouvant des applications, des pratiques et des processus équitables dans les écosystèmes d'IA».

Il suggère aussi «de favoriser la participation active des groupes marginalisés à la gouvernance de l'IA afin d'assurer un meilleur encadrement de l'IA pour tous».

M. Zawati abonde dans le même sens en prônant le concept de co-conception. «Il est important d'avoir une perspective d’inclusivité et de collaboration. Surtout quand on parle de communauté, il faut impliquer les parties prenantes dans le processus de développement de l’outil», dit-il.

Selon le professeur Zawati, il faudrait aussi améliorer la transparence quand on développe des modèles d’intelligence artificielle. «Cela permettrait pour l’utilisateur de comprendre comment les décisions sont prises. De plus, il serait plus facile de repérer si certaines recommandations d'une application sont biaisées et de les corriger le cas échéant.»

M. Zawati fait aussi valoir que l'un des enjeux cruciaux est de rendre les choses beaucoup plus accessibles, que ce soit les outils eux-mêmes ou l'utilisation de la langue, par exemple. «C’est une des stratégies les plus importantes. Si on veut que ce soit représentatif, il faut avoir des données qui sont diversifiées et représentatives. Donc, il faut collecter des données qui représentent une large gamme de démographie, y compris la race, le sexe, l’âge, les milieux socioéconomiques. Ça va permettre de combler les lacunes où certaines de ces populations sont sous-représentées», explique-t-il.

Le contenu en santé de La Presse Canadienne obtient du financement grâce à un partenariat avec l’Association médicale canadienne. La Presse Canadienne est l’unique responsable des choix éditoriaux.

Katrine Desautels, La Presse Canadienne

commentairesCommentaires

0

Pour partager votre opinion vous devez être connecté.

RECOMMANDÉS POUR VOUS


11 novembre 2024

Le lock-out au port de Montréal pourrait avoir des conséquences «catastrophiques»

La fermeture du port de Montréal par l’Association des employeurs maritimes aura des conséquences «catastrophiques» si elle dure plusieurs jours, prévient l’Administration portuaire de Montréal. L’association des employeurs a mis les 1200 débardeurs du port de Montréal en lock-out, dimanche soir à 21 h. Les débardeurs refusaient de faire des ...

10 septembre 2024

L’AQPS invite la population à s’engager en prévention du suicide

L’Association québécoise de prévention du suicide (AQPS) souligne la Journée mondiale de la prévention du suicide (JMPS) et invite toute la population québécoise à se mobiliser envers la prévention en signant le tout nouveau Manifeste pour un Québec sans suicide. L’AQPS compte déjà sur l’appui de plusieurs dizaines de personnes, dont ...

5 septembre 2024

Le monde produit 57 millions de tonnes de pollution plastique chaque année

Chaque année, le monde produit 57 millions de tonnes métriques de pollution plastique et la répand des profondeurs des océans jusqu'aux plus hauts sommets des montagnes, mais aussi à l'intérieur du corps humain, selon une nouvelle étude qui indique également que plus des deux tiers de cette pollution proviennent du Sud global. Cela représente ...