Charles Fontaine – Comité Solidarité Trois-Rivières – novembre 2021 

Véhicules autonomes, algorithmes de détection des cancers hyperperformants et maisons toutes connectées : l’industrie des technologies promet mers et mondes quand il est question d’intelligence artificielle (IA). Mais si les promesses sont plutôt belles, pour certains, la réalité est bien différente.

En effet, de nombreux enjeux éthiques sont soulevés à mesure que se développent et se raffinent les différents outils de l’intelligence artificielle. L’un de ces enjeux, peu connu encore, concerne plus particulièrement l’apprentissage machine (machine learning) où le développement des algorithmes s’appuie sur des données extraites à partir de nos institutions et de nos pratiques (bases de données gouvernementales, utilisation des réseaux sociaux, etc.).

Ainsi, puisque nos sociétés sont elles-mêmes injustes, les outils d’IA développés à partir des données intègrent trop souvent des biais implicites, contribuant au passage, à entretenir l’oppression des individus les plus marginalisés.

Qu’est-ce que l’IA ?

Pour l’heure, on parle d’intelligence artificielle en référence à des machines et des algorithmes pouvant opérer des calculs statistiques avancés, remplir certaines tâches précises ou optimiser certains résultats.

En lien avec les inégalités sociales, le racisme et le sexisme, nous regarderons plutôt du côté des outils ayant recours à l’apprentissage machine, un sous-genre d’IA donnant aux ordinateurs la capacité d’« apprendre » à partir de données : outils d’analyse faciale, de reconnaissance du genre automatique et de prévision policière.

Dans tous ces cas, l’IA n’est rien de plus qu’un algorithme, c’est-à-dire un outil de calcul ultra performant. Et pourtant, elle peut faire du tort.

Puisque nos sociétés sont elles-mêmes injustes, les outils d’IA développés à partir des données intègrent trop souvent des biais implicites, contribuant au passage, à entretenir l’oppression des individus les plus marginalisés. Photo : Pixabay

Une question de biais

Une partie du problème est contenue dans la façon dont ces outils sont programmés. Ils se fondent, souvent, sur des données qui comportent certains biais implicites. Les différents outils produisent donc, plus souvent qu’autrement, des effets discriminatoires. Malgré tout, les algorithmes semblent jouer un rôle de plus en plus marqué dans nos vies, même si cela se fait au détriment de la justice sociale.

L’IA, les biais et les injustices structurelles

Certaines situations illustrent clairement la façon dont les outils de l’intelligence artificielle peuvent, de façon systémique, contribuer aux injustices structurelles et jouer en défaveur des femmes et des personnes racisées.

Par exemple, une étude de 2018 (Buolamwini & Gebru) a révélé que les outils d’analyse faciale présentaient certains biais selon le genre et selon le type de peau. Pour les hommes ayant la peau plus pâle, le taux d’erreur se situait autour de 0,8 %, tandis que pour les femmes ayant la peau plus foncée, le taux d’erreur grimpait jusqu’à 35,5 %. Ainsi, testés de façon intersectionnelle, il semble que le développement et l’utilisation des systèmes d’IA soient affectés par les concepts sociaux de « race » et de « genre ». Mais surtout, leurs performances inégales selon différentes catégories d’individu peuvent mener à d’autres injustices comme la judiciarisation indue ou la perpétuation de certains préjugés.

Autre exemple : les outils de reconnaissance du genre automatique (AGR), principalement utilisés pour la publicité ciblée, vont proposer certains produits à un individu qu’ils auront identifié comme « homme » ou comme « femme ». Cette pratique, binaire, envoie en outre des messages subliminaux quant aux objets qui devraient être utilisés par les hommes et ceux qui devraient l’être par les femmes. L’algorithme, ainsi utilisé, réaffirme certains stéréotypes oppressants.

Évidemment, cet outil de reconnaissance du genre automatisé n’est pas le seul à perpétuer des stéréotypes de genre parmi les développements de l’IA. Timnit Gebru nous invite par ailleurs à penser à l’apparence des cyborgs dans les films et séries télévisées, aux noms donnés aux assistants virtuels et aux systèmes de reconnaissance vocale (Siri, Alexa, Cortana, etc.). Clairement, le développement des systèmes d’IA commerciaux est basé sur des rôles de genre stéréotypés. Presque tous ces produits incorporent, par défaut, une voix féminine pour répondre aux besoins et désirs du consommateur. Nous sommes en droit de nous demander ce que cela signifie, socialement, d’évoluer dans un environnement où tous les rôles subordonnés se voient attribués une identité féminine.

Finalement, Ruha Benjamin, dans un article de 2019, a montré que les outils de prévision policière (comme PredPol) occasionnent des cercles vicieux discriminatoires. Ces logiciels servent à établir des « hotspots » de criminalités en fonction des données sur les arrestations disponibles par quartiers. Or, aux États-Unis (et c’est probablement le cas pour beaucoup d’autres pays occidentaux), il y a une grande disparité entre les crimes commis et les crimes rapportés aux autorités. Par exemple, un sondage nous apprend qu’à Oakland, en banlieue de San Francisco, si les signalements pour consommation de drogues ont surtout lieu dans les quartiers à prédominance noire, la consommation de drogue est pourtant répartie de façon quasi égale sur la totalité du territoire. Déjà, donc, la présence policière semble plus élevée dans ces quartiers en raison de certains biais de disponibilité. En ce sens, lorsqu’un logiciel comme PredPol traite les données existantes de la ville d’Oakland, ce sont les quartiers à prédominance noire qui sont définis comme des « hotspots » de criminalité. Les corps policiers y augmentent conséquemment leur présence, ce qui mène à plus d’arrestations, donc, à nouveau, à plus de données sur les arrestations et ainsi s’enclenche une boucle de rétroaction renforçant structurellement les oppressions et la marginalisation.

Des pistes de solutions

Partout dans le monde des laboratoires sur l’éthique de l’IA émergent et l’on cherche des moyens pour limiter les effets des biais présents dans les bases de données utilisées pour l’apprentissage machine (ML).

Le développement équitable et l’utilisation juste des nouveaux outils de l’IA sont des sujets chauds et l’un des principaux défis est de faire voir les injustices qu’ils entretiennent et réaffirment. De plus en plus de chercheuses, comme Timnit Gebru et Ruha Benjamin, croient par ailleurs, qu’étant donné qu’il s’agit d’un problème social et structurel, il faut, en amont, viser à transformer la société pour qu’elle soit moins injuste. Une façon de faire, disent-elles, est de valoriser la diversité (des vécus, des expériences et des cultures) dans le domaine de l’IA. Cela nous mènerait vers une plus grande sensibilité à l’égard de certaines situations et réduirait la présence d’angles morts.

Il faudrait en outre cesser de penser le développement de la science et la technologie dans l’abstrait, hors du monde, et mesurer les effets réels qu’elles causent.

 

Commentaires

Je m'abonne à l'infolettre

« * » indique les champs nécessaires

Acceptation des termes*
Ce champ n’est utilisé qu’à des fins de validation et devrait rester inchangé.

Je m'abonne à l'infolettre