Alex Dorval – Société – janvier 2022

Après les mégadonnées (Big Data), les menaces que posent les algorithmes sur la vie privée, la justice et l’égalité sociale retiennent l’attention des chercheurs en communication.

« La gouvernance algorithmique décrit […] une nouvelle manière de gouverner propre aux sociétés capitalistes avancées qui consiste à mettre en place des mécanismes de pilotage et de décisions automatisés grâce à une mise en données du réel. »

Cette assertion est tirée d’un récent article de Maxime Ouellet, professeur à l’École des médias de l’UQAM et chercheur au Centre de recherche interuniversitaire communication information et société (CRICIS), intitulé Pour une théorie critique de la gouvernance algorithmique et de l’intelligence artificielle.

Les algorithmes sont des procédures de paramétrage numérique pouvant servir à analyser, anticiper et induire des comportements. Loin d’être neutres, ils sont susceptibles d’amplifier les biais discriminatoires envers certains groupes sociaux et de porter atteinte à l’autodétermination et aux chances des individus. – Pixabay

« Qu’il s’agisse de villes intelligentes, de santé, d’économie, de sécurité, de finance, de médias ou de politique, c’est l’ensemble des sphères de la pratique sociale qui est soumise à la régulation algorithmique », relate un autre passage de l’article.

Renforcement des plafonds de verre

Alors que le « Big Data » et le croisement de données soulèvent des questions éthiques en lien avec la vie privée (profilage, vol d’identité, etc.), les algorithmes sont quant à eux susceptibles d’amplifier les biais discriminatoires envers certains groupes sociaux et de porter atteinte à l’autodétermination et aux chances des individus.

« L’algorithme n’est pas le plafond de verre en soi, je dirais plutôt qu’il renforce les inégalités sociales en reproduisant celles qui sont déjà en place dans la société », explique Maxime Ouellet.

Cette reproduction ou amplification des biais socioéconomiques et identitaires par les algorithmes fait de plus en plus couler d’encre dans le domaine de la recherche. Au-delà des enjeux relatifs à la vie privée, les chercheurs s’intéressent de plus en plus aux problèmes de discrimination touchant certaines franges de la population déjà marginalisée.

Des études ont par exemple révélé que les algorithmes reproduisent des biais racistes dans le processus de qualification pour un prêt hypothécaire. Cette disqualification algorithmique basée sur les données démographiques, économiques et biométriques s’observe maintenant dans les secteurs financier, immobilier et commercial en général, ainsi que dans ceux de la politique, de l’assurance et même de la santé.

Pourquoi parle-t-on de « gouvernance » ?

L’expression « gouvernance algorithmique » permet de contextualiser l’avènement des algorithmes dans la lignée de l’idéologie de la gouvernance, issue elle-même de la pensée technocratique propre au capitalisme industriel. À l’ère de l’informatique, ce dernier aura muté vers une forme de « capitalisme cybernétique ».

« C’est la gestion de risques appliquée au cadre technologique. C’est une idéologie qui a la prétention de se passer de la compréhension de la cause des problèmes sociaux pour viser une logique de l’agir et éviter les effets indésirables. Ça peut sembler bon à priori, mais il y a une inversion importante au plan politique. Traditionnellement la pensée sociale cherchait à connaitre les causes, mais là on ne se préoccupe plus de celles-ci, mais simplement de corrélations. »

Or, pour Maxime Ouellet, les algorithmes, comme toutes technologies, ne sont pas neutres : « Avec la prétention que ceux-ci sont objectifs ou neutres et le fait qu’on a moins de facilité à s’expliquer leur fonctionnement, il devient plus difficile de remettre l’idéologie de cette gouvernance en question. »

De l’anticipation à la programmation comportementale

Avec les mégadonnées, les gouvernant(e)s ont pu analyser et éventuellement anticiper les comportements des citoyen(ne)s et consommateur(trice)s. Avec les algorithmes, ils sont passés de l’anticipation à la programmation comportementale.

« Les corporations comme les GAFAM participent à la programmation du social, ébranlant ainsi les fondements démocratiques de nos sociétés. C’est en effet sur la dissolution du monde commun que s’érigent ces empires numériques », écrit Maxime Ouellet.

C’est sur cette capacité de « programmation du social » et contre le monopole de l’économie des données qu’il faut intervenir, croit le chercheur. « Il faut remettre en question l’exploitation des données privées à des fins personnelles, les voir comme des communs de l’humanité. Il faut contester l’omnipotence des GAFAM qui ont le monopole sur la collecte et le traitement de nos données. »

Se montrant critique à l’égard des réformes politiques qui ne remettent pas en question cette exploitation des données, Ouellet adhère plutôt aux idées avancées par Evgeny Morozov. Diplômé de Harvard en histoire des sciences politiques, ce critique du webcentrisme suggère de s’attaquer au capitalisme de plateforme en « collectivisant les centres de données ». « La logique actuelle des centres de données privés en est une de monopolisation. Il faudra choisir qui en profite. Est-ce que c’est les compagnies privées ou nos démocraties ? », questionne Maxime Ouellet.

Au-delà de la question de la profitabilité, le chercheur s’interroge sur la déshumanisation de nos rapports économiques à l’ère des mégadonnées et de la gouvernance algorithmique : « On n’est même plus dans une logique de marché, mais dans une logique de contrôle comme on l’était à l’époque féodale. De façon similaire aux ressources naturelles, on dit que “Data is the new oil’’. On est dans la même logique extractiviste. L’enjeu est de ramener ça dans l’espace commun. ».

Lisez également : Et si l’IA entretenait les inégalités sociales

Aliénation

« Les systèmes-experts décomposent l’ensemble des tâches cognitives des travailleurs intellectuels au sein d’une organisation en une série d’opérations qu’il est possible de recoder sous la forme d’un programme qui permet d’assister le processus de prise de décisions », ajoute Maxime Ouellet dans son article sur la gouvernance algorithmique.

De la même manière que, à l’aube du capitalisme industriel, la critique marxiste dénonçait l’aliénation de l’humain découlant de la division du travail, la gouvernance algorithmique reproduit cette logique à l’ère du capitalisme cybernétique en imposant aux humains l’exigence de performance de la machine.

« Le problème c’est de baser l’ensemble de la société sur l’efficacité. On entre alors dans un monde déshumanisé. Quand tu te rends compte que la machine est performante, tu veux devenir une machine », fait valoir le chercheur.

L’OCDE et l’Union européenne proposent aux gouvernements des principes visant à encadrer les pratiques marchandes en lien avec les mégadonnées, les algorithmes et l’intelligence artificielle en général. Le chercheur insiste toutefois : « ces principes, bien que nécessaires, sont loin de suffire. Il faut que nos données nous appartiennent. Il faut construire des communs. »

Commentaires

Je m'abonne à l'infolettre

Acceptation des termes*
Ce champ n’est utilisé qu’à des fins de validation et devrait rester inchangé.

Je m'abonne à l'infolettre