L’intelligence artificielle, cette chimère

20 décembre 2020

L’intelligence artificielle, cette chimère

Philippe de Grosbois

Voici un article paru dans la revue Milieu(x) en 2019, reproduit ici avec leur permission.

Les discours autour des technologies numériques et informatiques sont généralement très chargés sur le plan idéologique. Les géants du numérique issus de la Silicon Valley sont des maîtres du genre. L’idéologie californienne développée dans les années 1980 et 1990 – et encore très influente aujourd’hui – fait fortement appel aux notions de participation et de communauté pour promouvoir une économie largement déréglementée, un libre-marché réellement existant grâce à une technologie qui permettrait aux individus de se « connecter » librement les uns aux autres. C’est ainsi que sous couvert d’« économie du partage » et de « travail autonome », des firmes comme Amazon, Uber et Airbnb développent des modèles d’organisation du travail d’une grande brutalité (de Grosbois, 2018). Il en est de même de cette étrange expression d’« informatique en nuage », qui invite à imaginer nos données flottant quelque part dans les galaxies du cyberespace. Une métaphore extrêmement pratique pour occulter les gigantesques effets sur l’environnement des serveurs qui stockent nos données, mais aussi pour entretenir le mythe qu’il est bien difficile de réglementer ces entreprises aux activités « dématérialisées » situées au-delà de la prise des pouvoirs législatifs « terrestres ».

Or, le portrait se complique lorsqu’on observe une bonne part des discours critiques autour de ces mêmes technologies : trop souvent, ces analyses se mettent en forme comme le revers parfait des chants de sirène des capitaines d’industries du numérique. La technologie y apparaît comme toute puissante, dévoreuse d’humanité, destructrice du lien social et du monde commun. Ces perspectives aux accents apocalyptiques sont attirantes pour des sociétés devant composer avec des changements rapides, mais le font au prix d’un simplisme qui empêche de bien saisir les rapports de force à l’œuvre. Surtout, elles contribuent à une mystification et une réification des technologies qu’elles cherchent pourtant à étudier de manière critique.

La manière dont les enjeux autour de l’intelligence artificielle sont actuellement traités me semble emblématique de cette fausse dichotomie, comme nous le verrons dans cet article. J’aimerais ici développer un cadre d’analyse critique de l’intelligence artificielle qui cherche à déconstruire l’expression pour mieux en montrer les ressorts très humains. Un regard sociologique sur le contexte économique et social dans lequel l’intelligence artificielle prend place est à mon avis le meilleur outil d’autodéfense intellectuelle contre les prophètes de tous acabits qui s’en réclament.

L’intelligence comme artifice

D’entrée de jeu, il est frappant de voir qu’un mot référant à une faculté si difficile à définir que l’intelligence soit employé aussi aisément dans le discours public [1]. La mise de l’avant du mot « intelligence » par les entreprises du numérique remonte au moins aux années 2000 avec l’expression « téléphone intelligent », maintenant entrée dans le langage courant. Le terme est doublement problématique, puisque d’une part, on ne fait presque plus d’appels avec ces téléphones, et d’autre part, on ne saurait dire en quoi cet objet est doté d’intelligence, à part peut-être pour accumuler et transmettre des données à notre sujet.

Cela n’a pas empêché le smartphone d’ouvrir la voie à une pléthore d’autres « appareils intelligents » : téléviseurs, montres, voitures, jouets, réfrigérateurs, maisons… Lorsqu’on en vient à parler de villes intelligentes ou de systèmes de santé intelligents, on franchit un pas supplémentaire, puisqu’il ne s’agit plus seulement d’outils ou d’objets mais d’institutions entières ou de modes d’organisation en société qui se voient assistés avec bienveillance par la technologie. On semble suggérer implicitement que sans support technologique avancé, ces créations humaines au profond ancrage historique seraient dépourvues d’intelligence. On reconnaît bien là les ambitions salvatrices des firmes du numérique : l’intelligence artificielle se porterait à la rescousse de l’humanité en venant résoudre des crises en tous genres.

Par ailleurs, les représentations collectives de l’intelligence artificielle sont aussi fortement teintées de craintes s’articulant généralement autour d’une prise de contrôle des ordinateurs ou des robots sur notre existence. On peut aisément remonter à l’automate créé par Victor Frankenstein dans le célèbre roman de Mary Shelley publié en 1818. Plus près de nous, le cinéma (2001, l’odyssée de l’espace, la série des ­Terminator ou celle de la Matrice) et la télévision (les Borg de Star Trek, les séries Black Mirror et Westworld) fournissent de nombreux exemples de cette technologie devenue autonome, auto-reproductible et déterminée à asservir les humains à ses propres finalités.

Du côté des réflexions critiques, on constate aussi la hantise de voir une technique dotée de ses propres modalités de régulation et d’expansion. Sans que les « machines » soient pourvues de la capacité à penser par elles-mêmes dans ces analyses, plusieurs semblent néanmoins présumer que leur développement est inéluctable et leurs effets irrémédiablement destructeurs. C’est ainsi qu’on annonce que « près de la moitié des emplois au Canada risquent d’être automatisés d’ici 10 à 20 ans  » (Radio-Canada, 2016). Qu’importe que la société des loisirs annoncée dans les années 1960 ne se soit jamais matérialisée, il semble que cette fois-ci soit la bonne : la fin du travail serait à nos portes (où sont passés les loisirs, au fait ?).

À d’autres occasions, ce sont les perfectionnements de la voix et des images de synthèse (les deepfakes) qui amènent des analystes à imaginer l’enfer sur Terre de la post-vérité : comment savoir si la vidéo où tel.le politicien.ne soutient une affirmation délirante a été produite grâce à l’intelligence artificielle ? Pour d’autres encore, c’est le traitement algorithmique de l’information par les médias sociaux qui nous garderait coincés dans des « bulles filtrantes » dont nous serions éventuellement incapables de sortir. Certain.e.s vont plus loin en affirmant que notre époque voit l’émergence d’une gouvernementalité algorithmique, par laquelle des outils technologiques réguleraient notre existence en se substituant aux mécanismes décisionnels proprement politiques. Même le réputé physicien Stephen Hawking affirmait peu avant sa mort que « quelqu’un pourrait concevoir une IA qui peut s’améliorer et se reproduire. Ce serait une nouvelle forme de vie capable de surpasser les humains » (Lesage, 2017).

Les racines humaines de l’artificiel

Or, il faut toujours garder à l’esprit que la technologie n’est pas une force surnaturelle, détachée de la société qui la produit. L’intelligence artificielle est d’abord et avant tout le produit d’un certain type de société. Cela ne signifie pas qu’il est futile de s’inquiéter de ces développements informatiques, au contraire. Ironiquement, on verra qu’il n’est absolument pas nécessaire d’aller aussi loin dans les prospectives pour s’inquiéter : loin de prendre racine dans une éventuelle autonomie de logiciels informatiques, les menaces de l’intelligence artificielle proviennent au contraire beaucoup plus de sa subordination aux intérêts d’un capitalisme fortement hiérarchisé et entré depuis quelques années dans une phase autoritaire. Pour bien saisir le caractère pas si artificiel de l’intelligence artificielle, je propose de rendre compte de son déploiement à partir de trois questions.

1. Qui la finance et à quelles fins ?

Personne ne sera étonné de lire que le développement de l’intelligence artificielle se fait d’abord et avant tout par l’entremise de firmes privées à des fins de profit (bien que des fonds publics soient souvent mis à contribution) (Gélinas, Lavoie-Moore, Lomazzi et Hébert, 2019). Cet aspect est central puisqu’il a des effets déterminants sur le type de logiciel qui sera développé (ainsi que sur le type de données qui seront construites et accumulées, comme on le verra plus loin).

Revenons sur certaines craintes évoquées plus haut. Un des principaux enjeux autour de la robotisation de certains emplois est aussi au cœur de l’ère néolibérale : qui bénéficie des gains de productivité entraînés notamment par le développement technologique ? Depuis presque 40 ans, ces gains ont été instrumentalisés par le secteur financier à des fins de déqualification des travailleuses et travailleurs, de réduction des effectifs (et donc d’augmentation du chômage et de la précarité) et de réduction des salaires. Or, comme la mondialisation ou les lois du marché, la robotisation n’est pas une fatalité, une épée de Damoclès bien plantée au-dessus de nos têtes. Comme l’écrivait l’écologiste social André Gorz dès les années 1980, ces mêmes gains pourraient aussi être orientés vers un partage équitable de cette denrée de plus en plus rare qu’est l’accès à un travail porteur de sens, à travers la réduction organisée et démocratique du temps de travail (Gorz, 1988 ; Gianinazzi, 2016).

L’impératif de profit doit également être présent à notre esprit lorsqu’on discute des algorithmes utilisés par les médias sociaux pour filtrer l’information à laquelle nous accéderons. Si ces algorithmes sont aussi présents, c’est d’abord pour nous garder le plus souvent et le plus longtemps possible sur ces sites et applications, de manière à capturer notre temps d’attention pour le revendre à des publicitaires. Des chercheurs constatent que l’algorithme de recommandation de vidéos de YouTube suggère des clips au contenu toujours plus extrême (masculinistes, néo-fascistes, mais aussi, sur un tout autre registre, des vidéos sur le végétalisme pour une personne venant de regarder un clip sur le végétarisme), probablement parce qu’on a déduit que cela permettait de maintenir les individus sur le site (Tufekci, 2018). C’est avec ce même objectif d’accaparement du temps disponible que Facebook sélectionne pour notre « fil de nouvelles » les publications ayant tendance à renforcer nos convictions et à nous isoler entre convaincu.e.s.

Les finalités qu’on donne à cette « intelligence artificielle » sont donc tout à fait humaines. C’est pourquoi une lumière rouge doit s’allumer dans nos têtes chaque fois qu’un marchand du temple annonce que l’IA (ou l’Internet des objets, ou les imprimantes 3D, ou que sais-je encore) permettra de sauver des vies : encore faut-il que des firmes fassent le choix de la développer en ce sens. En attendant ce jour, on voit plutôt des thermostats connectés qui transmettent des publicités pour les soldes d’avant Noël [2]

2. Comment les algorithmes sont-ils développés et sur la base de quelles données ?

Le second ancrage bien humain de l’IA est celui de son développement à travers les données massives. L’apprentissage machine (machine learning) est la grande innovation des vingt dernières années qui a renouvelé les espoirs à l’endroit du développement de cette intelligence : avec des quantités incroyables de données et quelques instructions, l’algorithme est capable de détecter par lui-même des régularités et des corrélations.

Les apologistes de l’intelligence artificielle ajoutent généralement ici que ce traitement informatique permettra d’éviter la discrimination de ces humains bien imparfaits aux biais sexistes, racistes, âgistes, etc. Il y a cependant un léger problème : qui a donné des instructions à l’algorithme, et quelles données lui ont-elles été fournies ? Le code informatique et les données ne sont jamais neutres. N’en déplaise aux positivistes, une donnée est toujours construite, et son traitement « objectif » par un algorithme peut mener à la reproduction d’inégalités ou de perceptions biaisées déjà présentes dans la société.

La mathématicienne Cathy O’Neil fournit de nombreuses illustrations de ce phénomène dans son livre Weapons of Math Destruction (O’Neil, 2016). Elle donne notamment l’exemple de la « prévision policière » assistée par des algorithmes : dans des villes des États-Unis, on envoie les policiers dans certains quartiers sur la base d’arrestations passées, ce qui reconduit le profilage racial et social opéré par les autorités en lui donnant un vernis mathématique (donc « neutre »). On sait aussi qu’Amazon avait testé un algorithme qui analysait les curriculum vitae de ses employé.e.s pour ensuite déterminer si ceux de futur.e.s candidat.e.s étaient intéressants pour l’entreprise. Or, comme un nombre disproportionné d’hommes travaillent chez Amazon, le mot « femme » dans un C.V. était pénalisé par l’algorithme, alors que le vocabulaire plus viril était favorisé. L’expérience a été considérée comme un échec et le projet a été annulé, mais des outils similaires sont utilisés pour évaluer des enseignant.e.s, déterminer si des babysitters traiteront bien les enfants sous leur responsabilité et établir qui aura droit à un prêt financier (Dastin, 2018 ; O’Neil, 2016 ; Harwell, 2018).

Comme l’explique la professeure en informatique Melanie Mitchell, « des logiciels d’intelligence artificielle qui manquent de sens commun et d’aspects clés de la compréhension humaine sont de plus en plus déployés pour des usages dans le monde concret. Alors que certaines personnes s’inquiètent d’une IA superintelligente, l’aspect le plus dangereux de ces systèmes est que nous leur fassions trop confiance et leur donnions trop d’autonomie sans bien saisir leurs limites [3] » (Mitchell, 2018). La critique de l’intelligence artificielle doit éviter de la surestimer : ce n’est pas la puissance de l’IA qui est inquiétante, mais bien sa médiocrité.

3. Qui produit ces données et qui entraîne ces algorithmes ?

En abordant le traitement algorithmique des données, on touche à une troisième question capitale pour comprendre ce qu’on appelle aujourd’hui l’intelligence artificielle : qui produit ces données et qui les met en forme pour entraîner les algorithmes ? Cette question nous permet de mettre en lumière un ressort humain méconnu de cette intelligence artificielle, à savoir le digital labor (Cardon et Casilli, 2015).

À un premier niveau, on peut dire que par notre usage d’Internet, nous produisons tous des données traitables et monnayables. Notre navigation en ligne, nos recherches sur Google, nos « J’aime » sur Facebook sont des signaux que nous envoyons, volontairement ou non, à de grandes entreprises qui peuvent ensuite en tirer des régularités et faire des prédictions. Par ailleurs, on aurait tort de limiter cette collecte de données au seul univers du « numérique » : avec le déploiement des téléphones multifonctions, ce sont toutes sortes d’activités quotidiennes dans le monde « physique » qui sont aussi transformées en données. Le sociologue et publicitaire Fabien Loszach expliquait récemment que les publicités affichées sur les panneaux installés dans la rue peuvent avoir été choisies en utilisant les données de data brokers sur les caractéristiques socio-économiques des personnes qui circulent dans un certain secteur, recueillies par leur téléphone (Dugal et Loszach, 2018). Cela soulève un problème essentiel : celui de l’appropriation privée des données, une richesse créée par les sociétés humaines qui devrait être envisagée comme un commun à administrer de manière démocratique et dans le respect de la vie privée des individus.

Mais à un second niveau, le digital labor, c’est aussi du travail au sens strict du terme. Je mentionnais précédemment que l’apprentissage machine s’appuie sur de très grandes quantités de données pour établir des régularités. Ces données doivent souvent être mises en forme par des humain.e.s qui vont nourrir l’algorithme d’informations pour « l’entraîner », en quelque sorte. C’est ainsi que derrière des voitures qu’on qualifie d’autonomes, on trouve des personnes maigrement payées pour identifier des panneaux, des autobus, des cyclistes, des passages à piétons, etc. sur des images. Au Kenya, un millier d’employé.e.s le font huit heures par jour en échange de neuf dollars pour Samasource, une firme de San Francisco comptant Microsoft parmi ses clients. De son côté, le produit Ring d’Amazon (un système de vidéosurveillance « intelligent » qui cherche à protéger les foyers contre des intrusions de domicile) s’appuie depuis des années sur le travail d’Ukrainien.ne.s qui fournissent le même type de travail d’identification. Plusieurs « assistants virtuels » sur des sites web qui répondent aux questions d’utilisateurs reposent aussi en partie sur une contribution humaine (Lee, 2018 ; Biddle, 2019 ; Solon, 2018), tout comme la modération de sites qui bloquent les publications violentes ou vulgaires. Comme l’explique Astra Taylor, « si ce que nous rencontrons sur Facebook, OkCupid ou d’autres plateformes numériques est généralement safe for work, ce n’est pas parce que des algorithmes ont filtré ce fouillis et en ont caché une partie. Nous plongeons dans le flot numérique sans nausée grâce au travail d’humains en chair et en os qui s’assoient devant leur écran jour et nuit, et étiquettent du contenu comme vulgaire, violent ou offensant [4] » (Taylor, s.d.).

C’est en observant la somme de travail humain aliénant et sous-payé qui est nécessaire pour nourrir ces algorithmes qu’on saisit avec le plus d’acuité le caractère idéologique du concept d’intelligence artificielle. L’exemple le plus frappant est celui de la division Mechanical Turk d’Amazon, qui emploie des centaines de milliers de personnes pour qu’elles exécutent des micro-tâches (repérer des lettres et des chiffres sur des images, identifier des émotions sur un visage, évaluer des traductions, etc.) pour un salaire dérisoire. Je ne suis pas le premier à relever la candeur ou l’arrogance avec laquelle Amazon a nommé ce projet : le Turc mécanique fait référence à une invention hongroise du XVIIIe siècle, qui faisait croire aux spectateurs qu’une machine sous forme d’un humain en bois pouvait jouer aux échecs. En réalité, la machinerie était dirigée par un joueur dissimulé derrière les rouages (Sadowski, 2018). Lorsqu’on observe d’où viennent les données utilisées par l’intelligence artificielle contemporaine, on se rend compte qu’elle fonctionne généralement à la manière de ce Turc mécanique. Pour le sociologue Antonio Casilli, « ce marché parallèle du micro-travail, du travail invisible, du digital labor explose aujourd’hui, malgré un effort d’occultation, malgré un effort d’invisibilisation qui est crucial pour pouvoir vendre aux investisseurs le rêve du robot » (Cario, 2019 ; Casilli, 2019).

Rendre visible la « fauxtomation »

Vous faites votre épicerie et utilisez une caisse sans employé.e, en passant vous-mêmes les produits devant un lecteur de code-barres. Vous allez à l’aéroport et enregistrez vous-mêmes vos bagages à l’aide d’un terminal. Le travail a-t-il disparu ? Pas du tout : c’est maintenant vous qui le faites gratuitement, explique la documentariste et autrice états-unienne Astra Taylor dans son article « The Automation Charade » (Taylor, s.d.). Les effets de l’informatisation de la société, du tout-numérique et de l’expansion de l’intelligence artificielle ne sont pas aussi simples qu’il peut sembler au premier abord. Pour mieux saisir cette complexité, Taylor propose le terme de « fauxtomation », puisque l’automatisation amenée par l’informatique « est à la fois une réalité et une idéologie [5] ». L’automation, soutient-elle, « renforce la perception selon laquelle le travail n’a pas de valeur s’il n’est pas payé et nous habitue à l’idée qu’un jour on n’aura plus besoin de nous ». Taylor s’inspire de Sylvia Federici et du courant socialiste féministe pour montrer que « le capitalisme vit et croît en masquant certaines formes de travail, en refusant de le payer ou en prétendant qu’il ne s’agit pas, en fait, de travail ». Ces mensonges qu’on a longtemps servis aux femmes pour leur soutirer un travail domestique gratuit sont « de plus en plus imposés à la population entière [6] » (Taylor, s.d. ; Robert et Toupin, 2018).

Trop souvent, des perspectives critiques tombent dans le panneau du prophétisme de l’intelligence artificielle. « Si on confond la fauxtomation avec la réalité », affirme Astra Taylor, « on renforce l’illusion selon laquelle les machines sont plus intelligentes qu’elles ne le sont en réalité ». « Le problème », poursuit-elle, «  est que l’emphase sur les seuls facteurs technologiques, comme si l’“innovation disruptive” vient de nulle part ou est aussi naturelle qu’une brise fraîche, colporte un esprit d’inévitabilité sur quelque chose qui prend racine dans un conflit de classes ».

Dans cette perspective, rendre visible le fonctionnement concret des outils qui sont actuellement développés me semble une tâche prioritaire pour l’analyse critique de l’intelligence artificielle. Pour se défaire des récits que colportent à la fois les prophètes euphoriques de l’intelligence artificielle et les prophètes de malheur de l’obsolescence de l’humanité, il m’apparaît nécessaire d’observer de plus près ces technologies ainsi que le contexte social et économique dans lesquelles elles sont conçues, déployées et mobilisées. Il s’agit là d’un vaste chantier ; j’espère que cet article en convaincra à se lancer.

Bibliographie

Biddle, Sam (2019). « For Owners of Amazon’s Ring Security Cameras, Strangers May Have Been Watching Too », The Intercept, 10 janvier 2019.

Cardon, Dominique et Antonio A. Casilli (2015). Qu’est-ce que le digital labor ?, Bry-sur-Marne, INA Éditions.

Cario, Erwan (2019). « Le mythe du robot est utilisé depuis des siècles pour discipliner la force de travail », entrevue avec Antonio A. Casilli, Libération, 9 janvier 2019.

Casilli, Antonio A. (2019). En attendant les robots. Enquête sur le travail du clic, Paris, Seuil.

Dastin, Jeffrey (2018). « Amazon scraps secret AI recruiting tool that showed bias against women », Reuters, 9 octobre 2018.

De Grosbois, Philippe (2018). « Résister à l’ubérisation du travail  », Raisons sociales, 29 août 2018.

Dugal, Matthieu et Fabien Lozach (2018). « Le grand marché des données : Chronique de Fabien Loszach », La Sphère, 24 mars 2018.

Gélinas, Joëlle, Myriam Lavoie-Moore, Lisiane Lomazzi et Guillaume Hébert (2019). « Financer l’intelligence artificielle, quelles retombées économiques et sociales pour le Québec  », Institut de recherche et d’informations socio-économiques, 26 mars 2019.

Gianinazzi, Willy (2016). André Gorz. Une vie, Paris, La Découverte.

Gorz, André (1988). Métamorphoses du travail. Critique de la raison économique, Paris, Gallimard.

Harwell, Drew (2018). « Wanted : The perfect babysitter. Must pass AI scan for respect and attitude », Washington Post, 23 novembre 2018.

Lee, Dave (2018). « Why Big Tech pays poor Kenyans to teach self-driving cars », BBC News, 3 novembre 2018.

Lesage, Nelly (2017). « Stephen Hawking craint que “l’IA remplace complètement les êtres humains” », Numerama, 2 novembre 2017.

Mitchell, Melanie (2018). « Artificial Intelligence Hits the Barrier of Meaning  », New York Times, 5 novembre 2018.

O’Neil, Cathy (2016). Weapons of Math Destruction. How Big Data Increases Inequality and Threatens Democracy, New York, Crown.

Radio-Canada (2016). « Près de la moitié des emplois canadiens menacés par l’automatisation, selon une étude », Radio-Canada, 6 juillet 2016.

Robert, Camille et Louise Toupin (dir.) (2018). Travail invisible. Portraits d’une lutte féministe inachevée, Montréal, Éditions du Remue-ménage.

Sadowski, Jathan (2018). « Potemkin AI », Real Life, 6 août 2018.

Solon, Olivia (2018). « The rise of “pseudo-AI” : how tech firms quietly use humans to do bots’ work », The Guardian, 6 juillet 2018.

Taylor, Astra [s.d.] «  The Automation Charade », Logic, #5.

Tufekci, Zeynep (2018). « YouTube, the Great Radicalizer  », New York Times, 3 mars 2018.


[1Je ne me risquerai pas à tenter de définir l’intelligence ; en fait, il semble plus facile d’établir ce qui n’est pas de l’intelligence que ce qui en est…

[2Sur Twitter : « My thermostat just sent me an alert. I was worried because that thing only sends alerts if there is a problem… but it was a BLACK FRIDAY NOTIFICATION ». https://twitter.com/syswarren/status/1065923024698990592

[3Ma traduction de l’anglais.

[4Ma traduction de l’anglais. Voir aussi l’excellent court-métrage documentaire The Moderators, réalisé par Adrien Chen et Ciaran Cassidy, Field of Vision, 2017 (https://fieldofvision.org/the-moderators).

[5Ma traduction de l’anglais.

[6Ma traduction de l’anglais.

Vous avez aimé cet article?
À bâbord! vit grâce au soutien de ses lectrices et lecteurs.
Partager sur        

Articlessur le même thème