Les droits des travailleurs de la donnée : l’angle mort de l’intelligence artificielle (IA)

Intelligence artificielle :
trois mesures urgentes
pour protéger les travailleurs de la donnée

Tribune publiée le 1er novembre 2023 au journal Libération

L’intelligence artificielle (IA), définie comme pouvant générer des contenus, des prédictions, des recommandations ou des décisions développés notamment au moyen de techniques d’apprentissage automatique, suscite beaucoup de craintes, en particulier, sur le sort des emplois dans les pays du Nord. Mais rien n’est dit du sort des travailleurs sans lesquels la plupart des solutions d’intelligence artificielle ne pourraient prospérer. Nous évoquons ici bien plus que les ingénieurs informatiques et les data scientists.

Ces experts du code ne constituent qu’une infime fraction des acteurs de l’intelligence artificielle. Qu’il s’agisse de reconnaissance faciale ou vocale, de détection d’événements, de prévision, de personnalisation, d’interaction, d’optimisation de systèmes préexistants, ou de déductions logiques, l’intervention d’hommes et de femmes est rendue nécessaire à, au moins, deux moments de la chaîne de création de ces nouveaux outils.

En amont, afin d’entraîner l’algorithme par la classification de données brutes ; et en aval, afin de corriger ses biais et l’améliorer continuellement. Par exemple, nulle automatisation des caisses d’une restauration collective sans découpage de milliers de photos de plateaux où l’on aura distingué, pour l’algorithme, la banane du pot de yaourt ; nulle correction de l’enceinte vocale qui a pris «boisson» pour «poisson» sans écoute de la demande par un humain.

Des conditions de travail éprouvantes

Selon la Banque mondiale, 154 à 435 millions de personnes dans le monde travailleraient pour une plateforme numérique, soit entre 4,4 % à 12,5 % de la main-d’œuvre mondiale. Parmi eux se trouvent les travailleur·se·s de la donnée, tâcherons des temps modernes. Les premières tentatives de réglementation du secteur se préoccupent, à raison, de l’incidence de l’intelligence artificielle sur les conditions de vie des utilisateurs (du Nord) et personnes visées à la fin du processus (c’est le cas de la proposition de règlement européen sur l’IA, ou IA Act). Mais il n’y a, à ce jour, aucune démarche équivalente pour garantir aux travailleur·se·s de la donnée (du Sud) le respect de leurs droits sociaux fondamentaux. Et ce n’est pas davantage un sujet pour les acteurs traditionnels de la démocratie politique et sociale.

Pourtant, les conditions de ces travailleur·se·s peuvent être particulièrement éprouvantes : exposition à des contenus violents, répression syndicale, longues heures de travail pour satisfaire aux demandes de clients situés dans un autre fuseau horaire, rémunérations basses, voire parfois absence de rémunération, contrats précaires, informalité, etc. Le projet Fairwork de l’Université d’Oxford révèle même une détérioration des conditions de travail depuis 2021, notamment en ce qui concerne l’équité salariale, la non-discrimination et le droit à la représentation syndicale sur les plateformes de micro-travail.

Des perspectives de réglementation sont pourtant envisageables. Pour cela, il faut commencer par prendre l’intelligence artificielle pour ce qu’elle est : une nouvelle manifestation de la globalisation. Celle-ci emprunte à la mondialisation que l’on connaît de nombreuses caractéristiques : une organisation juridique qui s’appuie sur des contrats de sous-traitance et de fourniture internationaux impliquant une délocalisation d’emplois du Nord vers le Sud ; une division internationale du travail qui s’appuie sur une répartition géographique héritée de périodes de domination économique et politique ; et une absence d’ordre juridique garantissant de façon transnationale le respect des droits des travailleurs. ChatGPT, produit de la société américaine OpenAI, est ainsi le résultat d’heures de travail réalisées par des kényan·es, TikTok doit sa modération de contenu à des travailleurs colombiens employés par la société française Teleperformance, la détection de piscines non déclarées en France est le fait de travailleur·se·s malgaches recruté·es, en dernier lieu et via des sous-traitants, pour le compte de la société CapGemini, ainsi de suite.

L’IA n’est donc rien d’autre, en définitive, qu’une énième chaîne globale de valeur. Or, les catastrophes sociales et écologiques que cette forme d’organisation mondiale de l’économie a pu provoquer ont conduit à un certain nombre de réactions institutionnelles parfaitement applicables à l’IA. Parmi elles, «les Principes directeurs des Nations unies relatifs aux entreprises et aux Droits de l’homme» adoptés en 2011 visent à domestiquer les activités des entreprises multinationales.

Des emplois assortis de protection sociale

Il y a là un cadre juridique qui permet d’assurer que l’essor de l’intelligence artificielle, que l’on veut bien croire irréversible, ne rejoue pas la même logique d’injustice sociale et de manque de solidarités que la mondialisation précédente ; qu’elle soit non pas synonyme de déterminisme mais, au contraire, de levier pour améliorer les conditions de travail des uns et pour créer des emplois assortis de protection sociale pour les autres.

Premièrement, les Etats doivent établir des exigences claires à l’égard des entreprises concernant l’importance du respect des droits humains dans leur chaîne de valeur. L’IA Act, en cours de négociation, pourrait ainsi prévoir une responsabilité (au sens large) des producteurs, des importateurs et des utilisateurs professionnels de solutions IA pour les conditions sociales dans lesquelles elles ont été élaborées.

Deuxièmement, les entreprises doivent prendre en compte les impacts négatifs que peuvent avoir leurs activités sur les droits humains dans leur chaîne de valeur. Commercialiser ou tirer profit d’une solution IA fondée, in fine, sur du travail humain, doit conduire ces entreprises à mener une politique active d’identification et de réduction des risques afférents dans la chaîne d’approvisionnement.

Troisièmement, les Etats doivent garantir l’accès des victimes à des voies de recours. La loi française sur le devoir de vigilance, qui impose aux sociétés mères et donneuses d’ordre de prendre toutes les mesures nécessaires à la prévention de risques d’atteintes graves aux droits sociaux fondamentaux dans leur chaîne de valeur, en est une. Mais encore faut-il qu’elle soit empruntée. Les syndicats français, auxquels la loi confère intérêt à agir, pourraient y trouver un outil puissant de mise en respect des droits fondamentaux des travailleurs de la donnée ainsi qu’un moyen d’action à l’échelle globale des chaînes de valeur de l’IA auxquelles travailleurs du Sud et salariés du Nord sont parties prises.

 

Intérêt à Agir & Antonio Casilli, Professeur Télécom Paris, Institut polytechnique de Paris, cofondateur du groupe de recherches DiPLab (Digital Platform Labor)