Le fantôme dans la machine

socialisation de production-IA et lutte de classe

supernova N.7 2024

L’IA est un élément essentiel qui nous permet de saisir l’essence du tourbillon déroutant de notre époque. Une époque qui ne nous laisse souvent pas le temps de s’arrêter, d’analyser, de comprendre pour pouvoir agir au sein des nouvelles réalités de son tissu social et matériel en perpétuel mouvement.

D’un côté, nous sommes confrontés à des potentiels inédits à une échelle collective, et de l’autre, au niveau individuel, on se sent paralysé par les limites de notre existence matérielle. En tant que marxistes, pour surmonter cette tempête, nous devons enraciner notre analyse dans les principes du matérialisme historique, avec un regard tourné vers l’avenir. C’est pourquoi nous commençons par étudier l’histoire de l’IA, en situant son évolution dans les mécanismes de notre mode de production actuel et en mettant en évidence les principales contradictions qu’elle révèle.

Lorsqu’on analyse l’histoire de l’IA, il faut situer ses progrès au cours de ces soixante-dix dernières années dans le contexte plus large de notre accumulation collective de connaissances scientifiques, et non pas la considérer comme un développement isolé. L’histoire de la science, sa conception, sa relation avec la société et la lutte des classes, est le fil conducteur de l’étude épistémologique de L. Geymonat : « classe ouvrière et science » que nous publions dans ce numéro de la revue. Ce matériel nous permet de comprendre pourquoi nous sommes arrivés à l’automatisation et le rôle de la science dans ce processus.

Cybernétique et IA

Nous souhaitons nous concentrer plus particulièrement sur l’IA et sur ses répercussions culturelles et sociales. On peut schématiquement partir du fait que les prémices de l’IA se situent dans l’après-guerre avec la naissance de la cybernétique1, un mouvement interdisciplinaire dont l’objectif était de trouver des cadres de référence communs entre les disciplines. La cybernétique s’est développée comme un moyen de reconnecter la complexité, dans les différentes “spécialités” scientifiques.

Tout fut analysé dans le cadre de systèmes autoguidés, qu’ils soient biologiques ou artificiels. De là est née la notion de développement d’un langage universel pour la science. C’est à travers ses développements que l’on peut retracer les origines des systèmes asservis, des boucles de rétroaction, la théorie générale des systèmes et les bases de l’apprentissage automatique. Par la suite, en 1958, le « Perceptron » de Frank Rosenblatt – un des premiers modèles de réseau de neurones inspiré du fonctionnement du cerveau humain – a démontré que les machines pouvaient s’auto-apprendre par essais et erreurs. Ce système a bouleversé les théories antérieures, car le concept ‘d’apprentissage à partir d`une page blanche‘ était auparavant considéré comme irréalisable. Il différait des systèmes ‘moteur de règles’ antérieurs, qui nécessitaient un manuel de codes prédéfini afin de répondre à chaque scénario spécifique. Après les années 1950, l’apprentissage automatique – qui est à la base de l’IA que nous utilisons aujourd’hui – a continuellement progressé et, avec l’augmentation de la puissance de calcul, ses capacités se sont considérablement accrues. Mais il restait une condition matérielle fondamentale à remplir avant de pouvoir réaliser l’IA moderne d’aujourd’hui : l’omniprésence des données.

La première pierre angulaire a sans aucun doute été l’utilisation généralisée d’ordinateurs personnels. Dès que cette infrastructure a été mise en place, le terrain a été préparé dans les années 1980 pour réaliser sa propagation. Ce développement a introduit une nouvelle plate-forme émergente où de vastes réseaux d’informations collectives pouvaient être agrégés et faire l’objet d’une interaction. À l’instar d’une immense bibliothèque désorganisée ou d’une marée d’informations, il incombait aux individus de les passer au crible, de rechercher ce qui était utile et de relier les données pertinentes, car les outils disponibles à cet effet étaient encore très rudimentaires. C’est à partir de cet agrégat fragmenté que se cristallisent des systèmes organisationnels tels que les algorithmes et, enfin, l’intelligence artificielle. Cette dernière s’est, à certains égards, chargée du rôle de bibliothécaire de cette immense base de données, grâce à sa capacité à les relier entre elles et à les consolider d’une manière adaptée aux exigences de chaque tâche particulière. Cela nous amène à notre époque où les modèles d’IA sont de plus en plus intégrés dans le processus de production. Si nous avons brièvement vu que l’IA peut être comprise en termes d’accumulation générale de connaissances humaines, il est important de l’analyser en relation avec les mécanismes du mode de production spécifique dans lequel elle est née.

Pour commencer, il faut comprendre la double nature de l’IA en tant que produit et instrument de ce que Marx a appelé la socialisation de la production. L’une des principales forces du capitalisme a été sa capacité à mettre en œuvre la coopération des travailleurs, pour la première fois à une échelle de masse. Une force qui, une fois libérée, nous a permis de réaliser plus que la somme de nos parties individuelles travaillant isolément. Grâce à elle, nous avons franchi les forêts les plus profondes, percé des montagnes, observé des galaxies lointaines et construit de grands collisionneurs de particules. Cette force émergente s’incarne dans l’immense appareil industriel du système des usines : premièrement, par le travail vivant, dans son travail coopératif à grande échelle et ce par le biais de la division du travail. Deuxièmement, par l’utilisation du travail mort (les machines) qui incarnent la cristallisation de travail socialisée sous la forme de capital fixe. En effet chaque machine a eu la même histoire – une longue série de nuits blanches et de pauvreté, de désillusions et de joies, d’améliorations partielles découvertes par plusieurs générations de travailleurs anonymes. Cela devient encore plus évident lorsque l’on considère l’IA et les milliards de points de données de chaque individu contribuant à constituer le tissu de son existence. Comme le dit Marx (Grundrisse), “Le développement du capital fixe indique le degré où la science sociale en général, le savoir sont devenus une force productive immédiate et, par conséquent, jusqu’à quel point les conditions du procès vital de la société sont soumises au contrôle de l’intelligence générale et portent sa marque ; jusqu’à quel point les forces productives locales ne sont pas seulement produites sous la forme du savoir, mais encore comme organes immédiats de la praxis sociale, du procès vital réel.”

Dans l’ère actuelle du capitalisme avancé, l’IA apparaît comme l’exemple par excellence de cette « intellect général, forgée par la socialisation de la production. Ainsi, l’IA peut également être considérée comme un instrument de socialisation de la production, dans le sens où elle accélère et intensifie ce processus. Elle est à l’avant-garde de la gestion du réseau logistique mondial, accélérant l’interconnexion et l’intégration des travailleurs, les optimisant ainsi en fonction des rythmes du capital. Au niveau individuel, elle représente notre intellect général commun, aliéné à nous, agissant sur nous comme une entité étrangère en nous connectant et en nous organisant selon les besoins du capital. Il en résulte une mystification relativement répandue autour de l’IA malgrè le fait de l’époque lointaine où nous luttions avec la nature pour notre simple existence, où ses forces inconnues évoquaient de grandes divinités dans l’esprit de l’homme. À l’ère moderne, nous avons depuis longtemps dérobé à la nature ses secrets et l’avons soumise à notre volonté. Nous avons transformé la nature par la puissance de nos forces productives à un niveau de complexité que nous pouvons constater dans le monde globalisé dans lequel nous vivons, où l’usine est simplement devenue un nœud dans un vaste réseau neuronal de logistique englobant la planète, dont l’échelle et la vitesse ont transcendé la perception individuelle de l’homme. C’est désormais cet environnement humain (matériel et abstrait) qui hante l’esprit, qui nous confronte à une force mythique de l’altérité. Ainsi, dans ce mode de production actuel, c’est une réaction purement humaine que de se raccrocher à un passé idéalisé qui semblait répondre plus délicatement à nos rythmes humains, ou de raviver l’esprit des luddites. Cependant se tourner vers le passé est toujours une démarche défensive, qui peut nous empêcher d’avancer et ainsi de nous approprier l’avenir. Face aux tendances chaotiques et au gaspillage de l’anarchie du capital dans sa phase impérialiste, la flamme de l’utopie technologique est ravivée, où les rêves d’une version moins volatile, plus rationnelle et planifiée du capitalisme sont recherchés. Les tendances réformistes de gauche sont attirées par les hypothèses selon lesquelles l’avènement de l’IA et de l’automatisation conduira inévitablement à une transition pacifique vers de nouveaux progrès. Elles se synchronisent avec les tendances bourgeoises qui voient dans l’IA un nouveau moyen d’attiser leur vieux rêve d’un capitalisme sans “lutte de classe”, (et celles-ci ont été nombreuses, de la conception d’internet comme un espace libéré de l’emprise du capitalisme, au mouvement culturel de la cybernétique né d’un monde las de la guerre qui rêvait d’une économie harmonieuse parfaitement planifiée, ou même jusqu’aux rêves d’une société parfaitement réglée, en réponse à la turbulence sociale des villes en plein essor à l’époque de la Renaissance). Se cache derrière ces thèses, un échappatoire que Lénine n’a que trop bien analysé lorsqu’il a écrit sur l’impérialisme. Cette phase chaotique du capitalisme dans laquelle nous vivons n’est pas simplement une politique de la classe dirigeante qui peut être remplacée par une autre politique, mais le résultat inévitable de l’évolution des lois matérielles indétachables du capital lui-même. Néanmoins, nombre de ces nouvelles tendances ont commencé à éroder la dichotomie dépassée entre le socialisme en tant qu’économie planifiée et le capitalisme en tant que marché libre. Aujourd’hui, alors que les économies d’énormes monopoles tels qu’Amazon et Walmart éclipsent de nombreuses économies nationales, nous sommes confrontés aux faits que de larges secteurs du capitalisme soient entièrement planifiés.

L’IA et ses capacités de planification se retrouvent aux points les plus avancés du capitalisme, car elle surplombe le réseau neuronal intercontinental des canaux logistiques et du commerce international, facilitant davantage la fluidité du capital dématérialisé international. Autant les machines sont une extension de nos limites physiques, autant l’IA est devenue une extension de nos limites mentales. Toutes les deux représentent la composition inorganique du capital, qui augmente en ratio par rapport à sa composition organique, car ses mécanismes conduisent à une dépendance croissante à l’égard des machines et de la technologie.

L’IA et la lutte des classes

Un autre élément central de la question de l’IA est sa prétendue neutralité. Partons du fait techniquement prouvé, qu’un algorithme – la base de l’intelligence artificielle – ne peut pas être objectif, puisqu’il ne peut dépendre que de celui qui le programme, de son propriétaire et des données qui y sont chargées et qu’il doit, sur la base d’une logique établie par l’homme en fonction de certains intérêts, ordonner. C’est précisément pour cette raison qu’aucun algorithme ou intelligence artificielle ne peut et ne doit remplacer l’objectif final, qui ne peut être confié qu’à un être humain, ou plutôt à un collectif d’êtres humains, tandis que l’évaluation fournie par une machine ne peut être au mieux qu’un outil d’appui à ce dernier. L’algorithme peut hasarder une prédiction statistique, mais il ne peut pas prendre de décisions de manière autonome, ni en assumer la responsabilité. Les décisions et les responsabilités incombent nécessairement à l’homme, qui possède la liberté nécessaire pour les prendre et en assumer la responsabilité. Cette évaluation et cette décision humaines subjectives restent déterminantes, (par exemple, pour établir le volume de trafic qu’un pont donné pourra supporter avant qu’il ne devienne dangereux pour les personnes qui le traversent ou qui vivent en dessous, et ainsi pour choisir les matériaux à utiliser qui le rendront solide et stable, sur un laps de temps défini). La décision subjective n’est pas arbitraire ou aléatoire, car elle repose généralement sur une certaine politique sociale, certains intérêts économiques, des positions politiques et idéologiques, qui sont également à la base de l’élaboration humaine d’une machine, d’une intelligence artificielle ou d’un algorithme. Ainsi, ils ne peuvent pas devenir autonomes une fois qu’ils y sont incorporés.

De plus, lors du traitement de données sensibles, les algorithmes doivent nécessairement être soumis de temps à autre à un examen public, et ce afin de ne pas mettre en péril les profits privés et leur position dominante, (ou en contrôlant le fonctionnement des algorithmes, bien que cela ne soit souvent pas et volontairement le cas). Ainsi, par exemple, les outils de reconnaissance faciale commercialisés, qui sont censés distinguer les hommes des femmes, sont très peu fiables lorsqu’il s’agit de reconnaître les femmes « noires ». Ainsi, un employé caucasien, homme ou femme, pourrait plus facilement être admis, tandis qu’une employée afro-américaine serait victime de discrimination. Ainsi les « jugements » des algorithmes ne sont pas seulement généralement dépendants de l’idéologie dominante, qui exprime les intérêts de la classe dirigeante, mais tendent souvent à reproduire des préjugés généralement répandus et acceptés.

De ce point de vue, le conflit social devient nécessaire pour négocier syndicalement ou politiquement avec ceux qui contrôlent les évaluations incorporées – sur la base d’opinions nécessairement subjectives et donc partisanes – dans les algorithmes, c’est-à-dire dans les systèmes mathématiques de prévision statistique basés à leur tour sur des Big data introduites par des êtres humains ; des données dans tous les cas sélectionnées sur la base de directives imposées par les managers. Cette négociation, nécessairement basée sur les rapports de force déterminés par la lutte des classes, pourrait remettre en cause le contenu des évaluations intégrées dans les algorithmes, la manière dont elles sont exprimées et ce qui est encodé dans les données générées. Par exemple, il n’y a pas si longtemps encore, des ponts aux arches basses étaient souvent conçus aux États-Unis pour empêcher les transports publics d’accéder à des plages censées être réservées aux seuls riches, généralement caucasiens, et ce dans l’intention d’exclure les subalternes et, en particulier, les groupes sociaux les plus discriminés, tels que, dans ce cas précis, les Afro-Américains. Ces derniers, ne disposant généralement pas des revenus nécessaires pour l’achat d’un moyen privé de locomotion, ils ne pouvaient pas avoir accès aux plages, et ce malgrè le fait qu’elles soient publiques. De plus, la technologie, qui selon les « néo-positivistes » résoudrait progressivement tous les problèmes de l’humanité, ne peut pas être considérée comme une science qui a, en tant que telle, à voir avec la connaissance de la réalité (pensons à toutes les limites liées à son mode de fonctionnement inductif où toute généralisation et universalisation risque toujours d’être falsifiée – rien ne peut nous assurer qu’une certaine tendance déterminée statistiquement sur des données passées restera inchangée dans l’avenir). En fait, la technologie, plutôt que de décrire comme le fait la science, vise à prescrire la manière dont la réalité doit être configurée pour que ses dispositifs réussissent. Cette fonction performative et transformatrice de la technologie sur la réalité s’exerce sur la base de sa méthode. Par conséquent, il reste déterminant de savoir qui l’établit et dans quel but, d’un point de vue économique, social, politique et idéologique. Revenons aux algorithmes, à la base de ce qu’on appelle l’intelligence artificielle, il y a nécessairement un certain système d’évaluation, une certaine définition du succès, un modèle par lequel certaines données sont abstraites plutôt que d’autres, une manière dont les données sélectionnées sont définies en fonction de l’auto-apprentissage du système. Il n’y a évidemment rien d’objectif ou de neutre, comme l’idéologie dominante voudrait nous le faire croire, mais il y a des décisions que seuls des êtres humains libres peuvent prendre. Tant que la société sera divisée en classes sociales, ce ne sera certainement pas la volonté générale qui prendra ces décisions, mais les sujets économiques et sociaux qui ont le pouvoir de le faire. En d’autres termes, dans la société capitaliste d’aujourd’hui, les détenteurs des moyens de production et de reproduction de la main-d’œuvre, soit des ingénieurs et des programmeurs qui prennent dans les faits ces décisions ne le font pas de manière indépendante ou pour des raisons éthiques. En réalité, ils répondent et agissent conformémént aux intérêts de ceux qui contrôlent leur capacité de travail.

Les outils technologiques ne sont neutres qu’en apparence. La question essentielle restera toujours de savoir qui les contrôle, les réglemente, les gouverne, et à quelles fins. Comme on le voit, ce pouvoir est généralement entre les mains des classes économiquement dominantes et politiquement dirigeantes. Ainsi, les algorithmes, loin d’être un instrument scientifique de mesure objective de la réalité, ont au contraire une fonction régulatrice et normative, qui est imposée par le propriétaire des machines et de la main d’œuvre nécessaire pour les produire, les programmer et les faire fonctionner. Celui-ci, en tant que membre de la classe dominante, est généralement copropriétaire de la même intelligence générale subsumée par le capital, comme le dénonçait Marx il y a un siècle et demi. Les algorithmes, avec leurs capacités « prédictives » plus ou moins fiables, basées sur les données passées que ces dirigeants sont en mesure de contrôler, tendent à réguler normativement la réalité extérieure et, surtout, à produire un contexte où les individus seront soumis obligatoirement à l’évaluation, selon les critères établis par ceux qui contrôlent les programmeurs et l’intellect général. Ainsi, sur la base du mécanisme des prophéties autoréalisatrices, ces évaluations et opinions ont pour effet d’établir subrepticement et définissent arbitrairement l’avenir qu’elles prétendent anticiper. Un avenir qui, principalement déterminé par les classes dirigeantes et gouvernantes, tend alors nécessairement à perpétuer un mode de production fondé sur certains rapports de propriété, aussi irrationnels et injustes qu’ils soient devenus.

Conclusions

Lorsque nous pensons à l’automatisation, nous pensons aux robots qui remplacent les travailleurs dans les usines, ce qui est vrai en soi, mais en même temps, nous ne devons pas oublier l’extrême diversification de la production capitaliste et le développement impérialiste inégal, qui augmentent la masse des travailleurs manuels salariés. Avec l’IA la question se pose de savoir s’il existe une automatisation qui affecte directement et massivement le travail intellectuel. De plus, cette évolution ébranle également les droits de propriété intellectuelle bourgeois qui ne sont, qu’un parmi d’autres des éléments qui favorisent la prolétarisation des classes moyennes.

Marx, dans un passage sur les marchines dans Grundrisse, nous indique précisément l’issue possible de l’automatisation. Le capital, alors qu’il ne peut être valorisé qu’en suçant le travail vivant (les travailleurs), tend à l’économiser, en le réduisant au minimum par l’extension du travail mort (les machines). Il entre ainsi en contradiction avec lui-même : “Le capital est une contradiction en procès : d’une part, il pousse à la réduction du temps de travail à un minimum et, d’autre part, il pose le temps de travail comme la seule source et la seule mesure de la richesse. Il diminue donc le temps de travail sous sa forme nécessaire pour l’accroître sous sa forme de surtravail. Dans une proportion croissante, il pose donc le surtravail comme la condition (question de vie ou de mort) du travail nécessaire”.

Le travail, ainsi réduit à une entité sans importance, doit cesser d’être la mesure de la richesse et une autre société prend le relais, dans laquelle les hommes disposeront d’un temps de vie prolongé en se libérant du travail aliéné. La fin du travail n’est donc pas envisageable sous le capitalisme.

L’automatisation et aujourd’hui l’IA sont des éléments qui « révolutionnent » le processus de production, l’augmentation de la sphère de socialisation rend plus évident le niveau archaïque des relations sociales actuelles. Face à cette situation les travailleurs ne sont pas contre les machines, mais contre ceux qui utilisent les machines pour les faire travailler…

Cath Viftpeg

1 Il ne faut pas oublier que les soviétiques étaient à l’avant-garde de la cybernétique. En 1936, un ordinateur analogique connu sous le nom d’« intégrateur d’eau » a été conçu par Vladimir Lukjanov et a été le premier ordinateur au monde à résoudre des équations aux dérivées partielles. L’Union soviétique a commencé à développer des ordinateurs numériques après la Seconde Guerre mondiale. Le premier ordinateur électronique universellement programmable d’Europe continentale a été créé par une équipe de scientifiques soviétiques dirigée par Sergei Lebedev. Il est intéressant de noter que Staline et, avec lui, le parti communiste russe, tout en soutenant le développement de la production soviétique, sont restés sceptiques face à la rhétorique apologétique occidentale concernant les ordinateurs, en soulignant l’aspect « classiste ». Dans le cadre du capitalisme, les ordinateurs s’attaquaient une fois de plus aux droits et aux garanties des travailleurs. Pensez par exemple au merveilleux film « Mort d’une sensation » de 1935, et au contraste entre l’utilisation capitaliste des robots et l’utilisation ouvrière des robots et la passivité des soi-disant scientifiques qui se croyaient neutres… Une telle histoire mériterait un article à part entière, ce que nous prévoyons de faire dans un prochain numéro de Supernova.

Aller à la barre d’outils