CONF PRESSE CONGRES

ema nos vies

MAGNA

anticap revo

1.    Des concepts à la révolution numérique des modes de vies

L'idée de faire faire à des machines des activités généralement réservées aux humains n'est pas nouvelle. On peut faire remonter à très loin l'origine de ces questionnements. Sans remonter trop loin dans le temps, on peut citer un philosophe comme Descartes, qui lui va se poser la question du « raisonnement automatique ». Selon lui, les mathématiques, une sorte de langue extrêmement formalisée, pouvaient permettre à une machine de faire des « déductions automatiques à partir d'un raisonnement ».

Cette réflexion sur la possibilité de modéliser le raisonnement humain sous entend dans le fond que le cerveau humain n'a pas de mystère divin insondable mais plutôt une complexité qu'aujourd'hui encore on a du mal à appréhender.

Avec le développement des techniques, apparaît la possibilité de reproduire non pas le raisonnement mais des gestes du corps humain. Le 18e siècle verra la pratique des automates, plus ou moins élaborés, dont certains sont capables d’aller jusqu’à reproduire la digestion du canard par exemple. Plus tard « l'automatisation » gagnera les manufactures puis les usines.

canard

Au 19e siècle, Babbage (1791-1871) est un mathématicien qui va conceptualiser précisément une « machine analytique » programmable qui parviendrait à faire des additions et soustraction, mais qui pourraient même être programmable pour déduire des raisonnements de logique formelle. L'idée de Descartes devient concrète. Babbage ne réalisera pas cette machine de son vivant mais ses descendants reprendront ses plans pour faire fonctionner une telle machine.

figure 5 4

De la même manière, Turing (1912), mathématicien célèbre pour avoir aidé, pendant la 2ème Guerre mondiale, les Alliés à décoder les cryptages allemands, va conceptualiser, avant sa réalisation technique, l'ordinateur. Selon lui, cela s'organiserait autour d'un « ruban » de données où des têtes de lectures viendraient chercher et lire selon la commande des données recherchées et un processeur calculerait et effectuerait les opérations demandées. C’est effectivement autour de ce système que fonctionnent les ordinateurs encore aujourd'hui. De la même manière Von Neumann va préfigurer la structure logique des ordinateurs, en interprétant le fonctionnement d'un cerveau humain.

von neumann

C'est en 1956 dans un atelier d'une université britannique qu'est pour la première fois posé le terme « intelligence artificielle » afin de répondre à des problématiques nouvelles : est-ce qu'une machine peut être véritablement intelligente et donc apprendre et pas simplement reproduire automatiquement un mouvement ?

Comme nous l'avons cité avec Turing ou Von Neumann, la technologie, avec l'ordinateur et le réseau Internet, tente de reproduire le schéma de « l'intelligence humaine », qui peut être entendu, parmi les multiples définition comme « la capacité d'agir de façon adaptée face à une situation donnée ». On y reviendra dans le questionnement sur l'IA mais cette capacité, que ce soit chez l'homme ou la machine, se base notamment sur la capacité à mobiliser des connaissances, et donc avoir un stock de connaissances, de données, pour réagir à une situation ou à une commande, en tenant compte des expériences précédentes. Après le questionnement de Descartes sur la possibilité de « systématiser le raisonnement », l'automatisation qui systématise un mouvement, l’IA postule donc de « systématiser le comportement ».

Ces questionnements vont se développer dans le contexte d'un bouleversement de l'accès aux nouvelles technologies qui va révolutionner les modes de vie. Dans les années 1990 à 2000, dans le monde occidental dans un premier temps, puis dans l'ensemble de la population mondiale, les ménages vont s'équiper rapidement en Technologies de l'Information et de la communication. Par exemple en 2004, 45 % de ménages français ont un ordinateur, en 2014 80 %.

Succédant à ARPANET, technologie militaire permettant la mise en réseau d'ordinateurs qui a commencé à être développée à la fin des années 70, Internet va exploser dans le monde entier à partir du milieu des années 90. Les connaissances, les productions médiatiques sont inexorablement partagées. Aucune loi ne semble pouvoir arrêter la soif mondiale de partage d'information : d'un article scientifique anglais sur un champignon à la dernière chanson d'un groupe kirghize tout semble accessible sur le net, le World Wide Web va en quelques années révolutionner notre accès à la connaissance, à la culture, à la possibilité de communiquer en temps réel avec le monde entier.

Parallèlement, inventé en 1973 par Motorola, le téléphone portable va véritablement être commercialisé à la fin des années 80 et début des années 90. En 2002 le nombre de lignes mobiles en France dépasse le nombre de lignes fixes.

En 2007 Apple commercialise l’iPhone, premier téléphone-ordinateur. En 2016, 77 % des français ont un smartphone, accès quasi permanent à la connaissance infini du monde par Internet, aux appels, au GPS…

En 2005, 15 % de la population mondiale utilisait Internet, en 2018 55 %, soit plus de 4 milliards de personnes.

Le téléphone portable n'a pas attendu poliment l'installation de lignes filaires dans le monde pour se développer. 7,7 milliards d'abonnements sont souscrits dans le monde, soit plus que la population humaine. Bien sûr, plusieurs personnes peuvent avoir plusieurs abonnements et il y a des disparités réelles, comme en Afrique où le taux de pénétration n’est que de 68 %, mais on peut dire que la couverture téléphonique mobile est quasi-totale.

Mobile Africa

2.    Les robots sont ils en train de nous remplacer au travail ?

Dans la machine de production capitaliste, ces nouvelles technologies vont aussi pénétrer. Dans la continuité de l'automatisation dans l'industrie, les robots industriels connaissent une progression importante, 121 000 étaient vendus dans le monde en 2009 alors que ce chiffre est passé à 381 000 en 2018 et 484 000 en 2019, soit une augmentation de 27 % en un an. Au premier rang des pays robotisés, la Corée du Sud avec 710 robots pour 10 000 salariés. La France, 18e, en compte 139 pour 10 000 employés.

n04

Si les robots sont presque courants dans l'industrie, ils se développent peu à peu dans les services. En tout cas c'est la perspective des industriels du secteur. Le Japon par exemple, confronté à un vieillissement de la population et un manque de soignants (370 000 soignants manquants) a comme ambition d'utiliser massivement des robots d’accompagnement qui pourraient aller jusqu'à soulever les patients pour la toilette, faire des courses, etc.

n05

Des soignants, dont une part essentiel du métier est le dialogue, remplacés par des robots ? En 2013, une étude d’un laboratoire de l’université d’Oxford, menée par Frey et Osbourne, semblait donner raison à cette possibilité. Selon elle, 47 % des emplois seraient remplacés d'ici quelques dizaines d'années par des robots ou des intelligences artificielles. Mais quelques années plus tard une étude de l'OCDE arrivait à une conclusion moins pessimiste, seuls 9 % des emplois seraient réellement menacés par un remplacement.

En fait cette bataille d’études réfracte un débat entre d'un côté les « technologues » de la nouvelle génération et de l'autre les économistes libéraux. En effet, pas tout à fait neutres, les deux chercheurs d’Oxford travaillent pour Future for Humanity Institute, un laboratoire dirigé par Nick Bostrom, chercheur connu pour ses positions transhumanistes. Quant à l'OCDE, pas besoin de longuement la présenter pour dire qu'elle est une institution libérale.

Pour résumer la position des « technologues », on peut dire que tout un pan des acteurs des nouvelles technologies, jusqu'aux grands patrons, est convaincu que la technologie se développe de manière inexorable, incontrôlable. Ce développement contre lequel on ne peut rien va entraîner mécaniquement des suppressions massives d’emplois et un « chômage technologique massif ». Philanthropes, leur seule solution serait le revenu universel, pour que ces millions de « travailleurs inadaptés » aient encore accès à quelques biens de consommation.

De l’autre côté, les économistes libéraux se basent sur la foi dans la théorie de l'économiste Schumpeter de la destruction créatrice. Une innovation technologique produit d'abord une destruction d'emplois, puis un regain d’emploi dans un nouveau secteur. Les emplois devraient donc muter dans des emplois à haute valeur technologique. D'ailleurs, la Corée du Sud, avec un taux de chômage très faible (et, comme on l'a cité, un fort taux de « robotisation » dans la production), serait un exemple de cela. Si cela ne se fait pas naturellement, il faudra que les gouvernements « adaptent » la main d'œuvre avec une profonde remise en question des dispositifs de formation pour une main d'œuvre qui doit se former « tout au long de sa vie » aux NTIC notamment.

Les deux courants semblent raisonner dans l'abstrait en n'analysant pas les rapports économiques et sociaux réels, les rapports de classe. D'ailleurs tous sont bien en peine pour expliquer ce qu'on nomme « le paradoxe de Solow » du nom de cet économiste qui a dit « on voit des ordinateurs partout sauf dans les statistiques sur la productivité » dans les années 90.

En effet il est admis en économie que le facteur décisif de la productivité est le progrès technique. Car si on enlève à la productivité globale le facteur humain et le facteur capital ce qui reste et fait la différence est le progrès technique. Qui dit progrès technique devrait dire augmentation de la productivité, donc des gains de productivité et donc du profit. Or la révolution des NTIC n'a pas eu l'effet escompté. Et aujourd’hui les dernières nouveautés sont bien loin de sortir le capitalisme de la crise chronique de surproduction. À cela on peut avancer plusieurs explications qui ne n’excluent pas.

Tout d'abord, l'usage d'un smartphone (à fortiori l'Iphone XX par rapport à l'Iphone précédent) ne révolutionne pas la productivité dans les bureaux où le traitement de texte par ordinateur, le téléphone et donc la possibilité de communiquer en temps réel sont là depuis plusieurs décennies. Entre le gadget technologique dont l'usage social est avéré et une technologie qui permet l'augmentation de la productivité, il y a une différence.

Ensuite le capitalisme s’affronte à son propre mur naturel, le besoin de rentabilité assez immédiate. Acheter un robot qui effectue une tâche relativement précise nécessite pour le capitaliste d’être sûr que celui-ci est plus rentable à relativement court terme que des salariés, car une fois acheté l'investissement est irréversible, en particulier alors que l’économie est aujourd’hui en panne de croissance. Amazon, ou certaines entreprises chinoises fixent par exemple le prix maximal pour un robot à deux années de salaires d'un ouvrier, ce que toutes les entreprises ne peuvent pas risquer.

Ainsi, dans bien des entreprises des gestes de manutention sont massivement fait par des êtres humains. Non pas que les entreprises n’auraient pas les robots : cela fait des dizaines d'années que des robots capables de porter des charges existent, mais le risque est d'investir dans un robot qui par définition est moins modulable. Si un humain est plus cher sur une tâche précise, il est aussi capable d'en effectuer d'autres ou d’être licencié si une baisse de la production d'un produit se fait ressentir, contrairement aux robots.

De plus, d'un point de vue global, « un chômage technologique massif » est difficilement viable et donc souhaitable pour le capitalisme, car la production, produite par des robots ou non, ne se transforme en profits qu'une fois vendue à des consommateurs, et donc à la population. L’idée du revenu universel semble une réponse possible… mais elle n'a aucun sens néanmoins car financer des millions de travailleurs « non productifs » en taxant les robots et ou le capital, ne se ferait pas sans résistance des patrons et donc sans affrontement global avec le capital. En d'autres termes, un revenu universel décent a sans doute autant de chance d’être réalisé par une loi que la réquisition des grandes entreprises sous le contrôle des salariés.

En fait, dans ces raisonnements, ce qui manque c'est bien évidemment la lutte des classes inscrite dans son contexte économique et social global. Comme le rappelle l’économiste Michel Husson, l'histoire récente a montré que l’augmentation des gains de productivité n’entraîne pas mécaniquement une augmentation du chômage. Durant les 30 glorieuses, en plein boom de l'automatisation et donc de l’augmentation de la productivité du aux progrès techniques, il y avait le quasi plein emploi. Au 20e siècle la productivité a été multipliée par 13 et pourtant le temps de travail a baissé de 44 %, car il y a eu des revendications, arrachées au prix de luttes sociales dans un contexte bien particulier.

Pour nous, marxistes, cela entraînera forcément des contradictions, des luttes, et dans tous les cas un objectif : l’utilisation des gains de productivité s’il y en a pour réduire le temps de travail. Bien sûr le rapport de force ne nous est pas toujours favorable, et dans ce contexte les suppressions d’emplois liées à la robotisation existent bel et bien.

En quelques dizaines d'années aux USA la robotisation aurait supprimée 670 000 emplois dans l'industrie. De plus aujourd’hui il n'y a pas que l'industrie qui est affectée. Aux USA toujours, Wal-Mart le géant de la grande distribution a supprimé l'emploi de 25 000 comptables, remplacés par des machines. Même Goldman Sachs, qui comptait jusqu'à 600 traders en 2000 n'en a aujourd’hui plus que 2… ainsi que 200 ingénieurs qui s'occupent des ordinateurs de trading. Les cols blancs sont selon certains promis à un remplacement rapide par des machines de plus en plus capables d'effectuer des tâches de service, par l'intelligence artificielle.

3.    L'intelligence artificielle au dessus de nous ?

« L'intelligence artificielle n'épargnera aucun métier » Le Figaro 10 mai 2019

« Des échecs au jeu de Go : quand l'intelligence artificielle dépasse l'humain » Nextimpact Mars 2016

Stephen Hawkins, célèbre astrophysicien, en 2014 : « Réussir à créer une intelligence artificielle pourrait être le plus grand événement de l’histoire de l’humanité », écrit-il, mais « cela pourrait être le dernier, si nous n’apprenons pas à éviter les risques ».

Voilà quelques exemples de titres ou de citations que l'on peut trouver dans la presse. Derrière la crainte exprimée implicitement ou explicitement, que se passe-t-il vraiment ? Un petit détour technique permet de mieux comprendre d'où viennent ces craintes.

Tout d'abord, en évoquant le développement des innovations technologiques, on voit bien que la différence entre un robot qui obéit à un codage informatique et l'intelligence artificielle est floue et poreuse. Il n'y a d'ailleurs pas de consensus autour de la définition de l'intelligence artificielle, car même la notion d'« intelligence » est complexe à définir dans le langage courant. Dans l'intelligence artificielle on peut résumer l'intelligence à ce qui est la faculté de « raisonner, apprendre, représenter des connaissances ». Cela va plus loin donc que la possibilité pour des machines de reproduire des schémas de pensée car il y a également la possibilité d'apprendre, pour « organiser le réel en pensée ». En même temps, l’expression même « intelligence artificielle » porte en elle ce qui semble être un oxymore, c’est-à-dire l’association de deux termes contradictoires. Volontaire ou non cela entretien la confusion sur les avancées et limites réelles de la technologie.

Il y a en réalité deux domaines bien distincts dans « l'intelligence artificielle ».

D'un côté le domaine « applicatif » de l'intelligence artificielle et tous les travaux qui débouchent sur des applications concrètes. De l'autre la recherche « au long cours » avec la recherche de l’IA dite « forte ».

1) Le domaine applicatif, l’état de la connaissance.

Lorsque l'intelligence artificielle s'est imposée comme domaine de recherche dans les années 2000, cela s'est fait d'abord dans un cadre assez théorique, en essayant de modéliser « l'intelligence ». La recherche applicative a donc d'abord pris du retard puis s’est accélérée avec les études portant sur la reconnaissance d'images. Dans ce domaine applicatif de l'Intelligence Artificielle, qui est celui que nous connaissons tous car nous l'utilisons à peu près au quotidien, on parle en fait bien plus volontiers « d'apprentissage », de « machine learning » (apprentissage automatique) que d'intelligence artificielle.

L’état réel des possibilités de ce que nous savons faire est ici. Pour Dorian Kodejla, chercheur en IA à Nantes : « d'un point de vue technique, dans le domaine de l'apprentissage automatique, on résout juste des problèmes spécifiques avec une base de données et des formules mathématiques. Ce que raconte la presse sur les réseaux de neurones, c'est beaucoup de marketing ».

Pourquoi différencier de simples codes informatiques alors ? Car si on parle ici d'apprentissage, ce n'est pas anodin. Les programmes sont ici capables d'apprendre de leurs erreurs pour être plus efficace, pour beaucoup d'entre eux il faut même les entraîner. Et leur structure est volontairement calquée sur celles des neurones biologiques.

n06

Les programmes de reconnaissances d'images ont fait d’énormes progrès lorsque les ingénieurs ont commencé à les baser sur la structure de l'œil animal dite « convolutif ». L’intégralité de l’œil ne reconnaît pas une image dans son ensemble d'un coup mais plusieurs couches de l'œil font un travail simultané et complémentaire : pour schématiser, une image est passée par une première couche qui va regarder à la loupe chaque partie de l’image successivement et s’intéresser par exemple aux couleurs, un deuxième réseau de neurone va découper l'image en plusieurs morceaux mais lui ne s’intéresser qu’aux formes etc. Un autre réseau de neurone dit de « pooling » va simplifier les résultats de chaque couche de filtre de neurone et enfin l'intégralité des successions de filtre va permettre de reconnaître tel ou tel objet avec des probabilités. C'est cette structure qui a été appliquée à ces programmes appelés « en réseau de neurones convolutifs », et c'est de là que vient le nom « deep learning » (plusieurs couches, profond = deep).

n07

Lorsqu'on apprend au logiciel (« ceci est une chèvre », « ceci n'est pas une chèvre ») il devient capable de faire correspondre tous les éléments de ce qui se rattachent à une chèvre. Ainsi, si dans une image qu'il n'a jamais vu, une chèvre est à moitié cachée par une clôture, à force d’entraînement et donc d’accumulation de données, le logiciel va être capable de reconnaître différentes formes (un museau et des oreilles par exemple) qui étaient systématiquement présentent dans les images où il y avait des chèvres. Cela va l'amener a conclure qu'il y a de bonnes probabilités que l'image qu'on lui montre contienne une chèvre. Ce qui nous semble donc « intelligent », c'est que ce type de logiciel est capable de « reconnaître » et en quelque sorte d'extrapoler, comme le fait un cerveau humain.

Ce type de structures et d’avancées, nous pouvons les utiliser tous les jours ou il ne tarderont pas à être démocratisés. Pour la traduction de texte par exemple, les outils qui utilisent l'IA sont plus proches d'une vraie traduction. Car au lieu de découper mot par mot et de juxtaposer les traductions littérales, les mots ou les phrases sont remplacés par des « vecteurs », ensembles de mots associés. Ainsi, par exemple, le mot « père » porte en lui la notion du lien familial et c’est cette notion qui est traduite dans la langue souhaitée. Cela permet de mieux traduire les mots, phrases ou expressions selon leur contexte.

Toute la recherche dans l'IA est donc là, réussir à faire qu'une machine soit capable face à un élément extérieur (un texte, une image) de mobiliser des connaissances (des donnés, donc un algorithme pour trier ces données) et agir en fonction : traduire le mot en tenant compte de son contexte, déceler l'image d'un animal.

Mais les limites par rapport à « l'intelligence humaine » sont précisément que si ces machines sont capables d’être suffisamment bien programmées pour donner cette illusion, elles ne le font que sur un domaine bien défini. C'est en cela qu'on peut dire que c'est une « illusion d'intelligence » car la machine est en fait entièrement spécialisée et donc bloquée. La machine humaine fonctionne naturellement comme ça, par apprentissages continus, qui servent de base à des apprentissages futurs, et n'est donc pas bridée. Elle est universelle contrairement au robot maître du jeu de Go qui est incapable de reconnaître une chèvre. L’architecture de notre réseau de neurone est évolutif, contrairement à un programme, qui peut mimer un réseau de neurone mais qui par définition est bloqué par le nombre et les capacités que l'humain lui a attribué, par les limites de son code et de son schéma de conception.

En schématisant le fonctionnement d'une IA, on comprend que les champs d’application de ces recherches sont multiples : robots d’accueil, voitures autonomes, enquête de police ou justice (« aide à la décision »), armée…

Si la structure du « réseau de neurone », donc le codage d'une IA est important, toutes les avancées dans ce domaine se font grâce à la possibilité pour l'IA d'avoir accès à un nombre de données gigantesque. Si pour reconnaître une chèvre une IA a dû apprendre sur des milliers d'images, c’est le même principe pour une voiture autonome qui doit connaître des milliers de situations de conduites, utiliser des logiciels perfectionnés de reconnaissance qui arrivent à faire la différence entre un feu rouge et un panneau de signalisation rouge, un humain et une pub d'un humain, etc.

n08

Nous tous nous contribuons, on pourrait presque dire qu'on le veuille ou non, à fournir des milliers et des milliers de données.

Les propriétaires de ces données, ce sont bien sûr notamment Google, Facebook ou encore Amazon. Chaque rentrée dans un moteur de recherche, chaque achat d'un vêtement sur internet, est à moyen terme une donnée qui est collectée pour ensuite être analysée par de l’intelligence artificielle. Dans le capitalisme, l'intelligence artificielle est bien sûr beaucoup utilisée pour mieux « comprendre » nos besoins, traduction : faire des incitations de ventes plus ciblées.

Mais, comme toujours, le progrès technique porte pourtant en lui de possibles formidables développements, constamment rabaissés à la possibilité de maximiser les profits de groupes privés dans le système capitaliste. Par exemple les recherches dans ce qui s'appelle la médecine 4P pour préventive, prédictive, personnalisée, participative. À l'aide de bio-banques, qui collectent des millions de données génétiques, de diagnostics, de virus et d'évolution de maladie, l’IA pourrait faciliter les hypothèses de développement d'épidémies et donc les moyens de les enrayer, analyser le développement des cancers dans la population etc.

Monopoles de multinationales privées, délégation de la responsabilité politique ou même éthique à des IA censées être neutres et objectives (dans une voiture autonome, l'IA doit-elle écraser la fillette qui traverse la route ou crasher la voiture avec le passager contre un mur pour éviter la mort de la fillette ?), disparition d'emplois… les problématiques liées à la technique de l'intelligence artificielle sont bien réelles… mais finalement bien loin du Frankenstein mécanique qui se mettrait à dominer son créateur, l'homme.

2) à la poursuite du mythe de l'IA forte

Malgré cela, certains n'en démordent pas : l'IA sera dans un avenir très proche autant voire plus intelligente qu'un humain.

Pour qualifier ce type d'IA, on parle ici d'intelligence artificielle « forte ». Ceux qui la recherche disent que l'IA serait forte lorsqu'elle aurait atteint le « point de singularité », c’est-à-dire le moment où l'IA aura atteint le même niveau d'intelligence que l’espèce humaine, capable de résoudre des problèmes pour lesquels elle n'a pas été développée ou entraînée et donc pouvant même avoir une volonté propre, qui pourrait donc l'amener à dominer l’espèce humaine pour mieux se développer.

n09

Dans leur quête effrénée des perspectives de développement de leurs profits, les grande firmes comme les GAFA, se sont engouffrées dans l’exploration des voies de recherche qui pourraient permettre de découvrir « l’IA forte. » Facebook avec le FAIR (Facebook Artificial Intelligence Researsh), ou Google avec Deepmind, les patrons des GAFA investissent des millions de dollars… à la poursuite de ce qui est peut être un mythe, ou, à notre stade de développement technique, une illusion.

Car selon Yann Le Cunn, un d’un des chercheurs star en IA, débauché par Facebook justement pour travailler au FAIR, l’état des connaissances et des possibilités techniques est extrêmement éloignée d'une IA dite forte, les chercheurs sont encore au stade de ne pas réussir à formuler des hypothèses viable de recherches. Pourtant les déclarations des patrons « nouvelles générations » ne vont pas dans ce sens : Elon Musk le patron de Tesla expliquait ainsi en 2017: « L’IA représente un risque fondamental pour l’avenir de la civilisation humaine », avançant même : « je suis au contact des IA les plus avancées et je crois que les gens devraient vraiment s’inquiéter ». 

Allant encore plus loin, un des apôtre de l’avènement de l'IA forte, Ray Kuzweil, a fixé à la manière d'un astrologue l'arrivée de « la singularité » pour 2049. Sa méthode de calcul : la loi de Moore, du nom d'un ingénieur américain qui avait analysé que le nombre de transistor de microprocesseurs dans les puces électroniques double tous les 2 ans alors que le prix de cette puce est inchangé. En extrapolation, cette « loi » décrit que la puissance de nos technologies suit une courbe exponentielle.

Mais comparaison n'est pas raison. Car si cette « loi » est plutôt vérifiée dans le domaine de la robotique, dans le domaine de la recherche de l'IA forte ce n'est pas le cas.

Cette vision prophétique à en fait bien plus à voir avec des craintes idéologiques que des réalités technologiques. De plus cette vision linéaire d'une IA mortifère évolue dans une abstraction totale des rapports de classes, sociaux et économiques.

La créature non-humaine avec une vie indépendante, voire qui échappe à son créateur, est une histoire redondante. Les créatures du Dieu-forgeron grec Hephaïstos, le Golem de terre chez les juifs, la créature de Frankenstein, 2001 l’odyssée de l'espace de Stanley Kubrick, l’avant-dernier épisode de Game of Thrones avec Cleagane ou la série Westworld : la culture populaire est abreuvée de cette mythologie. Celle-ci puise sans doute ses racines dans la religion : à vouloir copier Dieu, créateur de toute chose, l'humanité est punie, car seul Dieu a le pouvoir de créer la vie.

Sans doute que cela influe aussi sur les prophètes de la Sillicon Valley. Mais cette idéologie d'une future toute puissance de la technologie devenue incontrôlable est à mettre en lien avec leur situation sociale. Ces multinationales sont au cœur de la production de ces nouvelles technologies. L'idée d'un développement déterministe, qui suivrait une loi naturelle immuable, des nouvelles technologies et donc de l’intelligence artificielle, est un bon moyen de se dédouaner entièrement des problématiques réelles que ces nouvelles technologies peuvent engendrer. Alors que ce sont les « enceintes connectés » (à qui on donne des ordres comme « Alexa mets moi de la musique ») de ces même entreprises qui sont au cœur d'un petit scandale, car il s'avère que les commandes vocales que l'on donne dans nos salons sont aussi à nouveau des données collectées par ces entreprises, ce sont en quelque sorte ces même dirigeants qui nous assurent être inquiets pour l'humanité à cause… de l'intelligence artificielle qu'ils s'évertuent de rechercher. Ce développement incontrôlable, divin car étranger à toute réalité économique et sociale, détruirait des millions d'emplois qu'on le veuille ou non… seule solution pour Bill Gates de Microsoft ou Elon Musk de Tesla : le revenu universel pour les travailleurs devenus inadaptés. De cette manière à aucun moment il n'est question de comment et à quel but est utilisé le progrès technique.

La fuite en avant dans la « peur » des nouvelles technologies engendre une idéologie encore plus « radicale » : le transhumanisme.

Ce courant se base sur deux fondements principaux :

- la « singularité » étant imminente, l'être humain doit s'adapter ou disparaître.

- le corps humain de chair et d'os est trop faible, s'adapter veut dire « s'augmenter », se « sculpter » : avec des puces connectées au réseau informatique, avec des parties du corps mécaniques, ou pourquoi pas en implémentant son cerveau dans un robot humanoïde.

Il ne s'agit ni plus ni moins que de la quête de l'immortalité version 21e siècle. Imprégnés de science fiction certains dans ce courant, qui se veut pourtant à la pointe des nouvelles technologies, passent même à côté des progrès dans les consensus scientifiques actuels, comme la reconnaissance que le corps humain est un tout agissant et non pas un cerveau qui donne des ordres à des muscles morts, ce qui est en totale contradiction avec l'idée « transhumaniste » qu'on pourrait implémenter son « esprit » dans un corps mécanique.

n10

Au global, l’idée transhumaniste, en tout cas pour ses défenseurs les plus célèbres, se base sur un postulat là encore typique de l'idéologie bourgeoise dominante des premiers de cordées : celles et ceux qui auront les moyens pourront se payer de quoi s'adapter aux machines devenues quasi toutes puissantes, le reste de l'espèce humaine sera lui condamné à être de vulgaires chimpanzés, incapables de s'adapter à la nouvelle société. Le progrès technologique formidable que l'humanité est en train de vivre, est-il condamné à aggraver les contradictions de classes qui existent dans le système capitaliste ? Pour la classe des capitalistes, c'est une évidence. Cette contradiction entre le développement extraordinaire de la science et le conservatisme social est, au fond, ce qui produit ces idéologies. Incapable et ne voulant surtout imaginer un système social égalitaire basé sur la coopération, la pensée dominante bourgeoise, résolument individualiste, se condamne à tordre les avancées et les limites réelles de ces progrès pour justifier l'ordre social présent et à venir.