L’intelligence artificielle, ce leurre de la pensée ?
L’intelligence artificielle, ce leurre de la pensée ?
Si l’intelligence « naturelle » des humains est cet effort de l’esprit facilitant la compréhension du monde et notre adaptation à celui-ci, pourquoi faudrait-il lui opposer une intelligence « artificielle » prétendument " supérieure " ?
La raison est que pour certains l’IA reléguerait la pensée ou l’invention de l’écriture et de l’imprimerie à la préhistoire depuis qu’elle occupe tous les domaines de la vie courante : traduction, diagnostic médical, réseaux sociaux, transports, finance, météo, etc…
Il est donc logique qu’un débat existe autour de ces bouleversements susceptibles de changer le destin de l’humanité. Et aussi qu’il confronte les « modernes », partisans d’un " post humanisme ", aux « anciens », plus réservés sur les risques éventuels.
Mais quels sont donc les enjeux réels ?
À l’orée d’une ère nouvelle dont les soubresauts impactent aujourd’hui l’ensemble du corps social, il semble aussi contre-productif de rejeter a priori ces technologies d’origine humaine en les diabolisant que d’obéir sans réserve à leurs promesses vantées. Car le mot « artificiel » désigne normalement tout ce qui est fabriqué pour se substituer à la nature. Et cela s’applique bien à cette forme " d’intelligence " qui nécessite d’engranger dans la " mémoire numérique " des informations qui peuvent virtuellement simuler la compréhension du monde réel.
Or, n’importe quel enfant qui commence juste à parler saisit aussitôt et définitivement ce qu’est un « chat » avec toutes ses variations possibles si on lui en montre seulement un ou deux alors qu’un ordinateur doit être « nourri » de milliers d’images représentant cet animal pour réussir à l’identifier, sans jamais acquérir le concept.
Ce qui prouve que pour « penser », il faut avoir la conscience « d’être » et que cela s’incarne dans le corps même s’il est vrai que beaucoup de nos actions échappent à la conscience, ou sont l’objet de biais cognitifs qui nous induisent souvent en erreur. Mais il reste que pour Spinoza, l’esprit est d’abord la conscience d’avoir un corps et que pour Freud « Le Moi est avant tout un Moi corporel » ce qui est en accord avec Antonio Damasio et la plupart des scientifiques pour faire du corps notre seul lieu véritable de conscience et de pensée.
Or, s’il est exact que les ordinateurs ont une rigueur et une puissance de calcul sans aucune commune mesure avec les nôtres ce qui les rend désormais indispensables dans de nombreux domaines comme les transports, la 3D, la médecine, la balistique, et bien d’autres, il faut simplement admettre qu’ils ne pensent pas car ils n’ont pas « de corps ».
Héritiers de la « Pascaline » d’antan, on peut aussi les comparer à ces automates du XVIIIème siècle qui imitaient la danse par de la « mécanique plaquée sur du vivant », aurait pu dire à nouveau Bergson.
L’IA n’a donc pas de sens commun, ne parle pas et ne ressent rien.
Elle peut seulement simuler ce que l’humain lui a programmé de faire. Car même avec les nouvelles possibilités d’apprentissage de " deep learning " fondés sur des algorithmes savants, ces recettes " intentionnelles " souvent élaborées en secret n’empêchent pas des biais cognitifs qu’il faut souvent corriger.
Ainsi tout ce qui nourrit « le système », notamment pour la détection des cancers, est le résultat de milliers de petites mains qui ont travaillé dans l’ombre pour sélectionner les radiographies les plus pertinentes. Le pionnier de l’informatique Alan Turing nous avait d’ailleurs prévenu : « Reconnaître n’est pas comprendre ». Et si cela n’enlève rien aux performances étonnantes des outils numériques qui peuvent aider l’humanité face à de nouveaux défis, comme autrefois les machines-outils pour augmenter l’efficience et diminuer la charge d’effort, cela ne peut cacher les difficultés qu’ils génèrent eux-mêmes.
Et celles-ci ne sont pas qu’" artificielles ".
On pense au « marché du travail » déjà impacté par ces nouvelles technologies mais qui le sera peut-être davantage par l’émergence de métiers inconnus aujourd’hui que par l’absence réelle d’emplois.
En revanche, les travaux peu qualifiés vont disparaître et renforcer la misère sociale de tous ceux qui ne répondront pas à " l’idéal utilitariste " et " fonctionnel " d’Homo connecticus comme on le voit déjà dans les banlieues de Los Angeles ou d’ailleurs.
Chacun sait aussi que l’utilisation de ces technologies à des fins militaires avec des armes gérées à distance, drones ou " robots tueurs ", n’est plus de la science-fiction et que cette nouvelle façon de « faire la guerre » est très redoutable même s’il est aujourd’hui devenu beaucoup plus rentable de contrôler la pensée des individus que leurs territoires.
Mais comme pour le « cyber-terrorisme », cela interroge les intentions de ceux qui conçoivent et manipulent ces systèmes tant il est clair que l’emploi de l’informatique n’est en définitive que le reflet de ce que les hommes en font.
Toutefois même un usage plus pacifique de ces procédés n’est pas neutre car avec leur diffusion planétaire la fabrication l’utilisation et le recyclage de ces matériels ont un impact non négligeable sur l’environnement.
Cela n’empêche pas certains de rêver d’un " post humain bionique " bardé de capteurs avec des interfaces " corps-machine " aboutissant à un surhomme ignorant la douleur et la mort. Or, si l’on peut aider en effet des sujets handicapés grâce à diverses prothèses, personne ne peut croire aujourd’hui que l’on puisse télécharger des données dans le cerveau comme avec la clé USB.
Car c’est un organe plastique et associatif qui se transforme sans cesse au contact du vivant parce qu’il est lui-même vivant. C’est la raison de l’échec de " Blue Brain " et du " Human Brain Projet " pour créer un cerveau synthétique qui sonne le glas du « transhumanisme » ce fantasme sous-tendu par un projet totalitaire d’organisation sociétale qui fait semblant de confondre l’humain " réparé " avec l’humain " augmenté ".
Dans « La fin de l’individu » de Gaspard Kœnig, l’auteur parle d’« une philosophie sans sujet (qui) conduit à une société sans liberté » et reprend le concept de « dividu » de Yuval Harari dans « Homo Deus » qu’il oppose à l’individu a priori " in-divisible ".
Le terme est en fait emprunté à Gilles Deleuze qui parle de « dividuel » pour désigner l’humain " post-sapiens " à l’orée des sociétés « de contrôle » pressenties comme la suite des sociétés « disciplinaires » conceptualisées par Foucault. Mais si celles-ci concernaient d’abord la liberté physique des individus, les outils de surveillance actuels visent surtout « l’intériorité » de chacun en raison des traces incessantes que nous laissons sur le net.
D’ailleurs en anglais « intelligence » signifie aussi renseignement.
C’est pourquoi en 2017, « le Pentagone » s’est doté d’un projet " Maven " et la France d’un " Data Intelligence Cluster " en lien étroit avec les services secrets. Aujourd’hui les GAFAM nous connaissent mieux que nous-mêmes pour détecter nos désirs et les satisfaire de façon prétendument " libre " par incitation (" nudge ") tout en nous surveillant, pendant que leur équivalent chinois - les BATX - semblablement capitalistes et marchands, encadrent de cette manière l’obéissance du peuple avec un « crédit social » dans la lignée de Confucius et Mao qui laisse peu de place à l’individu.
Quant à l’Europe, entre " suicide stoïcien " et " masochisme ", sa situation de " banlieue " entre les deux géants semble difficile si elle veut sauvegarder ses valeurs essentielles malgré l’essai maladroit pour modérer cette dépendance avec le RGPD (" Règlement Général sur la Protection des Données ").
La question du libre arbitre de chacun, pour autant qu’il reste des sujets identifiables, est donc à l’ordre du jour. Et cela d’autant plus que « l’intelligence artificielle » est un simulacre de pensée et de conscience qui repose essentiellement sur une croyance irrationnelle reliée à des projets politiques.
C’est une croyance parce qu’en dépit des promesses intenables du « transhumanisme » pour éradiquer un corps jugé inutile, comme si en le supprimant on n’enlevait pas aussi toute pensée, l’IA ne résout aucun des grands problèmes de l’humanité dont les questions existentielles concernant la vie, la mort, la liberté, le temps, l’amour ou la solitude et le vide de l’autre qui naissent des liens interhumains constitutifs de notre espèce.
Le livre de Harari est révélateur de ce phénomène car le « dataïsme » a remplacé Dieu par une vision du monde strictement fonctionnelle et performative dans la droite ligne de la philosophie utilitariste de Jérémy Bentham et de sa prison « panoptique », si parfaite pour surveiller les prisonniers, cette anticipation du " Big Brother " d’Orwell.
Aujourd’hui l’Internet est devenu la nouvelle « représentation du sacré », un concept que le philosophe Rudolf Otto associe au « numen » qui est une expérience non rationnelle liée à la divinité relevant d’un mystère à la fois fascinant et terrifiant.
Or, justement les néophytes sont terrifiés par les difficultés informatiques qu’ils surestiment car ils ne les maîtrisent pas alors que les nouveaux convertis sont fascinés par les possibilités qu’ils imaginent.
Et parallèlement, les informaticiens sont contraints d’admettre qu’en dépit de leur " toute-puissance " attendue certains résultats obtenus par le calcul relèvent parfois d’un total mystère (" blackbox ").
Les anciens croyaient que les astres, les mythes ou la Bible contrôlaient leur destin et les « humanistes » pensaient qu’il valait mieux se fier à la raison ou à la science qui allait bientôt tout expliquer.
Mais aujourd’hui la " prophétie numérique " illumine le monde et les réseaux dits " sociaux ", parfois " dyssociaux ", contrôlent " le vrai " et " le faux " et font le tri entre " le bien " et " le mal " en dehors des droits institués tout en préconisant de nouvelles normes auxquelles chacun devrait se conformer pour ne pas commettre " de péché " devant les " grands prêtres " si puissants et fortunés de cette nouvelle croyance.
Ce n’est pas par hasard que le mot « ordinateur » a aussi le sens de « celui qui confère le sacrement d’un ordre ecclésiastique » car il vient du latin « Deus Ordinator », ce Dieu qui ordonne…
Et c’est ce qui fait de l’IA un projet politique avec le contrôle hégémonique des communications pointé par Gilles Deleuze. D’autant que celles-ci peuvent être addictives au point de conduire les gens à se comporter eux-mêmes comme des robots par un cramponnement compulsif à des objets devenus des sortes de fétiches religieux ou de " doudous " qui sont le signe inquiétant d’un enfermement idéologique très fort de dépendance numérique limitant les communications réelles.
Et c’est cet empiètement sur l’espace intime qui donne aux GAFAM un pouvoir sans limite pour traquer nos désirs comme aux BATX pour rester dans la norme communiste, même si les deux s’appuient sur des systèmes concurrentiels très proches reliés à des impératifs économiques et financiers dont l’enjeu est une maîtrise géopolitique globale.
Avec l’IA quasiment plus personne n’est à présent en mesure de savoir qui dirige la machine et oriente les consignes car le système fonctionne de manière opaque et abstraite comme si cela venait toujours « d’en haut », peut-être parce que « les voies de Dieu sont impénétrables ».
Il n’est pas donc surprenant que la démocratie, les citoyens et les partis soient aujourd’hui mis " hors-jeu " car c’est le résultat d’un fossé grandissant entre " ceux qui fournissent les données " et " ceux qui les utilisent à leur insu " pour réaliser un projet politique qui n’est jamais clairement explicité puisque seuls quelques « élus » connaissent les intentions placées sous le capot.
Étienne de la Boétie et son « Discours de la servitude volontaire » ne sont donc pas éloignés de cette nouvelle forme de tyrannie représentée par « l’impérialisme numérique ». Et cela reste proche de la thèse de Clausewitz pour qui la guerre est « un acte de violence dont l’objectif est de contraindre l’adversaire à exécuter notre volonté ».
En plus des préoccupations écologiques, un des principaux enjeux planétaires du XXI ème siècle sera vraisemblablement de savoir comment les utilisateurs peuvent rester maitres de leurs données afin d’imposer aux plateformes non seulement de respecter les lois et le droit des états, mais aussi un anonymat choisi " par défaut " pour sortir de la situation de dépendance asymétrique dans laquelle les utilisateurs sont placés à leur corps défendant.
A tout le moins il doit être possible de mieux réguler le système pour partager plus équitablement la richesse des informations fournies et de choisir plus démocratiquement leurs orientations implicites, actuellement cachées, afin qu’elles bénéficient au plus grand nombre, n’aggravent pas les inégalités sociales et préservent la paix.
Dans son livre Gaspard Kœnig propose quelques pistes pour sortir du « féodalisme » actuel avec ses éventuelles manipulations sous-jacentes en revendiquant des formes de résistance préservant notre liberté individuelle et politique.
Mais cela suffira-t-il ?
astus
AgoraVox