Yaël Benayoun et Irénée Régnauld : « Le progrès technique n’est pas nécessairement synonyme de progrès social »

, par  DMigneau , popularité : 0%

Yaël Benayoun et Irénée Régnauld : « Le progrès technique n’est pas nécessairement synonyme de progrès social »

De la vidéosurveillance à l’automobile, des caisses automatiques à la « 5G », chaque choix technologique est un choix de société. Alors que la décision nous échappe, nous en subissons les conséquences de plein fouet.

De la " smart city sécuritaire " à " l’ubérisation " du travail, des conséquences environnementales à la surveillance diffuse, voilà un certain temps que la marche de l’innovation n’a pas de quoi faire l’unanimité.

Comment s’emparer de la trajectoire du " progrès ", intervenir dans ces décisions technologiques et peser dans ces rapports de force qui décident de notre vie en commun ?

Petit précis de " techno-critique " et de " démocratie technique " avec Yaël Benayoun et Irénée Régnauld, cofondateurs de l’association le " Mouton Numérique " et auteurs de " Technologies partout, démocratie nulle part ", publié chez FYP cet automne 2020.

Propos recueillis lors de la présentation du livre à la librairie " l’Attrape-Cœurs " par Maud Barret Bertelloni.

LVSL – Vous commencez votre livre en vous attaquant à ce lieu commun qui voudrait que les technologies soient un donné à l’égard duquel nous ne pourrions que nous adapter. C’est un motif récurrent : le « Service public » doit se mettre au pas des nouvelles technologies, les citoyens doivent suivre, la compétition mondiale presse…

Qu’est-ce que cela a à voir avec notre conception de la technologie ?

Yaël Benayoun et Irénée Régnauld – Le mot " technologie " historiquement est né pour décrire une science de la technique, comme un regard posé sur les objets techniques et la façon dont on les construit.

À certaines époques, la " technologie " a été enseignée comme une science politique. Il se trouve qu’on est aujourd’hui dans une période où la " technologie " a acquis la forme d’objet : quand on dit " technologie ", on pense à un " iPhone ", à une fusée spatiale… Alors que si l’on repart de l’étymologie : " techno " + " logos ", c’est le discours sur la technique.

C’est essentiel dans la mesure où la plupart des gens qui font des technologies, qui sont souvent des ingénieurs, prennent ça comme des artefacts absolument neutres, qui ne revêtent aucune dimension politique.

Or, ce qu’ils font, à titre individuel comme collectif, est de l’ordre du politique.

Tout l’enjeu du début du livre, c’est de revenir sur le discours véhiculé sur la technique que l’on entend beaucoup dans les médias dominants : tous les " la technique est neutre ", " ce n’est que l’usage qui compte ", " on n’arrête pas le progrès "…

Cette notion de " progrès " est sous l’emprise d’une vision très positiviste de la société, qui part du principe que le progrès technique est nécessairement synonyme de progrès social et que ce progrès est inéluctable et n’est donc pas questionnable.

Comme si le développement technologique n’était pas le fait de choix et de stratégies et d’un " jeu d’acteurs ". Pour prendre un exemple : le réseau de tramways était bien installé aux États-Unis au début du XXe siècle. Les constructeurs d’automobiles ont alors développé des stratégies de rachat massif des compagnies de tramway pour démanteler les réseaux de transport concurrents.

L’avenir de la mobilité et des transports aurait pu être différent que le " tout automobile " américain.

C’est ce qui passe aujourd’hui avec la " high tech ".

Le terme de technologie de " pointe ", de " high tech " est un terme qui introduit une hiérarchie entre ce qui n’est pas " high ", à savoir « occidental » ou chinois, et le reste. Ces technologies occultent toute une série d’autres choix qui auraient pu être faits et qui ne l’ont pas été.

C’est valable à la fois au niveau d’une réflexion globale sur la technique dans une civilisation, mais aussi pour n’importe quel objet technique. Pour chaque choix technologique, il y a un rapport de forces et il faut peser sur ce rapport de forces pour l’orienter différemment.

LVSL – Deux chapitres du livre illustrent ce en quoi les technologies constituent des choix de société. Il y a un premier chapitre consacré à la " smart city " comme politique de la ville sécuritaire ; un autre sur l’automatisation au travail et toutes ces technologies qui réduisent les travailleurs à de simples rouages dans un monde de machines.

Mais en quoi les technologies elles-mêmes constituent des choix de société ?

Yaël Benayoun et Irénée Régnauld – Les choix technologiques structurent la société et l’amènent dans une direction précise qui, sans la déterminer totalement, posent des infrastructures et des cadres dans lesquels on va évoluer.

L’exemple typique est la « 5G » : c’est prendre la direction de l’explosion des équipements numériques et de leurs usages, ce qui porte à une augmentation des capteurs, qui mène vers une ultra-numérisation de la société…

Et il y a des acteurs dominants qui, par leurs investissements, par leurs moyens, par leurs efforts de " lobbying ", orientent massivement les choix de société. Les efforts de l’industrie de l’automobile ont conduit à la société de la voiture et donc à « l’étalement urbain ».

Il en va de même avec l’introduction de certaines technologies qui brisent les collectifs de travail ou de l’introduction de la surveillance qui diminue la propension de chacun à aller manifester.

C’est très concret.

LVSL – Revenons sur un exemple dont vous faites mention : s’il y a d’une part le logiciel et toute la technique d’organisation d’une plateforme de livraison comme " Uber " ou " Deliveroo ", qui soumettent les travailleurs à des conditions de travail dégradantes et d’exploitation. Il y a aussi l’exemple d’une contre-ingénierie : le logiciel des livreurs de " CoopCycle ", dont les fonctionnalités sont " en main " aux travailleurs…

Yaël Benayoun et Irénée Régnauld – Pour remettre un peu de contexte, " CoopCycle ", c’est une coopérative de livreurs créée en réponse au système de " Uber ", de " Frichti ", etc. pour fournir une alternative coopérative.

Effectivement, ils utilisent aussi une plateforme logicielle pour organiser leur logistique. Mais précisément, ce n’est pas la même application : ils n’ont pas cherché à faire de la " food tech ", à livrer très rapidement le moins cher possible, mais de réorganiser la livraison sur un mode " coopératif ".

Dans le livre, nous ne partons pas du principe que toute technologie est " mauvaise ".

Ce n’est juste pas le sujet.

Ce qui est intéressant quand on regarde les deux applications de livraison, c’est que dans l’une vous avez les livreurs tracés, surveillés, notés, qui doivent rendre compte de leur temps et aller le plus vite possible, alors que dans l’autre le temps est discuté de manière " coopérative ".

La technologie qui est développée n’a pas les mêmes caractéristiques, car elle incarne alors d’autres valeurs et d’autres objectifs. Notre problématique, au fond, concerne ces choix technologiques faits à différentes strates de la société (la ville, le travail, l’État, etc.) mais surtout les effets de ces choix sur la démocratie.

LVSL – Pour arbitrer entre ces technologies, leurs formes et leurs valeurs, on invoque souvent une approche " éthique " à la technologie : " éthique " de l’intelligence artificielle, " éthique " du design, etc.

Quel est le problème avec ces approches ?

Yaël Benayoun et Irénée Régnauld – Il y a eu un " retour de bâton " à l’égard des technologies ces dix dernières années, notamment depuis " l’affaire Snowden ", et depuis les tentatives de manipulation électorale comme " Cambridge Analytica ". Et c’est précisément le moment où l’on voit apparaître un grand nombre de " chartes éthiques " des entreprises, qui arrivent pour réguler des projets technologiques.

Malheureusement, cela n’advient qu’une fois qu’ils ont été créés, sans jamais – ou rarement – repenser la manière dont sont fabriqués les objets, touchant à la rigueur, la façon de les déployer à la fin, un peu comme des " cases à cocher ". Alors, on regarde si l’objet fini est " juste ", s’il ne discrimine pas, etc.

Mais, d’une part, on n’interroge jamais le bien-fondé de l’objet, pour savoir si celui-ci est utile.

Et d’autre part, jamais vous ne trouverez mention des chaînes de production technologique dans ces " chartes " : rien sur les " micro-travailleurs " ou les " travailleurs du clic " qui entraînent les " intelligences artificielles ", rien sur les travailleurs " à la chaîne " qui sont une fois de plus " invisibilisés " sous couvert " d’éthique ".

Et au même moment où apparaissent ces " chartes éthiques ", on constate un flétrissement des procédures démocratiques traditionnelles et un certain glissement du droit vers " l’éthique ".

En termes de démocratie, c’est un problème.

Un exemple très simple : dans l’État de Washington, aux États-Unis, " Microsoft " a fait du " lobbying " pendant des années via un salarié qui était simultanément " congressman " ; pantouflage éhonté, conflit d’intérêts.

Il a fait voter une loi qui encadre la « reconnaissance faciale » dans l’État de Washington, suivant un cadre " éthique ", de telle sorte que les systèmes doivent reconnaître aussi bien les personnes " noires " que les personnes " blanches ".

Pourtant, dans une ville comme Portland, les technologies de « reconnaissance faciale » ont bien été interdites, tant en ce qui concerne leur usage par les forces de police, que par les commerces.

Plutôt que d’interdire, " l’éthique " a donc permis à " Microsoft " de plaquer des règles pour éviter les régulations.

" L’éthique ", ce n’est pas contraignant, c’est une " profession de foi ".

C’est pour cela qu’on a ironiquement intitulé une section : « Une " 5G " éthique est-elle possible ? »

La « 5G » est en préparation depuis dix, quinze ans : il y a eu des brevets, des recherches, des investissements chez les « opérateurs »… Là, ça arrive et on fait semblant d’avoir " un débat " sur quelque chose qui est déjà joué, sans jamais qu’on se soit posé collectivement la question des " réseaux du futur ".

On pose une fois de plus la question à la fin

Et puis on va demander aux consommateurs d’être - eux - " éthiques " en faisant " le bon choix ". Mais quand il va en " grande surface " pour acheter une balance et il n’y a que des balances connectées, on ne peut pas " responsabiliser " le consommateur en lui demandant de se faire une balance tout seul.

LVSL – Outre cette perspective technocritique, votre livre porte un véritable projet lié à la « démocratie technique ». Celui-ci comporte plusieurs aspects : réinvestir le champ du progrès, introduire un contrôle démocratique, investir les instances nécessaires à ouvrir un débat de société sur les technologies…

Comment les articuler ?

Yaël Benayoun et Irénée Régnauld – L’idée n’est pas de fournir un programme mais de montrer qu’il y a des initiatives et des projets qui sont déjà là.

On n’est pas du tout aussi démunis qu’il n’y paraît.

" L’avenir technologique " tel qu’on nous le vend n’est pas inéluctable. Toute une partie du livre recense justement tout un ensemble de luttes, des ingénieurs à la " société civile ", tous ces mouvements qui ont donné lieu à une première réponse : les entreprises font de " l’éthique " aujourd’hui parce qu’elles ont du mal à recruter.

Le RGPD n’aurait pas eu lieu sans " l’affaire Snowden ".

La logique du projet est simple : pour chaque choix technologique, il y a des stratégies d’acteurs. La majorité de ces choix se font sur le long terme, à huis clos, avec des industriels et des politiques qui malgré toutes leurs " bonnes intentions " ont l’exclusivité sur ces décisions.

Le rapport de force bascule clairement d’un côté.

Il faut alors rééquilibrer ce rapport de forces pour avoir une vraie discussion sur la société qu’on veut. Et selon la société qu’on veut, on peut faire les technologies qui vont avec.

Pour chacun de ces choix, il faut rajouter des acteurs dans la " boucle de décision ".

A minima, c’est la " société civile " organisée, comme on le retrouve - par exemple - dans toutes les propositions de " forums hybrides " dans les projets de « démocratie technique ». Cela voudrait dire que vous ne mettez pas dans les groupes " d’experts " seulement des représentants du « monde industriel » et politique, mais aussi des représentants du « monde associatif », avec le même poids que les autres, ce qui rééquilibre les décisions.

Un exemple dont on a beaucoup parlé ces derniers temps est celui de la « Convention citoyenne sur le climat ». Cela consiste à mobiliser des personnes tirées aux sort, concernées par les projets et les technologies en question selon ses enjeux spécifiques (l’automatisation des caisses ou la « 5G »), qui vont interroger les experts, ce qui inclut les associations, les juristes, les journalistes spécialisés.

Une fois que ces personnes sont informées et formées sur le sujet, elles formulent des recommandations. Nous proposons d’aller " un cran plus loin " que ce qui existe déjà actuellement et de faire en sorte que leurs recommandations ne soient pas seulement consultatives mais décisionnelles pour qu’elles aient un effet direct sur les politiques industrielles et l’orientation des investissements.

Cela fait vingt ans que de tels dispositifs participatifs existent et les sociologues et les politistes qui étudient ce genre de procédés remarquent que ces dispositifs sont efficaces.

Quand la méthodologie est bien respectée, les recommandations qui émergent sont de très grande qualité.

Le problème relève plutôt du fait qu’il n’y a presque jamais d’effets par la suite, parce que ces instances de délibération sont déconnectées des instances de décision. Il y a des groupes qui travaillent pour produire ces recommandations, mais elles ne sont finalement pas écoutées.

Le cas de la « Convention citoyenne » devait au départ être un peu exceptionnel, parce qu’elle était au reliée à une instance de décision : les recommandations devaient passer sans filtre soit par le parlement soit par référendum.

Aujourd’hui, on voit que tout est " détricoté ". La « 5G » est un bon exemple : les citoyens de la « Convention » ont demandé un moratoire et il n’y aura pas de moratoire. Or, si ces dispositifs peuvent fonctionner, il faut les systématiser et surtout leur donner un vrai rôle.

Il y a aussi des outils, comme le « principe de précaution », qui permet de s’arrêter pour documenter, pour produire du savoir.

Sans le « principe de précaution », on n’aurait pas stabilisé le trou dans la couche d’ozone, on n’aurait pas documenté la maladie " de la vache folle ", on n’aurait pas avancé sur la construction du GIEC [" Groupe intergouvernemental d’experts sur l’évolution du climat ", NDLR].

Bruno Latour résume tout ça par une belle formule selon laquelle le « principe de précaution » sert à " moderniser la modernité ". Notre livre promeut un « principe de précaution » beaucoup plus vaste, qui ne concerne pas exclusivement le climat ou la santé, mais qui inclut aussi la manière avec laquelle les technologies nous affectent, notamment dans notre rapport à la démocratie.

Maud Barret Bertelloni

LeVentseLève.fr