Le rapport Villani sur l’intelligence artificielle

, par  DMigneau , popularité : 0%

Le rapport Villani sur l’intelligence artificielle

Tout le monde connait Cédric Villani, actuel député de l’Essonne mais surtout mathématicien mondialement connu.

Sa spécialité lui a valu de se voir confier par Édouard Philippe, en septembre 2017, la charge de réaliser un rapport stratégique sur le devenir de « l’intelligence artificielle » (ci-après « IA ») en France et en Europe.

Le processus comportait un volet « d’appel à l’opinion publique », dont j’ai parlé dans cet article (1) et un rapport qui vient d’être rendu disponible au public (2).

Le rapport insiste sur le fait que l’IA est l’un des programmes scientifiques les plus fascinants de notre époque, tout en reconnaissant le rôle majeur des fantasmes issues de la « SF », qui véhiculent souvent des idéologies politiques, dans l’imaginaire public mais aussi dans la direction de développement de cette discipline.

Le rapport note la dépendance actuelle forte sur l’IA " made in USA ", y compris au sein même de l’État français (" Microsoft " à l’Éducation Nationale, " Palantir " à la DGSI) comme au sein des entreprises qui préfèrent souvent la sécurité des grands noms américains aux efforts locaux moins médiatisés.

Le rapport insiste sur le fait que les grandes puissances géopolitiques (USA, Russie et Chine mais également le Canada, le Royaume-Uni et Israël) misent toutes sur l’IA comme l’outil leur ouvrant la domination mondiale.

Rien de moins.

L’IA est appelée à devenir une des clés du monde à venir. Se faire " larguer " dans ce secteur signifierait, pour la France comme pour l’Europe, une soumission quasi-définitive en termes technologiques.

D’entrée de jeu le rapport affirme le rôle central de l’État : Le « jeu du marché » seul montre ses limites pour assurer une véritable politique d’indépendance.

De plus les règles qui régissent les échanges internationaux et l’ouverture des « marchés intérieurs » ne servent pas toujours les intérêts économiques des États européens qui l’appliquent trop souvent à sens unique.

Tiens prend ça, CETA !

L’État, donc, doit donner un sens au développement de l’IA.

Donc un cap, donc une politique industrielle focalisée sur cinq secteurs prioritaires :

- l’éducation,

- la santé,

- l’écologie,

- les " transports-mobilité " et la " défense-sécurité ".

" L’éducation " n’apparaît pas dans l’introduction (omission volontaire - ou non - je l’ignore), mais fait bien partie des cinq fiches « focus » traitant de ces secteurs.

Si j’étais " zadiste ", la première chose que je reconstruirais serait une cabane siglée « Laboratoire scolaire écologique d’intelligence artificielle à mobilité réduite » pour décourager les gendarmes.

Bref.

Les raisons pour ce choix de « secteurs clés » sont le lien avec l’intérêt général, la possibilité de créer des avantages comparatifs au profit de la " France/Europe ", et le lien indicible avec l’État lui-même.

Par « avantages comparatifs », il faut sans doute entendre " qualité de vie ", " qualité des services et des infrastructures ".

Le rapport ne rate pas un point essentiel du développement de l’IA, à savoir la relation " homme-machine ". Il note la nécessité de penser les modes de complémentarité entre " l’humain " et les " systèmes intelligents ".

Que ce soit au niveau individuel ou collectif, cette complémentarité peut prendre plusieurs formes et peut être aliénante comme libératrice.

Au cœur du développement de l’IA doit résider la nécessité de mettre en œuvre une complémentarité qui soit " capacitante ", en ce qu’elle permet de " désautomatiser " les tâches humaines.

Et de rajouter, remarque essentielle en matière d’IA, la politique d’inclusion doit ainsi revêtir un double objectif : s’assurer que le développement de ces techniques ne contribue pas à accroître les inégalités sociales et économiques ; et s’appuyer sur l’IA pour effectivement les réduire.

La couleur est affichée d’emblée : Le monde du travail est à l’aube de « grandes transformations » et n’y est encore que peu préparé.

Les incertitudes et les conséquences du développement combiné de " l’intelligence artificielle ", de " l’automatisation " et de " la robotique " sont très importantes, notamment concernant les emplois détruits et créés

Il est donc nécessaire de prendre le problème " à bras le corps " et d’agir résolument, sans céder à la panique ni au fatalisme.

Une problématique directement associée au « monde du travail » est celle de la formation, et son financement : le financement de la formation professionnelle est fondé sur la masse salariale. Or, le développement de l’IA renforce la mutation des « chaînes de valeur » et entraîne une décorrélation entre les acteurs qui financent la formation professionnelle et ceux qui captent la « valeur ajoutée ».

Autrement dit, ceux qui sont susceptibles d’impacter positivement la « chaîne de valeur » à un certain endroit ne participent pas, à l’heure actuelle, au financement de la transition professionnelle des individus employés par d’autres secteurs de cette même chaîne mais impactés négativement.

D’où l’appel à un " dialogue social " autour du partage de la « valeur ajoutée » au niveau de " la chaîne de valeur entière ", chose fondamentalement différente de la négociation traditionnelle " par branche ".

De la formation aux politiques éducatives : Plus que jamais la mission de « l’école » est de donner à chacun les capacités pour appréhender les transformations en cours de notre société et s’adapter dans un monde en constante évolution.

Et donc, de nous accompagner dans la construction d’une « complémentarité capacitante » avec les machines.

Autrement dit, l’objectif éducatif ne devrait pas être de « servir la machine » mais de développer des « modes de complémentarité capacitante » avec elle.

De plus, les compétences créatives, sociales et situationnelles seront de plus en plus sollicitées. Il est évident que la vie dans un monde intégrant l’IA implique de profonds changements de politique éducative focalisés sur la créativité plutôt que la répétition.

Plus précisément, l’intégration de l’IA dans le processus d’apprentissage déchargera les professeurs du « transfert de connaissances » en tant que tel et de déplacer la valeur de leur enseignement vers la « scénarisation » de l’expérience d’apprentissage et l’accompagnement personnalisé des élèves.

Le rapport aborde le problème des « boîtes noires ».

Vu l’impact à venir de l’IA deux dangers sont identifiés :

- d’une part, le risque de reproduire des discriminations existantes ou d’en produire de nouvelles,

- d’autre part, la normalisation diffuse des comportements que pourrait introduire le développement généralisé d’algorithmes IA.

Ces deux risques sont déjà avérés : un cas où une IA assimile " les Noirs " à des gorilles, un autre étant " l’effet normalisateur " d’électeurs via des informations très ciblées, basé sur la création de " profils psychologiques " (3).

Il est donc nécessaire de pouvoir ouvrir ces " boîtes noires ", mais également réfléchir en amont aux enjeux éthiques que les algorithmes d’IA peuvent soulever.

La question de l’ouverture des " boîtes noires ", à mon avis, risque de buter rapidement sur la loi du « secret des affaires » mais c’est un autre problème.

D’autant que le rapport présente le fait que l’IA, et en particulier l’IA à base « d’auto-apprentissage », le modèle dominant actuel, est basé sur l’accès aux données - données aujourd’hui parcellaires, privatisées - (les GAFAM), et difficilement accessible pour les pouvoirs publics, les plus « petits acteurs » économiques et la recherche.

D’où le principe que la « puissance publique » doit pour cela amorcer de nouveaux modes de production, de collaboration et de « gouvernance » sur les données, par la constitution de « communs de données ».

L’État doit ouvrir l’accès à ses données tout en gardant un objectif de souveraineté : la France et l’Europe doivent conserver une position ferme s’agissant du transfert de données hors de l’UE.

Il y a donc tout un travail à faire en amont afin de spécifier les modalités d’accès, la protection, et le champ d’utilisation des données et cela doit, en outre, se faire à un niveau européen pour avoir une masse suffisamment conséquente.

C’est sans doute un élément de la tentative de remise en ordre de marche de l’UE par Emmanuel Macron : si l’IA devient un déterminant géopolitique, une politique européenne en matière d’IA aura plus de chances de survie que 27 initiatives locales cherchant toutes à réinventer les mêmes outils.

Le rapport fait évidemment appel à pas mal de concepts technocratiques genre « plateformes sectorielles de mutualisation » et de « bacs à sable d’innovation » pour faciliter le développements d’applications IA visant les secteurs sus-mentionnés.

Il appelle également à la création d’un « Coordinateur interministériel » visant à équilibrer les grandes différences de maturité, en matière d’IA, d’un ministère à l’autre.

On aura effectivement remarqué que certains ministères, et notamment celui de « l’Intérieur », ont une forte immaturité côté intelligence, artificielle ou non.

Passons.

Autre petite phrase à contre-courant du « libéralisme » ambiant : notre mission recommande plusieurs mesures qui visent à mettre l’achat public au service du soutien aux industries européennes et à dynamiser l’achat public innovant.

Très bien.

Le rapport appelle également à la création, au sein d’établissements publics d’enseignement et de recherche, « d’Instituts Interdisciplinaires d’IA » (3IA) autonomes et coordonnés, réunissant ingénieurs, chercheurs et étudiants.

Personnel qu’il faudra payer, et cher, si on ne veut pas qu’il aille se vendre ailleurs et la question salariale est également abordée. Et ces « 3IA » auront besoin d’un supercalculateur dédié à l’IA, capable de rivaliser avec les grands acteurs privés

La question écologique est indissociable de l’IA du simple fait que d’ici 2040, les besoins en espace de stockage au niveau mondial, fondamentalement corrélés au développement du numérique et de l’IA, risquent d’excéder la production disponible globale de silicium.

La consommation énergétique du « numérique » augmente de 8,5 % par an et sa part dans la consommation électrique mondiale se situera entre 20 % et 50 % en 2030 !

De futurs développements liés à l’IA devront aller au-delà de la simple optimisation énergétique et devra intégrer un paradigme de croissance plus économe et collectif, inspiré de la compréhension de la dynamique des écosystèmes, dont elle sera un outil clé.

Non seulement cela mais l’IA, en permettant de modéliser la dynamique et le devenir des écosystèmes biologiques, peut contribuer à une véritable transition écologique.

Le rapport en appelle à la France pour prendre " le leadership " mondial de cette transition.

Ce qui impliquerait à titre symbolique, à mon sens, d’envoyer sur " la Zad " de « Notre-Dame-des-Landes » non plus des gendarmes et des blindés mais des chercheurs en écologie et des développeurs d’application en IA.

C’est pas gagné…

Dans cette logique de transition écologique, le rapport envisage une forte coopération de l’IA avec le monde agricole, au sein d’une agriculture augmentée où l’IA pourra accéder à l’ensemble des données de production, de transformation, de distribution et d’information du consommateur afin de les optimiser : diminution des intrants chimiques, meilleur suivi des rendements, etc…

Le rapport en appelle à la profession agricole de se saisir de ces enjeux, sous peine de devoir subir les clauses et standards des grands " équipementiers " ; la plupart étant non-français.

En matière de " sécurité-défense ", enfin, le rapport stipule que dans un contexte marqué par ce qui est parfois dénoncé comme une forme d’inflations de lois sécuritaires, les risques liés notamment à la surveillance de masse et à la diminution des libertés publiques ne peuvent être négligés.

On comprend la mise en garde, mais on ne voit pas quelles mesures effectives pourraient être prises pour limiter la prédation sécuritaire des officines opaques qui, par définition, ne divulguent pas au public ni ce qu’elles savent ni ce qu’elles font.

Il n’y a, par essence, aucun contrôle démocratique possible de l’appareil militaro-sécuritaire, et d’autant moins qu’il développe les moyens de surveillance et de contrôle lui permettant de contrer toute velléité contraire à ses intérêts.

Le rapport me semble " faire l’autruche " sur cette question, pourtant au cœur de la perception " grand public " de ce qu’est l’IA.

A quoi servirait tout ceci si c’est pour vivre sous l’œil omniscient et omnipotent de " Big Brother " ?

Dans son ensemble, « le rapport Villani » est une plongée intéressante dans un monde en devenir où l’IA va prendre - c’est clair - une place prépondérante.

Pour exister dans un état autre que la soumission aux pays ayant déjà lancés de grands programmes en matière d’IA, la France et l’Europe doivent mettre en œuvre leur propre politique de développement et des règles de conduites dictées par nos fameuses " valeurs ", pourtant si souvent négligées dans les faits : démocratie, émancipation, transition écologique.

Le cadre est posé, des pistes sont proposées. Il faut maintenant que les peuples, autant que les politiques, prennent conscience des enjeux.

Vincent Verschoore

AgoraVox

Notes :

(1) https://zerhubarbeblog.net/2017/12/08/quel-controle-pour-lintelligence-artificielle/

(2) https://www.aiforhumanity.fr/

(3) https://zerhubarbeblog.net/2018/04/12/de-facebook-au-brexit-la-course-au-profil/