Pour une IA de qualité

L'IA n'apparaît pas sous le regard technoréaliste comme un artefact ou un outil technique à améliorer... encore moins, est-il besoin de le préciser, comme un organisme intelligent

Introduction

IA est le nom couramment donné, pour des raisons principalement publicitaires, à certains logiciels ou éventuellement, ce qui nous paraît encore plus exact : certaines étapes du traitement logiciel. 

S’agissant de ces programmes (d’IA), il ne faut pas trop attendre d’une amélioration de leur conception, ou d’un meilleur usage : l’essentiel des transformations advient en dehors de ces deux moments, au cours des phases d’intégration et de maintenance. C’est là que l’IA produit le maximum d’effets techno-politiques (et donc, économiques et écologiques), mobilisant un pouvoir de reconfiguration de règles et de données, partout dans le monde, à l’heure du World-Wide Web.

Pour comprendre que faire de bien avec l’IA, à partir d’aujourd’hui, il faut d’abord sortir du Postulat des Ressources Illimitées (PRI).

Postulat des Ressources Illimitées

Le Postulat des Ressources Illimitées (PRI) permet la présentation de risques que nous aurions besoin de gérer, ou des bénéfices qui pourraient se présenter, et ce, si aucun imprévu n’advenait, si tous nos désirs se réalisaient, ou si nos pensées étaient auto-réalisatrices.

C’est le récit dans le monde des Bisounours platoniciens. Il s’agit de s’interroger, par inférences successives, sur ce qui résulte statistiquement d’une première série d’affirmations (par ex. l’IA Act permettra de favoriser une IA de confiance) — autrement dit, tout ramasser dans un gros et même sac d’idées — plutôt que de s’interroger sur les effets concrets d’une décision locale, ses dépendances concrètes, et de vérifier continûment l’impact.

Le PRI laisse de côté toute la question des contreparties (coûts de transition, pertes de chance, effets rebond, propagations directes et indirectes, etc.) pour se concentrer sur le résultat “sous le lampadaire” du savoir théorique. 

Gardons à l’esprit, au moment de nous occuper des contreparties, que nous serons toujours dépassés par les effets des nouvelles solutions mises en œuvre.

Opportunités

Si nous avons beaucoup de chance, l’IA est d’abord une formidable opportunité théorique : elle laisse espérer des effets d’optimisation des marchés (financier, électricité, etc.), de nouvelles découvertes scientifiques, le déblocage du niveau suivant (comme dans un jeu vidéo, ou par le jeu magique d’un Progrès) d’un arbre de développement technologique, avec espérance d’effets économiques bénéfiques soumis au principe de singularité technologique, l’émergence de compromis éthiques (ex. dilemme du tramway), la libération des humains, de leurs tâches pénibles ou répétitives, l’augmentation statistique de la productivité.

À notre avis, ces opportunités théoriques sont ce que l’on peut espérer si tout se passe bien, et cela ne dépendra qu’en partie de la bonne volonté des acteurs. Par exemple, les anticipations de rentabilité devraient être mises en regard de la réalité des stratégies d’affaires et de détermination des prix : les modèles d’IA seront versionnés, leur facturation pourra changer de mode (rapportée au nombre d’utilisateurs, à l’unité de calcul, à la fréquence d’usage…) Ceci place la question des opportunités de rentabilité dans le cadre d’un récit que l’on croît plus ou moins auto-réalisateur. C’est faire abstraction de la réalité largement conventionnelle de toutes ces questions : les indicateurs, les notions comptables, les modes de calcul, les chiffrages, etc. servant au calcul de la rentabilité sont tous décrétés par quelqu’un, et n’informe en définitive sur aucune réalité signifiante, ne serait-ce parce que le monde bouge, et est plus complexe que nous ne pourrons jamais l’anticiper.

Bénéfices

Vous conviendrez qu'il est intéressant et légitime de poser les questions qui suivent dans un contexte global, hors des silos disciplinaires : c'est une manière de convoquer le réel. Il faut bien voir que de nouveaux programmes informatiques s'agrègent continument autour des programmes dits d'IA. De la sorte, il n'est pas très intéressant de faire comme s'il s'agissait d'outils globalement bornés et autonomes.

Conditions d'obtention d'un bénéfice dans la vraie vie : quelques questions à se poser

Le monde étant ce qu'il est, il faut, pour être certain d'obtenir un bénéfice effectif grâce à l'IA, compter sur la chance, ou faire l'effort de rassembler une multitude de conditions.

Voici quelques questions que l'on peut se poser à ce sujet : les dépendances sont-elles connues ? Contrôlables ? Dans quels cas un programme informatique peut-il se réparer tout seul ? Y aura-t-il des ordinateurs allumés ? Devrons-nous alors en payer la facture électrique ? Le cas échéant, qui devra le faire ? Le déclenchement d'une guerre bouleversera-t-il le prix de l'électricité ? L'énergie nécessaire sera-t-elle obtenue à partir d'une production électrique continue ? Une épidémie surviendra-t-elle, neutralisant une partie des ressources humaines nécessaires à la réparation récurrente des logiciels ?

Plus généralement : quelles sont les contreparties du bénéfice attendu ? C'est-à-dire : la transformation du monde souhaitée s'accompagne-t-elle nécessairement d'une dégradation visible ou invisible peu souhaitable ?

Exemples de bénéfices réellement obtenus

Pour ce qui va suivre, nous renvoyons au paragraphe précédent : nous bénéficierons1 tous de ce qui suit (et nous en avons déjà bénéficié), lorsque rien de réel ne l'empêche. Pour y insister : nous ne sommes pas dans la situation où l'on plante une graine, arrose un peu, et espère raisonnablement manger un jour un fruit. Rien de magique ne se produira à notre connaissance dans les ordinateurs. Il faudra aller chercher avec les dents les bonnes nouvelles correspondantes.

  • Médecine : amélioration des diagnostics sur imagerie médicale, comme Milvue ;
  • Biologie : AlphaFold et sa base de données sur les protéines humaines ;
  • Science des matériaux : M3GNet et sa bdd sur les matériaux ;
  • Météorologie : compilation pour créer des modèles afin de prédire certains évènements  : tornades, cyclones et onde de tempêtes... ;
  • Climatologie : analyse de données pour créer des projections ;
  • Militaire : drone ou missiles, leurres permettant l'interception défensive ou offensive ;
  • Archéologie : possibilité de traduction rapide de centaines de milliers de tablettes mésopotamiennes cunéiformes encore non traduites et stockées depuis longtemps dans des musées afin de bien mieux connaître l'histoire antique ;
  • Les assistants personnels type Alexa, Google, Siri... : facilitation de certaines tâches individuelles ;
  • Assistance à la conduite auxiliaire et/ou pilotes automatiques : éviter des accidents, faciliter la vie des personnes à mobilité réduite ;
  • On peut penser que l'automatisation du travail renforcera, par effet, une revalorisation des sciences molles et des activités manuelles non automatisables.

Comment tirer le meilleur parti de l'IA ?

C'est une question très difficile, et nous serions désolés de formuler des propositions très velléitaires.

La première chose à dire, c'est que ce ne peut être que par un effort collectif, convivial et contributif. Ensuite, il faut bien voir que ce n'est qu'en pratique, de manière circonstancielle, que l'on verra des améliorations. Toutes les propositions sous le postulat des ressources illimitées (consulter nos remarques à ce sujet) paraissent dérisoires. Cependant, on peut ouvrir quelques pistes.

  • Partager démocratiquement l'information à propos des technologies émergentes, soit : se mettre à véritablement en délibérer collectivement. Ce qui n'a réellement pas démarré à l'échelle, ou pas sur des bases solides, ce qui est une motivation de ce travail.
  • Éduquer les jeunes et les adultes à tirer le meilleur parti des apports de l'IA ; il faut toutefois dire que son usage déclenche des transformations collectives, aveugles et non maîtrisées en principe. C'est donc autour de cette question des transformations aveugles que l'accent devrait être mis.
  • Refuser individuellement, collectivement ou légalement certaines utilisations possibles de l'IA dont les effets délétères seraient envisagés comme dépassant les avantages (en particulier des IA concernant les personnes plus vulnérables, les personnes dépendantes et les enfants).

1 La fabrication d'un meilleur missile militaire est certes un bénéfice pour celui qui l'utilise, mais un maléfice pour celui qui le subit.

Risques

Risques sur les droits de l’homme, sur la qualité des emplois, le développement du chômage, augmentation des coûts d’acquisition des ressources inexploitées, car plus difficiles à acquérir ou plus lointaines, développement de nouveaux secteurs industriels peu souhaitables, standardisation et normalisation de la pensée. 

Par exemple, un programme d’IA en recherche pharmaceutique a créé 40 000 nouvelles armes chimiques potentielles de type militaire en six heures. Des chercheurs ont simplement modifié sa méthodologie pour rechercher plutôt que d'éliminer la toxicité, ce qu’ils font d’habitude. Ils ont généré des milliers de substances théoriques semblables au VX, l'agent neurotoxique le plus puissant aujourd’hui.1

Lorsque les risques théoriques se réalisent, ils obtiennent de nouveaux modèles. Ceux-ci, non encore instanciés ou incarnés dans la réalité, sont risqués, mais pas encore dangereux.

Urbina, F., Lentzos, F., Invernizzi, C. et al. “Dual use of artificial-intelligence-powered drug discovery”. Nat Mach Intell 4, 189–191 (2022)

Dangers

Le danger est plus inquiétant que le risque : alors que ce dernier peut être géré, et donc repoussé à plus tard, le danger est existentiel, et doit être affronté réellement. Les inconvénients, ce sont les contreparties nécessaires, mais non souhaitables d'une transformation. On comprend que l'approche est ici non sélective, contrairement à l'approche risque/opportunités théoriques sous PRI. Nous insistons, très simplement, sur ce dont il faudrait se méfier en réalité.

    Cybersécurité

    • Perte de données : en l'absence de plan de sauvegarde (backup) approprié, un accident dans un centre de données (data center) peut entraîner la perte de certaines données indispensables à des traitements de valeur. Ce n'est, en effet, que par la destruction du matériel qui la porte, que la donnée peut disparaître.
    • Perte de contrôle : les reconfigurations logicielles "autonomes" peuvent produire des outputs de tous ordres, que l'on n'a pas souhaités. On reconnaîtra difficilement s'ils sont conformes à une quelconque intention (humaine, faut-il le préciser).
    • Déficit de sécurité dans les affaires.1

    Décisions

    • Altération de la qualité des décisions (humaines, faut-il le spécifier) en contexte.
    • Traitement sur la base des indicateurs existants, correspondant à un enfermement et un aveuglement à toute nouveauté radicale. Par exemple, le carbone et le méthane sont associés à l'effet de serre ; or ce dernier peut être causé par toute molécule triatomique : le relâchement d'une grande quantité de ces dernières dans l'atmosphère serait aveugle à un traitement à base d'IA. Ceci n'est pas le signe d'une faiblesse particulière de l'IA, mais d'une faiblesse épistémique bien plus profonde.
    • Diffusion massive de fausses nouvelles, par des faux médias (fake news) capable d'avancer tout et son contraire et de manipuler les internautes, pour des raisons marketing, politique, de propagande ou par simple jeu. Un rebond de la fake news est le fact checking, qui ne saurait tarder à s'appuyer lui aussi sur l'IA  : une course à la vraisemblance des nouvelles du jour (mais non à leur vérité) s'engage alors, puisque ce ne sont plus des humains qui produisent ou vérifient des informations.

    Ressources

    • Dette énergétique (Production : 28466 TWh, soit 250045344 TWh annuels, soit 900163,2384 exajoules, soit 96577510,8 GWh annuels en 2021.2 Consommation annuelle mondiale 2021 : 595 exajoules annuels, soit 1,653 e+8 GWh annuels, soit 165300000 GWh en 2021. Balance soit production moins consommation = 96577510,8 - 165300000 = -68722489,2 GWh.) et emballement de la consommation énergétique.3
    • Une politique énergétique dominée par des acteurs tiers pouvant impliquer chantage énergétique, par exemple, le conflit Russo-Ukrainien.4
    • Rupture d'approvisionnement en matériel : Taïwan assure 60% de la production mondiale des semi-conducteurs. Dépendance critique induite par le modèle prévalant.
    • Attrition des ressources clés ou rares : l'IA, c'est un logiciel qui repose sur du matériel. Ce dernier doit être fabriqué, transporté, maintenu et alimenté en énergie.5

    Droit et Politique

    • Censure.
    • Problématiques liées au droit applicable : quelle loi pour le cyberespace ?
    • Questions liées à la souveraineté et à la dépendance économique et politique, en particulier avec les États-Unis et la Chine, ce pour des raisons techniques.
    • Renforcement, par boucle de rétroaction, du poids des normes techniques (voir AI Act) bientôt elle-mêmes informatisées.
    • Menaces sur la liberté de circulation.

    Infrastructures

    • Vulnérabilité face au risque d'incendie.6
    • Perte de contrôle sur des systèmes critiques, par exemple, chez un Opérateur d'Importance Vitale (OIV).7
    • Urbanisation mal maîtrisée : installation des centres de données dans les villes, générant des îlots de chaleur.

    Géologie et Géophysique

    • Éruption solaire — phénomènes solaires ou astronomiques exceptionnels : ces phénomènes physiques ont déjà, dans l'histoire, provoqué la destruction de dispositifs de communication électriques ;
    • Fluctuation quantiques non connues ou maîtrisées dans le cadre des lois physiques (recours au calcul quantique).
    • Les fluctuations du champ magnétique terrestre et l'augmentation énorme des nanosatellites cubiques (cubesats) autour de la terre. On anticipe des effets encore indéterminés de la présence de ces objets flottant à orbite géostationnaire : certains seront spectaculaires (collision de débris) mais il paraît également raisonnable d'en intégrer l'impact sur les télécommunications et montrer que l'IA est une partie d'un grand tout ;
    • Réchauffement climatique : les data centers ne supportent pas, en fonction de leur configuration, une montée supplémentaire de la température au-delà d'un certain seuil. En cas de dépassement, ils s'arrêteront de fonctionner, ou il faudra les arrêter.

    Organisation du travail

    • Effondrement des systèmes sous la dette technique : c'est le code accumulé qui devient de plus en plus complexe à maintenir et administrer.
    • Perte de compétences ou de maîtrise par la paresse induite.
    • Démissions silencieuses : quiet quitting.
    • Questionnements sur l'acceptabilité sociale des innovations numériques.8
    • Renforcement de la charge bureaucratique.

    Économie

    • Pertes financières éventuelles.9
    • Dépendances contractuelles.
    • Incertitudes sur les marchés boursiers, trading haute fréquence.
    • Différents types de perturbation de marché (barrières à l'entrée, barrières à l'export). C'est ici sans souscrire à une quelconque théorie économique. Seulement afin de préciser que l'on peut s'attendre à des reconfigurations économiques difficiles, voire impossibles à anticiper. Or, on pourrait vouloir décider des modalités économiques.

    Population

    • Vulnérabilité accrue aux méthodes d'ingénierie sociale, voire renforcement de ces dernières ;
    • Vulnérabilité accrue des personnes peu capables d'affronter la montée de la charge procédurale.

    Santé mentale

    • Maladies psychiques, découragement des professionnels.
    • Perturbation de la construction cognitive des enfants.
    • Altération de l'image de soi, et des autres.10
    • Addiction à des interactions avec des simulacres, que certaines personnes fragilisées tendront à vouloir considérer comme un alter ego, comme un tuteur de résilience. Cela pose le problème du temps passé à échanger avec une machine qui n'a que faire du temps qui passe et du contenu des échanges.

    Violence

    • Développement et mise à disposition d'équipement d'armements à impulsion électro-magnétique ou atomiques.
    • Perte de contrôle d'armes autonomes y compris armes autonomes bricolées, bombes sales et engins explosifs improvisés.
    • Génération de deep fake dans le cadre du terrorisme ou de l'ingérence.
    • Armement dopé à l'IA qui pourrait contester des ordres humains sur la seule base de son propre calcul.11

    Envie de Technoréalisme ?
    Suivez-nous sur Linkedin
    ou contribuez à nos études !