L’IA autonome et automatique, l’illusion du vivant

L’IA n’est pas autonome, et non pleinement automatique.

Définitions courantes

L’autonomie, c’est la capacité à se fixer à soi-même sa propre loi, ses propres normes ou règles de fonctionnement, sans avoir recours à une tierce aide. 

L’automatisme, c’est la capacité à faire un effort, à se mouvoir par soi-même, de manière systématique et programmée.

L'IA autonome?

Il est souvent prétendu que les IA seraient des machines autonomes. Il est aussi prétendu que l’IA serait une machine capable d’automatisme, soit la capacité à fournir soi-même ses propres efforts. Les efforts et les normes, voilà deux choses bien différentes. On repère ici un piège.

On comprend que les deux notions (autonomie et automatisme) sont liées en matière informatique : l’autonomie concerne davantage le logiciel (les normes) et l’automatisme, davantage le matériel (la technique). L’IA serait-elle alors au moins une machine automatique? un système autonome? l’inverse? les deux?

Problématiques

D’abord, “autonome” est gênant, si on l’emploie pour qualifier un “système” (parce que le système est théorique comme nous avons vu, dès lors, son autonomie sera théorique et ne nous apprendra rien). Si l’on recourt à la notion de système moyennant une première simplification, on peut avancer le caractère autonome, par anthropomorphisme, pour viser en fait la capacité de reconfiguration automatique des logiciels - ou plutôt des programmes - d’IA. 

Or l’autonomie, dans le monde du vivant, suppose une adaptation contextuelle de l’organisme autonome. Mais l’IA n’est pas contextuelle sauf lorsqu’elle se déploie dans un dispositif déconnecté (type drone). Dans ce cas seulement, le terme autonomie prend quelque pertinence, en rejoignant le qualificatif “automatique”[1]. Encore que l’ontologie logicielle, purement fonctionnelle, devrait disqualifier “autonomie” en l’absence de “soi-même” requis par la définition.

D’autre part, lorsque les intrants proviennent d’ailleurs, et lorsque les extrants sont traités ailleurs, affirmer le caractère autonome devient franchement trompeur : si les inputs viennent d’ailleurs, et tiennent lieu de loi (nomos) au logiciel, comment prétendre que ce dernier est autonome? On retrouve ici le problème relevé plus haut, de décréter de manière conventionnelle les frontières d’un système de traitement.

Par naturalisme, l’expression “IA automne”, veut voir dans les facultés d’auto-transformation des programmes d’IA, une similitude à la faculté d’adaptation du vivant. Mais si ce dernier peut s’avérer très robuste/résilient face à des anomalies majeures (animal né avec deux têtes, greffons d'une plante sur une autre) il suffit d'une seule erreur pour qu'un code informatique ne s'exécute plus jamais : la machine n’est ici pas du tout automatique, et très faiblement autonome (en fait, elle est seulement théoriquement autonome).

[1] Voir à ce sujet https://www.ccne-ethique.fr/sites/default/files/2021-07/CNPEN-Avis-Vehicule-Autonome-avril-2021.pdf

Propositions

Il ne faut pas perdre de vue le caractère purement fonctionnel, sans substrat, du logiciel. Éviter de parler d’autonomie, lorsqu’il n’y a ni intentionnalité, ni opinion sur la signification de la norme reconfigurée, et sur ses effets possibles en contexte. Éviter également lorsqu’il n’y a pas conscience à cause de l’absence de contextualité de l’IA.

On pourrait parler de machines virtuelles quasi (ou semi, ou simili) automatiques pour insister sur leur caractère auto-reconfigurable.

Il serait également intéressant que les juristes s’intéressent à ces règles dans l’IA (le code du programme) qui déclenchent des réécritures de leur code de base, ou de leur code d’exécution. Ils pourraient aussi s’intéresser à la question d’une IA qui modifierait tout ou partie de sa propre architecture (ce qui inclurait donc son code) voire ses propres processus métiers. Il y a dans ce cas altération du travail humain.

Vous n'êtes pas d'accord ? Vous voulez participer ? Vous avez une objection ? Une question ? Contribuez !