L'IA n'est pas autonome, et non pleinement automatique.
IA Autonome
Illusion du vivant
Illusion du vivant
L'IA n'est pas autonome, et non pleinement automatique.
L’autonomie, c’est la capacité à se fixer à soi-même sa propre loi, ses propres normes ou règles de fonctionnement, sans recourir à une tierce aide.
L’automatisme, c’est la capacité à faire un effort, à se mouvoir par soi-même, de manière systématique et programmée.
Il est souvent prétendu que les IA seraient des machines autonomes. Il est aussi prétendu que l'IA serait une machine capable d'automatisme, soit la capacité à fournir soi-même ses propres efforts. Les efforts et les normes, voilà deux choses bien différentes. On repère ici un piège.
On comprend que les deux notions (autonomie et automatisme) sont liées en matière informatique : l'autonomie concerne davantage le logiciel (les normes) et l'automatisme, davantage le matériel (la technique). L'IA serait-elle alors au moins une machine automatique ? Un système autonome ? L'inverse ? Les deux ?
D’abord, autonome est gênant, si on l’emploie pour qualifier un système (parce que le système est théorique comme nous avons vu, dès lors, son autonomie sera théorique et ne nous apprendra rien). Si l’on recourt à la notion de système moyennant une première simplification, on peut avancer le caractère autonome, par anthropomorphisme, pour viser en réalité la capacité de reconfiguration automatique des logiciels — ou plutôt des programmes — d’IA.
Or l’autonomie, dans le monde du vivant, suppose une adaptation contextuelle de l’organisme autonome. Mais, l’IA n’est pas contextuelle sauf lorsqu’elle se déploie dans un dispositif déconnecté (type drone). Dans ce cas seulement, le terme autonomie prend quelque pertinence, en rejoignant le qualificatif automatique1. Encore que l’ontologie logicielle, purement fonctionnelle, devrait disqualifier autonomie en l’absence de soi-même requis par la définition.
En même temps, lorsque les intrants proviennent d’ailleurs, et lorsque les extrants sont traités ailleurs, affirmer le caractère autonome devient franchement trompeur : si les inputs viennent d’ailleurs, et tiennent lieu de loi (nomos) au logiciel, comment prétendre que ce dernier est autonome ? On retrouve ici le problème relevé plus haut, de décréter de manière conventionnelle les frontières d’un système de traitement.
Par naturalisme, l’expression IA automne, veut voir dans les facultés d’auto-transformation des programmes d’IA, une similitude à la faculté d’adaptation du vivant. Mais si ce dernier peut s’avérer très robuste/résilient face à des anomalies majeures (animal né avec deux têtes, greffons d'une plante sur une autre). Il suffit d'une seule erreur pour qu'un code informatique ne s'exécute plus jamais : la machine n’est ici pas du tout automatique, et très faiblement autonome (en fait, elle est seulement théoriquement autonome).
Ne perdez pas de vue le caractère purement fonctionnel, sans substrat, du logiciel. Éviter de parler d’autonomie, lorsqu’il n’y a ni intentionnalité, ni opinion sur la signification de la norme reconfigurée, et sur ses effets possibles en contexte. Éviter également lorsqu’il n’y a pas conscience à cause de l’absence de contextualité de l’IA.
On pourrait discuter de machines virtuelles quasi (ou semi ou simili) automatiques pour insister sur leur caractère auto-reconfigurable.
Il serait aussi intéressant que les juristes s’intéressent à ces règles dans l’IA (le code du programme) qui déclenchent des réécritures de leur code originel, ou de leur code d’exécution. Ils pourraient aussi s’intéresser à la question d’une IA qui modifierait tout ou partie de sa propre architecture (ce qui inclurait donc son code) voire ses propres processus métiers. Il y a dans ce cas altération du travail humain.
Envie de Technoréalisme ?
Suivez-nous sur Linkedin
ou contribuez à nos études !
Informations
Crédits
Transcription