L’IA comme système, l’illusion de cloisonnement

Les termes “système d’IA” ne sont pleinement pas acceptables en l’état, parce qu’ils suggèrent à tort que l’on peut en connaître les frontières concrètes et les effets pratiques.

Définition courante

De manière générale, le système se définit comme le processus transformationnel consommant des ressources, des méthodes, des outils, du savoir, du savoir-faire, du savoir-être tenu par un ensemble de règles régissant son fonctionnement et donne pour fruit un extrant. Le système forme un tout divisible dont l’unité d’ensemble s'apprécie par sa portée, sa finalité et ses modalités d’exécution, lesquelles peuvent s’avérer synchrones, asynchrones, en temps réel ou en temps simulé [1]. Le système peut être de différents ordres (humain, technique, social, philosophique) être matériel ou immatériel, inné ou acquis, durable ou temporaire. 

Un système est concrètement un ensemble hétérogène, qui peut très bien inclure les êtres humains : par exemple, le joueur de jeu vidéo forme un “système” avec son jeu à travers l’écran et le clavier.

L’IA peut être regardée comme un type de système dont la vocation est de fournir par l’informatique des extrants (outputs) issus d’un traitement algorithmique et de données sophistiqués. La Commission européenne, dans l’IA Act, donne une place centrale à ce concept de système d’IA. 

Cependant, parler de d’IA comme étant un système est très problématique, parce qu’il n’y a nulle part un gentil agent qui s’efforce de redonner continûment aux soi-disant systèmes déployés, les caractères théoriques qu’on leur avait trouvés.

[1] Tout système est soumis aux principes de décohérence quantique et entropique.

Systèmes d'IA?

Il est vrai que l’IA mobilise des règles, routines et connections, ce que peut décrire la notion de système désignant tout ensemble fonctionnel organisé. Par exemple, une horloge est un système fait de rouages, d'un cadran et d’autres choses encore. Chaque pièce compte, on ne peut en retirer sans compromettre le fonctionnement. Il est possible, et même utile, de décrire certains systèmes de programmes (ex. système d’IA de scoring client, connecté à un système de gestion de la relation client; ou encore dans un autre domaine système de drones autonomes).

L’utilisation de la notion de système s’agissant d’IA, emporte quelques avantages : convoquer les discussions tenant à leur architecture, et bien sûr, renforcer la discipline scientifique et le marché dits des “systèmes d’informations”. Cela mobilise également la science des systèmes, ce qui apporte des moyens de comprendre la transformation des noyaux à travers le principe de rétroaction.

Si l’IA était un système, elle serait le sous-système (l’équivalent d’un composant fonctionnel) d’un système plus grand, le world wide web (dans son niveau d’abstraction logicielle néanmoins, puisque le WWW concerne la mise en système d’abord des machines physiques, et des couches logicielles seulement en second lieu). Ceci nous mène à vouloir relever un problème de l’emploi irréfléchi du mot système.

Quel est le problème avec "système d'IA" ?

Mobiliser la notion de “système” pour parler d’IA est trompeur.

Certes, parfois l’IA en tant que programme est un système à portée finie (un logiciel de type IA installé sur un serveur déconnecté). Mais le plus souvent, la portée du système d’IA est sans finitude définie. On ne peut plus dans ce cas (sauf de manière conventionnelle) désigner l’extrant objectif ; c’est ainsi que disparaissent également les frontières, la portée, et même la finalité du système. Par exemple, la portée varie suite à un feed-back positif qui s'auto-alimente, jusqu'à envahir tout l'espace disponible, ou suite à une boucle de feed-back négatifs, jusqu'à disparaître complètement.

Le caractère conventionnel de la frontière est gênant, lorsqu’il ne correspond pas à une frontière physique, de type serveur ou réseau, voire fonctionnelle de type service.

Voilà ce qui gêne : si l’on place une fausse frontière conventionnelle (ne correspondant à aucune frontière physique), on ne peut plus désigner l’extrant objectif de l’IA.

La preuve, on ne peut pas vraiment désigner le code-source comme frontière de l’IA : il possède certes sa cohérence, mais il sera implémenté et intégré dans d’autres séries de traitements, et parfois ses extrants le reconfigureront. Le firewall d’entreprise n’est pas non plus la bonne frontière du “système d’IA”, puisque les extrants qu’il permettrait de désigner, seraient non signifiants. 

Autrement dit, les systèmes logiciels sont toujours intégrés, donc leurs frontières s’intriquent et on ne peut plus reconnaître les extrants objectifs.

La signification d’un programme (sa ou ses fonctionnalités) permet de parler des extrants objectifs, ce qui est informatif, mais ces extrants sont obtenus “hors frontière” physique dans le cas de nombreux programmes architecturés pour tourner dans le cloud.

Le contre-exemple, celui donc où l’on peut valablement parler de système d’IA, est le jeu vidéo installé sur une console, et fonctionnant hors-ligne : les extrants objectifs se trouvent sous les yeux du joueur, et éventuellement dans des fichiers qui gèrent la session de jeu… encore faut-il ici préciser, que tout dans ce logiciel n’est pas “IA”, par exemple l’interface utilisateur n’est pas de l’IA. Dès lors, on a bien dans le cas du jeu vidéo déconnecté un système logiciel, mais pas un système d’IA à strictement parler.

L’absence de frontière réelle des programmes d’IA (et le seul caractère conventionnel desdites frontières) ne devrait-elle pas alors nous inciter à ne parler de système que dans des cas très restreints, comme ceux où les frontières, donc les extrants, sont objectifs?

Proposition

Bien sûr, il est toujours possible d’entreprendre un travail pour tâcher de redonner continûment à un système d’IA sans portée définie, une finalité et une caractéristiques à ses extrants, reprendre en main d’une certaine manière, ses bouclages de rétroaction.

Mais en pratique, on devrait renoncer à utiliser le mot “système” s’agissant d’IA, sauf dans le cas des systèmes d’IA fermés comme par exemple les drones autonomes. Les militaires, qui se payent assez peu de mots, parlent de “systèmes d’armes” parce qu’ils en comprennent clairement les contours. Mais la prudence est de mise : même les systèmes finis et fermés peuvent très difficiles à maintenir: il faut bien voir que certains programmes de production sont versionnés semi-automatiquement et bâtis de sorte que les maintenir soit une gageure du quotidien.

Pourquoi ne pas désigner précisément les véritables systèmes : collection de programmes en interaction, collection de sous-systèmes consommés (couches matérielles), applications dont les différentes IA consommées ne seraient ni plus ni moins que des librairies, des frameworks techniques faisant office de building blocks plus ou moins spécialisés à la manière d’un lego…

Oui, c’est plus compliqué. Mais l’avantage est d’éviter de suggérer que l’on reconnaît et maîtrise les extrants objectifs. A quoi bon recourir à la systémique, si c’est pour se voir privé de toute maîtrise des impacts ?

Mobiliser les notions de méta-système, macro-système, méga-système, pour éviter de laisser penser que l’on parle d’un objet fermé, qui n’aurait besoin d’aucune interaction reconfigurante pour “persévérer dans son être”.

Peut-on alors parler “d’éco-système numérique [1]”, pour dépeindre les échanges de matières et surtout d'information entre les humains (ou des animaux éventuellement connectés) et leur milieu (dans un sens cependant ici plutôt socio-technique) ? Le problème est que "écosystème" a un sens d’abord environnemental et présuppose une dynamique d’équilibrage global et spontané, absolument absent de l’ordinateur. Ceci renvoie à d’autres concepts, comme ceux d’infosphère et noosphère. Mais ils sont très généraux, et ne peuvent pas parler d’un logiciel d’IA conversationnelle telle que ChatGPT.

Il nous semble alors raisonnable que toute évocation du “système d’IA” ou “système algorithmique” s’accompagne d’une précision des frontières que l’on convient de donner au système. À défaut de pouvoir les désigner, on devrait commencer par s’interroger sur cette difficulté, au lieu de s’échapper dans la pensée magique, sur l’effet des systèmes les uns sur les autres.

[1] Volodymyr Nemchenko, Maxime Derian, IoT. L’Internet des Objets : éccosystème numérique connectant objets et individus (à paraître).

Vous n'êtes pas d'accord ? Vous voulez participer ? Vous avez une objection ? Une question ? Contribuez !