L'IA se définit mal à partir des notions d'algorithme, de système, de modèle, d'autonomie, d'outil, de décision, de données. Ces notions sont trop ambiguës.
Dix leçons sur l’IA
Les 10 leçons technoréalistes à retenir pour le futur
Les 10 leçons technoréalistes à retenir pour le futur
L'IA se définit mal à partir des notions d'algorithme, de système, de modèle, d'autonomie, d'outil, de décision, de données. Ces notions sont trop ambiguës.
L'IA a besoin d'ordinateurs, de serveurs et de réseaux. Cette dépendance est trop souvent ignorée.
L'IA consiste avant tout en un logiciel. Or un logiciel installé sur un ordinateur connecté a tendance à s'arrêter de fonctionner. Donc l'IA doit être continument intégrée et maintenue, et de la sorte son code sera toujours transformé.
Les systèmes d'IA sont très rarement bornés : leurs frontières sont toujours relativement floues, ce qui complique l'évaluation de leurs avantages et inconvénients.
L'IA est moins un algorithme qu'un programme ou un logiciel. Ou encore : les algorithmes doivent être implémentés, ce qui rend les rend moins intéressants à discuter.
L'IA, parce qu'elle est du logiciel, ne peut fonctionner qu'en interaction avec d'autres logiciels. Arrêtons de la penser dans la boîte.
L'intention du programmeur ne trouve pas de traduction fidèle en code source. Le code source ne trouve pas de traduction fidèle en code exécutable. Le code exécutable n'obtient pas forcément les effets qu'on espère.
Plus d'IA, donc plus de logiciels, plus de procédures automatiques, donc plus de bureaucratie. On ne peut pas y échapper.
L'IA est moins un outil qu'un régime politique. On pourrait se demander si ce dernier s'accommode bien de l'idée démocratique.
L'IA ne peut pas être frugale. Les efforts d'optimisation énergétique ne bénéficieront pas véritablement, et masquent une organisation globalement défaillante.
Envie de Technoréalisme ?
Suivez-nous sur Linkedin
ou contribuez à nos études !
Informations
Crédits
Transcription