La place centrale que prend l’intelligence artificielle dans nos vies pousse des philosophes comme Anne Alombert et Daniel Andler à clarifier tout ce qui sépare la machine de l’humain. Des questions passionnantes.
Depuis que ChatGPT, le robot conversationnel, s’est incrusté dans nos conversations, l’intelligence artificielle nous obsède, dépassant la simple opposition entre adeptes geek et butés de l’informatique : chacun se demande comment nous allons vivre avec ces algorithmes conçus pour remplacer une partie de nos tâches quotidiennes, y compris dans le travail.
{"type":"Pave-Haut2-Desktop"}
Faut-il s’accommoder de l’imposition de l’intelligence artificielle dans nos vies ? Ou faut-il en relativiser les effets ? “Comment sortir de cette schizophrénie numérique ?”, se demande ainsi Anne Alombert, philosophe intéressée par les rapports entre savoirs et techniques, dans une réflexion faisant du numérique une question profondément politique. “Y aura-t-il un jour des automates logiques à qui viendront des idées ?”, se demandait déjà en 1980 le philosophe des sciences Georges Canguilhem, alors que l’on commençait à parler de “machine consciente”.
Quel est le but de l’IA ?
Dans son essai Intelligence artificielle, intelligence humaine : la double énigme, le mathématicien et philosophe Daniel Andler explore les secrets de cette intelligence démoniaque qui englobe “l’ensemble des dispositifs numériques visant à faciliter, amplifier, automatiser, compléter l’action humaine dans tous les domaines” (systèmes d’aide à la décision, voitures autonomes, modèles massifs de langage, chatbots qui en sont issus…).
Sa capacité à résoudre des problèmes résulte de principes généraux d’organisation du cerveau qui peuvent être reproduits dans des systèmes artificiels. Mais au fond, qu’attendons-nous de l’IA ? “Où voulons-nous qu’elle aille ?” C’est la grande question qui traverse cette enquête affirmant que l’intelligence artificielle ne pourra jamais rivaliser avec l’intelligence humaine. Car si l’IA a pour vocation de résoudre des problèmes, “ce n’est pour l’intelligence humaine qu’une mission secondaire”.
L’ombre de l’humain
Comme le rappelait Yann Le Cun, chercheur en intelligence artificielle, cité par Anne Alombert, “les réseaux neuronaux n’imitent pas plus le cerveau qu’une aile d’avion ne reproduit celle d’un oiseau”. On ne compare pas non plus un cow-boy et son ombre, estime Andler. “L’ombre dépend du cow-boy et ne lui ressemble que vaguement. Si, mesurée au sol, sa longueur est liée à la taille du cow-boy, comparer l’une à l’autre n’a aucun sens. Un rapport existe, et il est étroit, mais les deux choses sont d’un ordre différent et ne peuvent être comparées directement.”
L’intelligence artificielle se contente de produire des systèmes mécaniques sans comprendre les situations qu’elle explore. Car seuls les agents humains lui soumettent des problèmes. C’est en cela qu’elle reste une ombre. Pour autant, comme le suggère Anne Alombert, s’il existe un danger potentiel, ce n’est pas dans “les progrès d’une superintelligence artificielle”, mais dans “l’industrialisation des esprits et l’automatisation de l’altérité”. Au cœur de nos tourments, il ne s’agit donc pas de rejeter l’artificiel en soi, mais de faire la part des choses dans les attelages humains/machines ; “c’est seulement à cette condition que les vaches seront bien gardées”, estime Andler, dont l’intelligence est moins artificielle qu’authentique.
Daniel Andler, Intelligence artificielle, intelligence humaine : la double énigme (Gallimard) 426 p., 25 euros.
Anne Alombert, Schizophrénie numérique (Allia) 96 p., 7,50 euros.
{"type":"Banniere-Basse"}