Tout le monde se souvient de l’épisode de 2001 : l’Odyssée de l’espace où ce bon vieux Hal, devenu out of control, tente d’empêcher sa destruction par les pilotes du vaisseau en perdition. Certes, nous n’en sommes pas encore là, mais l’IA (intelligence artificielle) inquiète de plus en plus. Non seulement le grand public saturé […]
Tout le monde se souvient de l’épisode de 2001 : l’Odyssée de l’espace où ce bon vieux Hal, devenu out of control, tente d’empêcher sa destruction par les pilotes du vaisseau en perdition. Certes, nous n’en sommes pas encore là, mais l’IA (intelligence artificielle) inquiète de plus en plus. Non seulement le grand public saturé de Terminator et autres robots tueurs, mais même le monde scientifique. Au point que 700 chercheurs et chefs d’entreprise aussi prestigieux que Stephen Hawkins ou Elon Musk ont lancé une lettre ouverte pour avertir des “pièges” de l’IA.
Bouton rouge
Face à ces craintes, Google DeepMind, une société d’intelligence artificielle basée à Londres qui a été racheté par Google il y a peu, conceptrice du logiciel AlphaGo qui a vaincu le meilleur joueur de go du monde, réfléchit déjà à un “bouton” d’arrêt d’urgence pour les systèmes robotiques. Ceux-ci seront-ils bientôt capables d’apprendre à empêcher leur propre interruption ?
Deux chercheurs, Laurent Orseau, de Google DeepMind, et Stuart Armstrong, travaillant au sein du Future of Humanity Institute d’Oxford s’interrogent dans un article publié sur le site du Machine Intelligence Research Institute sur l’avenir de l’IA et l’importance de prévoir un “kill switch” pour mettre ces robots hors circuit.
”L’opérateur humain doit pouvoir appuyer sur le gros bouton rouge pour empêcher le robot d’exécuter une série d’actions néfastes ou dangereuses pour lui-même ou pour son environnement”, écrivent- ils
Evidemment, si le robot est capable d’apprendre, il pourrait parvenir à échapper à cette menace contre lui, par exemple en apprenant à désactiver le bouton rouge. Et, comme ils ont soin de le préciser, “cette éventualité n’est pas souhaitable”.
Ces hypothèses inquiétantes sont encore lointaines, mais avec l’apparition probable dans des délais pas si éloignés de « superintelligence” – certains évoquent déjà le concept de « singularité technologique” (ce moment où l’IA pourrait prendre le dessus sur l’homme), “mieux vaut commencer à y réfléchir trop tôt que trop tard”, prévient Stuart Hamilton…