Intelligence artificielle :« Nous avons convoqué le diable »
par Tad Friend
Temps de lecture 15 min

Intelligence artificielle :« Nous avons convoqué le diable »

Alan Turing l’avait prédit : un jour, les machines « prendront le contrôle ». Aujourd’hui, la crainte se fait pressante, relayée par des mentors aussi différents que Bill Gates, Elon Musk et Stephen Hawking. Où en sommes-nous réellement ? Et que penser des arguments des uns et des autres ?

Publié dans le magazine Books, février 2019. Par Tad Friend

©HBO

Avec son parc d’attractions peuplé de cyborgs défaillants, la série Westworld met en évidence les risques d’une société où les robots seraient dotés d’une superintelligence.

Comment et quand précisément notre curiosité va-t-elle nous tuer ? Je parie que vous êtes curieux de le savoir. Bon nombre de scientifiques et d’ingénieurs le redoutent : la mise au point d’une intel­ligence artificielle (IA) supé­rieure à la nôtre, ce qu’on ­appelle une IA forte, ou générale (IAG), pourrait déboucher sur l’apocalypse. Bill Gates et Tim Berners-­Lee, le fondateur du World Wide Web, conviennent des perspectives qu’ouvre une IAG, un ­génie sorti de nos rêves pour exaucer nos vœux, mais l’un et l’autre ont fait part de leurs craintes. Le fondateur de Tesla et de SpaceX, Elon Musk, juge qu’il faut se garder de « convoquer le diable » et imagine l’IA comme un « dictateur immortel auquel nous ne pourrons jamais échapper ». Une IAG « pourrait signifier la fin de l’espèce humaine », avait mis en garde Stephen Hawking avant de mourir. Ces avertissements ne datent pas d’hier. En 1951, année du premier programme informatique de jeu d’échecs et du premier réseau neuronal artificiel, le pionnier de l’IA qu’est Alan Turing prédit que les machines « dépasseront nos faibles pouvoirs » et « prendront le contrôle » (1). En 1965, un collègue de ­Turing, Irving Good, attire l’attention sur le fait que des systèmes intelligents peuvent en concevoir de plus intel­ligents, et ce à l’infini : « Ainsi, la première ­machine ultra-intelligente est la dernière chose que l’homme ait à inventer, ­pourvu que la machine soit assez docile pour nous dire comment la maîtriser ». C’est cette dernière condition qui pose problème. Comme le soulignent de nombreux spécialistes, l’intelligence arti­ficielle faible, ou étroite (IAE) (2), est de plus en plus sûre et fiable – en tout cas plus que nous le sommes (la voiture et le camion autonomes pourraient épargner des milliers de vies chaque année). À leurs yeux, la question est de savoir si le risque de créer un serviteur omnicompétent excède les risques combinés des myriades de cauchemars qu’une IAG serait susceptible de nous épargner – pandémies, chutes d’astéroïdes, guerre nucléaire totale, etc. L’évaluation reste théorique, car, même si la course à l’IA s’est beaucoup amplifiée et renchérie, l’avènement d’une IAG n’est pas pour demain. Dans les années 1940, les premiers vision­naires nous le promettaient pour la géné­ration suivante. Sondé en 2017, un cercle d’experts en IA s’est accordé sur la date de 2047. Ce qui complique un peu ce calendrier, c’est la façon dont surviendra la « singularité » – le ­moment où la technologie aura tellement progressé qu’elle prendra le dessus pour de bon. S’agira-t-il d’un décollage en douceur, dû aux avancées progressives de l’IA faible, qui prendra la forme d’un explorateur de données doublé d’un dispositif de réalité virtuelle et d’un traducteur du langage naturel, le tout chargé dans un aspirateur-­robot ? Ou bien d’un décol­lage brutal, un ­algorithme qui reste encore à imaginer se trouvant soudain incarné dans un ­robot tout-puissant ? (3). Les enthousiastes de l’IAG ont beau avoir eu des décennies pour réfléchir à cet avenir, le résultat reste bien nébuleux : nous n’aurons plus à travailler car les ordinateurs se chargeront de toutes les activités courantes, nos cerveaux seront stockés en ligne et se fondront dans la conscience brumeuse du nuage, ce genre de chose. En ­revanche, les craintes des éternels angois­sés, fondées sur le fait que l’intelligence et le pouvoir cherchent toujours à se renforcer, sont concrètes et glaçantes : une fois que l’IA nous aura surpassés, il n’y a pas de raison de penser qu’elle nous sera reconnaissante de l’avoir inventée – surtout si nous n’avons pas su la doter d’empathie. Pourquoi une entité susceptible d’être présente dans mille lieux à la fois et possédant une conscience à la Starbucks éprouverait-elle une quelconque tendresse pour des êtres qui, les mauvais jours, peuvent à peine s’arracher du lit ? Curieusement, les auteurs de science-fiction, nos Cassandre les plus dignes de confiance, se sont abstenus d’envisager une apocalypse due à l’IAG, dans laquelle les machines domi­neraient au point de faire disparaître l’espèce humaine. Même leurs cyborgs et supercalculateurs, malgré leurs yeux rouges ­(les Terminators) ou leur accent cana­dien (HAL 9000 dans 2001 : l’odyssée de l’espace) ont un air de famille. Ce sont des versions actualisées du Turc ­mécanique, l’automate joueur d’échecs du XVIIIe siècle dont le mécanisme dissimulait un ­humain. Neuromancien, le ­roman fondateur de William Gibson paru en 1984, met en scène une IAG nommée Muet­dhiver ; elle ­décide de se ­libérer des chaînes humaines, mais, quand elle finit par s’échapper, elle ­entreprend de rechercher des IAG d’autres systèmes solaires, et la vie sur Terre reprend exactement comme avant. Dans la ­série Carbone modifié, les IA méprisent les humains, qu’ils traitent de « forme infé­rieure de vie », mais utilisent leurs super­pouvoirs pour jouer au poker dans un bar. Nous ne sommes pas pressés d’envisager la perspective de notre insignifiance. Aussi, en profitant des derniers rayons de notre souveraineté, nous nous délectons des ratés de l’IA. Comme lorsque le ­robot conversationnel Tay de Microsoft a répété des insanités racistes proférées par des utilisateurs de Twitter. Ou le jour où M, l’assistant virtuel de Facebook, ­remarquant que deux amis échangeaient sur un roman où il était question de cadavres vidés de leur sang, proposa de leur réserver un restaurant (4). Ou encore la fois où Google, incapable d’empêcher l’outil de reconnaissance des visages de Google Photos de confondre des Noirs et des gorilles, dut désactiver la reconnaissance des gorilles. La suffisance n’est sans doute pas la ­réaction la plus intelligente face à ce genre de ratés. Dans un article récent portant sur « la surprenante créativité de l’évolution numérique », des chercheurs font le bilan de programmes capables de mettre à jour leurs paramètres, comme le feront les êtres superintelligents. Quand les chercheurs ont voulu faire en sorte que des créatures virtuelles en 3D trouvent la meilleure façon de marcher et de sauter, certaines ont fait la culbute, tombant la tête la première, et un algo­rithme destiné à éliminer les bugs a fini par corriger ces erreurs en faisant disjoncter leurs programmes. Autre­ment dit, les chercheurs ont constaté que « l’optimisation de fonctions de récom­pense qui paraissent logiques est très susceptible d’induire des effets pervers ». En langage de chercheurs, cela revient à un haussement d’épaules. Réfléchir aux IAG peut nous aider à clarifier ce qui fait de nous des ­humains, pour le meilleur et pour le pire. Nous sommes-nous attelés à en bâtir une parce que nous avons le chic pour penser que les ordinateurs ne nous rattraperont ­jamais ? Ou parce que nous ne pouvons pas accepter l’idée que nous ne pourrons pas aller jusqu’au bout ? Les IAG nous obligent à nous demander s’il est bien sage de partir en quête d’extraterrestres, si nous ne sommes pas dans une simulation (sur un programme géré par l’IA de quelqu’un d’autre) et si nous avons à répondre de Dieu ou si nous sommes comptables envers lui. Si l’arc de l’Univers se tend vers une intelligence suffisante pour le comprendre, une IAG sera-t-elle la solution, ou la fin de ­l’expérience ? L’intelligence artificielle est devenue à ce point omniprésente – du fait de la miniaturisation des puces, et de l’évolution de la puissance de calcul et de la capacité de stockage – que nous la remarquons à peine. Il semble aller de soi que Siri, l’assistant d’Apple, gère nos rendez-vous ou que Facebook étiquette nos photos et ébranle la démocratie. Les ordinateurs savent déjà très bien investir en Bourse, traduire des phrases et diag­nostiquer un cancer, et leurs compétences commencent à dépasser le calcul et la taxonomie. Un outil de traitement automatique du langage développé dans le giron de Yahoo détecte les sarcasmes, le programme de poker Libratus bat des champions, des algorithmes composent de la musique, peignent des tableaux, font des blagues et créent de nouveaux scénarios pour la série Les Pierrafeu. Des IA ont même résolu l’énigme moderne du Sphinx : monter une chaise Ikea. On a longtemps pensé que le jeu de go, dans lequel l’intuition joue un si grand rôle, était à l’abri d’une attaque par un programme informatique. Et puis, en 2016, le champion Lee Sedol s’est fait battre par AlphaGo, le programme de Google DeepMind. Au cours de l’une des parties, l’ordinateur, au lieu de jouer selon l’habitude sur la troisième ou quatrième rangée à partir du bord du plateau, plaça une pierre sur la cinquième – un coup si inattendu que Sedol se leva et quitta la pièce. Une cinquantaine de tours plus tard, il devint clair que ce premier coup avait été décisif. AlphaGo avait montré une parfaite maîtrise de la reconnaissance des formes et de la prédiction, clés de voûte de l’intelligence. On peut même dire qu’il avait fait preuve de créativité. Que reste-t-il donc de spécifiquement humain ? Pour Larry Tesler, l’informaticien qui a inventé le copier-­coller, l’intelligence humaine est « ce que les ­machines n’ont pas encore accompli ». En 1988, le roboticien Hans ­Moravec ­observait que les tâches qui nous ­paraissent difficiles sont un jeu d’enfant pour l’ordinateur, et inversement. C’est le paradoxe qui porte son nom : « Il est ­relativement facile de faire en sorte qu’un ordinateur affiche des performances d’adulte aux tests d’intelligence ou au jeu de dames, et difficile ou impos­sible de lui donner les compétences d’un enfant de 1 an quand il s’agit de perception et de mobilité. » Les robots ont fait des progrès en vision et en agilité, mais le paradoxe tient toujours. On le voit pour ce qui est de la préhension, par exemple. Certains estiment qu’il faut penser les rapports entre intelligence humaine et intelligence artificielle en termes de syner­gie et non de concurrence. Dans leur livre Human + Machine, Paul Daugherty et H. James Wilson, des cadres du cabinet de conseil Accenture, soutiennent que travailler aux côtés de « cobots » IA accroîtra le potentiel humain. Récusant tous les scénarios apocalyptiques qui annoncent la disparation de pas moins de 800 millions d’emplois d’ici à 2030, ils intitulent allègrement un chapitre « Dites bonjour à vos nouveaux robots réceptionnistes ». Des compétences de pointe telles que la « fusion holistique » et la « normalisation responsable » ouvriront aux humains les portes de nouveaux métiers passionnants comme « stratège en explicabilité » ou « hygiéniste des données ». Même les ­talents artistiques auront un rôle à jouer, car il faudra « concevoir, adapter et ­gérer » des robots de service à la clientèle. Des spécialistes de domaines inattendus comme la conversation humaine, ­l’humour, la poésie et l’empathie seront en première ligne » [lire « Les robots vont-ils nous remplacer ? », Books, février 2015]. Beaucoup des exemples donnés par Daugherty et Wilson montrent que nous sommes aussi prévisibles que des machines. Grâce à l’IA, l’entreprise de technologie financière ZestFinance sait que les clients qui utilisent tous les plafonds quand ils demandent un prêt sont plus susceptibles d’être défaillants. Et le moteur de recherche intuitif 6Sense sait non seulement lesquelles de nos activités sur les réseaux sociaux indiquent que nous sommes prêts à l’acte d’achat, mais aussi comment « anticiper les objections au cours du parcours d’achat ». À croire que la finalité première de l’IA est d’opti­miser les ventes. Quand une entreprise injectera de l’anthropomorphisme dans l’apprentissage machine, il deviendra impossible de résister aux moteurs de recommandation 5. Pouvons-nous revendiquer les exploits de nos machines comme étant ceux de l’humanité ? L’ancien champion d’échecs Garry Kasparov aborde les deux côtés de la question dans son livre Deep Thinking. Quelques années avant sa célèbre défaite contre le super­ordinateur Deep Blue d’IBM, en 1997, il déclarait : « Je ne sais pas comment nous pouvons exister en sachant qu’il existe quelque chose de mentalement plus fort que nous ». Mais il est toujours là, à tourner dans tous les sens les détails de ce match et consacre une bonne partie de son livre à incriminer tous ceux qui ont été associés à la conception du « réveil-matin à 10 millions de dollars » d’IBM. Et puis soudain il tourne bride et fait contre mauvaise fortune bon cœur : utiliser les ordinateurs pour « les aspects les plus ingrats » du raisonnement nous libérera et nous permettra de consacrer nos facultés intellectuelles à « la créativité, la curiosité, la beauté et la joie ». Si nous ne saisissons pas cette occasion, conclut-il, « autant être nous aussi des machines ». Ce n’est qu’en nous appuyant sur des machines que nous pouvons prouver que nous n’en sommes pas. Un problème supplémentaire guette les machines. Si nos films et nos séries télé sont dans le vrai, le futur se déroule à Los Angeles, sous une bruine persistante, et est peuplé de cybercréatures légèrement plus détachées que nous le sommes. Dotées d’une incroyable force physique, ce sont des as de la moto et du calcul mental, mais elles aspirent à devenir des humains, à nous ressembler davantage. Fatalement, l’androïde le plus humain d’apparence tombe sur un labo où sont stockés des prototypes de clones de lui-même, et il comprend avec horreur qu’il n’est pas une personne mais une machine. Dans Blade Runner, Rachel (interprétée par Sean Young), un réplicant de deuxième génération, ignore qu’elle en est un avant d’échouer au redoutable test de Voight-Kampff, que lui fait passer Deckard (inter­prété par Harrison Ford). Le réalisateur, ­Ridley Scott, s’est querellé publiquement avec Ford sur la question de savoir si Deckard était lui-même un réplicant. Scott soutenait mordicus que c’en était un ; Ford affirmait le contraire. Qui est prêt à accepter – même au nom de son personnage de fiction – que son libre arbitre est une illusion ? Le moyen habituel pour mesurer l’ambition d’une machine est le test proposé par Turing en 1950 : une IAG digne de ce nom doit pouvoir faire croire à un panel de juges qu’elle est un humain. Ce critère présuppose que le cerveau humain est une sorte d’ordinateur et que tout ce que nous avons à faire pour créer une IAG est de reproduire notre mode de pensée. Très subtilement, il fait des programmeurs des escrocs. Lors d’un échange en ligne, un robot de conversation se faisant passer pour Eugene Goostman, un Ukrainien de 13 ans, est parvenu à abuser un tiers des jurés au test de ­Turing 2014 en changeant régulièrement de sujet. Le magazine en ligne The Daily Beast a ­retranscrit le passage où le robot ­répond à l’une des questions originelles de ­Turing : « L’interrogateur : Dans ce premier vers d’un sonnet : “Te comparerai-je à un jour d’été ?”(6), n’aurait-il pas mieux valu écrire : “un jour de printemps” ? Goostman : Pourquoi me poser cette question ? À croire que vous ne pouvez trouver la bonne réponse vous-même ! Faites confiance à votre intuition ! :-) On pourrait peut-être parler d’autre chose ? De quoi aimeriez-vous discuter ? L’interrogateur : J’aimerais parler de poésie. Goostman : Classique ? J’espère que vous n’allez pas vous mettre à me lire Le Roi Lear ou quelque chose du genre :-))) » Les personnes qui rédigent les textes pour des assistants numériques comme Siri et Alexa ont recours à ce genre de badinage loufoque dans l’espoir de trouver le bon modèle d’interface ­vocale, à mi-chemin entre le factuel et le charabia. L’une d’eux faisait récemment obser­ver : « Il y a quelque chose d’intrinsèquement humain dans les conversations ­absurdes ». Mais un sketch humoristique n’est…
Pour lire la suite de cet article, JE M'ABONNE, et j'accède à l'intégralité des archives de Books.
Déjà abonné(e) ? Je me connecte.
Imprimer cet article
0
Commentaire

écrire un commentaire