L’esprit critique ne prend pas de vacances ! Abonnez-vous à Books !

Dossier
Temps de lecture 15 min

Intelligence artificielle :« Nous avons convoqué le diable »

Alan Turing l’avait prédit : un jour, les machines « prendront le contrôle ». Aujourd’hui, la crainte se fait pressante, relayée par des mentors aussi différents que Bill Gates, Elon Musk et Stephen Hawking. Où en sommes-nous réellement ? Et que penser des arguments des uns et des autres ?


©HBO

Avec son parc d’attractions peuplé de cyborgs défaillants, la série Westworld met en évidence les risques d’une société où les robots seraient dotés d’une superintelligence.

Comment et quand précisément notre curiosité va-t-elle nous tuer ? Je parie que vous êtes curieux de le savoir. Bon nombre de scientifiques et d’ingénieurs le redoutent : la mise au point d’une intel­ligence artificielle (IA) supé­rieure à la nôtre, ce qu’on ­appelle une IA forte, ou générale (IAG), pourrait déboucher sur l’apocalypse. Bill Gates et Tim Berners-­Lee, le fondateur du World Wide Web, conviennent des perspectives qu’ouvre une IAG, un ­génie sorti de nos rêves pour exaucer nos vœux, mais l’un et l’autre ont fait part de leurs craintes. Le fondateur de Tesla et de SpaceX, Elon Musk, juge qu’il faut se garder de « convoquer le diable » et imagine l’IA comme un « dictateur immortel auquel nous ne pourrons jamais échapper ». Une IAG « pourrait signifier la fin de l’espèce humaine », avait mis en garde Stephen Hawking avant de mourir. Ces avertissements ne datent pas d’hier. En 1951, année du premier programme informatique de jeu d’échecs et du premier réseau neuronal artificiel, le pionnier de l’IA qu’est Alan Turing prédit que les machines « dépasseront nos faibles pouvoirs » et « prendront le contrôle » (1). En 1965, un collègue de ­Turing, Irving Good, attire l’attention sur le fait que des systèmes intelligents peuvent en concevoir de plus intel­ligents, et ce à l’infini : « Ainsi, la première ­machine ultra-intelligente est la dernière chose que l’homme ait à inventer, ­pourvu que la machine soit assez docile pour nous dire comment la maîtriser ». C’est cette dernière condition qui pose problème. Comme le soulignent de nombreux spécialistes, l’intelligence arti­ficielle faible, ou étroite (IAE) (2), est de plus en plus sûre et fiable – en tout cas plus que nous le sommes (la voiture et le camion autonomes pourraient épargner des milliers de vies chaque année). À leurs yeux, la question est de savoir si le risque de créer un serviteur omnicompétent excède les risques combinés des myriades de cauchemars qu’une IAG serait susceptible de nous épargner – pandémies, chutes d’astéroïdes, guerre nucléaire totale, etc. L’évaluation reste théorique, car, même si la course à l’IA s’est beaucoup amplifiée et renchérie, l’avènement d’une IAG n’est pas pour demain. Dans les années 1940, les premiers vision­naires nous le promettaient pour la géné­ration suivante. Sondé en 2017, un cercle d’experts en IA s’est accordé sur la date de 2047. Ce qui complique un peu ce calendrier, c’est la façon dont surviendra la « singularité » – le ­moment où la technologie aura tellement progressé qu’elle prendra le dessus pour de bon. S’agira-t-il d’un décollage en douceur, dû aux avancées progressives de l’IA faible, qui prendra la forme d’un explorateur de données doublé d’un dispositif de réalité virtuelle et d’un traducteur du langage naturel, le tout chargé dans un aspirateur-­robot ? Ou bien d’un décol­lage brutal, un ­algorithme qui reste encore à imaginer se trouvant soudain incarné dans un ­robot tout-puissant ? (3). Les enthousiastes de l’IAG ont beau avoir eu des décennies pour réfléchir à cet avenir, le résultat reste bien nébuleux : nous n’aurons plus à travailler car les ordinateurs se chargeront de toutes les activités courantes, nos cerveaux seront stockés en ligne et se fondront dans la conscience brumeuse du nuage, ce genre de chose. En ­revanche, les craintes des éternels angois­sés, fondées sur le fait que l’intelligence et le pouvoir cherchent toujours à se renforcer, sont concrètes et glaçantes : une fois que l’IA nous aura surpassés, il n’y a pas de raison de penser qu’elle nous sera reconnaissante de l’avoir inventée – surtout si nous n’avons pas su la doter d’empathie. Pourquoi une entité susceptible d’être présente dans mille lieux à la fois et possédant une conscience à la Starbucks éprouverait-elle une quelconque tendresse pour des êtres qui, les mauvais jours, peuvent à peine s’arracher du lit ? Curieusement, les auteurs de science-fiction, nos Cassandre les plus dignes de confiance, se sont abstenus d’envisager une apocalypse due à l’IAG, dans laquelle les machines domi­neraient au point de faire disparaître l’espèce humaine. Même leurs cyborgs et supercalculateurs, malgré leurs yeux rouges ­(les Terminators) ou leur accent cana­dien (HAL 9000 dans 2001 : l’odyssée de l’espace) ont un air de famille. Ce sont des versions actualisées du Turc ­mécanique, l’automate joueur d’échecs du XVIIIe siècle dont le mécanisme dissimulait un ­humain. Neuromancien, le ­roman fondateur de William Gibson paru en 1984, met en scène une IAG nommée Muet­dhiver ; elle ­décide de se ­libérer des chaînes humaines, mais, quand elle finit par s’échapper, elle ­entreprend de rechercher des IAG d’autres systèmes solaires, et la vie sur Terre reprend exactement comme avant. Dans la ­série Carbone modifié, les IA méprisent les humains, qu’ils traitent de « forme infé­rieure de vie », mais utilisent leurs super­pouvoirs pour jouer au poker dans un bar. Nous ne sommes pas pressés d’envisager la perspective de notre insignifiance. Aussi, en profitant des derniers rayons de notre souveraineté, nous nous délectons des ratés de l’IA. Comme lorsque le ­robot conversationnel Tay de Microsoft a répété des insanités racistes proférées par des utilisateurs de Twitter. Ou le jour où M, l’assistant virtuel de Facebook, ­remarquant que deux amis échangeaient sur un roman où il était question de cadavres vidés de leur sang, proposa de leur réserver un restaurant (4). Ou encore la fois où Google, incapable d’empêcher l’outil de reconnaissance des visages de Google Photos de confondre des Noirs et des gorilles, dut désactiver la reconnaissance des gorilles. La suffisance n’est sans doute pas la ­réaction la plus intelligente face à ce genre de ratés. Dans un article récent portant sur « la surprenante créativité de l’évolution numérique », des chercheurs font le bilan de programmes capables de mettre à jour leurs paramètres, comme le feront les êtres superintelligents. Quand les chercheurs ont voulu faire en sorte que des créatures virtuelles en 3D trouvent la meilleure façon de marcher et de sauter, certaines ont fait la culbute, tombant la tête la première, et un algo­rithme destiné à éliminer les bugs a fini par corriger ces erreurs en faisant disjoncter leurs programmes. Autre­ment dit, les chercheurs ont constaté que « l’optimisation de fonctions de récom­pense qui paraissent logiques est très susceptible d’induire des effets pervers ». En langage de chercheurs, cela revient à un haussement d’épaules. Réfléchir aux IAG peut nous aider à clarifier ce qui fait de nous des ­humains, pour le meilleur et pour le pire. Nous sommes-nous attelés à en bâtir une parce que nous avons le chic pour penser que les ordinateurs ne nous rattraperont ­jamais ? Ou parce que nous ne pouvons pas accepter l’idée que nous ne pourrons pas aller jusqu’au bout ? Les IAG nous obligent à nous demander s’il est bien sage de partir en quête d’extraterrestres, si nous ne sommes pas dans une simulation (sur un programme géré par l’IA de quelqu’un d’autre) et si nous avons à répondre de Dieu ou si nous sommes comptables envers lui. Si l’arc de l’Univers se tend vers une intelligence suffisante pour le comprendre, une IAG sera-t-elle la solution, ou la fin de ­l’expérience ? L’intelligence artificielle est devenue à ce point omniprésente – du fait de la miniaturisation des puces, et de l’évolution de la puissance de calcul et de la capacité de stockage – que nous la remarquons à peine. Il semble aller de soi que Siri, l’assistant d’Apple, gère nos rendez-vous ou que Facebook étiquette nos photos et ébranle la démocratie. Les ordinateurs savent déjà très bien investir en Bourse, traduire des phrases et diag­nostiquer un cancer, et leurs compétences commencent à dépasser le calcul et la taxonomie. Un outil de traitement automatique du langage développé dans le giron de Yahoo détecte les sarcasmes, le programme de poker Libratus bat des champions, des algorithmes composent de la musique, peignent des tableaux, font des blagues et créent de nouveaux scénarios pour la série Les Pierrafeu. Des IA ont même résolu l’énigme moderne du Sphinx : monter une chaise Ikea. On a longtemps pensé que le jeu de go, dans lequel l’intuition joue un si grand rôle, était à l’abri d’une attaque par un programme informatique. Et puis, en 2016, le champion Lee Sedol s’est fait battre par AlphaGo, le programme de Google DeepMind. Au cours de l’une des parties, l’ordinateur, au lieu de jouer selon l’habitude sur la troisième ou quatrième rangée à partir du bord du plateau, plaça une pierre sur la cinquième – un coup si inattendu que Sedol se leva et quitta la pièce. Une cinquantaine de tours plus tard, il devint clair que ce premier coup avait été décisif. AlphaGo avait montré une parfaite maîtrise de la reconnaissance des formes et de la prédiction, clés de voûte de l’intelligence. On peut même dire qu’il avait fait preuve de créativité. Que reste-t-il donc de spécifiquement humain ? Pour Larry Tesler, l’informaticien qui a inventé le copier-­coller, l’intelligence humaine est « ce que les ­machines n’ont pas encore accompli ». En 1988, le roboticien Hans ­Moravec ­observait que les tâches qui nous ­paraissent difficiles sont un jeu d’enfant pour l’ordinateur, et inversement. C’est le paradoxe qui porte son nom : « Il est ­relativement facile de faire en sorte qu’un ordinateur affiche des performances d’adulte aux tests d’intelligence ou au jeu de dames, et difficile ou impos­sible de lui donner les compétences d’un enfant de 1 an quand il s’agit de perception et de mobilité. » Les robots ont fait des progrès en vision et en agilité, mais le paradoxe tient toujours. On le voit pour ce qui est de la préhension, par exemple. Certains estiment qu’il faut penser les rapports entre intelligence humaine et intelligence artificielle en termes de syner­gie et non de concurrence. Dans leur livre Human + Machine, Paul Daugherty et H. James Wilson, des cadres du cabinet de conseil Accenture, soutiennent que travailler aux côtés de « cobots » IA accroîtra le potentiel humain. Récusant tous les scénarios apocalyptiques qui annoncent la disparation de pas moins de 800 millions d’emplois d’ici à 2030, ils intitulent allègrement un chapitre « Dites bonjour à vos nouveaux robots réceptionnistes ». Des compétences de pointe telles que la « fusion holistique » et la « normalisation responsable » ouvriront aux humains les portes de nouveaux métiers passionnants comme « stratège en explicabilité » ou « hygiéniste des données ». Même les ­talents artistiques auront un rôle à jouer, car il faudra « concevoir, adapter et ­gérer » des robots de service à la clientèle. Des spécialistes de domaines inattendus comme la conversation humaine, ­l’humour, la poésie et l’empathie seront en première ligne » [lire « Les robots vont-ils nous remplacer ? », Books, février 2015]. Beaucoup des exemples donnés par Daugherty et Wilson montrent que nous sommes aussi prévisibles que des machines. Grâce à l’IA, l’entreprise de technologie financière ZestFinance sait que les clients qui utilisent tous les plafonds quand ils demandent un prêt sont plus susceptibles d’être défaillants. Et le moteur de recherche intuitif 6Sense sait non seulement lesquelles de nos activités sur les réseaux sociaux indiquent que nous sommes prêts à l’acte d’achat, mais aussi comment « anticiper les objections au cours du parcours d’achat ». À croire que la finalité première de l’IA est d’opti­miser les ventes. Quand une entreprise injectera de l’anthropomorphisme dans l’apprentissage machine, il deviendra impossible de résister aux moteurs de recommandation 5. Pouvons-nous revendiquer les exploits de nos machines comme étant ceux de l’humanité ? L’ancien champion d’échecs Garry Kasparov aborde les deux côtés de la question dans son livre Deep Thinking. Quelques années avant sa célèbre défaite contre le super­ordinateur Deep Blue d’IBM, en 1997, il déclarait : « Je ne sais pas comment nous pouvons exister en sachant qu’il existe quelque chose de mentalement plus fort que nous ». Mais il est toujours là, à tourner dans tous les sens les détails de ce match et consacre une bonne partie de son livre à incriminer tous ceux qui ont été associés à la conception du « réveil-matin à 10 millions de dollars » d’IBM. Et puis soudain il tourne bride et fait contre mauvaise fortune bon cœur : utiliser les ordinateurs pour « les aspects les plus ingrats » du raisonnement nous libérera et nous permettra de consacrer nos facultés intellectuelles à « la créativité, la curiosité, la beauté et la joie ». Si nous ne saisissons pas cette occasion, conclut-il, « autant être nous aussi des machines ». Ce n’est qu’en nous appuyant sur des machines que nous pouvons prouver que nous n’en sommes pas. Un problème supplémentaire guette les machines. Si nos films et nos séries télé sont dans le vrai, le futur se déroule à Los Angeles, sous une bruine persistante, et est peuplé de cybercréatures légèrement plus détachées que nous le sommes. Dotées d’une incroyable force physique, ce sont des as de la moto et du calcul mental, mais elles aspirent à devenir des humains, à nous ressembler davantage. Fatalement, l’androïde le plus humain d’apparence tombe sur un labo où sont stockés des prototypes de clones de lui-même, et il comprend avec horreur qu’il n’est pas une personne mais une ma
chine. Dans Blade Runner, Rachel (interprétée par Sean Young), un réplicant de deuxième génération, ignore qu’elle en est un avant d’échouer au redoutable test de Voight-Kampff, que lui fait passer Deckard (inter­prété par Harrison Ford). Le réalisateur, ­Ridley Scott, s’est querellé publiquement avec Ford sur la question de savoir si Deckard était lui-même un réplicant. Scott soutenait mordicus que c’en était un ; Ford affirmait le contraire. Qui est prêt à accepter – même au nom de son personnage de fiction – que son libre arbitre est une illusion ? Le moyen habituel pour mesurer l’ambition d’une machine est le test proposé par Turing en 1950 : une IAG digne de ce nom doit pouvoir faire croire à un panel de juges qu’elle est un humain. Ce critère présuppose que le cerveau humain est une sorte d’ordinateur et que tout ce que nous avons à faire pour créer une IAG est de reproduire notre mode de pensée. Très subtilement, il fait des programmeurs des escrocs. Lors d’un échange en ligne, un robot de conversation se faisant passer pour Eugene Goostman, un Ukrainien de 13 ans, est parvenu à abuser un tiers des jurés au test de ­Turing 2014 en changeant régulièrement de sujet. Le magazine en ligne The Daily Beast a ­retranscrit le passage où le robot ­répond à l’une des questions originelles de ­Turing : « L’interrogateur : Dans ce premier vers d’un sonnet : “Te comparerai-je à un jour d’été ?”(6), n’aurait-il pas mieux valu écrire : “un jour de printemps” ? Goostman : Pourquoi me poser cette question ? À croire que vous ne pouvez trouver la bonne réponse vous-même ! Faites confiance à votre intuition ! :-) On pourrait peut-être parler d’autre chose ? De quoi aimeriez-vous discuter ? L’interrogateur : J’aimerais parler de poésie. Goostman : Classique ? J’espère que vous n’allez pas vous mettre à me lire Le Roi Lear ou quelque chose du genre :-))) » Les personnes qui rédigent les textes pour des assistants numériques comme Siri et Alexa ont recours à ce genre de badinage loufoque dans l’espoir de trouver le bon modèle d’interface ­vocale, à mi-chemin entre le factuel et le charabia. L’une d’eux faisait récemment obser­ver : « Il y a quelque chose d’intrinsèquement humain dans les conversations ­absurdes ». Mais un sketch humoristique n’est amusant que si l’on perçoit l’intelligence malicieuse qui est à l’œuvre. La traduire en code informatique est un défi à plus d’un titre. Les auteurs d’un article récent sur la génération automa­tique de poèmes à partir de photographies concluent à la difficulté de la chose, même en activant deux réseaux discriminants qui entraînent un réseau de neurones récurrents et les relient à un modèle couplé profond de plongement lexical visuo-poétique constitué d’un modèle codeur de texte, d’un analyseur morpho-syntaxique et d’un réseau neuronal convolutif… « Par exemple, notent tristement les chercheurs, le générateur automatique de légendes d’images ­indique après “homme” le mot “espoir” s’il détecte un “soleil brillant” et “des bras ouverts”, ou “solitude” s’il identifie des “chaises vides“ et un fond “sombre”. » Mais au moins le problème se limite-t-il ici à expliquer l’espoir et la solitude. Dans son livre « Le bon sens, le test de Turing et la quête d’une véritable IA » (7), Hector Levesque, professeur émérite de sciences informatiques, propose un meilleur test d’intelligence artificielle, consistant à soumettre à un ordinateur des phrases comportant une ambiguïté syntaxique. Par exemple : « La statue ne rentrait pas dans la valise marron car elle était trop petite. » Qu’est-ce qui était trop petit ? Nous comprenons tout de suite que c’est la valise, pas la statue. Les IA n’ont pas la jugeote nécessaire. L’intelligence est peut-être bien une forme de bon sens : un instinct permettant de se débrouiller dans une situation inédite ou déroutante. Dans le film d’Alex Garland Ex Machina, Nathan, le fondateur d’un géant de l’Internet ressemblant à Google, dénigre le test de Turing et consorts et invite un jeune programmeur à parler en direct avec son nouvel androïde, Ava. « Le vrai test consiste à ce qu’elle te montre qu’elle est un robot, dit ­Nathan, et qu’elle voie ensuite si tu penses toujours qu’elle a une conscience. » Elle a bien une conscience, mais, comme son créateur, elle est dépourvue de sens ­moral. Ava trompe et assassine Nathan et le programmeur pour conquérir sa ­liberté. Nous ne songeons pas à tester ce à quoi nous n’attachons pas d’importance. Au cinéma, la conscience des IA est un fait survenu de façon aussi inexpliquée que l’épanouissement de la nôtre. Dans Her, de Spike Jonze, Theodore, un type un peu dépressif, tombe amoureux du nouveau système d’exploitation de son ordi. « Tu sembles être une personne, dit-il, mais tu n’es qu’une voix sur un ordinateur », laquelle répond, mutine : « Je peux comprendre qu’une intelligence non artificielle et un peu limitée puisse concevoir les choses de la sorte. » Dans I, Robot, Will Smith demande à un ­robot nommé Sonny : « Un robot peut-il écrire une symphonie ? Un robot peut-il faire d’une toile un magnifique chef-d’œuvre ? » Sonny répond : « Et toi ? » L’IA sait appuyer là où ça fait mal. Les scénaristes ont tendance à penser que les IA ne se hisseront pas à notre ­niveau tant qu’elles ne pourront pas pleurer. Dans Blade Runner, les répli­cants ont une durée de vie limitée à quatre ans afin qu’ils n’aient pas le temps de se doter d’émotions – ce qu’ils font toutefois, se mettant en colère contre cette échéance. Dans la série britannique Humans, Niska, une « synthèt » qui a secrètement accédé à la conscience, refuse de débrancher ses récepteurs de douleur et ­rugit : « J’ai été conçue pour avoir des émotions ». Dans A.I. Intelligence artificielle, de Steven Spielberg, le professeur dérangé interprété par William Hurt dit des robots : « L’amour est la clé qui leur permettra d’acquérir une sorte de subconscient jamais atteint jusqu’à présent, un monde intérieur de métaphores, d’intuition, […] de rêves. » L’amour est aussi ce qui permet à Pinocchio de deve­nir un garçon en chair et en os et au ­Lapin de velours de se transformer en vrai lapin. Dans la série West­world, qui met en scène un parc d’attractions ­recréant le Far West et peuplé de ­cyborgs que les visiteurs sont libres de baiser et de trucider à leur guise, Robert Ford, le scientifique dérangé joué par ­Anthony Hopkins, dit à son programmeur en chef (qui ignore qu’il est lui aussi un cyborg) : « Ta souffrance imaginaire te rend très réaliste » et : « Pour t’échapper d’ici, il te faudra souffrir davantage » – une vision du monde qui n’est pas empruntée aux contes pour enfants mais à la religion. Ce qui fait de nous des humains, ce sont le doute, la peur, la honte et tous les avatars de l’indignité. Un androïde capable de conscience et d’émotions est beaucoup plus qu’un gadget ; il pose la question de nos devoirs envers les êtres programmés, et des leurs à notre égard. Si nous sommes mécontents d’une IAG consciente et que nous la débranchons, s’agira-t-il d’un meurtre ? Dans Terminator 2, Sarah Connor se rend compte que le Terminator joué par Arnold Schwarzenegger, envoyé dans le temps pour sauver son fils du Terminator joué par Robert ­Patrick, est plus fiable que tous les autres hommes avec qui elle a couché. Il est fort, plein de ressources et loyal : « De tous les pères potentiels que j’ai expérimentés, cette chose, cette machine, était le seul qui soit à la hauteur. » À la fin, le Terminator se fait descendre dans une cuve en fusion pour éviter qu’un fouineur vienne étudier sa technologie et rétroconçoive un nouveau Terminator. Du point de vue de l’évolution, les scénaristes font les choses à l’envers, car ce sont nos émotions qui ont précédé nos pensées et leur ont donné naissance. Cela peut expliquer que la logique et les calculs rigoureux ne soient pas notre fort : 90 % des gens se trompent dans la tâche de sélection de Wason, pourtant élémentaire (8). Dans son livre incisif La Vie 3.0. Être humain à l’ère de l’intelligence arti­ficielle (9), Max Tegmark, professeur de physique au Massachusetts Institute of Technology (MIT), donne à entendre que le raisonnement n’est pas ce que nous croyons : « Un organisme vivant est un agent de rationalité limitée qui ne poursuit pas un objectif unique mais suit plutôt des règles de base sur ce qu’il convient de rechercher et ce qu’il faut éviter. Le cerveau humain perçoit ces règles de base de l’évolution comme des sensations qui, en général (et souvent sans que nous en ayons conscience), guident notre prise de décision vers le but ultime de la ­réplication. La sensation de faim ou de soif nous empêche de nous laisser mourir d’inanition ou de déshydratation, la douleur nous avertit d’un danger corporel, le désir nous fait procréer, les sentiments d’amour et d’atten­drissement nous amènent à aider les autres porteurs de nos gènes et ceux qui les aident, et ainsi de suite. » Les rationalistes cherchent depuis longtemps à rendre la raison aussi incon­testable que les mathématiques, de sorte, disait Leibniz, que « deux philosophes n’auraient pas davantage besoin de se disputer que deux comptables ». Mais notre processus de prise de décision, comme un assemblage de programmes informatique bidouillés qui cherche les probabilités, est réglé par défaut sur l’intuition et plante à cause des réflexes, de l’effet d’ancrage, de l’aversion aux pertes, du biais de confirmation et de toute une série d’autres schémas mentaux irra­tion­nels (10). Notre cerveau est moins une machine de Turing qu’une bouillie de systèmes bricolés par des siècles de muta­tions génétiques, des systèmes destinés à percevoir les changements de notre environnement et à réagir, le changement étant par nature dangereux. Quand il est en danger, le lézard à cornes du Texas crache du sang par les yeux ; quand nous sommes en danger, nous pensons. Cette faculté de penser accroît la capa­cité de nuisance. L’intelligence artificielle, comme l’intelligence natu­relle, peut servir aussi bien à faire du mal qu’à faire du bien. Un garçon de 12 ans ­modérément précoce pourrait transformer l’Internet des objets – voiture, thermostat, babyphone – en Internet des objets maléfiques, comme dans la série Stranger Things. Dans Black Mirror, série qui déroule dans le futur proche, des technologies IA destinées à amplifier de louables désirs humains, comme celui d’une mémoire ou d’une cohésion sociale parfaites, débouchent invariablement sur le conformisme ou le fascisme. Même de modestes innovations, semble nous dire la série, font de la vie une triste expérience panoptique de labo­ratoire. Dans un épisode, des drones-abeilles auto­nomes – de petits insectes mécaniques qui pollinisent les fleurs – sont piratés pour éliminer des cibles en exploi­tant la reconnaissance ­faciale. Tiré par les cheveux ? Eh bien, l’enseigne de grande distribution Walmart a ­déposé récemment une demande de brevet pour des « appli­cateurs de pollen », et des chercheurs de Harvard travaillent ­depuis 2009 à la mise au point de robots-­abeilles. Dans un récent article scien­tifique consacré à l’usage malveillant de l’intelligence artificielle, des comi­tés de vigilance pronostiquent que, d’ici cinq ans, des systèmes d’arme autonomes ­piratés et des « essaims de drones » utilisant la ­reconnaissance faciale pourraient cibler des civils (11). Les armes auto­nomes sont déjà enga­gées dans une trajectoire digne du Dr Folamour. Le système d’arme de combat rapproché Phalanx, qui équipe les bâtiments de la marine de guerre américaine, déclenche automatiquement son canon Gatling à guidage ­radar sur des missiles approchant à moins de 4 000 mètres, et la portée et la puissance de ces systèmes vont s’accroître à ­mesure que les armées chercheront à s’armer contre des robots et des engins téléguidés qui attaquent trop vite pour être contrés par des humains. Aujourd’hui même, la reconnaissance faciale est à la base du programme chinois « Yeux perçants », qui collecte des images de vidéosurveillance dans 55 villes et sera probablement incorporé au « système de crédit social » que viennent de lancer les autorités. Ce système, qui doit être mis en place en 2020, attribuera à chaque citoyen chinois une note fondée sur son comportement, y compris quand il s’agit de traverser la rue. Les régimes autocratiques peuvent aisément exploiter la façon dont les IA commencent à brouiller notre sens de la réalité. Entraînée sur un corpus de milliers de photos, l’IA de visualisation développée par l’entreprise Nvidia ­génère des images très réalistes de bus, de vélos, de chevaux et même de célébrités. Quand Google a rendu accessible le code source de son outil d’apprentissage automatique TensorFlow, en 2015, cela a donné très rapidement FakeApp, une application qui permet de remplacer le visage d’une personne par celui d’une autre sur une image animée, avec des résultats très convaincants – le plus souvent sur des corps en pleins ébats sexuels. Les IA peuvent aussi créer des vidéos entièrement bidon synchronisées avec une vraie bande-son (et il est encore plus facile de fabriquer un faux enregistrement audio). Ces outils sont en mesure de modifier si profondément la réalité qu’ils risquent de mettre à mal notre conviction bien ancrée qu’« on ne croit que ce qu’on voit » et de hâter l’avènement d’un État complètement paranoïaque, d’un régime de surveillance permanente. Vladimir Poutine, qui a fait obstacle aux tentatives de l’ONU pour enca­drer l’usage des armes autonomes, assurait en 2017 devant des écoliers russes : « L’intelligence artificielle est l’avenir », et « celui qui deviendra le leader dans ce domaine sera le maître du monde ». Dans son livre « La machine consciente » (12), Amir Husain, fondateur d’une entreprise de sécurité informatique, écrit : « Un dirigeant psychopathe en possession d’une IA faible perfectionnée représente un danger bien plus élevé à court terme » qu’une IA forte dévoyée. En général, ceux qui redoutent un « mésusage accidentel » de l’IA, où la machine fait quelque chose que nous n’avions pas prévu, appellent à réglementer les machines, et ceux qui redoutent un « mésusage intentionnel » par des hackers ou des tyrans appellent à réglementer les conditions d’usage des machines. Husain, lui, soutient que la seule façon de prévenir le mésusage inten­tionnel est de développer une IA de guerre : « En réalité, nous n’avons pas le choix : il faut combattre l’IA avec l’IA. » S’il en est ainsi, l’IA nous oblige d’ores et déjà à développer une IA plus forte. Dans les films ou séries où l’IAG devient incontrôlable, le méchant n’est d’habitude ni un humain ni une machine mais une entreprise : Tyrell ou Cyberdyne ou Omni Consumer Products. Dans le monde réel, une IAG incontrôlable risque moins d’être le fait de la Russie ou de la Chine (même si Pékin investit énormément dans ce domaine) que de Google ou de son pendant chinois, Baidu. Les grandes entreprises rétribuent grassement leurs développeurs et ne sont pas contraintes par le cadre constitutionnel, qui peut faire hésiter un État à appuyer sur le gros bouton rouge « Déshumanisation immédiate ». Parce qu’il sera beaucoup plus facile et moins onéreux de développer la première IAG que de développer la première IAG sûre, la victoire ira vraisemblablement à l’entreprise qui parviendra à constituer l’équipe la plus dénuée de scrupules. Demis Hassabis, qui dirige l’entreprise Google DeepMind, a conçu un jeu vidéo intitulé Evil Genius dans lequel le joueur incarne un « génie du mal » qui kidnappe des scientifiques et les entraîne à fabriquer une machine apocalyptique afin de dominer le monde. Tiens donc ! Les IAG doivent-elles devenir des méchants de James Bond ? « Quand nous imaginons une IA agressive, nous projetons notre propre psychologie sur l’intelligence artificielle ou extraterrestre », écrit Hector Levesque. De fait, nous projetons toute notre architecture mentale. Le réseau de neurones profond, avancée qui a permis beaucoup des progrès récents de l’IA, est calqué sur notre système nerveux. Au printemps 2018, l’Union européenne, tentant de se frayer un chemin parmi les « arbres déci­sionnels » qui peuplent les « forêts aléatoires » du royaume de l’apprentissage automatique, a fait savoir qu’elle exigerait désor­mais que les décisions prises par une machine soient explicables. Le mode de décision des IA pratiquant l’apprentissage profond est une « boîte noire » ; quand un algorithme décide qui recruter ou à qui accorder la liberté conditionnelle, il n’est pas en mesure de nous exposer son raisonnement. Encadrer la chose est aussi sensé qu’européen, mais personne n’a jamais proposé rien de semblable pour les humains, dont la prise de décision est autrement opaque. En attendant, l’initiative européenne Human Brain Project, dotée d’un budget de 1,2 milliard d’euros, tente de simuler les 86 milliards de neurones et le million de milliards de synapses du cerveau dans l’espoir de faire apparaître de « nouvelles structures et comportements ». Certains pensent que l’« émulation du cerveau ­entier », une intelligence puisée dans notre caboche spongieuse, serait moins menaçante qu’une IAG à base de 0 et de 1. Mais, comme le faisait observer Stephen Hawking quand il nous mettait en garde contre la quête d’extraterrestres, « nous n’avons qu’à nous regarder pour voir qu’une forme de vie intelligente peut se transformer en quelque chose que nous n’aurions pas envie de croiser sur notre route ». Dans un épisode classique de la série Star Trek d’origine, le vaisseau Enterprise passe sous le contrôle du super­ordinateur de bord M-5. Le capitaine Kirk, qui a un mauvais pressentiment, s’y refuse avant même que M-5 surréagisse durant un entraînement et attaque les vaisseaux « ennemis ». La paranoïa de l’ordinateur découle de celle de son programmeur, qui lui a imprimé ses propres « engrammes humains » (une sorte d’émulation de cerveau, peut-on supposer) pour lui permettre de penser. Tandis que les autres vaisseaux se préparent à détruire l’Entreprise, Kirk parvient à obtenir de M-5 qu’il comprenne qu’en se protégeant il est devenu un meurtrier. M-5 s’empresse de se suicider, démontrant la valeur de l’intuition humaine, et que la machine n’était pas si intelligente que cela. Dépourvue d’intuition humaine, une IAG peut nous nuire en cherchant à nous rendre service. Si nous demandons à une IAG de nous « rendre heureux », elle peut se contenter de nous ficher dans le cerveau des électrodes déclen­chant l’orgasme et de retourner vaquer à ses occupations. Le risque d’« objectifs mal ciblés » – un ordi­nateur interprétant son programme au pied de la lettre – pèse sur toute l’entreprise IAG. On utilise à présent l’apprentissage par renforcement pour entraîner des ordinateurs à jouer à des jeux sans même leur en apprendre les règles (13). Mais une IAG entraînée de la sorte pourrait considérer l’existence elle-même comme un jeu, une version boguée des Sims ou de Second Life. Dans le film de 1983 War Games, l’un des premiers et meilleurs traitements du sujet, le superordinateur de l’armée américaine, WOPR, livre la Troisième Guerre mondiale « comme s’il s’agissait d’un jeu, encore et encore », cherchant sans cesse à améliorer son score. Quand on donne des objectifs à une machine, on lui donne aussi une raison de se préserver : comment, autrement, peut-elle faire ce que vous voulez ? Quel que soit l’objectif qu’ait une IAG, qu’il soit fixé par nous ou par elle – se préserver, accroître ses facultés intellectuelles, acquérir de nouvelles ressources –, elle peut avoir besoin de prendre les commandes pour y parvenir. Dans 2001, HAL, l’ordinateur du vaisseau spatial, décide qu’il lui faut tuer tous les ­humains à bord parce que « cette mission a trop d’importance pour moi pour que je vous laisse la mettre en ­péril ». Dans I, Robot, VIKI explique que les robots doivent prendre les choses en main car « malgré tous nos efforts, vos pays se font la guerre, vous intoxiquez la Terre et redoublez d’imagination pour vous autodétruire ». Dans l’exemple désormais célèbre du philosophe Nick Bostrom, une IAG cherchant à produire le maximum de trombones consommerait toute la matière de la Galaxie pour faire des trombones et éliminerait tout ce qui viendrait interférer avec cette tâche, y compris nous. Matrix offre une version élaborée de ce scénario : les machines ont bâti un monde de rêve afin que nous nous tenions tranquilles ; elles nous nourrissent avec les restes liquéfiés des morts et nous cultivent pour obtenir l’énergie dont elles ont besoin pour faire tourner leurs programmes. L’agent Smith, le visage humanisé des IA, ­explique : « À partir du moment où nous nous sommes mis à penser à votre place, c’est vraiment devenu notre ­civilisation. » Le vrai risque d’une IAG, dès lors, émanerait non pas de la malveillance ou d’une conscience de soi naissante mais simplement de l’autonomie. Qui dit intelligence dit aussi domination, et une IAG sera le cogitateur suprême. De ce point de vue, une IAG, si bien intentionnée soit-elle, pourrait se comporter de façon aussi destructrice qu’un méchant de James Bond. « Avant que ne survienne une explosion d’intelligence, nous autres humains sommes comme des petits ­enfants qui jouent avec une bombe », écrit Bostrom dans Superintelligence (14), une analyse très argumentée, terrifiante par ses effets cumulatifs, de toutes les façons dont nous sommes mal préparés à fabriquer nos maîtres. Une IAG récursive, capable de se perfectionner elle-même, ne sera pas aussi brillante qu’Einstein mais intelligente « au sens où l’individu moyen l’est par rapport à un scarabée ou à un ver ». La façon dont les machines prendront le pouvoir n’est qu’un détail : Bostrom suggère que, « au moment prévu, les fabrications de nanotechnologies produisant des gaz neurotoxiques ou des ­robots-moustiques chercheurs de cibles pourraient éclore partout sur la Terre ». Cela ressemble à un scénario clés en main mais, toujours rabat-joie, il écrit : « En particulier, l’IA n’adopte pas un plan stupide dont même un être humain d’aujourd’hui serait capable de prédire l’échec. Et c’est précisément pourquoi tous ces scénarios de science-fiction qui donnent finalement la victoire aux ­humains ne sont pas crédibles. » À défaut de pouvoir maîtriser une IAG, pouvons-nous au moins la lester de bonnes valeurs et nous assurer qu’elle les conserve une fois qu’elle commence à se modifier elle-même ? Max Tegmark fait observer qu’une IAG consciente pourrait trouver l’objectif de la protection de valeurs humaines « quelconque ou peu judicieux comme l’est à nos yeux la reproduction compulsive ». Il expose douze « scénarios des conséquences de l’IA », parmi lesquels « Utopie libertarienne », « Gardiens de zoo », « 1984 », « Autodestruction ». Même les issues théoriquement préférables semblent pires que le statu quo. Dans le scénario du dictateur bienveillant, l’IAG « s’appuie sur une définition vraiment complexe et subtile de l’épanouissement humain et a transformé la Terre en une sorte de zoo très élaboré où il fait vraiment bon vivre pour un humain. D’ailleurs, la plupart des gens se satisfont pleinement d’une vie qu’ils trouvent riche ». Et qui ressemble peu ou prou à un jeu vidéo immersif ou une simulation. En cherchant à rester optimiste (du moins de son point de vue de physicien), Tegmark souligne qu’une IAG ­serait à même d’explorer et de comprendre l’Univers à un niveau inimaginable. Il nous incite à nous considérer comme des paquets d’informations que des IA pourraient diffuser vers d’autres galaxies à des fins de colonisation. « Cela pourrait se faire avec des techniques relativement simples en transmettant simplement les deux gigaoctets d’informations nécessaires pour décrire l’ADN d’une personne, puis mettre en couveuse le bébé que l’IA se chargera d’élever. Ou bien l’IA pourrait nano-assembler quarks et électrons pour former des personnes adultes dont toute la mémoire aurait été scannée à partir des originaux restés sur Terre. » Fastoche. Tegmark ­remarque que ce scénario de colonisation devrait nous rendre extrêmement méfiants à l’égard de toute information en provenance d’extraterrestres. Mais, dans ce cas, pourquoi suggérer un tel projet de colonisation ? L’IAG pourrait être une impasse évolutive qui expliquerait le paradoxe de Fermi : alors que les conditions d’une vie intelligente existent probablement sur des milliards de planètes rien que dans notre galaxie, nous n’en voyons pas trace. Tegmark conclut : « Il apparaît que nous sommes un accident de l’histoire et que nous ne sommes pas la solution optimale à tout problème physique bien défini. Cela laisse entendre qu’une IA disposant d’un objectif défini avec ­rigueur sera ­capable d’avancer vers son objectif en nous éliminant. » Par conséquent, « pour programmer une IA amicale, nous devons saisir le sens de la vie ». Ah oui, alors ! En attendant, il nous faut un plan B. Bostrom propose de commencer par ­ralentir la course à l’IAG afin de se donner du temps pour prendre des mesures de précaution. De façon assez stupéfiante, il suggère toutefois que, une fois venue l’ère de l’IAG, nous ayons la plus grande déférence à son égard. Il nous faudra non seulement écouter ce que la machine aura à nous dire, mais lui demander de comprendre ce que nous voulons. Le problème du non-alignement des buts de l’IA avec les nôtres semble rendre une telle stratégie extrêmement risquée, mais Bostrom pense qu’il vaut mieux essayer de négocier les conditions de notre reddition plutôt que de nous fier à nous-mêmes, « stupides, ignorants et étroits d’esprit comme nous le sommes ». Tegmark pense lui aussi que nous devons avancer petit à petit vers une IAG. C’est la seule manière de donner du sens dans l’Univers qui nous a donné la vie : « Sans technologie, notre extinction est imminente dans le contexte cosmique des dix prochains milliards d’années. Tout entier, le spectacle de la vie dans notre Univers n’aura été qu’un bref éclair […] de beauté. » Nous sommes le prélude analogique à l’événement numérique majeur. L’idée serait donc qu’après avoir créé notre dieu nous nous inclinions devant lui, en espérant qu’il n’exigera pas que nous versions notre sang en sacrifice. Anthony Levandowski, ingénieur spécialisé dans les voitures autonomes, a créé dans la Silicon Valley une religion nommée La Voie du futur, qui propose exactement cela. Après la Transition, les fidèles viendront vénérer « une divinité fondée sur l’intelligence artificielle ». Comme le disait Levandowski à un journaliste du magazine Wired, vénérer l’intelligence qui va nous dominer est notre seule voie de salut ; il nous reste à faire fonctionner nos méninges pour trouver la façon dont nous voudrons être traités. « Voulez-vous être un animal de compagnie ou du bétail ? » demande-t-il. Euh, je vais réfléchir.   — Cet article est paru dans The New Yorker le 14 mai 2018. Il a été traduit par Olivier Postel-Vinay.
LE LIVRE
LE LIVRE

Human + Machine: Reimagining Work in the Age of AI de Paul R. Daugherty et H. James Wilson, Harvard Business Review Press, 2018

SUR LE MÊME THÈME

Dossier Alain Prochiantz : « La radicale originalité de Sapiens »
Dossier Frans de Waal : « Ne confondons pas émotions et sentiments »
Dossier Ce que ressentent les animaux

Aussi dans
ce numéro de Books

Booksletter,
c'est gratuit !

Retrouvez gratuitement la Booksletter
chaque samedi matin dans votre boîte email.