Soutenez l’esprit critique ! Participez à la campagne pour financer notre numéro 100 exceptionnel !

L’ordinateur est né de la bombe H

Contrairement à une idée reçue, l’ordinateur n’est pas le produit de la recherche civile. Il a été conçu au cœur de la guerre froide par un mathématicien violemment anticommuniste, qui a oublié de remercier ses précurseurs et mis son génie au service de l’arme de dissuasion absolue. L’univers numérique a été conçu dans le péché.

L’univers numérique a vu le jour, physiquement parlant, fin 1950 à Princeton, dans le New Jersey, au bout de Olden Lane. C’est en effet à cet endroit et à cette date qu’a commencé de ronronner le tout premier ordinateur véritable – c’est-à-dire un appareil de calcul digital multi-usage, de grande puissance, à programme intégré. Les circuits de l’engin avaient été assemblés à partir de matériel militaire de récupération, dans un bâtiment de ciment à un étage que l’IAS (Institut de recherches avancées) avait bâti à cet effet. La nouvelle machine avait été baptisée MANIAC, l’acronyme de « Mathematical & Numerical Integrator & Computer » (« Calculateur et intégrateur mathématique et numérique »). Et à quoi devait donc servir MANIAC ? Son premier travail fut d’effectuer les calculs nécessaires à la fabrication du prototype de la bombe H. Mission accomplie : l’exactitude de ses résultats a permis la réalisation d’« Ivy Mike », secrètement testée au matin du 1er novembre 1952 sur une île du Pacifique sud, Elugelab, intégralement pulvérisée en même temps que quatre-vingts millions de tonnes de corail. L’un des avions de l’US Air Force envoyés pour prélever des échantillons à l’intérieur du champignon atomique s’est écrasé en mer après avoir perdu le contrôle ; le corps du pilote n’a jamais été retrouvé. Un biologiste marin a raconté qu’il récupérait encore, une semaine après, des sternes aux plumes noircies et roussies et des poissons « sans peau d’un côté, comme s’ils avaient été jetés dans une poêle brûlante ». On pourrait en conclure que l’ordinateur a été conçu dans le péché. Sa naissance a permis de démultiplier la capacité de destruction dont disposaient les grandes puissances. Et John von Neumann, l’homme à qui l’on doit principalement cette naissance, était un ardent va-t-en-guerre (froide), partisan d’une attaque préventive contre l’Union soviétique et l’un des modèles du docteur Folamour. Pour reprendre les termes utilisés par George Dyson dans sa remarquable histoire de l’ordinateur, Turing’s Cathedral, « l’univers numérique et la bombe H sont apparus de concert ». Von Neumann semblait avoir conclu un pacte avec le diable : « Les scientifiques auraient leur ordinateur et les militaires auraient leur bombe. » On a déjà raconté l’histoire du premier ordinateur et de son rôle dans l’avènement de l’univers digital, mais personne ne l’a fait avec autant de minutie et de brio que Dyson. L’auteur, un historien des sciences reconnu, bénéficie de deux atouts décisifs. D’abord, comme chercheur invité à l’IAS en 2002 et 2003, il a eu accès aux documents concernant ce projet, dont certains n’avaient pas été exhumés depuis la fin des années 1940. Un luxe de détails presque dignes d’un roman nourrit ainsi le livre – du menu de la cafétéria de l’Institut un soir de 1946 (« Flétan à la crème avec œufs au plat sur pommes de terre – 25 cents ») aux effets de la moiteur de l’été à Princeton sur l’ordinateur en gestation (« La machine IBM dépose une substance semblable au goudron sur les cartes perforées », lit-on dans le carnet de bord ; mais le compte rendu suivant corrige : « C’est le goudron du toit »). Le second atout de l’auteur, c’est que ses parents, le physicien Freeman Dyson et la logicienne Verena Huber-Dyson, avaient tous deux rejoint l’Institut en 1948, cinq ans avant la naissance de leur fils, qui a donc grandi en même temps que le projet. Et de nombreux témoins survivants ont été heureux de lui parler – notamment l’un d’eux qui se souvient d’avoir écrit « Stop à la bombe » sur la poussière de la voiture de von Neumann. La réticence de l’Institut envers l’opération n’était pas imputable seulement à son caractère militaire. Bien des chercheurs de l’IAS jugeaient en effet que cette machine à calculer éléphantesque n’avait pas sa place dans ce qui avait été conçu comme une sorte d’empyrée platonique voué à la recherche fondamentale. L’IAS avait été créé en 1930 par les deux frères Abraham et Simon Flexner, des philanthropes soucieux du progrès de l’enseignement. L’argent venait de Louis Bamberger et de sa sœur Caroline Bamberger Fuld, qui avaient vendu à Macy’s leurs parts dans le grand magasin Bamberger en 1929, quelques semaines avant le krach boursier. Sur les onze millions de dollars récoltés, ils en avaient dédié cinq (l’équivalent de soixante millions d’aujourd’hui) à la création de ce qu’Abraham Flexner concevait comme « un paradis pour les chercheurs, qui, au même titre que les poètes et les musiciens, ont gagné le droit de faire ce qu’ils veulent ». L’IAS serait installé à Olden Farm, lieu d’une escarmouche pendant la guerre d’Indépendance. Les fondateurs ont décidé de se consacrer d’abord aux mathématiques – à la fois en raison de leur portée universelle et de leur frugalité matérielle : « Quelques salles, des livres, un tableau noir, du papier et des crayons », comme l’a confié l’un des pionniers. Oswald Veblen (le neveu de Thorstein Veblen (1)) en fut le tout premier membre, en 1932 ; et Albert Einstein, en 1933, le deuxième (qui a décrit l’endroit comme « un petit village pittoresque et cérémonieux peuplé de dérisoires demi-dieux juchés sur des échasses »). La même année, l’Institut recruta John von Neumann, un mathématicien hongrois âgé d’à peine 29 ans. Parmi les génies du XXe siècle, von Neumann n’est pas loin d’égaler Einstein, mais le style des deux savants était aux antipodes. Tandis que la suprématie d’Einstein résidait dans sa capacité à concevoir une nouvelle idée et à l’organiser en une théorie à la fois très élégante et exacte, von Neumann était davantage un homme de synthèse. Il récupérait les intuitions inabouties des autres et, grâce à ses stupéfiantes capacités intellectuelles, les projetait très avant. « On pouvait lui dire quelque chose qui n’avait ni queue ni tête, et il vous répondait : “Ah, c’est ça que tu veux dire !” », se souvient le mathématicien de Harvard Raoul Bott, un temps son protégé. Dans la provinciale Princeton, von Neumann avait peut-être la nostalgie des discussions de café de Budapest, mais il se sentait parfaitement à l’aise dans son pays d’adoption. De son enfance de petit Juif hongrois au crépuscule de l’empire des Habsbourg, il gardait le souvenir de la brève expérience révolutionnaire du régime de Bela Kun après la Première Guerre mondiale, qui l’avait rendu, de son propre aveu, « violemment anticommuniste ». Rentré en Europe à la fin des années 1930 pour courtiser sa seconde épouse, Klari, il quitta finalement le continent pour de bon avec, écrit Dyson, « une haine inexpiable des nazis, une méfiance croissante envers les Russes, et bien résolu à ne plus jamais laisser le monde libre tomber dans un état d’infériorité militaire qui le contraigne aux types de compromis faits avec Hitler ». Son amour passionné de l’Amérique-terre de liberté s’étendait aux grosses voitures rapides ; il s’achetait une nouvelle Cadillac tous les ans (« qu’il ait détruit la précédente ou non ») et adorait traverser le pays à toute allure par la route 66. Il s’habillait comme un banquier, donnait de somptueux cocktails, et ne dormait que trois ou quatre heures par nuit. Selon Klari, son prodigieux intellect se doublait d’« une incapacité presque primaire à contrôler ses émotions ».   Un engin monstrueux C’est vers la fin de la Seconde Guerre mondiale que von Neumann conçut le projet de construire un ordinateur. Il avait passé la dernière partie du conflit à travailler sur la bombe atomique à Los Alamos, où il avait été recruté pour son expérience dans la (diabolique) modélisation mathématique des ondes de choc. Ses calculs ont conduit au développement des « conformateurs d’ondes (2) » qui permettent de déclencher la réaction en chaîne. Pour les réaliser, il s’était servi d’une calculatrice tabulaire réquisitionnée chez IBM. Tout en se familiarisant avec les secrets des cartes perforées et des
connexions de tabulateurs, cet ancien tenant des mathématiques pures s’était pris de fascination pour leur potentiel. « On disposait déjà de machines automatisées rapides à usage spécifique, mais elles ne pouvaient jouer qu’un seul air, comme une boîte à musique », raconte son épouse Klari qui l’avait rejoint à Los Alamos pour l’assister dans son travail ; « mais la machine “multi-usage”, elle, est comme un instrument de musique ». Or un projet de « machine multi-usage » avait déjà été secrètement lancé pendant la guerre, à l’initiative de l’armée, qui avait désespérément besoin de pouvoir calculer rapidement les tables de tir pour l’artillerie (celles-ci servent à déterminer les coordonnées de visée pour propulser les obus au bon endroit). Le résultat fut une machine baptisée ENIAC (« Calculateur intégrateur électronique numérique »), fabriquée à l’université de Pennsylvanie. Ses inventeurs, John Presper Eckert et John Mauchly, avaient bricolé un engin monstrueux qui, malgré la vulnérabilité de ses dizaines de milliers de tubes cathodiques, parvenait à exécuter, avec quelques à-coups, les calculs qu’on lui demandait. ENIAC était un prodige technologique. Mais la logique de son système de contrôle était complètement ingérable, comme von Neumann le comprit dès qu’on lui eut donné la possibilité de l’examiner en détail. La « programmation » exigeait des techniciens des journées entières de labeur manuel fastidieux pour reconnecter les câbles ou reconfigurer les interrupteurs. ENIAC n’avait donc rien à voir avec un ordinateur moderne dont les instructions sont enregistrées sous forme de code numérique, le software. Von Neumann voulait fabriquer une machine authentiquement universelle, capable, comme l’écrit pertinemment Dyson, d’« abolir la différence entre les chiffres qui codent une information et ceux qui codent une action ». Un rapport esquissant l’architecture d’un tel outil, toujours connue sous le nom d’« architecture von Neumann », a été rédigé et diffusé vers la fin de la guerre. Von Neumann apparaissait comme le seul auteur de cette note, qui contenait pourtant des idées empruntées aux concepteurs de l’ENIAC, ce qui provoqua quelques grognements. Autre omission curieuse, le rapport ne faisait aucunement mention de celui qui, von Neumann le savait parfaitement, avait le premier établi la faisabilité théorique d’un ordinateur universel : Alan Turing. Cet Anglais de dix ans plus jeune que le Hongrois était venu à Princeton en 1936 pour faire son doctorat en mathématiques (traversant l’Atlantique dans l’entrepont et se faisant escroquer par un taxi new-yorkais au passage). Il avait la même année, à 23 ans, résolu un très épineux problème de logique, le « problème de la décision », dont l’origine remonte au philosophe du XVIIe siècle Leibniz, qui avait rêvé d’« une symbolique universelle permettant de ramener toutes les vérités de la raison à une forme de calcul mathématique ». Le fonctionnement de la raison est-il réductible à un calcul, comme Leibniz l’avait envisagé ? Plus précisément, existe-t-il une procédure automatique qui puisse décider qu’une conclusion donnée dérive logiquement d’une série donnée de prédicats ? Voilà, dans son essence, le « problème de la décision ». Turing y a répondu par la négative, en faisant la démonstration mathématique de l’impossibilité d’une telle procédure. Pour ce faire, il a imaginé une machine idéale définissant les limites de la calculabilité – ce que l’on nomme aujourd’hui une « machine de Turing ». Le caractère génial de cette machine imaginaire tient à son incroyable simplicité. Elle consistait en une tête de lecture passant en revue d’avant en arrière un ruban infini pour lire et mémoriser une série de 0 et de 1, conformément à des instructions préalables (les 0 et les 1 pouvant servir à désigner toutes les lettres et tous les chiffres). Une machine de Turing conçue dans un but spécifique – par exemple l’addition de deux nombres – pouvait être à son tour décrite à partir du nombre codant cette action. Et le code numérique propre à une machine de Turing à vocation spécifique pouvait même être inscrit sur le ruban d’une autre. L’idée du Britannique, dans toute sa hardiesse, était donc celle d’un outil universel qui, programmé avec le code de n’importe quelle machine à usage spécifique, pourrait ensuite en répliquer le fonctionnement. Par exemple, injecter dans une machine universelle la codification d’un appareil effectuant des additions la transformerait temporairement en machine à additionner. Cela revenait à traduire le « hardware » d’un appareil spécifique en « software » (le codage de cet engin), lequel pourrait ensuite être transféré sous forme de données dans une machine universelle pour y jouer le rôle de programme. C’est exactement ce qui se passe dans un ordinateur portable, l’incarnation physique de l’invention de Turing, quand on fait tourner un logiciel de traitement de texte, ou dans un Smartphone qui utilise une application. La conception par Turing d’un ordinateur à programme intégré n’était ainsi que le sous-produit d’une réflexion de logique pure. Quand le jeune Anglais arriva après cela à Princeton pour terminer ses études, il fit la connaissance de von Neumann. « Celui-ci était parfaitement au courant des travaux de Turing », explique l’un des codirecteurs du projet : « La paternité complète de l’ordinateur sériel, le ruban et tout ça, c’est très clair – c’est Turing. » Les deux hommes étaient aussi différents qu’on peut l’être, sur le plan de la personnalité comme de l’allure : l’aîné était un sybarite rondouillard et mondain, vêtu avec soin, qui aimait le pouvoir et l’influence ; le cadet était un ascète rêveur, timide, débraillé (et homosexuel) qui ne s’intéressait qu’aux casse-tête, au bricolage mécanique, et à la course à pied. Mais tous deux avaient en commun le talent de saisir d’emblée l’essence logique des choses. En 1938, son doctorat en poche, Turing fut invité par von Neumann à devenir son assistant. Mais devant l’imminence de la guerre, le jeune homme préféra rentrer en Angleterre. « On peut diviser l’histoire de l’informatique entre un Ancien Testament dont les prophètes, Leibniz en tête, ont défini le cadre logique, et un Nouveau Testament, dont les prophètes, von Neumann en tête, ont construit les machines », écrit Dyson. « La place d’Alan Turing est entre les deux. » C’est lui qui a inspiré à von Neumann sa vision de l’ordinateur comme une machine logique par essence, vision qui a permis à ce dernier de surmonter les limites de l’ENIAC pour réaliser l’outil universel idéal. La guerre finie, von Neumann a retrouvé le loisir de la construire. Et la direction de l’Institut, qui craignait qu’il ne parte à Harvard ou chez IBM, s’est empressée de le laisser faire, en lui procurant le financement initial. Les chercheurs de l’Institut étaient scandalisés à l’idée de voir une chose de ce genre prendre forme en leur sein. Les purs mathématiciens regardaient avec suspicion tout instrument autre que le tableau noir et la craie, tandis que les humanistes voyaient dans le projet une forme d’impérialisme mathématique dont ils feraient les frais. « Des mathématiciens dans notre département ? Il faudra me passer sur le corps ! Et toi ? » demande un paléographe au directeur de l’Institut. L’afflux des ingénieurs a suscité leur fureur conjointe. « Nous travaillions de nos mains et fabriquions de sales machines. Ce n’était pas ça, l’Institut », se souvient un ingénieur du projet d’ordinateur. Le récit que fait Dyson de cette longue bagarre pour la naissance de MANIAC regorge d’anecdotes fascinantes et souvent drôles – du vol de sucre pour le thé à l’explosion de tubes cathodiques en passant par la ridicule propension du système de refroidissement de l’engin à givrer dans l’humidité de Princeton. Mais Dyson explique aussi avec une limpidité jamais démentie comment on a transposé sous forme électronique la fonction primordiale de l’ordinateur – la conversion d’éléments structurels d’information (la mémoire) en une série d’instructions (le code). Von Neumann, quant à lui, ne prêtait guère attention aux détails pratiques – « Il aurait fait un très mauvais ingénieur », selon l’un de ses collaborateurs. Mais il a su recruter une équipe remarquable, avec à sa tête Julian Bigelow, et il s’est révélé très habile leader. « Les directives de von Neumann se résumaient à : “Ne réinventez pas la roue !” » En confinant ses ingénieurs à la stricte réalisation de l’architecture logique qu’il avait conçue, il a réussi à rendre MANIAC disponible à temps pour exécuter les calculs requis pour la bombe H.   « Quelque chose de maléfique » La possibilité théorique de cette « super bombe » – un mini soleil, mais un soleil privé de la gravité qui l’empêche d’exploser – avait été envisagée dès 1942. Si on pouvait la fabriquer, la bombe à hydrogène serait mille fois plus puissante que celles qui avaient détruit Hiroshima et Nagasaki. Robert Oppenheimer, qui avait dirigé le projet de Los Alamos à l’origine desdites bombes, a commencé par s’opposer au développement de cette nouvelle version au motif que ses « effets psychologiques » iraient « à l’encontre de nos intérêts ». D’autres physiciens, comme Enrico Fermi ou Isidore Rabi, étaient encore plus catégoriques : ils décrivaient la bombe H « comme quelque chose de résolument maléfique, de quelque point du vue que l’on se place ». Mais von Neumann, qui craignait l’imminence d’une nouvelle guerre mondiale, était sous le charme. Quand le président Truman a décidé en 1950 d’aller de l’avant, le savant écrivit : « Je crois qu’il n’aurait jamais dû y avoir la moindre hésitation. » Le plus acharné de tous les partisans de la bombe H était peut-être le physicien d’origine hongroise Edward Teller, qui, avec le soutien de von Neumann et de l’armée, en a conçu le premier canevas. Mais ses calculs étaient faux et son prototype n’aurait rien donné. C’est Stanislaw Ulam, un brillant mathématicien d’origine polonaise, qui s’en est le premier rendu compte. Après avoir démontré que le projet de Teller ne tenait pas la route, Ulam en a proposé un autre, parfaitement opérationnel. Sa femme se souvient : « Je l’ai trouvé à la maison un jour à midi, regardant intensément par la fenêtre, une très curieuse expression sur le visage. Je n’ai jamais oublié son regard perdu dans le lointain quand il a dit, les yeux tournés sans le voir vers le jardin, d’une petite voix que je peux encore entendre : “Je crois que j’ai trouvé un moyen pour que ça marche.” » Et Oppenheimer, qui avait pris la direction de l’Institut après avoir quitté Los Alamos, était désormais tout acquis au projet. Ce que l’on désigne depuis comme le modèle Teller-Ulam était à ses yeux « techniquement si chouette, qu’il fallait au minimum le fabriquer ». Et c’est ainsi que, malgré la vive opposition de nombreux membres de l’Institut pour des raisons humanitaires (ils se doutaient de ce qui se passait à cause des soldats qui gardaient un coffre-fort à côté du bureau d’Oppenheimer), le nouvel ordinateur désormais opérationnel a été instantanément mis à contribution pour faire tourner les calculs thermonucléaires, fonctionnant soixante jours d’affilée, 24 heures sur 24, pendant l’été 1951. MANIAC a rempli son rôle à la perfection. À la fin de l’année suivante, « Ivy Mike » a explosé dans le Pacifique sud, rayant de la carte l’île d’Elugelab.   La revanche des snobs Quelque temps après, von Neumann est allé retrouver Ulam sur un banc de Central Park, et il l’a probablement informé en personne de l’événement. Mais, dans la foulée (si l’on en croit leur correspondance ultérieure), leur discussion est passée de la destruction de la vie à sa création, sous la forme d’organismes autoreproducteurs conçus numériquement. Cinq mois plus tard, Francis Crick et James Watson annonçaient leur découverte de la structure de l’ADN, révélant la base elle aussi numérique de l’hérédité. MANIAC a été aussitôt reconverti, et dédié à la résolution de problèmes de biologie mathématique ou à l’évolution des étoiles. La machine était devenue un instrument d’acquisition de connaissances scientifiques, conformément à la mission de l’Institut qui avait présidé à sa naissance. Mais, en 1954, le président Eisenhower a nommé von Neumann à la tête de la Commission pour l’énergie atomique, et la culture informatique de l’IAS a disparu avec lui. Deux ans plus tard, le chercheur se mourait à 52 ans d’un cancer des os à l’hôpital militaire Walter Reed, déconcertant sa famille par une conversion in extremis au catholicisme (selon sa fille, cet homme qui était l’un des inventeurs de la théorie des jeux devait avoir le pari pascalien à l’esprit). « Après la mort tragique de von Neumann, les snobs ont pris leur revanche », a raconté plus tard Freeman Dyson, le père de l’auteur, « et ils ont mis le projet d’ordinateur tout entier au rebut » – « une grande perte non seulement pour Princeton mais aussi pour la science ». À minuit précis, le 15 juillet 1958, on a définitivement débranché MANIAC. Ses restes reposent désormais à la Smithsonian Institution à Washington. L’ordinateur a-t-il effectivement été conçu dans le péché ? Le pacte entre le diable et von Neumann s’est avéré moins diabolique que prévu, comme le remarque Dyson : « Ce qui a explosé, c’est l’informatique, pas la bombe. » Le récit qu’il fait de l’évolution ultérieure de l’univers numérique est enlevé, à l’occasion saisissant – comme lors de cette visite au siège social de Google où un ingénieur lui confie que le propos du projet de numérisation des livres est d’en permettre la lecture par des machines intelligentes, et non par les humains. Mais le plus intéressant, c’est que la vision du futur numérique proposée par von Neumann a cédé le pas devant celle de Turing. Plutôt qu’une poignée d’énormes machines devant satisfaire toute la demande mondiale de calcul à grande vitesse, comme von Neumann l’avait envisagé, nous avons vu s’unir une infinité d’appareils beaucoup plus petits, y compris les milliards de microprocesseurs des téléphones portables, pour former ce que l’auteur appelle « un organisme collectif multicellulaire dont la manifestation physique change d’un instant à l’autre ». Et l’ancêtre de cet organisme numérique virtuel, c’est la machine de Turing. Le titre choisi par l’auteur, « La cathédrale de Turing », se justifie donc parfaitement. Il faut dater l’avènement véritable de l’univers numérique non pas de 1950, avec le début des calculs thermonucléaires par von Neumann, mais plutôt de 1936, avec le jeune Anglais, allongé dans un pré lors d’un de ses long joggings, concevant l’idée d’une machine abstraite pour résoudre un problème de logique pure. Tout comme von Neumann, Turing devait jouer un rôle caché d’importance pendant la Seconde Guerre mondiale. Au service de son pays comme cryptographe à Bletchley Park (3), il a mis à profit ses connaissances mathématiques pour briser le code nazi « Enigma », ce qui a contribué à éviter la défaite anglaise en 1941 et à renverser le cours de la guerre. Mais l’héroïsme de Turing demeurera secret d’État longtemps encore après son suicide en 1954, deux ans après avoir été déclaré coupable d’« indécence aggravée » pour liaison homosexuelle, et condamné à la castration chimique. En 2009, le Premier ministre Gordon Brown a présenté, au nom de tous ceux qui ont pu vivre libres grâce à ses travaux, des excuses officielles pour la façon inhumaine dont on l’avait traité. « Nous sommes désolés, vous méritiez tellement mieux », a-t-il déclaré. Et c’est bien vrai que la machine imaginaire de Turing a davantage fait contre la tyrannie que la machine réelle de von Neumann.   Cet article est paru dans la New York Review of Books le 7 juin 2012. Traduction Jean-Louis de Montesquiou.
LE LIVRE
LE LIVRE

La cathédrale de Turing de George Dyson, Pantheon Books, 2012

SUR LE MÊME THÈME

Sciences La physique fondamentale en panne
Sciences Le cerveau et la loi sur la burqa
Sciences Les métamorphoses de l’homme électrique

Aussi dans
ce numéro de Books

Booksletter,
c'est gratuit !

Retrouvez gratuitement la Booksletter
chaque samedi matin dans votre boîte email.