Aux origines de la révolution numérique

L’ordinateur et Internet ne sont pas le produit des trouvailles de quelques génies solitaires, mais celui d’un effort collectif de plusieurs dizaines d’années, fruit de la collaboration entre chercheurs et ingénieurs et de l’emprunt d’idées. Telle est l’image de la révolution numérique que livre Walter Isaacson dans un gros ouvrage rempli d’informations et d’anecdotes, qui ne prend cependant pas en compte les développements les plus récents et manque de perspective critique.

Qui a inventé l’ordinateur et Internet ? Peu de personnes le savent, relève Walter Isaacson en ouverture de Innovators, un gros livre de 500 pages dont l’objectif est de raconter l’histoire de la naissance et du développement de ces deux innovations techniques majeures de la seconde moitié du vingtième siècle. Contrairement à une image répandue au point d’être devenue un cliché, fait-il observer, ces deux composantes de ce qu’il est convenu d’appeler la « révolution numérique » ne sont pas sorties tout armées du cerveau de quelques génies solitaires enfermés dans une mansarde ou bricolant dans un de ces fameux garages californiens censés avoir vu leur gestation. Elles sont le produit d’un effort collectif de plusieurs dizaines d’années, le fruit d’une floraison de travaux menés en collaboration par de nombreux scientifiques, ingénieurs, entrepreneurs et amateurs doués, dont seules quelques figures archi-célèbres comme celles de Bill Gates et Steve Job sont familières du grand public. On pourrait s’étonner de voir Walter Isaacson se lancer dans une histoire collective de l’informatique. Ancien PDG de la chaîne télévisée CNN et ex-directeur de la rédaction du magazine Time, cet homme de presse et écrivain est en effet connu comme l’auteur de plusieurs solides biographies grand public d’individus à la personnalité forte et singulière : Benjamin Franklin, Henry Kissinger, Albert Einstein et, tout récemment, Steve Job. Écrit à la demande de l’intéressé, qui se savait condamné par le cancer du pancréas dont il était atteint, ce dernier ouvrage, pour lequel Isaascon avait dû interrompre la rédaction de ce qui allait devenir Innovators, est une biographie « autorisée ». Rien n’y est cependant dissimulé des traits de caractère les moins avenants et les plus singuliers du charismatique patron de Apple, de ses manières agressives et méprisantes, et du comportement capricieux et tyrannique qui font partie intégrante de sa légende. Bien avant de composer cette série de portraits individuels, Isaacson, en collaboration  avec Evan Thomas et sous le titre  The Wise Men: Six Friends and the World They Made, avait toutefois publié un essai très réussi de portait de groupe : celui de six hommes politiques et diplomates américains de la même génération liés professionnellement et unis par des relations d’amitié, qui ont contribué à façonner la politique étrangère des États-Unis après la seconde guerre mondiale (les plus connus sont Averell Harriman, Dean Acheson et George Kennan, le père de la politique du « containment » de l’URSS durant la période de la guerre froide). Avec Innovators, Walter Isaacson a voulu renouer avec l’esprit de cet ouvrage de jeunesse. Le récit de l’aventure qu’il a décidé de raconter dans ce nouveau livre est loin d’être inédit. De nombreux ouvrages ont été consacrés à la préhistoire et aux premiers âges de l’informatique, par exemple, pour ne citer que quelques-uns parmi les plus connus, le classique L’Éthique des hackers de Steven Levy, plus récemment L’information, de James Gleick, dont un des héros est le père de la théorie de l’information Claude Shannon, ou Turing’s Cathedral de George Dyson. Sur les débuts d’Internet, la création du World Wide Web, l’histoire d’IBM, Intel, Apple, Microsoft, Google, Amazon et Facebook, les hommes qui ont créé ces sociétés et les produits qui en ont fait parmi les plus riches et prospères du monde, il existe une littérature extraordinairement abondante, qui va de livres d’histoire populaire parfois proches de la propagande commerciale à des études universitaires très savantes, en passant par une série de biographies plus ou moins sérieuses tombant quelquefois dans l’hagiographie. De l’exploitation de cette littérature et des nombreux entretiens qu’il a eus au cours de plusieurs dizaines d’années avec une série de protagonistes de cette histoire, Isaacson a tiré un livre captivant, bourré d’informations et d’anecdotes. Un de ses grands atouts est sa capacité d’expliquer d’une manière claire et compréhensible par un lecteur dépourvu de connaissances particulières dans le domaine les aspects les plus ardus des développements qu’il mentionne. Organisé selon un ordre chronologique, son récit conduit des premiers calculateurs mécaniques et électromécaniques à Google et Wikipédia en passant par les ordinateurs électroniques à tubes à vide, l’invention du transistor, du circuit intégré et du micro-processeur, le développement des interfaces graphiques et de la « souris », la mise au point de la commutation par paquets puis de l’hypertexte, etc. Dans chaque cas, Isaacson veille à ne jamais faire référence à une réalisation technique sans en expliquer la nature et sans définir les concepts sur lesquels elle repose.

1.     L’ère du « hardware »   

Steve Job aimait rappeler la déclaration attribuée à Picasso : « Les bons artistes copient, les grands artistes volent ». Que beaucoup parmi les pionniers de l’informatique, artistes à leur manière, ont été de grands voleurs d’idées est un des faits qui ressortent le plus clairement du récit de Walter Isaacson. Une bonne partie des inventions qui ont constitué autant d’étapes-clé dans l’histoire de l’informatique ont de fait été le produit de l’exploitation, par ceux qui en sont les auteurs, d’idées en partie ou totalement attribuables, dans leur formulation initiale, à d’autres qu’eux. Isaacson considère cela comme une caractéristique fréquente, normale et inévitable du processus d’innovation, ce qu’il montre sur plusieurs exemples. Une question récurrente dans les livres sur l’histoire de l’ordinateur est celle de la machine pouvant légitimement revendiquer le titre de premier ordinateur au monde. Les prétendants sont nombreux. L’ordinateur moderne est un dispositif électronique, traitant l’information sous forme numérique, plus précisément en base binaire, sous la forme d’une suite  de « 0 » et de « 1 », programmable et à vocation universelle, capable, non seulement de combiner des chiffres et de faire des calculs, à l’instar des premiers calculateurs, mais de manipuler toutes les informations exprimables sous forme de symboles pour exécuter un vaste éventail de tâches. Comme les machines à calculer de Pascal et Leibniz, la «  Machine  à différences »  de l’ingénieur anglais Charles Babbage, au XIXème siècle, restée à l’état de prototype, n’était qu’un calculateur très sophistiqué. Il n’en va pas de même de sa seconde machine, la  « Machine analytique », jamais réalisée, dont les opérations auraient dû être programmées à l’aide de cartes perforées comme celles utilisées par Jacquard pour son métier à tisser, et qui avait vocation de machine universelle. Comme les trois précédentes, il s’agissait toutefois d’un dispositif purement mécanique. Le Model K de George Stibiz, en 1937, dont un modèle fut construit aux Bell Labs en janvier 1940, était un ordinateur binaire, contrôlable à distance, mais une machine à usage spécifique fonctionnant à l’aide de relais électromécaniques. Plus avancée, la machine Z3 de Konrad Suze, réalisée en Allemagne durant la seconde guerre mondiale, peut être considérée comme le premier ordinateur à contrôle automatique, binaire et électrique. Conçue pour résoudre des problèmes précis d’ingénierie, elle aurait cependant pu être utilisée comme machine universelle. Mais il s’agissait aussi d’une machine électromécanique, qui de toute façon ne fut jamais mise en service. C’est aussi le cas de la machine imaginée par John Vincent Atanassof à l’université d’État de l’Iowa, un ordinateur à tubes à vide en partie électronique seulement, destiné de surcroît à un usage unique, la résolution d’équations linéaire. Colossus, la célèbre machine sur laquelle Alan Turing et de nombreux scientifiques anglais, durant la deuxième guerre mondiale, travaillèrent à Benchley Park pour déchiffrer le code de la machine allemande de cryptage Enigma, peut être considéré comme le premier ordinateur électronique, numérique et programmable. Mais il n’était défini que pour l’utilisation particulière qui l’a fait entrer dans l’histoire. De l’avis unanime, le premier dispositif pouvant être considéré comme un ordinateur au sens plein du mot est la machine ENIAC conçue et construite par l’ingénieur Presper Eckert et le physicien John Mauchly à l’université de Pennsylvanie. Mis en service en 1945, ENIAC, qui comportait près de 18.000 tubes à vide, pesait presque trente tonnes et occupait un espace équivalent à celui d’un petit appartement de trois pièces, avait été réalisé à la demande de l’armée américaine, et grâce à un financement de celle-ci, pour exécuter automatiquement et beaucoup plus rapidement qu’à la main les longs et complexes calculs nécessaires pour établir, en balistique, les tables de tir. Il était entièrement électronique, numérique (opérant toutefois grâce à système en base 10 plutôt que binaire) et il s’agissait d’une vraie machine universelle et programmable. Pour l’imaginer, Eckert et Mauchly s’étaient inspirés des travaux de plusieurs autres scientifiques et techniciens, notamment ceux de John Vincent Atanassof, avec qui Mauchly avait eu une série d’échanges, par lettres et à l’occasion d’une visite qu’il lui avait faite. Quelques années plus tard, l’intéressé prit prétexte de ces contacts, pour soutenir qu’ENIAC avait été développé sur la base d’idées que ses inventeurs lui avaient volées. Après avoir quitté l’université de Pennsylvanie et fondé une société, Eckert et Mauchly avaient introduit en 1947 une demande de brevet pour ENIAC. Elle leur fut accordée très longtemps après, en 1964. Mais un des fabricants avec lesquels la compagnie qui avait racheté la leur était en pourparlers en vue de l’octroi d’une licence, Honeywell, dans le but de réduire ses frais, engagea une action en contestation de la validité du brevet. Atanassof, qui considérait ne pas avoir reçu crédit pour ses travaux pionniers, se fit un plaisir de s’enrôler au service des plaignants. Un procès eu lieu, qui dura neuf mois. Atanassof s’y montra brillant et Mauchly peu convaincant. Pour cette raison, et parce qu’Eckert et Mauchly avaient commis l’erreur de définir le champ de protection de leur brevet de manière trop large, le juge déclara celui-ci invalide. Il serait cependant incorrect, fait valoir Isaacson, de conclure de cette décision judicaire qu’ENIAC est le produit d’un vol intellectuel dont Atanassof aurait été la victime. Les idées de ce dernier ne représentaient qu’une petite partie de toutes celles que Mauchly « collectait dans son panier » à l’occasion de rencontres et de conférences. Et c’est bien à lui et son associé que revient le mérite d’avoir construit le premier ordinateur de l’histoire : «  Mauchly et Eckert doivent être placés au sommet de la liste des personnes que l’on peut créditer d’avoir inventé l’ordinateur, non parce que les idées [à la base d’ENIAC] étaient toutes les leurs, mais parce qu’ils avaient eu le talent d’emprunter des idées à de multiples sources, d’y ajouter leurs propres innovations et de réaliser leur vision à l’aide d’une équipe compétente, et parce que ce qu’ils ont fait a eu le plus d’influence sur la suite des développements [dans ce domaine] ». Des épisodes de ce genre se retrouvent tout au long de l’histoire de l’ordinateur et d’Internet. Un d’entre eux s’est produit à l’occasion de ce qui en a constitué l’étape immédiatement suivante, et ses protagonistes étaient en partie les mêmes. Peu après avoir réalisé ENIAC, l’équipe responsable de la machine s’adjoignit les services de l’excentrique mathématicien de génie John von Neumann, avec lequel Eckert, Mauchly et leurs collaborateurs eurent de nombreuses, intenses et fructueuses discussions. De celles-ci allait sortir le projet d’une machine plus avancée, EDVAC, également construite pour l’armée américaine. Contrairement à ENIAC, mais comme les ordinateurs d’aujourd’hui, EDVAC calculait en mode binaire. Surtout, la machine était conçue en conformité avec ce qu’on appelle depuis lors l’« architecture de von Neumann », qui a pour caractéristique de regrouper les instructions de programmes et les données dans un même structure de stockage prenant la forme d’une mémoire effaçable et réinscriptible, ce qui permet à l’ordinateur de changer de programme en cours d’exécution d’une tâche. Von Neumann avait résumé les principes de cette architecture et son mode de fonctionnement dans un document qui constituait dans son esprit la synthèse des travaux de l’équipe constituée autour d’ENIAC. Sans qu’il l’ait apparemment délibérément recherché, ce rapport fut publié sous son seul nom. Eckert et Mauchly en prirent ombrage en faisant valoir que von Neumann s’appropriait ainsi les résultats d’un travail collectif.  Leur ressentiment s’accrut lorsqu’ils voulurent breveter certains concepts sur lesquels étaient basés ENIAC et EDVAC. Connu pour sa propension à s’emparer des idées des autres et sa capacité à les développer bien au-delà du point où leurs auteurs les avaient poussées, von Neumann était surtout soucieux de faire progresser les connaissances et n’accordait que peu d’importance aux revendications de paternité intellectuelle. En décidant, conformément à cette vision du travail créatif, de faire circuler ouvertement son rapport, il avait ipso facto placé les concepts dont Eckert et Mauchly voulaient protéger l’exploitation dans le domaine public, ce qui rendait l’octroi des brevets demandés impossible. Comme on sait, à l’exception des groupes et individus se réclamant de la philosophie de l’« Open Source » ou du mouvement des logiciels libres fondé par Richard Stallman, qui a notamment donné lieu au système d’exploitation GNU/Linux de Linus Torvalds, les grands acteurs du monde de l’informatique tendent aujourd’hui à tourner le dos à l’approche qui était encore celle de von Neumann au profit d’une logique « propriétaire » : en 2011, fait remarquer Isaacson, Apple et Google ont dépensé davantage en procédures judiciaires et achats de brevets qu’en recherche et développement.

2.     Du transistor à l’ordinateur portable

Comme celle de l’ordinateur, l’invention du transistor, en 1947, eut lieu sur la côte Est des États-Unis, plus précisément dans les laboratoires de la société AT§T Bell. Pertinemment baptisés par Jon Gertner en une expression servant de titre au livre qu’il a consacré à leur histoire The Idea Factory, les Bell Labs sont un des hauts lieux de la recherche appliquée américaine. À huit reprises, des travaux qui y ont été réalisés ont été récompensés par le Prix Nobel. Une des plus fameuses découvertes qui y ont eu lieu est celle (assez fortuite en réalité) du rayonnement cosmique fossile à 3° K par Arno Penzias et Robert Wilson, qui apporta une preuve de poids à la théorie cosmologique du Big Bang ; un autre haut fait, encore plus célèbre, est précisément l’invention du transistor, qui valut la récompense scientifique suprême à trois de leurs chercheurs : William Shockley, John Bardeen et Walter Brattain. Beaucoup moins fragile, volumineux et cher que le tube à vide, le transistor permet d’assurer dans de bien meilleures conditions et plus efficacement que lui les deux fonctions d’amplification d’un courant électrique et d’interrupteur. S’il est à l’origine de la révolution numérique, c’est parce qu’il permet de réaliser automatiquement sous une forme compacte, dans un dispositif résistant et de peu d’encombrement, des « portes logiques » capables d’effectuer des calculs en mode binaire selon les règles de l’algèbre de Boole. Les trois hommes à qui en revient la paternité formaient un assemblage exemplaire de personnalités différentes aux profils complémentaires : William Shockley était un physicien du solide, Bardeen un théoricien spécialisé en physique quantique et Brattain un expérimentateur. Leur collaboration allait s’avérer scientifiquement féconde, mais extrêmement éprouvante au plan humain. La faute en revient à William Shockley, personnage peu avenant qu’Isaacson ne fait aucun effort pour présenter comme aimable et qui, dans son récit, fait un peu figure du vilain de l’histoire. Brillant et capable d’inspirer par sa vision puissante, Shockley était aussi extrêmement autoritaire, jaloux, soupçonneux et enclin à une paranoïa qui ne fit que s’aggraver avec le temps : à la fin de sa vie, de plus en isolé, il développait des vues délirantes sur la supériorité intellectuelle de la race blanche et la nécessité de l’eugénisme. Le transistor exploite les propriétés des métaux semi-conducteurs comme le silicium et le germanium. Contrairement aux matériaux isolants, les semi-conducteurs peuvent conduire le courant électrique, mais à l’opposé des  matériaux conducteurs ils ne peuvent le faire que dans certaines conditions, lorsqu’ils sont « dopés » par des impuretés. Après de nombreuses tentatives plus ou moins fructueuses, Bardeen et Brattain, qui travaillaient sous la supervision de Shockley, réussirent à élaborer un dispositif basé sur ce principe. Ravi que le transistor ait été inventé dans son laboratoire, mais amer de n’avoir pas été l’auteur de l’idée sur lequel il était basé, Shockley, sans en rien dire à ses collaborateurs, s’employa à imaginer un autre procédé moins artisanal que celui qu’ils avaient employé, qui impliquait l’utilisation d’électrodes. Animé par des raisons qui n’avaient donc rien de noble, il inventa le transistor à jonction bipolaire, la forme sous laquelle le transistor allait se développer, qui consiste en un sandwich de trois couches de semi-conducteurs, deux couches (négatives) dotées d’un excès d’électrons enserrant une couche (positive) déficitaire en électrons (dans certains cas moins fréquents, c’est l’inverse). Shockley, Bardeen et Brattain furent tous les trois récompensés par le Prix Nobel pour cette réalisation. Mais c’est toujours avec réticence que le premier accepta d’en partager le crédit avec les deux autres. En conflit de plus en plus ouvert avec ses collaborateurs, mais aussi avec la direction des Bell Labs, Shockley décida, pour exploiter le transistor, de créer sa propre société à Palo Alto, en Californie, où il avait grandi. Plusieurs  laboratoires et entreprises travaillant pour l’armée américaine y étaient déjà installés, ainsi que la société Hewlett-Packard, fondée dans un garage durant la Grande Dépression. Il est courant de dater de la fondation de la compagnie Shockley Semiconductor l’essor de la Silicon Valley. Parce que le caractère de Shockley n’avait pas changé, huit de ses meilleurs collaborateurs quittèrent au bout d’un certain temps la société pour fonder la leur comme la division semi-conducteurs de Fairchild, une compagnie travaillant pour l’armée américaine. Parmi ceux-ci figuraient notamment Robert Noyce et Gordon Moore. Robert Noyce était l’inventeur d’un procédé de fabrication des circuits intégrés, dispositifs compacts rassemblant sur un seul support plusieurs composants électroniques (au début uniquement des transistors, puis également des condensateurs et des résistances), dont les plus complexes sont les microprocesseurs, unités complète de traitement sous un très faible volume. Un autre procédé, moins élégant, avait été mis au point peu auparavant par Jack Kilby de la société Texas Instrument. Les deux procédés avaient fait l’objet d’une demande de brevet. Après de longues années, la controverse qui s’en suivit se termina à l’avantage de Noyce. Entretemps, le marché pour ce produit ayant explosé, les deux sociétés avaient passé des accords de licence croisée pour exploiter cette technologie en commun. Kilby obtint seul le prix Nobel pour l’invention du circuit intégré, parce que Noyce était décédé au moment où il lui fut décerné. Mais les deux hommes avaient toujours conservé une forte estime mutuelle et ne manquaient jamais une occasion de faire l’éloge de la contribution apportée par l’autre. « C’étaient des personnes décentes » commente Isaacson, « provenant de petites communautés soudées du Midwest. […] Contrairement à Shockley, ils ne souffraient pas d’un mélange toxique d’insécurité et d’inflation de l’ego. » Des tensions au sein de Fairchild poussèrent Noyce et Moore à abandonner la société pour en fonder une nouvelle. Ce fut Intel, dont un des premiers employés était un autre transfuge de Fairchild, Andrew Grove, qui allait au bout d’un temps en devenir le PDG. Ici aussi, on avait affaire à un trio d’individus aux qualités complémentaires : Noyce et Moore étaient des théoriciens, Grove un homme pratique et un gestionnaire efficace. Avec cette suite d’épisodes se sont manifestés pour la première fois de façon éclatante trois traits qui allaient caractériser de façon durable la culture de la Silicon Valley. Leur association a profondément marqué l’histoire de l’informatique aux États-Unis et a fini par engendrer un profil particulier d’entreprise innovante qui s’est répandu dans d’autres secteurs technologiques et d’autres régions du monde, où il est souvent (un peu trop rapidement) perçu comme l’unique modèle possible, à suivre absolument. Le premier de ces traits est la propension des chercheurs et ingénieurs ayant effectué une découverte ou mis au point une technologie à créer leur propre entreprise pour exploiter au plan économique le produit de leur ingéniosité. Jusqu’à la fin des années 1950, rappelle un expert cité par Isaacson, « la culture d’entreprise qui existait [aux États-Unis] était que l’on travaillait pour une compagnie et que l’on restait dans cette compagnie jusqu’à sa retraite. […] C’étaient là les valeurs traditionnelles de la côte Est, et même de l’Amérique du Midwest ». En quittant les Bell Labs pour fonder sa propre société en Californie, William Shockley ne faisait pas que donner le coup d’envoi à l’essor de la Silicon Valley. Il inaugurait aussi une tradition que ses successeurs allaient contribuer à renforcer. Tant la création de Fairchild Semiconductors que celle d’Intel n’ont par ailleurs été possibles qu’avec un financement de capital à risque. Cette formule est aujourd’hui presque identifiée avec le financement de la technologie, mais elle représentait alors une véritable innovation. Enfin, notamment parce que Noyce venait d’un milieu marqué par la doctrine protestante congrégationaliste, caractérisée par le rejet de l’autorité et de la hiérarchie, avec Intel est apparu un type d’organisation interne des entreprises basé sur une structure « horizontale » et des rapports (relativement) peu hiérarchiques matérialisés par la disparition des bureaux directoriaux et la création d’un espace de travail commun ouvert, « en paysager », divisé en coins individuels par des demi-cloisons : même après être devenu PDG de l’entreprise, Andrew Grove travaillait au milieu de ses ingénieurs et développeurs. Gordon Moore a attaché son nom à la très connue « loi de Moore » de croissance exponentielle de la puissance des circuits intégrés, une loi empirique vérifiée sur une période d’à présent 50 ans qui stipule que le nombre de transistors placés sur un circuit intégré double approximativement tous les deux ans. La progression explosive des capacités de traitement sous un volume de plus en plus réduit qui en résulte a rendu possible la naissance de l’ordinateur personnel. L’histoire de la genèse de celui-ci est l’un des deux sujets de la seconde partie du récit d’Isaacson. Si la première partie se passait principalement sur la côte Est, celle-ci se déroule largement en Californie, plus particulièrement dans la Silicon Valley. Il ne faut cependant pas se méprendre au sujet du rôle joué par cette mythique région dans l’aventure de la révolution numérique. Piero Scaruffi le souligne dans son excellent ouvrage A History of Silicon Valley 1900-2014 : « L’ordinateur n’a pas été inventé dans la Silicon Valley, et la Silicon Valley n’a pas inventé le transistor, le circuit intégré, l’ordinateur personnel, Internet, le World-Wide-Web, le navigateur, le moteur de recherche ou les réseaux sociaux. La Silicon Valley n’a pas non plus inventé le téléphone, le téléphone cellulaire ou le smartphone. Mais à un moment ou un autre, la Silicon Valley a été déterminante pour disséminer ces inventions en perfectionnant des produits que le monde attendait ». Ce n’est de fait pas dans la Silicon Valley qu’ont été produites les premières machines pouvant être qualifiées d’ordinateurs personnels, mais au Texas et dans la région de Los Angeles. Mais c’est bien dans la Silicon Valley que l’ordinateur personnel est devenu le moteur de la révolution numérique qu’il a été jusqu’à l’apparition du téléphone portable. Pour quelle raison ? Comme Scaruffi, Isaacson met en avant un facteur culturel. La présence dans la région de la Bay Area, près de San Francisco, de fortes communautés d’artistes libertaires, d’activistes de la Nouvelle Gauche et de représentants de la contreculture et du mouvement hippie, soutient-il, a joué un rôle de ferment dans l’essor de l’idée d’une appropriation de l’informatique par les individus. Par l’intermédiaire de quel mécanisme ? Isaacson n’est pas très précis à ce sujet, et la description qu’il fait du bouillon de culture qu’a été à ses yeux ce milieu, qui emprunte volontiers au tableau qu’en a donné le pape du « nouveau journalisme » Tom Wolfe, n’est pas la partie la plus convaincante de son livre. Il montre cependant très bien le rôle joué, dans la mise en rapport du monde de la subversion politique et culturelle et de celui de la technique, par Steward Brand, éditeur et auteur du célèbre Whole Earth Catalog. Convaincu que l’ordinateur pouvait aider à changer en profondeur la société en arrachant le pouvoir des mains des grandes entreprises et du gouvernement pour le placer dans celles des individus, Brand déployait beaucoup de zèle pour entretenir l’agitation intellectuelle autour du concept d’un ordinateur à l’usage des particuliers. La première formulation de cette idée était apparue dans un article publié dans le magazine The Atlantic Monthly par un personnage clé de l’histoire de la politique scientifique aux États-Unis, Vannevar Bush, conseiller scientifique  du Président Franklin D. Roosevelt, architecte de la collaboration triangulaire étroite entre le gouvernement (plus particulièrement le département de la défense), l’industrie et l’université qui allait s’avérer centrale dans la politique technologique américaine de l’après-guerre (notamment en électronique et informatique), et auteur du fameux rapport Science : The Endless Frontier qui a donné naissance à la National Science Foundation (NSF), l’agence fédérale américaine de  financement de la recherche. Dans cet article intitulé « As We May Think », Bush, qui en 1931 avait construit une machine  électromécanique analogique, imaginait sous le nom de «  Memex » un système d’encyclopédie électronique individuelle qui, par la manière dont il était pensé et censé fonctionner, annonçait à la fois l’ordinateur personnel, Internet, le World Wide Web et même Wikipédia. Pour qu’une telle idée puisse se concrétiser, des progrès considérables étaient toutefois nécessaires dans trois domaines : le « hardware », auquel est largement consacrée la première partie du récit d’Isaacson, mais aussi les logiciels (« software ») et les dispositifs d’interface, qui font l’objet de sa deuxième moitié. Une étape décisive dans ce dernier domaine a été la mise au point de la « souris » par l’ingénieur Doug Engelbart, l’une des personnes qui avaient pris le plus au sérieux l’idée du système Memex. La souris n’était qu’une des inventions conçues par Engelbart pour réaliser un dispositif de stockage, de traitement et d’échange d’informations à même de matérialiser ce qu’il appelait l’idée d’« intelligence augmentée ». À l’occasion d’une démonstration spectaculaire organisée en décembre 1968 à l’initiative de Steward Brand, Engelbart présenta à un public subjugué la manière dont la combinaison de ces outils permettait de créer des documents à distance, de manipuler des tableaux et graphiques, de modifier les mises en page, en un mot, résume Isaacson, de faire tout ce que l’on peut accomplir aujourd’hui à l’aide d’un ordinateur personnel branché sur le réseau. (« C’est la meilleure chose [qu’on ait inventé] juste après l’acide (LSD) » est censé avoir commenté Ken Kesey, figure emblématique de la contreculture, après que Steward Brand lui eut fait visiter le laboratoire d’Engelbart). Le travail réalisé par Engelbart avait très impressionné un jeune ingénieur nommé Alan Kay. Kay, qui travaillera par après pour Apple, a effectué la première partie de sa carrière dans le laboratoire ouvert par la société Xerox à Palo Alto, Xerox PARC, qui allait devenir le berceau de plusieurs développements fondamentaux dans l’histoire de l’informatique. À l’instar d’Engelbart, c’était un visionnaire. « Lorsqu’il se rendit à [XEROX] PARK pour son entretien d’embauche formel » raconte Isaacson, « Kay se vit demander ce qu’il espérait que serait sa plus grande réalisation. « Un ordinateur personnel » répondit-il. Interrogé sur ce dont il s’agissait, il s’empara d’un porte-document de la dimension d’un carnet de note, ouvrit sa couverture et dit : « Il y aura un système d’affichage sur écran plat. Un clavier, ici à la base, et suffisamment de capacités [de mémoire] pour stocker son courrier, des dossiers, de la musique, des images et des livres. Le tout dans un dispositif d’à peu près cette taille, pesant un ou deux kilos ». Ceci se passait en 1970, soit une bonne quinzaine d’années avant le moment où finit par apparaître, sous la forme de l’ordinateur portable, un objet répondant à cette description.

3.     La guerre des logiciels et des interfaces  

La partie de l’histoire qui suit est assez connue, puisque c’est largement l’histoire d’Apple et de Microsoft. On serait tenté de dire l’histoire de Steve Job et Bill Gates si, comme cela été le cas avec Mauchley et Eckert, ou Bardeen et Brattain, et comme ce le sera plus tard avec les fondateurs de Google Sergey Brin et Larry Page, ces deux hommes n’avaient l’un et l’autre opéré en association étroite avec un partenaire : Paul Allen pour Bill Gates, et Steve Wozniak  pour Steve Job. Comme ceux qui les précédèrent, les épisodes de cette partie entremêlent des moments d’authentique créativité originale, de fécondation intellectuelle mutuelle et d’emprunts prédateurs d’idées développées par d’autres. Le cas de Bill Gates est exemplaire à cet égard. Programmeur extraordinairement doué, capable de se concentrer de façon presque surhumaine sur un problème, travailleur acharné qui avait l’habitude de rester trente-six heures d’affilée devant un terminal en se nourrissant de pizzas et de Coca-Cola, Gates était également un esprit rebelle, réfractaire à la discipline universitaire et collectionnant les condamnations pour excès de vitesse. C’était surtout un homme d’une détermination extrême sachant parfaitement où il voulait aller, en même temps qu’un négociateur redoutable en affaires. Convaincu que l’avenir de l’informatique se jouait dans le domaine logiciel, c’est sur la programmation qu’il concentrait ses efforts. Son premier succès dans ce domaine fut d’écrire avec Paul Allen un interprète du langage Basic pour le micro-ordinateur Altair de la société MITS. Le contrat qu’Allen et lui, qui allaient bientôt fonder ensemble la société Microsoft, passèrent avec MITS, stipulait que les deux programmeurs conservaient la propriété du logiciel, que MITS ne pouvait exploiter que sous licence. Pour illustrer à quel point l’attitude très déterminée de Gates en matière commerciale s’est tôt manifestée, Isaacson cite in extenso une lettre ouverte qu’il a adressée à l’âge de 19 ans aux amateurs (« hobbyists »), accusant de vol ceux d’entre eux qui utilisaient sans payer de royalties le logiciel d’Altair, dont le développement, écrivait-il, avait coûté 40.000 dollars de temps d’ordinateur. Sur le principe, il avait raison, commente Isaacson, ajoutant toutefois qu’il fallait tout de même une certaine audace pour écrire une telle lettre, les 40.000 dollars en question n’ayant jamais été acquittés par Gates, qui avait utilisé gratuitement les terminaux de l’université Harvard. Quelques années plus tard, Bill Gates, qui avait engagé son ancien condisciple Steve Ballmer (futur PDG de Microsoft), réussissait un coup de maître en concevant pour IBM le système d’exploitation MS-DOS, en une opération démontrant avec brio son habileté en affaires. Pour développer MS-DOS, Gates et Allen commencèrent par acheter pour la somme dérisoire de 50.000 dollars un système d’exploitation fabriqué par un certain Tim Paterson, qui travaillait pour une firme de Seattle, sans préciser au vendeur l’usage qu’ils envisageaient d’en faire. Après avoir adapté ce système, ils le vendirent à IBM pour 186.000 dollars seulement, mais dans des conditions qui allait faire la fortune de Microsoft : aux termes du contrat, IBM ne disposait que d’une licence non-exclusive, ce qui autorisait Microsoft à accorder une licence pour ce système à d’autres fabricants d’ordinateurs. Microsoft conservait par ailleurs la propriété du code source. Gates avait anticipé l’arrivée sur le marché de nombreux clones du PC d’IBM, et, avec MS-DOS se retrouvait propriétaire d’un standard industriel de facto. Entretemps, Steve Jobs et Steve Wozniak avaient créé Apple, et mis successivement sur le marché deux modèles d’ordinateur personnel, l’Apple I et l’Apple II. Avec ce dernier, Jobs avait établi une doctrine dont il n’allait jamais s’écarter : dans les produits de sa société, le « hardware » et le système d’exploitation étaient étroitement liés. Il avait par ailleurs eu l’occasion, lors d’une visite au Xerox PARC, de découvrir tout ce qui avait été inventé par Doug Engelbart, Alan Kay et leurs collègues en matière d’interface, notamment la souris, le principe de la fenêtre et les images en mode-point  (« bitmapping »), dans lesquels chaque pixel est contrôlé indépendamment par l’ordinateur. De retour au siège d’Apple, Jobs donna consigne à ses collaborateurs d’incorporer, en l’améliorant, l’interface graphique de Xerox dans les produits en préparation, plus particulièrement le futur Macintosh. Le conflit  avec Microsoft était inévitable. Au début des années 1980, les deux sociétés entretenaient de bons rapports. Les programmeurs de Microsoft écrivaient d’ailleurs des programmes pour l’Apple II, et lorsque le projet du Macintosh fut dévoilé, Gates proposa que Microsoft en développe le logiciel. Mais Steve Jobs était soupçonneux et craignait que Microsoft ne copie l’interface graphique. Par précaution, il fit insérer dans le contrat avec Microsoft une clause selon laquelle la société s’engageait à ne produire pour aucune autre compagnie qu’Apple, jusqu’à la fin de 1983, des programmes impliquant l’utilisation d’une souris ou d’une interface graphique. Mais le « champ de distorsion de la réalité » de Jobs, qui lui faisait souvent voir les choses comme plus facilement réalisables qu’elles n’étaient, lui fut fatal. Contrairement à ses prévisions trop optimistes, le Macintosh ne sortit pas à la fin de 1982, mais au début de 1984. Entretemps, Microsoft avait recruté un ancien collaborateur d’Alan Kay, et bientôt Bill Gates annonçait que sa société était en train de développer un nouveau système d’exploitation utilisant une interface graphique pour les ordinateurs IBM et leurs clones. C’était Windows, qui sortit en 1985. Furieux, estimant que Gates l’avait trahi, Steve Jobs fit venir le patron de Microsoft au siège d’Apple, à Cupertino. Dans une salle de réunion remplie d’employés d’Apple qui n’avaient d’yeux que pour leur patron, raconte Isaacson, Steve Jobs se mit à hurler avec véhémence : «  Tu nous arnaques ! J’avais confiance en toi et tu es en train de nous voler ». À quoi Bill Gates, « qui avait l’habitude de devenir de plus en plus calme et détendu quand Jobs sombrait dans l’hystérie », répliqua de sa voix aigüe : « Eh bien, Steve, il y a plusieurs manières de voir les choses. On pourrait dire que nous avions tous les deux un riche voisin nommé Xerox. Je suis entré par effraction dans sa maison pour voler la TV, mais je me suis aperçu que tu avais  déjà fait main basse sur l’appareil ».  La guerre entre Apple et Microsoft était déclarée et elle ne prit jamais fin. Les deux sociétés la menèrent en s’appuyant sur deux stratégies opposées, conduisant à des résultats très différents : « La principale raison du succès de Microsoft était la volonté et la disponibilité de la firme à accorder licence pour son système d’exploitation à n’importe quel fabricant de matériel informatique. Apple, par contraste, opta pour une approche  intégrée. Son matériel venait exclusivement avec son logiciel et vice-versa. Jobs était un artiste, un perfectionniste, donc un obsédé du contrôle qui voulait être en charge de l’expérience de l’utilisateur du début à la fin. L’approche d’Apple a engendré à de plus beaux produits, une marge de profit plus élevée et une expérience plus sublime pour l’utilisateur. L’approche de Microsoft permettait un plus grand choix de matériel. Elle s’est aussi révélée plus efficace pour gagner des parts de marché ». Jamais, comme on sait, Apple n’a abandonné l’approche choisie par Jobs, qui a continué à être celle de la société pour les générations ultérieures de technologies et de produits, les smartphones et les tablettes. Bien que Steve Jobs lui-même ne l’ait jamais reconnu, souligne Fred Vogelstein dans Battle of Titans, le récit de la bataille féroce opposant aujourd’hui Apple et Google pour la domination du marché de ces deux produits, la similarité de ce conflit avec celui qui mit aux prises Apple et Microsoft vingt ans auparavant est manifeste : avec Androïd, le système d’exploitation pour systèmes mobiles qu’il contrôle après avoir racheté la société qui l’a mis au point, Google reproduit la stratégie couronnée de succès de Microsoft avec Windows. Comme l’ordinateur personnel, Internet est le produit d’une accumulation de développements intervenus au cours de plusieurs dizaines d’années. Parmi ses multiples pères, affirme Isaacson, un de ceux qui pourraient le plus légitimement revendiquer le titre est J.C.R. Licklider. Psychologue de formation, ancien collaborateur, au MIT, du fondateur et premier théoricien de la cybernétique Norbert Wiener, directeur-fondateur du laboratoire militaire où allait être mis au point le réseau ARPANET,  Licklider « est [en effet] à l’origine de deux des concepts les plus importants sous-tendant Internet : celui d’un réseau décentralisé permettant la distribution d’information de et vers n’importe quel lieu, et celui d’une interface facilitant les interactions homme-machine ». Internet n’aurait toutefois jamais pu être développé sans les contributions de plusieurs autres personnes : Robert Taylor et Larry Roberts, qui aidèrent Licklider à développer l’idée d’un réseau « à temps partagé » permettant l’accès simultané aux mêmes données à partir d’un grand nombre de terminaux ; Paul Baran, Donald Davies et Leonard Kleinrock, inventeurs du procédé de « commutation par paquets » consistant à découper chaque message en une série de tronçons d’égale dimension gagnant leur destination par des chemins différents ; enfin Vint Cerf et Bob Kahn, concepteurs du protocole de communication Internet Protocol. De manière générale, un esprit très collégial régnait parmi les pionniers d’Internet. Sans que rien ne justifie cette prétention, après avoir longtemps reconnu la part décisive prise dans la mise au point de la technique de « commutation par paquets » par les deux chercheurs avec lesquels il avait collaboré, Leonard Kleinrock, à l’indignation générale, décida cependant un beau jour de s’attribuer le mérite exclusif de cette invention. Une telle revendication sans fondement heurtait de plein fouet la culture de « mérite distribué » (Isaascon) dominant parmi les pionniers d’Internet. « Internet est le produit du travail d’un millier de personnes » jugea nécessaire de rappeler à cette occasion Paul Baran, le véritable père de la commutation par paquets.

4.     D’ARPANET au World Wide Web

Internet a-t-il été développé pour des besoins militaires, comme un système de communication à même de garantir le maintien des contacts au sein des forces armées, même après la destruction des centres de télécommunications suite à un bombardement nucléaire, ou à des fins civiles, comme un instrument d’échange et d’accès aux données pour les chercheurs ? « Aux yeux des universitaires et des chercheurs occupés à construire le réseau », souligne Isaacson, « celui-ci n’avait qu’un objectif pacifique. Dans l’esprit de certains de ceux qui supervisaient et finançaient le projet, notamment au Pentagone et au Congrès, sa raison d’être était également militaire ». Les uns et les autres, affirme-t-il, avaient raison. En 2011, l’ancien directeur de l’agence de recherche militaire ARPA (aujourd’hui DARPA), Stephen Lukasik, pour saper la théorie de plus en plus répandue selon laquelle ARPANET n’avait pas été développé pour des raisons stratégiques, publia un article dans lequel il affirmait, contrairement à qu’avait soutenu un de ces prédécesseurs, que le réseau avait bien été conçu comme un instrument de « commande et contrôle » des forces militaires dans un environnement caractérisé par l’existence d’armes nucléaires. À un scientifique impliqué à l’époque dans la conception d’ARPANET qui prétendait n’avoir jamais considéré la question de la survie du réseau en cas d’attaque nucléaire comme faisant partie de sa mission, Lukasik assena : « J’étais au sommet et vous étiez à la base, vous n’aviez donc aucune idée de ce qui se passait et de la raison pour laquelle nous faisions ce que nous faisions ». À quoi le chercheur « avec une pointe d’humour masquant une bonne part de sagesse » (Isaacson), répondit : « J’étais à la base et vous étiez au sommet, vous n’aviez donc aucune idée de ce qui se passait et de la raison pour laquelle nous faisions ce que nous faisions » En passant, Isaascon fait un sort à la légende bien établie, qui a donné lieu à d’incessants commentaires sarcastiques, selon laquelle l’ancien vice-président américain Al Gore aurait prétendu « avoir inventé Internet ». Interrogé par CNN au sujet des qualifications qu’il pouvait faire valoir pour se présenter comme candidat au poste qu’il allait occuper pendant quatre ans, Gore a en réalité simplement déclaré : « Durant mes années de service au Congrès, j’ai pris l’initiative de créer Internet ». L’idée n’était pas très élégamment formulée, commente Isaacson, «  comme c’est souvent le cas quand on est interrogé à la télévision », mais jamais il n’a utilisé le mot « inventé ». Vint Cerf et Bob Kahn ont d’ailleurs publiquement reconnu l’importante contribution d’Al Gore à la création du climat politique qui a permis le lancement de l’initiative. Tout comme le républicain Newt Gingrich, qui, bien que son ennemi politique, n’a pas hésité à déclarer : «  Gore n’est pas le père d’Internet, mais en toute honnêteté, il est la personne qui, au Congrès, a œuvré le plus systématiquement pour que nous ayons Internet ». Créé au milieu début des années 1970, Internet n’était au départ qu’un réseau de communication sophistiqué entre militaires, chercheurs d’entreprise et universitaires, lourdement équipés. À cette époque, le modem existait, ainsi que le courrier électronique, inventé en 1971 par Ray Tomlinson, qui a introduit l’usage de l’arobase (@). Pour qu’Internet devienne l’instrument universel et ubiquitaire qu’il est aujourd’hui, il fallut cependant attendre l’arrivée de l’ordinateur personnel et, surtout, la création du World Wide Web, basé sur les deux outils de la technologie de l’hypertexte : un protocole d’échange (Hypertext Transfer Protocol – HTTP) et un langage pour la création de pages (Hypertext Markup Langage – HTML). Il est bien connu que le World Wide Web a été développé au centre de recherche européen CERN pour les besoins de la communication entre physiciens des particules à travers le monde. On sait moins que le physicien anglais qu’on crédite le plus souvent de son invention, Tim Berners-Lee, travaillait en collaboration si étroite avec un ingénieur belge nommé Robert Caillau que ce dernier peut être légitimement considéré comme le co-inventeur du système. Ce que l’on sait encore moins, mais qu’Isaacson nous apprend, c’est qu’un autre procédé d’hypertexte que celui de Berners-Lee et Caillau avait été imaginé vingt-cinq ans auparavant par le chercheur visionnaire Ted Nelson dans le cadre d’un projet baptisé Xanadu, dont la particularité est qu’il permettait des échanges dans les deux sens. En un des très rares passages de son livre pouvant être considérés comme critiques, s’appuyant notamment sur les propos de Jaron Lanier (Internet : qui possède le futur ?), partisan déclaré d’un système équitable et démocratique d’exploitation d’Internet, Isaacson fait à ce sujet l’observation suivante : « Le système à deux directions de Nelson se serait-il imposé, il aurait été possible de mesurer l’utilisation des liens et de faire en sorte que les producteurs de contenus soient gratifiés de micro-paiements. L’univers de la publication, du journalisme et des blogs aurait évolué très différemment. Les producteurs de contenu numérique auraient pu être rétribués d’une manière fluide et aisée autorisant une grande variété de modèles de financement, y compris certaines ne dépendant pas uniquement de la publicité ».

5.     Des hommes et des machines

Plusieurs autres thèmes récurrents que celui des vertus de la collaboration traversent Innovators. Isaacson souligne par exemple à juste titre l’impact bénéfique de la proximité physique entre personnes de formation et de profils différent et l’utilité, de ce point de vue, de les concentrer un même lieu en leur offrant des occasions de contact. Tous les bâtiments de Bell Labs à Murray Hill, dans le New Jersey, où la plupart des services du centre de recherche, initialement installés à Manhattan, avaient déménagé au début des années 1940, étaient reliés entre eux pour favoriser les contacts et les échanges entre départements, et dotés de couloirs très longs conçus pour favoriser les rencontres entre chercheurs de spécialités différentes (il n’était pas inhabituel d’y apercevoir Claude Shannon juché sur un monocycle et jonglant avec des balles pour se détendre). La même philosophie sous-tend l’organisation de l’espace de travail ouvert du siège d’Intel, a inspiré la création de l’« Atrium » au cœur  du siège de la société Pixar fondée par Steve Jobs, et commande la structure du futur nouveau quartier-général d’Apple à Cupertino, un large bâtiment circulaire à l’allure de station spatiale enserrant un grand parc. Dans Innovators, Isaacson s’emploie aussi à sortir de l’ombre les quelques femmes qui ont joué un rôle important dans l’histoire de l’informatique, dont la contribution est souvent passée sous silence et qui sont tombées dans l’oubli : Grace Hopper, qui travailla à Harvard avec Howard Haiken sur les machines Mark I et Mark II et à qui l’on doit le langage de programmation COBOL, ainsi que les six femmes chargées d’assurer la programmation d’ENIAC, notamment Jean Jennings et Betty Snyder. Lors du dîner aux chandelles organisé à l’occasion de l’inauguration d’ENIAC, aucune d’entre elles n’était présente, parce qu’aucune n’avait été invitée. Si des femmes avaient été associées au projet, c’est parce que le travail de programmation nécessitait des connaissances en mathématiques, et que les femmes diplômées en mathématique étaient très nombreuses à l’époque. Mais ce travail était jugé moins fondamental  que le développement du « hardware ». « Si les responsables d’ENIAC avaient su à quel point la programmation allait se révéler cruciale […] et complexe » écrira plus tard ironiquement Jean Jennings, « ils auraient sans doute hésité à confier un rôle si important à des femmes ». Deux idées servant de fil conducteur à l’ouvrage s’enracinent dans l’histoire et les écrits d’une autre femme, Ada Lovelace, sous le signe de laquelle Isaacson place son récit. Ada  Lovelace était la fille du poète anglais Byron. Soucieuse de la détourner de la poésie dont l’attrait, à son opinion, risquait de l’inciter à mener la vie fantasque et irresponsable de son père, sa mère, qui avait étudié les mathématiques, lui fit donner une formation poussée dans cette discipline. La jeune fille était douée et se fit rapidement connaître pour son talent dans ce domaine. Ada Lovelace, reconnaît Isaacson, ne fut jamais la mathématicienne de génie que ses admirateurs les plus fervents décrivent, mais son nom est justement associé à un des premiers développements de ce qu’on allait appeler plus tard l’informatique. Ayant fait la connaissance de Charles Babbage, elle s’engagea avec ce dernier dans une collaboration pas toujours aisée, parce qu’elle avait une très haute idée de sa valeur et de ses capacités intellectuelles, mais très fructueuse. Ada Lovelace ne s’intéressait pas à l’aspect mécanique de la « Machine à différences » et de la « Machine analytique », mais à la logique mathématique sous-tendant leur fonctionnement. Mieux que Babbage lui-même, elle réussit à voir et exprimer le fait que la « Machine analytique » était bien plus qu’un calculateur automatique, une machine universelle capable de stocker, manipuler et traiter toutes les informations susceptibles d’être exprimées sous forme de symboles. Elle écrivit de surcroît la liste d’instructions nécessaires à la machine pour exécuter une tâche particulière, le calcul de « nombres de Bernouilli », qu’on peut considérer rétrospectivement comme le premier programme d’ordinateur. Aucune des deux machines de Babbage ne fut jamais achevée, faute de financement, et Babbage mourut dans la pauvreté. Ada Lovelace décéda à l’âge de trente-six ans seulement, d’un cancer, sans avoir jamais publié d’autre article que celui dans lequel elle exposait les résultats de son travail pionnier, après avoir dissipé sa fortune et gâché sa vie en raison de l’assuétude au jeu et à l’opium dans laquelle elle était tombée. Mais elle est devenue une figure emblématique du féminisme scientifique, et le Département de la Défense américain lui a rendu un hommage posthume en nommant Ada le langage orienté objet de haut niveau développé par la société Honeywell Bull pour ses besoins. Dans ses écrits, Ada Lovelace avance une idée dont Walter Isaacson fait grand cas : les machines ne pensent pas et ne pourront jamais faire preuve d’intelligence authentique, parce que ceci requiert des capacités d’imagination que seul l’être humain possède. Au plan théorique, l’examen de cette question, comme on sait, a donné lieu à une abondante littérature. Alan Turing a imaginé un test pour la résoudre, basé sur l’idée que si les réponses données par une machine et par un être humain à une même série de questions sophistiquées ne peuvent pas être distinguées, alors, la machine peut être qualifiée d’intelligente. À l’aide de l’expérience de pensée connue sous le nom de « chambre chinoise », le philosophe John Searle a tenté de démontrer que l’identité des réponses ne peut pas être interprétée comme le signe qu’on a affaire à un système intelligent, la véritable intelligence supposant non seulement la production des bonnes réponses (donc la manipulation correcte des symboles), mais la pleine conscience des opérations effectuées et de leur signification. En termes pratiques, la perspective de voir un jour fabriquées des machines surpassant les êtres humains en intelligence a suscité chez certains de grands espoirs, mais dans la plupart des cas de profondes inquiétudes. Comment garantir que des machines devenues capables d’apprendre, de se modifier (et peut-être de se reproduire), ne décident pas un jour de se débarrasser des humains, comme l’ordinateur HAL le fait dans 2001 Odyssée de l’espace de Stanley Kubrick ? Considérant la question théorique insoluble dans l’état actuel des connaissances, Walter Isaacson fait  valoir qu’il n’y a pas de motif à s’inquiéter au plan pratique, pour deux raisons. La première est qu’en matière d’intelligence artificielle, l’horizon temporel auquel se situent les développements attendus est un horizon au sens littéral du mot, en ce sens qu’il recule à mesure que l’on avance vers lui : il y a vingt-cinq ans, l’arrivée des premiers systèmes informatiques authentiquement intelligents était prévue pour aujourd’hui ; aujourd’hui, elle est annoncée pour dans vingt-cinq ans. La deuxième raison est la profonde différence entre d’un côté les ordinateurs, même les plus puissants comme Deep Blue et Watson d’IBM, qui ont respectivement battu le champion du monde des échecs Gary Kasparaov et les meilleurs candidats au jeu télévision d’érudition Jeopardy, de l’autre côté le cerveau humain, qui n’est pas un système numérique et centralisé, mais analogique et distribué : une caractéristique, affirme Isaacson, qui le rend capable de performances dont les machines les plus sophistiquées sont aujourd’hui incapables, et repousse dans un avenir hypothétique très éloigné ce moment qu’il est de coutume d’appeler avec le futurologue transhumaniste Ray Kurzweill « la singularité », où l’être humain sera définitivement dépassé par ses propres créations. De l’observation du passé de l’histoire de l’informatique et du rôle décisif qu’y ont joué tous ceux qui, d’Ada Lovelace à Steve Jobs en passant par Vannevar Bush, J.C.R. Licklider et Doug Engelbart, ont mis l’accent sur l’interface entre l’homme et l’ordinateur et leur interaction, Isaacson conclut que l’avenir, plutôt qu’à la création de superordinateurs plus intelligents que l’homme et totalement autonomes, est au développement d’une véritable symbiose homme-machine à même de produire des résultats auxquels ne pourrait prétendre aucun des partenaires de cette association opérant seul, parce qu’elle permet de combiner la créativité humaine et la puissance de traitement des données de la machine. On pourra trouver cette vision de l’avenir de l’intelligence artificielle un peu angélique et exagérément optimiste. La combinaison de l’existence de systèmes de stockage et de traitement des données de plus en plus puissants et de progrès substantiels en matière d’intelligence artificielle, par exemple avec la mise au point de systèmes analogiques, pourrait conduire à des conséquences dont toutes ne semblent pas souhaitables. Le règne des machines n’est peut-être pas pour demain, mais les raisons de se préoccuper ne manquent pas, et de plus en plus de voix (Nick Bostrom dans Superintelligence, par exemple, ou James Barrat dans Our Final Invention) s’élèvent pour mettre en garde la communauté scientifique, les industriels et le monde politique, en les invitant à prendre rapidement les mesures nécessaires pour prévenir les dérapages et garantir que le contrôle complet des systèmes développés dans l’avenir ne sera jamais perdu. Walter Isaacson balaie bien trop rapidement de telles légitimes inquiétudes. Une seconde conclusion, en partie liée à la précédente, que Walter Isaacson tire de l’histoire d’Ada Lovelace et de ses successeurs, est que la révolution numérique est le produit de la nécessaire association de la technique et de l’art. Ce que l’on peut reprocher à cette idée n’est pas à proprement son inexactitude mais son caractère très général et légèrement rhétorique. Certes, Ada Lovelace, en hommage à son père à qui elle vouait une dévotion d’autant plus forte qu’elle eut à peine le temps de le connaître, parce que sa mère l’avait éloignée de lui, aimait parler de « science poétique ». Steve Jobs, ostensiblement obsédé par les considérations esthétiques,  ne manquait pas une occasion de souligner la beauté des produits d’Apple, qu’il opposait à la laideur de ceux de Microsoft. Et beaucoup parmi les  protagonistes de l’histoire racontée par Isaacson étaient des individus lettrés, cultivés et amateurs d’art. Mais tous ne l’étaient pas, et parmi eux figuraient des ingénieurs sans intérêt particulier pour la littérature ou les beaux-arts. Cela ne les empêchait pas d’être extraordinairement créatifs. Walter Isaacson a raison de plaider dans la conclusion de son livre pour le rapprochement des études littéraires et artistiques d’un côté, scientifiques et techniques de l’autre, ces deux domaines du savoir et de la sensibilité étant d’une égale richesse et chacun ayant tout à gagner à ne pas délaisser l’un au profit exclusif de l’autre. Mais considérer la combinaison, dans un même individu, des tempéraments correspondants et des deux types de culture, comme une recette mécanique et invariable et la voie royale du succès, est à l’évidence simplifier. En ces matières, il y a plus d’un cas de figure possible. 6.     Une histoire à compléter et à considérer de manière critique  En dépit de ses remarquables qualités, Innovators ne mérite assurément pas le titre d’histoire « définitive » de l’ordinateur et d’Internet que certains critiques enthousiastes n’ont pas hésité à lui attribuer. Une telle qualification n’a d’ailleurs pas beaucoup de sens, s’agissant d’une histoire si riche et si complexe, de surcroît loin d’être achevée et qui donne continuellement lieu à de nouvelles péripéties. Au plan strictement factuel, Walter Isaacson a dû faire des choix. Si la plupart des épisodes-clés et une bonne partie des protagonistes essentiels de cette histoire sont évoqués, plusieurs développements importants et les personnes qui leur sont associées sont passés sous silence. On cherchera par exemple en vain dansInnovators les noms de James Gosling et de Patrick Naughton, les créateurs du langage de programmation Java, utilisable avec tous les grands systèmes d’exploitation et à la base de nombreuses applications ;   ceux de Bill Joy, co-fondateur de la firme Sun Microsystems qui a développé ce langage et de Larry Ellison, le mythologique multimilliardaire, patron durant près de quarante ans de la société Oracle, qui détient aujourd’hui Java après avoir fait l’acquisition de Sun Microsystems ; ou le nom de Nathan Myrvold, l’ancien directeur du département de recherche de Microsoft fameux pour sa politique agressive en matière de propriété intellectuelle (également connu pour un traité de cuisine « moderniste » en six volumes). Parce que son intérêt se concentre sur l’ordinateur personnel, Internet et leur rencontre (une idée qui lui a été suggérée par Bill Gates), Isaacson passe d’autre part complètement sous silence des pans entiers de l’histoire de l’informatique, par exemple l’histoire du calcul à haute performance et des superordinateurs développés à la suite des travaux de Seymour Cray, qui a conçu les premiers d’entre eux, aujourd’hui largement utilisés pour la recherche, notamment la modélisation et la simulation en physique théorique, en aérodynamique, en climatologie et météorologie, etc. Son récit s’arrête de surcroît, avec quelques pages assez générales et superficielles sur Wikipédia et Google, vers la fin des années 1990, avant l’apparition des mémoires flash à grande capacité, de l’écran tactile, du smartphone et des tablettes, l’essor de l’exploitation des « Big Data » et le développement du « Cloud computing», pour ne pas parler de la technologie de la « réalité augmentée », de « l’Internet des objets » et des récents et spectaculaires développements de la robotique. Les évolutions récentes sur d’autres plans que technique sont également ignorées, par exemple les profonds changements qui ont affecté la Silicon Valley et sa culture au cours des deux dernières décennies : disparition des amateurs (« hobbyists »), de l’esprit rebelle et de la vision égalitariste des pionniers, et concentration du pouvoir et de la technologie au sein de quelques sociétés géantes dans lesquelles les juristes pèsent d’un poids de plus en plus lourd, en un processus qui fait dire à Piero Scaruffi de la technologie numérique qu’après avoir été « kidnappée » par des indépendants exploitant à des fins inédites des inventions nées à l’initiative de grandes entreprises et du gouvernement, elle a été récupérée par les entreprises et le gouvernement, qui l’ont transformée en un vecteur de publicité et un instrument de surveillance. Parce que cette histoire est celle des pionniers de l’ère numérique, à quelques exceptions près comme les travaux réalisés à Benchley Park et l’invention du World Wilde Web au CERN, le domaine géographique qu’elle couvre se limite par ailleurs à la côte Est et la côte Ouest des États-Unis, sans que soit même simplement évoquée l’émergence des industries électroniques et informatiques asiatiques, au Japon, en Inde, en Corée et en Chine. Sans qu’on puisse l’accuser de sombrer dans ce techno-prophétisme et ce messianisme technologique qui entachent de nombreux livres sur l’informatique et les technologies de l’avenir, le livre de Walter Isaacson manque enfin et surtout cruellement de perspective critique. S’il reconnaît que le mot «  innovation » est devenu aujourd’hui «  un slogan à la mode vidé de de tout sens clair », Isaacson, a justement relevé Jacob Silverman dans Booksforum, ne peut s’empêcher d’assaisonner son récit de ce genre de préceptes généraux et banals qu’on trouve dans les manuels sur le sujet, d’une manière qui l’affaiblit en interrompant son fil et désamorçant sa charge dramatique. « Pour innover, il faut posséder trois choses : une excellente idée, le talent d’ingénieur pour l’exécuter et le bon sens (et la trempe) nécessaires en affaires pour transformer cette idée en un produit réussi » : une déclaration de ce genre n’ajoute pas grand-chose à la force du livre. Son éloge de la collaboration, qui frappera peut-être moins par sa nouveauté en Europe qu’aux États-Unis, pays où le rôle de l’individu est traditionnellement exalté, s’exprime de surcroît parfois sous une forme un peu naïve et presque dogmatique. « Collaboration » n’est d’ailleurs en réalité pas vraiment la meilleure étiquette sous laquelle placer le riche matériel historique qu’il nous livre, sauf si l’on entend ce mot dans un sens très large couvrant d’autres cas de figures comme  l’influence involontaire, voire l’emprunt et le vol d’idées. En vérité, l’histoire de l’ordinateur et d’Internet telle qu’Isaacson nous la raconte serait plus adéquatement définie comme celle d’un processus d’invention collective étalé dans le temps à travers plusieurs générations - une dimension qu’il souligne d’ailleurs souvent lui-même : « Steve Jobs a bâti sur le travail d’Alan Kay, qui a construit sur celui de Doug Engelbart, qui s’appuyait sur ceux de J.C.R. Licklider et de Vannevar Bush ». Incurable optimiste, de cet optimisme démonstratif et déclamatoire dont font volontiers preuve les Américains, Isaacson ignore par ailleurs ostensiblement les aspects les moins plaisants et les plus préoccupants de la révolution numérique.  Comme le souligne justement Jacob Silverman, pas la moindre allusion, dans Innovators, à l’exploitation brutale des ouvriers dans les mines congolaises de coltan (le minerai d’où sont tirés le tantale et le niobium, utilisés dans de nombreux composants électroniques), ou les usines de fabrication des téléphones portables en Chine. Isaacon n’évoque pas davantage les obscures transactions,  moralement douteuses et parfois criminelles, passées sur le « Deep Web », cette énorme partie du World Wide Web qui n’est pas indexée par les moteurs de recherche, et les étranges et inquiétantes sous-cultures qui s’y développent, dont Jaimie Bartlett s’est récemment fait l’ethnographe dans son ouvrage Dark Net. Surtout, il ne touche pas un mot du pouvoir économique exorbitant des grandes compagnies du domaine, de l’emprise des technologies qu’elles contrôlent sur la vie individuelle et sociale, et des menaces pour la liberté et la vie privée potentiellement liées à l’exploitation des données personnelles à des fins politiques ou commerciales. Au cours des dernières années, beaucoup de commentateurs se sont alarmés des  risques et dérives possibles des technologies de l’information. Sous le nom de « solutionisme », Evgeny Morozov (Pour tout résoudre cliquez ici) a dénoncé la croyance idéologique, prévalant dans la Silicon Valley, que tous les problèmes auxquels la société fait face possèdent une solution technologique ; Sherry Turkle (Life on Screen, Alone Together) s’est inquiétée de l’impact de « la vie sur écrans » sur la qualité des rapports sociaux ; Nicholas Carr (Internet rend-il bête ?) et Frank Frommer (La pensée PowerPoint) de ses conséquences sur la vie intellectuelle et notre manière de réfléchir. On cherchera en vain dans Innovators le plus petit écho de telles préoccupations. Très bien documenté et extrêmement agréable à lire en dépit de certaines répétitions, Innovators met exceptionnellement bien en lumière, dans toute sa richesse et sa diversité, la longue histoire de la révolution numérique. Les observations judicieuses de Walter Isaacson sont éclairantes et ne choqueront nullement les historiens des techniques et les sociologues de l’innovation, qui retrouveront dans son récit des situations qui leur sont familières. Mais la foi candide d’Isaacson dans le progrès, sa vision résolument optimiste de l’avenir et le regard peu critique qu’il jette sur les technologies de l’information, leur impact sur le fonctionnement de la société et certains développements auxquelles elles pourraient donner lieu, affaiblissent son entreprise. On se prend à rêver d’une histoire de l’informatique qui serait à l’ordinateur, Internet et au téléphone portable ce que The Greatest Benefit to Mankind, l’extraordinaire histoire scientifique, technique, sociale et culturelle de la médecine de Roy Porter, qui est en même temps une histoire critique, est à l’art de guérir. Mais peut-être cette histoire-là est-elle trop vaste pour tenir dans un seul livre d’un seul auteur. Peut-être l’histoire de la révolution numérique, à l’image de son objet, ne peut-elle être, au bout du compte, que le produit d’un effort multiforme, prolongé et collectif. Michel André
LE LIVRE
LE LIVRE

Les innovateurs de Walter Isaacson, Simon & Schuster, 2014

SUR LE MÊME THÈME

Blog « Notre Antigone n'a pas pu sortir »
Blog Le bel avenir de la presse papier
Blog Entre les murs

Dans le magazine
BOOKS n°123

DOSSIER

Faut-il restituer l'art africain ?

Chemin de traverse

13 faits & idées à glaner dans ce numéro

Edito

Une idée iconoclaste

par Olivier Postel-Vinay

Bestsellers

L’homme qui faisait chanter les cellules

par Ekaterina Dvinina

Voir le sommaire