WP_Post Object
(
    [ID] => 129334
    [post_author] => 48457
    [post_date] => 2024-03-28 18:37:35
    [post_date_gmt] => 2024-03-28 18:37:35
    [post_content] => 

Darwin croyait fermement à l’influence de la vie individuelle sur l’évolution et en particulier de la transmission des caractères acquis. La publication du trentième et dernier volume de sa gigantesque correspondance l’illustre à merveille. Il avait baptisé sa théorie la « pangenèse ». Il pensait que chaque partie d’un organisme, plante ou animal, relâche des particules, ou « gemmules », qui migrent vers les organes reproducteurs et passent ainsi les caractères acquis par un individu à sa descendance. 

Selon Darwin, les comportements eux-mêmes se transmettent de cette manière, relève dans The New York Review of Books l’historienne américaine Jessica Riskinqui prépare un livre sur Lamarck. Au point que les caractères acquis à un certain âge peuvent se retrouver chez les descendants au même âge. Le célèbre naturaliste écrit aussi que « tout effet de l’éducation qui est transmis » va se manifester « à un certain âge ». 

Ce n’est pas pour autant la seule voie par laquelle l’individu influe sur l’évolution, soulignait Darwin. L’autre voie est la « sélection sexuelle », à laquelle il a consacré son livre The Descent of Man. Le fait que l’individu ne choisisse pas son partenaire au hasard a clairement une influence sur la descendance.

Darwin était un fervent abolitionniste et plaidait pour l’instruction des femmes en sciences et en médecine. Mais il était convaincu de l’inégalité morale et intellectuelle des individus et même des races. Une inégalité que les caractères acquis sont susceptibles de modifier. À propos des Noirs, il disait que leurs enfants, dans les premières années de leur vie, apprennent aussi vite que les enfants blancs, mais se voient ensuite retardés en raison du faible niveau d’instruction de leurs parents. 

Scellé dans le marbre par les successeurs de Darwin, le dogme darwinien veut que l’évolution est seulement le fait du hasard. Sans bien sûr rien devoir à la théorie fantaisiste des gemmules, cette conception est aujourd’hui ébranlée par les découvertes sur la complexité des interactions entre gènes et autres molécules et la notion d’épigénétique. Les mécanismes à l’œuvre dans l’hybridation des plantes, auxquels Darwin prêtait un grand intérêt, ont donné lieu à la notion de « transfert horizontal » de gènes. Quant à la sélection sexuelle, sa réalité paraît difficile à contester.

[post_title] => Darwin, si peu darwinien ! [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => darwin-si-peu-darwinien [to_ping] => [pinged] => [post_modified] => 2024-03-28 18:37:36 [post_modified_gmt] => 2024-03-28 18:37:36 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129334 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129331
    [post_author] => 48457
    [post_date] => 2024-03-28 18:34:36
    [post_date_gmt] => 2024-03-28 18:34:36
    [post_content] => 

« On peut s’affranchir de sa classe, pas de sa génération », note l’essayiste et historien Gustav Seibt dans le Süddeutsche Zeitung. D’où quelques notables différences entre les ouvrages qui sont consacrés à l’une ou à l’autre de ces deux catégories. « Le livre sur la classe sociale vit de la dénonciation et de l’évasion – des conditions difficiles, surmontées notamment par l’écriture et le récit, poursuit Seibt. Le livre de génération est plus gai, plus contemplatif, il se réfère volontiers à des expériences communes, à des goûts partagés, il a aussi, comme récit du temps vécu, quelque chose de nostalgique. » 

Le sociologue Heinz Bude est un spécialiste de ces livres consacrés à une génération en particulier. On lui en doit un sur les Allemands nés entre 1938 et 1948 (les « soixante-huitards »), un autre sur la « génération Berlin », néologisme de son invention qui désigne ceux qui sont nés entre 1960 et 1965. Le voilà qui s’attaque à présent aux fameux « boomers », qui recoupent en partie d’ailleurs la « génération Berlin », puisqu’ils correspondent à la génération née entre 1955 et 1965, au plus fort du baby-boom. 

Bude passe en revue différentes étapes de la vie de ces boomers allemands. Leur enfance au sein d’un pays sortant tout juste de la guerre, où l’on pouvait apercevoir un coiffeur jongler dans son salon avec une prothèse de jambe ou avoir un voisin à qui manquait un bras et qui gagnait sa vie comme veilleur de nuit. Beaucoup étaient enfants de réfugiés et de déplacés. « Ils ont vu toute l’énergie de leurs parents se dépenser dans la construction d’une maison individuelle », rappelle Bude. Autres événements marquants : l’Ostpolitik de Willy Brandt, les attentats de la bande à Baader, Tchernobyl et, bien entendu, la Réunification. 

En RFA, le nombre des naissances atteint un sommet inégalé en 1964. La principale expérience commune de cette classe d’âge plus nombreuse qu’aucune autre ? Peut-être un sentiment de trop plein, justement, d’encombrement : « voies de formation bouchées, marchés du travail saturés. La réponse a été le pragmatisme et les solutions provisoires – par exemple le développement des squats, des petites communautés, la culture des clubs. Des formes de vie alternatives au lieu d’une révolution mondiale, l’observation de soi au lieu d’une grande théorie », résume Seibt. 

[post_title] => Génération encombrée [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => generation-encombree [to_ping] => [pinged] => [post_modified] => 2024-03-28 18:34:37 [post_modified_gmt] => 2024-03-28 18:34:37 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129331 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129328
    [post_author] => 48457
    [post_date] => 2024-03-28 18:32:57
    [post_date_gmt] => 2024-03-28 18:32:57
    [post_content] => 

Lina María, la protagoniste de La mano que cura, commence à remarquer quelque chose d’étrange autour d’elle après la mort de son père : la maison est remplie de mouches, une épaisse poussière recouvre chaque surface, elle sent une présence derrière elle et l’aperçoit parfois du coin de l’œil. Une toux se fait de plus en plus forte, les plantes meurent. Lorsqu’elle rend visite à sa mère et à sa sœur, la même chose se produit dans leur maison, comme si une présence obscure la suivait. Pour trouver une solution, Lina doit comprendre des choses sur le passé de sa mère qu’elle n’a fait que pressentir. Au fur et à mesure qu’elle approfondit cette partie de son histoire, elle acquiert un pouvoir avec lequel elle doit apprendre à vivre.  

La magie et la sorcellerie sont très présentes dans la culture colombienne, particulièrement au sein des familles de l’Antioquia, une région qui s’étend de la cordillère des Andes à la mer des Caraïbes. Dans la revue colombienne Libros & Letrasl’écrivain et journaliste colombien Pablo Concha explique que ce roman, bien qu’il explore des pratiques et des éléments de la sorcellerie et de l’au-delà, plutôt que de raconter une histoire d’épouvante et de monstres, nous amène à comprendre le sens de la famille, ce que nous faisons pour ceux que nous aimons le plus, ce que nous sommes prêts à taire, à sacrifier et même à oublier. Lina María Parra Ochoa, qui signe ici son premier roman, nous émeut en détaillant des rituels sombres qui, s’ils seront une découverte pour certains, pour d’autres n’auront rien d’étrange.  

« L’intérêt pour ces thèmes, que l’on peut qualifier d’ancestraux et qui relèvent pour moi plutôt des croyances populaires et des superstitions, vient du goût pour le surnaturel qui a marqué les histoires de ma famille du côté maternel, confie la romancière. Une famille originaire d’une ville d’Antioquia où la croyance aux sorcières, aux lutins, aux prières, aux âmes du purgatoire et autres superstitions populaires était courante et se situait sur le même plan de réalité que la logique ou la raison. »

[post_title] => Aux mains des sorcières [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => aux-mains-des-sorcieres [to_ping] => [pinged] => [post_modified] => 2024-03-28 18:32:58 [post_modified_gmt] => 2024-03-28 18:32:58 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129328 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129325
    [post_author] => 48457
    [post_date] => 2024-03-28 18:31:15
    [post_date_gmt] => 2024-03-28 18:31:15
    [post_content] => 

Toute simple, la prédiction en matière culturelle : comme les vents porteurs de nouvelles tendances soufflent d’ouest en est, à l’inverse des alizés nord, il suffit d’observer ce qui se passe aux États-Unis. Prenez l’édition : depuis plusieurs décennies, là-bas, le secteur est victime d’une « conglomération » qui a coagulé des myriades de petites maisons en immenses groupes dont elles sont, au mieux, devenues des « imprints ». « La glamoureuse édition new-yorkaise des années 1950 avec ses déjeuners à trois martinis et son sexisme rampant » a disparu, déplore Adam Fleming Petty sur le site The Bulwark ; « les excentriques à moustaches » ont été remplacés par les cadres sup « en costard-cravate » des Big 5 (HarperCollins, Simon & Schuster, Macmillan, Hachette et Penguin Random House), qui deviendront les Big 4 si Vivendi croque Simon & Schuster. 

L’universitaire Dan Sinykin fait remonter le processus aux années 1950, quand le « G.I. Bill » a ouvert aux soldats démobilisés l’accès à l’instruction supérieure – et à la lecture. Ensuite : essor des éditions bon marché (les « paperbacks »), explosion du nombre de romans publiés (d’une dizaine de milliers à plusieurs centaines de milliers par an), substitution de la littérature « de genre » à la littérature générale, focalisation sur les gros tirages, abandon du « mandat culturel » au profit… du profit. Ensuite l’Amérique a vécu l’avènement de l’ebook et de l’audiobook, et le quasi-accaparement de la distribution de livres par Amazon, qui s’y retrouve désormais en situation de monopsone (l’inverse du monopole : non pas un seul vendeur mais un seul acheteur). Si les craintes que l’ebook n’inflige aux éditeurs le même sort que le MP3 à l’industrie musicale s’avèrent (à ce jour) infondées, les menaces financières sur l’édition traditionnelle sont toujours aussi vives. Alors qu’il est « difficile de gagner de l’argent en vendant moins de 10 000 exemplaires », dit Sinykin, « sur les 45 571 livres publiés aux États-Unis en 2022, 90 % ont fait moins de 5 000 exemplaires ». Or les éditeurs sont des capitalistes – à l’instar de leur grand ancêtre, Gutenberg – et même des « venture capitalists », des parieurs. Mais des parieurs prudents qui préfèrent miser sur les usines à bestsellers, comme Danielle Steel, la stakhanoviste aux 200 livres de « romance » qui dit travailler 20 heures par jour (dont une partie à s’autopromouvoir sur les réseaux). Les livres sont désormais « manufacturés plutôt que composés ». L’auteur, qui s’est transformé en marque commerciale, a vu sa fonction redistribuée sur tout un écosystème éditorial. D’ailleurs, ajoute Sinykin, « la surestimation du rôle de l’auteur n’était en fait qu’un bref accident de l’histoire récente ». Brrrr… 

[post_title] => Les éditeurs indépendants ont-ils un avenir ? [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => les-editeurs-independants-ont-ils-un-avenir [to_ping] => [pinged] => [post_modified] => 2024-03-28 18:31:16 [post_modified_gmt] => 2024-03-28 18:31:16 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129325 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129321
    [post_author] => 48457
    [post_date] => 2024-03-28 18:28:39
    [post_date_gmt] => 2024-03-28 18:28:39
    [post_content] => 

Au titre des grandes figures du monde germanophone dont l’influence s’est fait sentir tout au long du siècle dernier, il est commun de mentionner le trio de penseurs baptisé, d’après une expression de Paul Ricœur, les « philosophes du soupçon » : Karl Marx, Friedrich Nietzsche et Sigmund Freud. À ce triptyque, Herfried Münkler a décidé de substituer celui formé par Marx, Wagner et Nietzsche. Pour quelle raison ? Si les idées de Freud, qui était autrichien, ont indubitablement marqué la vie intellectuelle en Allemagne, Wagner, qui a laissé une production écrite abondante et se voyait comme un théoricien de l’art autant qu’un musicien, occupe dans la culture et l’imagination allemandes une place bien plus considérable. 

Des milliers de livres ont été consacrés à chacun de ces trois hommes : Marx, Wagner et Nietzsche. Qu’ajoute ce nouveau titre à une bibliographie aussi pharaonique ? L’ouvrage n’est pas une biographie de groupe. Wagner et Nietzsche, certes, se sont connus, appréciés et ont joué un rôle important chacun dans la vie de l’autre jusqu’à ce que leur amitié se brise au bout de huit ans pour une combinaison de raisons : le retour apparent de Wagner, avec Parsifal, à une religiosité chrétienne que Nietzsche désapprouvait, mais surtout le manque d’attention témoigné par le compositeur envers son ami lors du premier Festival de Bayreuth ainsi que peut-être, selon certains biographes, la découverte par Nietzsche d’un échange entre Wagner et un médecin qu’il avait consulté où sa vie personnelle était évoquée dans des termes qu’il jugeait offensants. En revanche, Marx et Wagner ne se sont jamais rencontrés. Et si l’on a conservé quelques déclarations, plutôt sévères, du premier au sujet du second, Wagner ne s’est jamais exprimé au sujet de Marx. Quant à Marx et Nietzsche, ils se sont complètement ignorés. 

Plutôt qu’à une biographie collective, on a donc ici affaire à un triple portrait croisé. La thèse de Münkler est que la comparaison des idées des trois hommes sur les mêmes sujets et de leurs réactions aux mêmes événements est susceptible de jeter sur leur vie et leur œuvre une lumière particulière. Au fil des pages se trouvent ainsi confrontées leurs vues sur plusieurs thèmes. L’Antiquité et la tragédie, par exemple, que Wagner et Nietzsche voulaient faire renaître, mais que Marx considérait comme appartenant résolument au passé. Ou encore la religion : partant tous les trois du constat de la « mort de Dieu » et de l’effacement du christianisme, ils en tiraient des conclusions très différentes. Pour Wagner, l’enjeu était de bâtir, en revenant aux racines païennes du monde occidental, une religion pour un monde sans Dieu chrétien. Pour Marx, dans le sillage de Feuerbach, il s’agissait de dénoncer les illusions de la pensée religieuse et son retour sous la forme du « fétichisme de la marchandise ». Pour Nietzsche, l’objectif était le développement d’une spiritualité athée expurgée des idées d’arrière-monde, de rédemption et de salut. 

Dans un monde en profond changement, ainsi que le souligne le sous-titre du livre, marqué par des révolutions politiques, la révolution industrielle et l’essor de la modernité, l’avenir avait aux yeux de Marx, Wagner et Nietzsche le visage de la révolution. Mais ils ne pensaient pas celle-ci en termes identiques. Pour Marx, il s’agissait d’une révolution sociale, appelée par les contradictions du capitalisme et mettant fin au règne de la bourgeoisie. Pour Wagner, d’une révolution esthétique menée à l’aide de « l’œuvre d’art totale » et visant à retrouver les valeurs d’un monde perdu. Pour Nietzsche, d’une révolution des esprits, fondée sur la mise en question de toutes les valeurs. Avant de devenir un artiste reconnu et le protégé de Louis II de Bavière, Wagner avait été un socialiste et un révolutionnaire, contraint, comme Marx, à l’exil pour des raisons politiques. Durant la révolution de 1848, il était sur les barricades en compagnie de Bakounine. Mais sa vision de la société était tout autre. Dans des pages qui figurent parmi les meilleures de l’ouvrage, influencé par le souvenir de la mise en scène « scandaleuse » de Patrice Chéreau et Pierre Boulez à Bayreuth en 1976 à l’occasion du 100e anniversaire du Festival, Herfried Münkler se livre à une lecture « sociale » de L’Anneau du Nibelung qui fait de l’univers des dieuxune allégorie de la bourgeoisie. Foncièrement conservatrice, observe-t-il, cette bourgeoisie est dépourvue de la caractéristique qui, chez Marx, définit cette classe et doit finir par entraîner sa perte : la pulsion qui la pousse à une perpétuelle innovation et une fuite en avant à la recherche incessante de nouveaux profits. Les réactions des trois hommes aux événements de 1870 (la guerre franco-prussienne et l’insurrection de la Commune de Paris) sont très révélatrices. Wagner salua avec allégresse la victoire de la Prusse comme un triomphe de l’esprit national allemand. Marx déplora l’écrasement de la révolte populaire. Et Nietzsche s’alarma de la violence des insurgés. Effrayé par l’irrésistible progrès de ce que Tocqueville appelait « l’égalité des conditions », convaincu que le gouvernement des nations ne pouvait être efficacement assuré que par une aristocratie d’esprits libres, le philosophe éprouvait envers les classes populaires et la démocratie une extrême méfiance. 

Herfried Münkler compare aussi certains traits de caractère des trois hommes, par exemple leurs rapports avec l’argent. Extrêmement dépensier, chroniquement endetté, Wagner, jusqu’au moment où il put bénéficier des largesses de Louis II de Bavière, passa une bonne partie de sa vie à fuir les créanciers. Marx, qui n’avait pas les mêmes goûts de luxe mais une famille nombreuse à nourrir et des revenus précaires, vécut longtemps dans la misère. Nietzsche ne fut jamais riche mais échappa à la pauvreté par le choix d’une vie d’une sobriété spartiate. Sur le plan sentimental, Wagner était un séducteur qui aimait la compagnie des femmes et vécut longtemps avec l’épouse du chef d’orchestre Hans von Bülow (Cosima) avant de l’épouser. Marx était un père de famille très attaché à sa femme et ses enfants (quatre moururent en bas âge, survécurent trois filles et, peut-être, un fils illégitime avec celle qui fut la gouvernante de la famille durant quarante ans). Nietzsche fut un éternel célibataire tombant amoureux sans succès, notamment de Cosima Wagner et Lou Andreas-Salomé. Tous les trois furent accablés de problèmes de santé aggravés par le surmenage et, dans le cas de Marx, le tabagisme et des conditions de vie insalubres. Wagner était enclin aux allergies et à des accès d’eczéma. Marx souffrait du foie, d’hypertension, de furoncles à répétition et de la tuberculose. Nietzsche fut toute sa vie la proie d’atroces migraines, de troubles d’estomac et de maux oculaires en partie liés à la syphilis qui finit par le faire basculer dans la folie. Tous les trois furent accusés d’antisémitisme. À tort dans le cas de Nietzsche, qui abhorrait la haine des juifs de sa sœur Elisabeth et son mari et pour qui le juif comme « inventeur de la religion des esclaves » n’était qu’une figure philosophique. Moins injustement dans le cas de Marx, dont les opinions sur les juifs et l’argent n’étaient pas exemptes de préjugés mais qui considérait la judéité en termes religieux plutôt qu’ethniques. Avec raison dans celui de Wagner, dont les écrits attestent d’un antisémitisme virulent sans que celui-ci, même si on l’a parfois affirmé, se manifeste ostensiblement dans son œuvre.   

Un point commun des idées de Marx, Wagner et Nietzsche, souligne Münkler, est qu’elles nous sont parvenues filtrées, voire déformées. De l’œuvre restée inachevée de Marx, notamment les deuxième et troisième volumes du Capital, Friedrich Engels a tiré un corpus simplifié et cohérent qui ne reflète qu’imparfaitement sa diversité. Devenue la grande prêtresse du culte de son mari à Bayreuth, Cosima Wagner s’est employée à censurer ceux de ses écrits qui pouvaient nuire à sa légende. Quant à Élisabeth Nietzsche, prenant le contrôle total des archives et de l’image de son frère, elle a fabriqué en manipulant ses textes inédits un Nietzsche inauthentique, laudateur caricatural de la force brutale. Si Wagner est devenu un des musiciens emblématiques du régime nazi, et Nietzsche une de ses références philosophiques, c’est largement à ces deux femmes qu’on le doit. De nouvelles éditions des écrits de Marx et de Nietzsche ont permis de redécouvrir leurs œuvres dans toute leur richesse, y compris leurs contradictions. En dépit de l’effondrement des régimes communistes, de la faillite de la doctrine marxiste qui leur servait de justification, de la fragilité de beaucoup de ses thèses (sur la plus-value, la baisse tendancielle du taux de profit ou la paupérisation des prolétaires), Marx demeure le meilleur historien en temps réel du capitalisme naissant et un brillant sociologue de ce régime économique d’un formidable dynamisme, capable de mettre à son service même les forces qui devraient le tuer. Dépouillés de certaines conventions de mise en scène désuètes, les opéras de Wagner conservent toute leur capacité d’exprimer sous forme dramatique les tensions psychologiques, sociales et, ainsi que le met en lumière le philosophe Roger Scruton, spirituelles, qui traversent la vie individuelle et la société. Ceci sans parler de sa musique – les leitmotivs, la « mélodie continue », l’inventivité harmonique, les dissonances aux frontières de l’atonalité – dont il est impossible de surestimer l’influence sur la musique du XXe siècle. Nietzsche, enfin, en raison notamment de la forme fragmentaire d’une œuvre foisonnant de déclarations souvent délibérément contradictoires et de l’éclat de sa langue, restera toujours une source d’inspiration et d’excitation intellectuelle. L’attitude philosophique qu’il a définie, conjugaison d’une mise en cause radicale des certitudes, d’une critique systématique des illusions, d’une dénonciation des faux idéaux et d’une grande méfiance envers les apparences, a sans conteste façonné l’esprit de notre époque. Les idées mènent-elles le monde, comme le soutenait Hegel ? Les œuvres puissantes exercent en tout cas sur la vie de l’esprit et le fonctionnement des sociétés une influence profonde et durable. C’est le cas de celles de Marx, Wagner et Nietzsche, qui survivront longtemps encore à leurs auteurs. 

N.B. Nous avons évoqué le dernier ouvrage de Münkler dans la Booksletter précédente, datée du 22 mars 2024.

[post_title] => Trois figures du génie allemand [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => trois-figures-du-genie-allemand [to_ping] => [pinged] => [post_modified] => 2024-03-28 18:28:40 [post_modified_gmt] => 2024-03-28 18:28:40 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129321 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129283
    [post_author] => 48457
    [post_date] => 2024-03-21 19:06:57
    [post_date_gmt] => 2024-03-21 19:06:57
    [post_content] => 

Desperate Remedies, sous-titré « Psychiatry’s Turbulent Quest to Cure Mental Illness », est un livre déprimant. Son auteur, Andrew Scull, est un éminent sociologue et historien de la psychiatrie et plus largement de la folie. Dans l’un de ses précédents livres, Madness in Civilization, il brossait une très ambitieuse histoire culturelle de la folie qui concurrençait par son ampleur l’Histoire de la folie à l’âge classique de Michel Foucault. Dans un autre, Hysteria, il suivait les métamorphoses de cette étrange « maladie » à travers les âges et les « thérapies » le plus souvent aberrantes mises en œuvre pour la contrôler. Dans un autre encore, Madhouse, il racontait l’histoire édifiante du Dr Henry Cotton, un influent psychiatre américain du début du XXe siècle qui s’était convaincu que la folie était causée par des infections focales et pratiquait à la chaîne des ablations d’organes qui mutilaient les patients sans pour autant les guérir.

Deux cents ans d’histoire et aucun progrès ?

Desperate Remedies prolonge cette dernière dénonciation de l’hubris psychiatrique, en l’étendant cette fois-ci à la psychiatrie américaine dans son ensemble et même, faut-il comprendre, à la psychiatrie en général depuis ses débuts européens. Scull nous en avertit dès les premières lignes de sa préface : « Dans ce livre, j’ai tenté de fournir une évaluation sceptique de l’entreprise psychiatrique – de son impact sur ceux qu’elle traite et sur la société dans son ensemble. [...] Je me suis concentré sur la thérapie des maladies mentales et sur les professionnels qui l'ont développée. » La psychiatrie, discipline médicale qui a émergé au début du XIXe siècle avec la prétention d’étudier et de traiter ce qu’elle présentait comme des maladies mentales, n’a en fait jamais réussi, dit Scull, à en percer les causes et encore moins à les guérir : « Deux siècles après la naissance de la profession psychiatrique, les racines des formes les plus graves de troubles mentaux restent toujours aussi énigmatiques. »

Deux cents ans d’histoire et aucun progrès ? Toujours dans sa préface, Scull raconte comment « un producteur hollywoodien qui avait un temps envisagé de faire un film basé sur l’un de mes livres m’a expliqué que celui-ci fournissait une très bonne matière pour un premier et un second acte. “Mais où est donc le troisième acte ?”, m’a-t-il demandé. Il voulait dire par là : “Où est le happy end ?” » Hollywood étant Hollywood, on soupçonne qu’en fait ce producteur demandait plutôt à Scull : « Où est l’histoire ? » Où est, autrement dit, la bonne vieille intrigue aristotélicienne avec un début, un milieu et une fin, heureuse ou non ? 

De fait, l’histoire que raconte Scull dans Desperate Remedies a bien trois actes, ou plutôt trois parties, mais on n’y trouve aucune unité d’action ni aucun arc narratif bien défini. Non seulement les parties se chevauchent chronologiquement, à la façon d’un collage cubiste entremêlant les temporalités, mais toutes racontent en fin de compte la même histoire : comment une nouvelle théorie ou un nouveau traitement avait suscité chez ses promoteurs l’espoir d’avoir enfin trouvé le moyen de guérir la maladie mentale, pour les exposer en fin de compte à une cruelle déception après qu’ils eurent volontairement ignoré le mal infligé aux patients. 

Rien de tout cela ne fait une bonne histoire, évidemment, mais cela fait de la bonne histoire, et qui donne à réfléchir. Trop souvent en effet l’histoire de la psychiatrie a été écrite à partir d’un happy end supposé, comme si la vérité définitive sur la maladie mentale avait été découverte en 1895 par Sigmund Freud, ou au début des années 1950 avec l’avènement de la « révolution psychopharmacologique ». Rien de tel avec Scull. Méthodiquement sceptique à l’égard des prétentions théoriques et thérapeutiques des psychiatres, il raconte non pas « ce qui pourrait arriver », mais « ce qui est arrivé » (c’est la différence entre l’histoire et la poésie selon Aristote), sans chercher à donner un sens prédéterminé aux événements qu’il narre. Le résultat est un récit désordonné, brouillon et, oui, tout à fait déprimant.

La folie est-elle une maladie ?

Acte 1. – En tant que profession, la psychiatrie est née au début du XIXe siècle de l’idée que la folie est une maladie et que celle-ci peut être soignée. Inspirés par le « traitement moral » de William Tuke et Philippe Pinel, les réformateurs sociaux de l’époque promouvaient la création d’asiles publics où les aliénés seraient traités avec humanité et ramenés à la raison, au lieu d’être jetés en prison ou condamnés à l’itinérance. Très vite, cependant, il devint évident que la psychiatrie ne pouvait pas tenir ses promesses et l’optimisme des débuts céda progressivement la place au nihilisme thérapeutique. Dans les dernières décennies du siècle, les asiles psychiatriques devinrent de vastes lieux d’internement où croupissaient une multitude de patients dont le seul point commun était qu’on ne savait pas quoi faire d’eux : les séniles et les déments, les alcooliques, les pervers, les faibles d’esprit, les schizophrènes, les personnes souffrant de mélancolie, d’hystérie ou de syphilis tertiaire (la redoutable paralysie générale des aliénés, ou PG). La plupart de ceux qui n’étaient pas libérés au bout d’un an en raison d’une rémission spontanée étaient laissés à l’abandon.

Cette impuissance thérapeutique était opportunément théorisée sous la forme d’une fatalité biologique qui était en même temps sociale : tous ces pauvres gens souffraient, disait-on, d’une hérédité chargée et payaient le prix de l’intempérance, de l’immoralité ou du manque d’hygiène de leurs parents et grands-parents (c’est ce que le neurologue Jean-Martin Charcot, le maître de Sigmund Freud, appelait la « famille névropathique »). Selon une variante de cette théorie de la dégénérescence, réservée à ceux qui pouvaient se le permettre, les « nerfs » fragiles dont souffraient les neurasthéniques et les hystériques de la bonne société provenaient au contraire du raffinement de leurs ancêtres. Ceux-là étaient orientés vers des cliniques privées et des sanatoriums où ils étaient pris en charge par des neurologues ou « médecins des nerfs » attentionnés, sans que pour autant on espérât les guérir de leur hérédité. 

Les autres, ceux qui ne pouvaient pas payer, représentaient un poids financier et même un danger pour la société. Certains psychiatres rêvaient tout haut d’euthanasier les « unfits » (inaptes à la vie) afin de désengorger les asiles. D’autres préconisaient à tout le moins leur stérilisation afin de stopper la transmission du plasma germinatif défectueux. La Californie, suivie par d’autres États, passa en 1909 une loi autorisant la stérilisation forcée des handicapés et malades mentaux. La pratique, bientôt émulée par la plupart des pays nordiques et l’Allemagne nazie, se poursuivit aux États-Unis jusque dans les années 1970, après quelque 60 000 stérilisations forcées à travers le pays.

De curieux prix Nobel de médecine

Toutefois, tout le monde dans la communauté psychiatrique ne partageait pas ce très littéral nihilisme thérapeutique. L’histoire que raconte Scull est aussi celle des enthousiasmes thérapeutiques qui se sont succédé tout au long du XXesiècle, basés le plus souvent sur des théories aventureuses et sans fondement. Voici par exemple le Dr Henry Cotton et sa théorie bactérienne de la psychose, dont Scull retrace ici l’histoire. La découverte en 1905 de la bactérie responsable de la syphilis (Treponema pallidum), suivie par celle en 1909 de l’efficacité du Salvarsan sur le stade primaire de la maladie, avait ouvert la possibilité que la psychose, tout comme la PG, soit une maladie infectieuse, comme telle susceptible de céder à une stratégie antibactérienne. Cotton en était persuadé et avait essayé par exemple d’injecter du Salvarsan directement dans le cerveau de ses patients pour voir si cela pouvait avoir un effet. En l’absence de succès, il s’était rabattu sur les divers foyers infectieux susceptibles, spéculait-il, d’affecter à distance le cerveau. Il suffisait donc de procéder à l’ablation des foyers potentiels – dents, amygdales, estomac, colon, thyroïde, ovaires, col de l’utérus, etc. – pour couper le mal à sa racine. Une absence de résultat signifiait, non pas que la théorie était à revoir, mais qu’un autre foyer était vraisemblablement responsable et devait être à son tour enlevé. Rien n’arrêtait Cotton dans son zèle mutilateur et notamment la mort du patient. Un rapport indépendant établit en 1933 que le taux de mortalité des colectomies pratiquées par lui s’élevait à 44 %. D’après la psychiatre et psychanalyste Phyllis Greenacre, le taux de résultats positifs obtenus par les milliers de détoxications effectuées par Cotton s’élevait quant à lui à zéro.

D’autres traitements étaient tout aussi cruels et inefficaces. Le psychiatre autrichien Julius Wagner-Jauregg, qui avait observé que la fièvre provoquait des rémissions temporaires chez certains psychotiques, décida de la provoquer artificiellement chez ses patients atteints de PG en leur injectant du sang prélevé sur un prisonnier de guerre souffrant de malaria. Le traitement, quand il n’était pas mortel, provoquait des fièvres abominables mais aussi, affirmait Wagner-Jauregg, des améliorations sensibles des symptômes de la PG. On sait maintenant que cet optimisme était très fortement exagéré, mais cela n’empêcha pas Wagner-Jauregg d’obtenir le prix Nobel de médecine pour le développement de la malariathérapie. 

Son collègue suisse Jakob Klaesi prétendait quant à lui guérir la schizophrénie en induisant un sommeil prolongé à l’aide de barbituriques. Mieux encore, le médecin polonais Manfred Sakel provoquait un coma profond chez ses patients en leur injectant de l’insuline (lui aussi obtint un prix Nobel). Ladislas Meduna, persuadé que les convulsions épileptiques amenaient une réduction des symptômes de la schizophrénie, les causait artificiellement en injectant des doses élevées de metrazol, un stimulant circulatoire et respiratoire. Ugo Cerletti obtint le même résultat en soumettant ses patients à des électrochocs : l’électroconvulsivothérapie (ECT) était née, bête noire de l’antipsychiatrie des années 1960. Puis vint la lobotomisation, introduite par le neurologue portugais Edgar Moniz. Partant de l’idée que des modifications dans la région du lobe frontal pouvaient entraîner des modifications de la personnalité, Moniz, bientôt suivi par Walter Freeman et d’innombrables psychiatres américains, perçait la boîte crânienne des patients au niveau des orbites de l’œil pour réarranger, disait-il, les connections neuronales bloquées (Freeman utilisait pour ce faire un instrument spécial inspiré d’un pic à glace trouvé dans sa cuisine).

Basées sur des considérations théoriques purement spéculatives et promues à chaque fois comme des cures miraculeuses, aucune de ces téméraires expérimentations n’obtint jamais des résultats probants (sauf peut-être l’ECT dans certains cas de dépression majeure), tout en infligeant des dégâts irréparables aux fonctions cérébrales de ceux qui en faisaient les frais. L’ECT, en particulier, provoquait des pertes de mémoire massives qui furent exploitées par le psychiatre Ewen Cameron pour des expériences de lavage de cerveau financées secrètement par la CIA.

Le charme peu discret de la psychanalyse

Acte II. – Ces pratiques, qui continuèrent jusque dans les années 1960, perdirent toutefois de leur prestige à mesure que la psychiatrie américaine tomba sous le charme de la psychanalyse à partir de la fin de la Seconde Guerre mondiale. Les histoires freudo-centrées de la psychiatrie datent d’ordinaire l’introduction des idées psychanalytiques en Amérique du Nord de la visite de Freud aux États-Unis en 1909, mais Scull montre très bien que la vaste majorité des psychiatres y est restée imperméable et même franchement hostile durant l’entre-deux guerres. Tout comme d’ailleurs en Europe, la psychanalyse a d’abord recruté ses patients et ses adeptes parmi une élite qui pouvait se permettre des analyses longues et coûteuses sur des divans privés (Freud s’inscrivait, ne l’oublions pas, dans la tradition de ces « médecins des nerfs » qui s’adressaient à une clientèle aisée, contrairement aux psychiatres asilaires). 

Ce n’est qu’après la Seconde Guerre mondiale que la psychiatrie américaine s’est ouverte aux idées psychanalytiques, en raison notamment du problème posé par les « névroses de guerre » qui avaient affecté un très grand nombre de soldats envoyés sur le front. Non seulement ces névroses traumatiques prouvaient que des troubles psychiatriques pouvaient être causés par des facteurs non biologiques ou héréditaires, mais des psychiatres militaires comme Herbert Spiegel avaient pu montrer que l’application de diagnostics psychiatriques aux patients était contre-productive, contrairement à des interventions brèves de type « psychodynamique ». Armé de cette version simplifiée de la psychanalyse, le psychiatre William Menninger en profita après la guerre pour vendre aux politiciens et au public américains l’idée que la psychothérapie (entendez : la psychanalyse) était une méthode révolutionnaire pour traiter les troubles mentaux, y compris les plus graves. 

Ces promesses étaient largement exagérées, une fois de plus, mais le G.I. Bill comportait une généreuse enveloppe financière pour la formation psychanalytique des psychiatres retournant du front, dispensée à la toute nouvelle Menninger School of Psychiatry. De leur côté, les quelque deux cents psychanalystes qui avaient fui l’Europe fasciste grâce au « Special Research Aid Fund for Deposed Scholars » de la Fondation Rockefeller ne demandaient pas mieux que de participer au grand effort de transformation de la psychiatrie américaine. En 1948, Menninger fut nommé président de l’Association Américaine de Psychiatrie. Dix ans plus tard, la plupart des directeurs de départements de psychiatrie étaient d’obédience psychanalytique et un tiers des psychiatres américains étaient d’orientation « psychodynamique ». En 1973, ils étaient la majorité. Grâce à la guerre, Freud avait finalement « conquis la psychiatrie », ainsi qu’il l’avait promis à Eugen Bleuler en 1906.

Scull, bizarrement, ne s’appesantit pas sur l’inefficacité manifeste de la psychanalyse en matière de traitement des formes sévères de maladie mentale, sans doute parce qu’elle va pour lui de soi et qu’il la juge bénigne comparée à la cruauté des méthodes somatiques. Dans sa description, la psychanalyse était essentiellement une idéologie qui permettait aux psychiatres de briller dans les congrès professionnels et les revues spécialisées tout en cachant leur impuissance à guérir les patients dont ils avaient la charge. Très souvent, d’ailleurs, ils continuaient à pratiquer des ECT et des lobotomies afin de stabiliser les patients et permettre l’établissement du « transfert ». 

En réalité, c’est surtout en dehors de l’asile que l’impact de la psychanalyse s’est fait sentir aux États-Unis. Conformément à l’approche dimensionnelle et psychosomatique de la psychanalyse, la psychiatrie s’est soudain étendue à toute une série de problèmes qui jusque-là ne relevaient pas de sa compétence : asthme, ulcères gastroduodénaux, anxiété, troubles de la personnalité et du comportement, traumatismes psychiques, problèmes sexuels, conflits familiaux, éducation des enfants, difficultés professionnelles, manque d'estime de soi, etc. Impuissants à guérir leurs patients psychotiques, les psychiatres américains ont émigré en masse en dehors des murs de l’asile, en « psychopathologisant » la vie quotidienne pour mieux la traiter en pratique privée à l’aide du transfert et de la talk therapy. La figure du « shrink »(réducteur de têtes) était née, bientôt suivie – et finalement éclipsée – par celle du psychologue clinicien utilisant des stratégies cognitivo-comportementales validées scientifiquement et remboursées par des tiers-payants. Un énorme marché avait été créé qui allait à terme être inondé par les pilules de l’industrie pharmaceutique. 

Pour le plaisir de l’industrie pharmaceutique

Acte III. – Ce troisième acte commence en fait à peu près au même moment que le précédent, au début des années 1950. En 1949, un médecin australien, John Cade, avait noté de façon plus ou moins fortuite que le sel de lithium calmait de façon spectaculaire les patients en phase maniaque, une découverte qui passa presque inaperçue à l’époque. Trois ans plus tard, une équipe de chercheurs français découvrit que la chlorpromazine, une molécule produite par la société pharmaceutique française Rhône-Poulenc, avait un effet calmant quasi immédiat sur les patients présentant une agitation violente. « Ils ont l’air d’être changés en pierre », remarquait le psychiatre Pierre Deniker : on avait enfin une formidable alternative aux sédatifs, électrochocs et autres lobotomies (on parla très vite de « camisole chimique »). Dans la foulée, d’autres molécules se révélèrent avoir des effets similaires sur la dépression majeure (imipramine) et l’anxiété (benzodiazépines).

Au début, ces médicaments psychotropes étaient considérés comme de simples « tranquillisants », nullement comme des agents thérapeutiques. En ce sens, c’est une illusion rétrospective que de croire que leur découverte sonna immédiatement le glas de la psychanalyse en psychiatrie. Au contraire, les psychiatres d’obédience psychanalytique y virent longtemps un commode adjuvant leur permettant de préparer le terrain pour une exploration profonde de l’inconscient des patients, au point qu’on peut se demander si la psychanalyse aurait jamais pu cannibaliser la psychiatrie américaine sans l’aide des psychotropes. Ce n’est que progressivement que ces derniers furent théorisés comme des médicaments « antipsychotiques » ou « antidépresseurs », c’est-à-dire comme des traitements spécifiques agissant sur la maladie elle-même plutôt que sur son expression. Raisonnement profondément erroné car ce n’est pas parce qu’une substance X produit un effet sur la pathologie Y que l’on peut en conclure qu’elle agit sur la cause de la maladie. Il ne viendrait à l’idée de personne, par exemple, de qualifier l’aspirine de médicament « antigrippe » sous prétexte qu’elle soulage les symptômes de la grippe.

Il n’empêche que ce sophisme élémentaire finit par convaincre tout le monde que les troubles mentaux, y compris les plus légers, étaient d’ordre biologique plutôt que le résultat de conflits psychiques ou de facteurs environnementaux, et qu’on pouvait raisonner à partir des effets produits sur eux par des agents chimiques pour établir leur cause. Si, par exemple, telle molécule augmentant le taux d’un neurotransmetteur appelé sérotonine dans le cerveau avait un effet sur la dépression, on pouvait en conclure que celle-ci était due à un manque de sérotonine.

De son côté, l’industrie pharmaceutique n’était que trop heureuse de produire à tour de bras des molécules produisant un effet, serait-il minime, sur tel ou tel symptôme listé par le DSM, le fameux Diagnostic and Statistical Manual of Mental Disorders édité par l’Association Américaine de Psychiatrie. Ce manuel, fondé depuis sa troisième édition (1980) sur l’idée que les troubles mentaux sont des maladies spécifiques dont on peut décrire et lister les symptômes de façon neutre et athéorique, fournissait une feuille de route idéale pour le marketing des laboratoires. En effet, il permettait de segmenter le marché des maladies mentales et de présenter chaque nouvelle molécule comme le médicament validé scientifiquement pour tel ou tel diagnostic, qu’il s’agisse du trouble bipolaire I, II, III ou IV, des attaques de panique, du trouble déficit de l’attention avec hyperactivité ou encore de la timidité, rebaptisée pour l’occasion « trouble d’anxiété sociale ». À la psychiatrisation de la vie quotidienne à laquelle avait présidé la psychanalyse a succédé une psycho-biologisation sans rivages : une pilule pour chaque maladie, remboursée par les tiers payants ! Quant aux psychanalystes, incapables d’abandonner leur modèle dimensionnel et de soumettre leurs résultats aux essais randomisés en double insu utilisés pour tester les médicaments, ils ont été tout simplement balayés de la scène psychiatrique nord-américaine.

Mais la révolution psychopharmacologique a-t-elle réellement amélioré la condition des malades ? Personne ne nie, et Scull non plus, que la découverte des psychotropes a apporté un soulagement considérable à de nombreux patients, sans parler de leurs familles et de leurs psychiatres. Cependant ces médicaments n’ont jamais permis de guérir la maladie mentale et ils s’accompagnent d’effets secondaires extrêmement débilitants qui contrebalancent nettement leurs effets positifs. Les premiers antipsychotiques, comme on s’en est vite aperçu, provoquaient de la dyskinésie tardive, un trouble invalidant et irréversible qui se traduit par des mouvements involontaires de la bouche, des lèvres et de la langue. Les antipsychotiques « atypiques » de seconde génération, réputés un temps moins toxiques que leurs prédécesseurs de première génération, sont aujourd’hui connus pour provoquer une prise de poids importante, du diabète, des pancréatites et des accidents cardio-vasculaires. Les benzodiazépines créent une forte dépendance, tout comme les antidépresseurs de troisième génération tels que le Prozac et le Zoloft, qui provoquent de plus de l’anhédonie, une diminution ou perte complète de libido et dans certains cas de l’akathisie, une agitation interne extrême accompagnée de pensées suicidaires parfois suivies d’un passage à l’acte. Quant aux anticonvulsivants utilisés pour traiter les troubles de l’humeur, ils sont susceptibles de provoquer des défaillances rénales, de l’obésité, du diabète, le syndrome des ovaires polykystiques et ils figurent parmi les médicaments les plus tératogènes.

Une population de clochards et de prisonniers

En réalité, la révolution psychopharmacologique a représenté aux États-Unis un véritable désastre pour les patients car son effet le plus immédiat a été la fermeture progressive de la plupart des hôpitaux psychiatriques au cours des années 1960 et 1970 au profit de cliniques ambulatoires et d’alternatives communautaires. Pourquoi enfermer les patients, disait-on, puisqu’on pouvait maintenant les stabiliser à l’aide de médicaments et les rendre à une vie plus ou moins normale ? L’argument était parfaitement raisonnable, mais aux États-Unis, comme le montre Scull, il servit de justification aux divers États pour se décharger des tâches et des coûts associés aux hôpitaux psychiatriques sur un système de protection sociale (welfare system) fédéral qui n’était nullement préparé pour cette tâche, notamment après les brutales coupes budgétaires de l’administration Reagan. Concrètement, cela veut dire que les patients ont été tout simplement livrés à eux-mêmes, sans aucun filet de sécurité, dérivant de maisons de transition en hôtels « sociaux » pour aboutir très vite dans la rue. En l’absence de suivi thérapeutique, les malades se sont empressés de jeter leurs médicaments à la poubelle et sont repartis de plus belle dans leur délire ou leur dépression. Le plus souvent, ils ont fini en prison pour avoir volé de quoi manger dans un supermarché ou avoir menacé quelqu’un dans la rue. La révolution psychopharmacologique, qui était censée libérer les malades et les rendre à une existence à peu près normale, a abouti, par un paradoxe pervers, à créer une population de clochards, de mendiants et de prisonniers, tout comme à l’époque d’avant la création de la psychiatrie.

Épilogue 

On sent que Scull a eu du mal à écrire la conclusion de son implacable description de l’entreprise psychiatrique. « La psychiatrie a-t-elle un avenir ? » se demande-t-il, mais la réponse ne vient pas. De fait, que pouvons-nous encore espérer après tant d'échecs dans la compréhension et le traitement des maladies mentales ? Peut-être ce projet était-il erroné dès le départ. Peut-être la folie n’est-elle pas une maladie à guérir, mais plutôt un état (condition) dont il faut prendre soin. Scull joue de façon inconfortable avec l’idée de dépasser le clivage esprit/cerveau qui a si longtemps défini la psychiatrie, et il aboutit finalement au social : « Je suis convaincu, écrit-il, que la folie ne peut pas être séparée avec succès de la matrice culturelle, sociale et psychologique dans laquelle les êtres humains existent. »

Une déclaration finalement assez prévisible de la part d’un sociologue, mais qui permet au moins à Scull de conclure son exposé sur une note politique. Si la situation des malades mentaux est si désespérée aux États-Unis aujourd’hui, dit-il, la faute n’en incombe pas en fin de compte à la psychiatrie, malgré toutes ses défaillances, mais à l’Amérique et à son arrangement social : « L’idée que nous avons une responsabilité morale collective de subvenir aux besoins des malheureux – mieux, que l’une des marques d’une société civilisée est sa détermination à garantir un niveau de vie minimum à tous ses citoyens –, cette idée n’a jamais bénéficié d’un large soutien aux États-Unis. […] Si notre objectif est de faire renaître une psychiatrie qui prenne en compte les dimensions psychologiques, physiques et sociales des troubles mentaux, il faut reconnaître à quel point une telle transformation est susceptible de s’avérer difficile. »

Voilà qui est déprimant.

– Cet article est paru dans la Los Angeles Review of Books le 6 juin 2022, sous le titre « Psychiatrtic Hubris ». Il a été traduit par l’auteur pour la Booksletter. Pour aller plus loin, lire l’article d’Andrew Scull sur Michel Foucault publié par Books en septembre 2019.                                                       

[post_title] => Déprimante psychiatrie [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => deprimante-psychiatrie [to_ping] => [pinged] => [post_modified] => 2024-03-22 14:25:21 [post_modified_gmt] => 2024-03-22 14:25:21 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129283 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129280
    [post_author] => 48457
    [post_date] => 2024-03-21 19:02:22
    [post_date_gmt] => 2024-03-21 19:02:22
    [post_content] => 

Et si Jésus, enfant, avait été un sale gosse, insolent et violent, qui faisait disparaître ses contradicteurs à coups de malédictions meurtrières ? Et s’il avait fait des miracles plutôt insolites, comme de ressusciter des coqs déjà cuisinés ? Et si l’affaire de sa conception dans le sein d’une vierge était plus complexe qu’il n’y paraît ? Et si… Mais alors qu’il existe au moins une quarantaine de chroniques de la vie de Jésus, sans compter celles qui restent à découvrir ou inventer, le christianisme romain n’a homologué que les récits à peu près homogènes des quatre Évangiles canoniques, occultant tout le reste. C’est ce processus de construction du monopole que retrace la journaliste britannique Catherine Nixey, elle-même fille d’un moine et d’une nonne (défroqués). 

De fait, « pendant les premiers siècles de l’ère chrétienne, le débat a fait rage autour de la personne de Jésus, de ses actions, de son importance réelle », souligne Frank Lawton dans The Spectator. La bataille fut rude pour éliminer la longue série des proto-Jésus, depuis Esculape ou l’empereur Vespasien jusqu’à Apollonios de Tyane. Ce candidat-là cochait beaucoup de cases : ascendance divine (il était fils du dieu Protée), prodiges à la naissance, miracles à l’envi, condamnation par l’autorité romaine, réapparition quelques jours après disparition, doctrine christo-compatible, etc. Par-dessus le marché, certains concepts phares de la chrétienté, l’enfer ou la résurrection des morts notamment, étaient déjà présents chez Plutarque (l’histoire de Thespésius, ressuscité après être volontairement tombé du haut de sa maison). Et Pythagore et Platon prônaient si bien le culte de la vertu que Clément d’Alexandrie les accusera de plagiat (Platon ayant, selon lui, découvert le message de Moïse lors d’un voyage en Égypte !). 

Pour ne rien arranger, l’exclusivité revendiquée par le christianisme allait à contre-courant des fluides habitudes religieuses d’une époque où les multiples cultes puisaient les uns chez les autres, s’échangeant sans vergogne divinités, rites ou croyances. Mais la chance a voulu que des empereurs romains, Constantin en tête, aient compris les avantages d’une croyance centralisatrice et qu’ils aient assisté les chrétiens dans leurs efforts pour éliminer manu militari les tentations centripètes des « hérétiques » – c’est-à-dire, en grec et en gros, « ceux qui voulaient choisir ». 

[post_title] => Jésus, oui, mais lequel ? [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => jesus-oui-mais-lequel [to_ping] => [pinged] => [post_modified] => 2024-03-21 19:02:22 [post_modified_gmt] => 2024-03-21 19:02:22 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129280 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129277
    [post_author] => 48457
    [post_date] => 2024-03-21 19:00:58
    [post_date_gmt] => 2024-03-21 19:00:58
    [post_content] => 

Ce roman historique démarre en 1888, quand le consul d’Espagne à Bordeaux, Joaquín Pereyra, s’apprête à expatrier le corps du célèbre peintre espagnol Francisco de Goya, mort en exil soixante ans plus tôt. Mais une découverte inattendue met fin à ses plans : en ouvrant la crypte, il s’aperçoit que le squelette du peintre n’a plus de tête. Qui a profané la tombe et pourquoi ?

Le roman est basé sur un fait réel : le crâne de Goya a effectivement disparu. Son auteur développe deux intrigues parallèles. La première est située à Bordeaux en 1828. Le vieux Francisco de Goya, exilé à cause de la répression des libéraux par Ferdinand VII, sait que la fin de sa vie approche. Un fonctionnaire corrompu de la couronne espagnole engage le meilleur espion d’Europe pour l’assassiner à des fins de vengeance personnelle. La seconde intrigue se déroule en 1888, quand le consul Pereyra engage le meilleur détective de Paris pour découvrir où se trouve le crâne de Goya afin de pouvoir mener à bien sa mission de rapatriement des ossements du peintre. 

La partie du roman située en 1828 permet au lecteur d’entrer dans l’intimité de Goya. On y croise d’autres exilés espagnols opposés à Ferdinand VII, ainsi que son dernier amour, Leocadia Zorrilla, et sa fille Rosario. Figurent également deux jeunes gens qui ont aidé le peintre à accomplir ses dernières volontés : Juliet, une gouvernante aussi passionnée qu’indépendante, et Diego « El Niño », un courageux garde du corps qui a protégé la vie d’un Goya devenu sourd et presque aveugle, « sans cependant jamais cesser, écrit l’éditeur du livre, d’être ce génie brillant et charismatique qui attirait toutes sortes d’intérêts contradictoires, de tueurs à gages aux époux trompés… »

Dans un entretien avec le portail Valencia Plaza, l’auteur évoque la théorie la plus vraisemblable expliquant la disparition du crâne de Goya. La fin du XVIIIe et le début du XIXe siècle sont marqués par la vogue de la phrénologie (la connaissance des crânes), une pseudo-science d’après laquelle les principaux caractères sont localisés avec précision dans le cerveau et soutenant que la forme du crâne reflète ces localisations. On croyait ainsi possible de localiser le génie. Il s’en est suivi un trafic de crânes. Des tombes ont été profanées, des personnes vivantes se sont même vu proposer l’achat de leur crâne (« quand tu mourras, ta tête sera à moi et je te l’achète maintenant »). Comme celui de Goya, le squelette du compositeur Haydn a été retrouvé sans son crâne. Une enquête de police menée en 1820 a permis d’identifier les voleurs : deux adeptes de la phrénologie. 

Pour aller plus loin : https://www.books.fr/un-regard-noir-au-service-des-rois/

[post_title] => Où est passé le crâne de Goya ? [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => ou-est-passe-le-crane-de-goya [to_ping] => [pinged] => [post_modified] => 2024-03-21 19:00:59 [post_modified_gmt] => 2024-03-21 19:00:59 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129277 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129272
    [post_author] => 48457
    [post_date] => 2024-03-21 18:58:13
    [post_date_gmt] => 2024-03-21 18:58:13
    [post_content] => 

Si certains en doutaient encore, la guerre d’Ukraine leur a dessillé les yeux : la parenthèse ouverte au début des années 1990 par la désintégration de l’URSS est refermée. Fini le fantasme d’une planète se convertissant tout entière à la démocratie libérale sous le patronage bienveillant de l’Amérique. À quoi le nouvel ordre mondial va-t-il ressembler ? Le dernier ouvrage d’Herfried Münkler paru à l’automne dernier aide à s’en faire une idée. 

Professeur de science politique à la retraite, Münkler jouit outre-Rhin d’une solide réputation de géopoliticien et d’historien des idées (on lui doit aussi une somme remarquable sur la guerre de Trente Ans, pour laquelle Books l’avait interviewé en 2018). Dans « Un monde en ébullition » (c’est le titre), il acte la fin de la toute-puissance américaine et annonce l’émergence d’un monde multipolaire. Jusque-là rien de bien original. Ce qui l’est davantage, c’est quand Münkler avance que ce monde multipolaire devrait être une « pentarchie ». Autrement dit, il y aura à l’avenir cinq puissances dominantes : outre les deux qui s’imposent d’emblée à l’esprit (les États-Unis et la Chine), la Russie, l’Inde et l’Union européenne. Concernant cette dernière, Münkler reprend une thèse qu’il développait déjà en 2015 dans un livre dont nous nous étions fait l’écho : pour lui, l’Europe doit devenir un acteur majeur et cela passe par une Allemagne qui ose assumer son rôle d’hegemon du Vieux Continent.

Ce monde à cinq ne court-il pas, cependant, le risque de l’instabilité ? Pas nécessairement. Münkler constate que, dans l’histoire européenne, la tendance à la pentarchie a été courante et loin d’être une mauvaise chose. De la même façon, à l’échelle du globe, cinq pourrait se révéler le chiffre d’or : comme le rapporte Oliver Weber dans le Frankfurter Allgemeine Zeitung, « un plus petit nombre de grandes puissances serait trop rigide et trop coûteux par rapport aux coûts de production de l’ordre mondial, tandis qu’un nombre plus élevé induirait instabilité et parasitisme. En outre, le nombre de puissances doit être impair : c’est le seul moyen de faire pencher la balance et de garantir l’équilibre du système. »

[post_title] => Bienvenue en pentarchie [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => bienvenue-en-pentarchie [to_ping] => [pinged] => [post_modified] => 2024-03-21 18:59:03 [post_modified_gmt] => 2024-03-21 18:59:03 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129272 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )
WP_Post Object
(
    [ID] => 129269
    [post_author] => 48457
    [post_date] => 2024-03-21 18:56:35
    [post_date_gmt] => 2024-03-21 18:56:35
    [post_content] => 

En 1944, dans son petit livre Qu’est-ce que la vie ?, le physicien autrichien Erwin Schrödinger, s’autorisant une excursion en dehors de sa discipline, énonçait une idée appelée à connaître une grande fortune : si les organismes vivants sont capables de se reproduire (une des propriétés fondamentales qui les caractérisent) tout en se développant en tissus très différents, c’est que les gènes, support matériel de l’hérédité, constituent une sorte de code. Formulée en termes encore vagues, cette intuition fut une source d’inspiration pour un groupe de biologistes et de physiciens convertis à la biologie. Parmi les premiers, James Watson ; au nombre des  seconds, Francis Crick et Maurice Wilkins. Tous les trois furent récompensés en 1962 par le prix Nobel de physiologie ou médecine pour la découverte de la structure « en double hélice » de l’ADN. Dans son livre de souvenirs, Watson, qui avouera plus tard avoir inventé l’anecdote, met en scène Crick, au moment où ils sentaient qu’ils avaient atteint leur but, proclamant devant la clientèle d’un pub où les deux scientifiques avaient leurs habitudes qu’ils venaient de « découvrir le secret de la vie ». Avec des mots plus grandiloquents encore, le président américain Bill Clinton, le 26 juin 2000, lors de l’annonce de l’achèvement du vaste projet international de cartographie du génome humain lancé en 1990, n’hésita pas à saluer l’occasion ainsi offerte « d’apprendre le langage dans lequel Dieu a créé la vie ». 

Plutôt qu’une telle image biblique, c’était en réalité une comparaison technique qui avait guidé le projet. Le génome était en effet vu comme une sorte de programme d’ordinateur comprenant toutes les informations et les instructions nécessaires pour le développement et le fonctionnement des organismes, selon un mécanisme rigide unidirectionnel : transcription de l’ADN en ARN dit « messager », puis translation de celui-ci en protéines. Vingt-cinq ans après, ainsi que le montre brillamment Philip Ball dans un livre au titre délibérément moins philosophique et ambitieux que celui de Schrödinger, on s’aperçoit que les choses sont plus compliquées que cela. 

Une des premières surprises auxquelles a donné lieu l’analyse du génome humain est le petit nombre de gènes qu’il contient : quelque 20 000, soit à peu près autant que celui du ver ou de la souris. La plus grande partie de l’ADN composant le génome ne code de surcroît pas pour des protéines. Elle est largement constituée de séquences régulantl’expression des gènes, directement ou indirectement par l’intermédiaire d’ARNs d’un autre type que les ARNs messagers, à l’aide d’une série de mécanismes dits « épigénétiques ». Contrairement à ce que l’on pensait, les protéines codées par les gènes existent, d’autre part, sous la forme de très nombreuses variantes. Et parce qu’elles ont souvent des contours désordonnés, ces protéines interagissent de manière beaucoup plus aléatoire et diverse que par le simple mécanisme « clé-serrure » qu’on imaginait. Dans l’ensemble, on se trouve face à un système d’une exceptionnelle complexité, organisé en une série de niveaux superposés allant du gène à l’environnement au sein duquel vit l’organisme, qui interagissent et rétroagissent de multiples manières. De la biologie du développement (embryologie) à la « biologie des systèmes » qui étudie les organismes de manière « holistique » (globale), en passant par l’étude du repliement des protéines et de leur conformation spatiale, Philip Ball, avec un sens exemplaire de l’explication, décrit le maquis de ces milliers d’interactions qui constituent le vivant. 

L’extrême complexité des phénomènes vivants a des conséquences importantes dans un domaine où le séquençage complet du génome humain avait allumé de vifs espoirs : la médecine. Contrairement aux attentes, les progrès réalisés y sont restés jusqu’à présent limités, notamment dans le cas de ces maladies qui « surgissent de notre biologie » comme le cancer. L’identification de gènes impliqués seuls (le cas le plus rare) ou de concert avec de nombreux autres (situation la plus fréquente) dans certaines maladies, parce qu’une version défectueuse de ces gènes est à l’origine de ces maladies ou y prédispose, ne s’est que timidement traduite sur le plan clinique. Les thérapies géniques, impliquant le remplacement du gène fautif, demeurent en nombre réduit, et les progrès de la médecine personnalisée (dite aujourd’hui « de précision »), qui adapte le traitement au profil génétique du patient, bien que réels, sont lents. « La médecine génétique, observe Ball, n’est efficace qu’en proportion du degré où les gènes contrôlent la santé, c’est-à-dire quelque part entre “un peu” et “dans une certaine mesure”. » Bien d’autres couches du vivant sont concernées, à commencer par l’épigénétique et le système immunitaire. Au bout du compte, « aucune maladie n’est authentiquement génétique […], la maladie est un phénomène physiologique ». 

Vers la fin de l’ouvrage, Philip Ball se risque à avancer un certain nombre de concepts abstraits. Le fonctionnement des systèmes vivants, fait-il observer, ne peut être compris sans que l’on dote ceux-ci d’une réelle capacité d’action (« agency »), de buts (« goals ») et de finalités (« purposes ») qu’ils poursuivent en identifiant la signification (« meaning ») que possèdent certains agencements matériels pour la réalisation de ces objectifs. Ceci suppose de leur part une certaine connaissance (« cognition »)fût-ce sous une forme très rudimentaire. De tels concepts ont mauvaise presse dans la communauté scientifique, parce qu’ils peuvent donner l’impression de réintroduire dans la biologie le finalisme qui en a été chassé par la pensée scientifique moderne, notamment la théorie darwinienne de l’évolution. Mais que l’évolution, basée sur un double mécanisme de variations génétiques aléatoires et de sélection des phénotypes les plus aptes à laisser des descendants, soit dépourvue de finalité n’empêche pas les organismes de poursuivre des buts concrets et précis dans leurs efforts pour survivre et se reproduire.

La synthèse à laquelle se livre Philip Ball, remarquable par sa clarté et sa richesse d’information, est assurément inédite. Mais la mise en cause du déterminisme génétique strict et exclusif n’est pas nouvelle. Philip Ball cite à cet égard à plusieurs reprises le nom de Michel Morange, ainsi que ceux d’Evelyn Fox Keller, Lynn Margulis et Barbara McClintock. Parmi ceux qui attirèrent l’attention sur l’importance du niveau d’intégration de la cellule, à côté de Paul Nurse (cité), il aurait pu mentionner le mathématicien Freeman Dyson, qui, dans un petit livre sur l’origine de la vie, reprochait à Schrödinger d’avoir mis à l’excès l’accent sur la mécanique des gènes au détriment du métabolisme cellulaire. Des mises en garde contre une interprétation trop dogmatique du rôle des gènes et trop littérale du modèle du « code informatique » figurent aussi dans les ouvrages récents sur la génétique de Matthew Cobb, Siddhartha Mukherjee et Denis Noble. Elles ne font que refléter la prise de conscience de plus en plus forte, parmi les chercheurs, de la complication des phénomènes qu’ils étudient.   

Dans leurs tentatives pour comprendre et théoriser le fonctionnement du vivant, philosophes, biologistes et médecins ont constamment fait appel à des métaphores tirées de l’activité humaine. En fonction, souvent, de la technique dominante du moment, l’hydraulique, la mécanique, l’électricité, l’électronique, l’informatique leur ont successivement fourni des modèles. Certains se sont révélés pertinents et utiles : le cœur est bien une pompe, tout comme certains organites des cellules ; le système sanguin est effectivement un circuit, et certains neurones agissent comme des relais. Mais d’autres souffrent de trop simplifier des réalités complexes et ont pour grave défaut de fourvoyer l’esprit sur des voies sans issue : le cerveau n’est pas un ordinateur, le génome n’est pas un logiciel mécaniquement exécuté – plutôt qu’un programme, c’est, pour l’organisme, une ressource. Dans leurs mécanismes, leur organisation et leur comportement, les systèmes vivants – le livre de Philip Ball le met merveilleusement en lumière – démontrent une créativité, une flexibilité, une originalité, une subtilité, une capacité à exploiter le hasard dont sont dépourvues les créations techniques humaines, même les plus sophistiquées. La machinerie du vivant considérée dans son ensemble (parce qu’il s’agit bien d’une machinerie) n’a aucun équivalent dans l’univers de nos machines. Au bout du compte, le meilleur modèle du vivant, c’est le vivant lui-même.

[post_title] => La vie, c’est bien plus que les gènes [post_excerpt] => [post_status] => publish [comment_status] => open [ping_status] => open [post_password] => [post_name] => la-vie-cest-bien-plus-que-les-genes [to_ping] => [pinged] => [post_modified] => 2024-03-22 09:42:48 [post_modified_gmt] => 2024-03-22 09:42:48 [post_content_filtered] => [post_parent] => 0 [guid] => https://www.books.fr/?p=129269 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw )