Où en sommes-nous ? (10) : Science, technologie et idéologie (Eric Hobsbawm)
À partir d’un triple point de vue : philosophique, politique et historique.
Troisième texte
[1] Eric Hobsbawm, L’âge des extrêmes, André Versaille éditeur, 2008, extraits du chapitre Sorciers et apprentis : les sciences naturelles p. 673-715
Aucune période de l'histoire n'a été plus envahie par les sciences naturelles ni plus dépendante d'elles que le XXe siècle. Mais aucune, depuis la rétractation de Galilée, n'a été moins à l'aise avec elles. Tel est le paradoxe auquel doit s'attaquer l'historien du siècle.
Mais avant de m'y essayer, il importe de bien prendre la mesure du phénomène.
En 1910, le nombre total de physiciens et de chimistes allemand et britanniques ne dépassait sans doute pas 8000. À la fin des années 1980, on estimait le nombre des scientifiques et des ingénieurs effectivement engagés dans la recherche et le développement expérimental à près de cinq millions, dont près d'un million aux États-Unis , première puissance scientifique du monde, et un peu plus dans les États européens. Même dans les pays développés, la communauté scientifique est certes demeurée une toute petite fraction de la population, mais ses effectifs ont poursuivi une croissance tout à fait spectaculaire doublant plus ou moins en vingt ans après 1970, même dans les économies les plus avancées. (...) Dans les années 1980, le pays occidental avancé type produisait entre 130 et 140 doctorats es sciences par an pour chaque million d'habitants. (...) (...)
Que le XXe siècle ait reposé sur la science n'a guère besoin de preuves. Jusqu'à la fin du XIXe siècle, la « science avancée » – c'est-à-dire le genre de connaissance qui ne pouvait ni s'acquérir par une expérience quotidienne, ni se pratiquer, ni même se comprendre sans de longues années d'études couronnées par une formation supérieure ésotérique – n'avait qu'une gamme d'applications pratiques relativement restreinte. La physique et les mathématiques du XVIIe siècle continuaient à gouverner les ingénieurs. (...)
Cela avait commencé à changer quelque part au cours du dernier tiers du siècle. À l'Ère des empires, commencent à apparaître non seulement les grandes lignes de la technologie de pointe moderne – il suffit de penser aux automobiles, à l'aviation, à la radio et au cinéma –, mais aussi celles de la théorie scientifique moderne : la relativité, la physique quantique et la génétique. De surcroît, on percevait désormais le potentiel technique immédiat des découvertes les plus ésotériques et les plus révolutionnaires – de la télégraphie sans fil à l'utilisation médicale des rayons X, toutes deux fondées sur des découvertes des années 1890.
Néanmoins, alors que la science de pointe du court XXe siècle était visible dès avant 1914, et que la haute technologie du XXe siècle était déjà implicite, la science de pointe n'était pas encore devenue cette chose sans laquelle la vie quotidienne était inconcevable partout dans le monde. Tel est aujourd'hui le cas alors que le millénaire touche à sa fin.
La technologie fondée sur la théorie et la recherche scientifiques de pointe (...) aura dominé l'essor économique de la seconde moitié du XXe siècle, et plus seulement dans le monde développé.
Sans la génétique moderne, l'Inde et l'Indonésie n'auraient pu produire suffisamment de vivres pour leurs populations en pleine explosion démographique. À la fin du siècle, la biotechnologie est devenue un élément significatif de l'agriculture et de la médecine. Et ces technologies reposaient sur des découvertes et des théories si éloignées de l'univers du citoyen ordinaire, même dans les pays développés les plus sophistiqués, qu'à peine quelques douzaines de personnes, tout au plus quelques centaines, pouvaient initialement en deviner les applications pratiques.
Quand le physicien allemand Otto Hahn découvrit la fission nucléaire en 1937, il se trouva même quelques-uns des scientifiques les plus actifs en ce domaine, comme le grand Niels Bohr (1885-1962), pour douter qu'elle puisse avoir des applications pratiques dans la paix ou dans la guerre, tout au moins dans un avenir prévisible. Et si les physiciens qui en saisirent les potentialités n'en avaient rien dit à leurs généraux et à leurs hommes politiques, ceux-ci seraient eux-mêmes restés dans l'ignorance – sauf à avoir fait des études supérieures de physique, ce qui était peu probable.
De même, le célèbre article, dans lequel, en 1935, Alan Turing exposa les fondements de la théorie informatique moderne, était à l'origine une spéculation destinée aux spécialistes de logique mathématique. C'est la guerre qui lui offrit l'occasion, ainsi qu'à d'autres, de donner à cette théorie une ébauche de traduction concrète afin de déchiffrer les codes de l'ennemi ; mais lorsque ce texte était paru, personne ne l'avait lu, encore moins remarqué, hormis une poignée de mathématiciens. Même dans son propre collège, ce génie pâle et empoté, alors simple chargé de cours qui se distinguait par son goût du jogging et qui devint à titre posthume quelque chose comme une icône des homosexuels, n'avait rien de très remarquable. Du moins n'en ai-je pas gardé le souvenir. Alors même que des scientifiques tâchaient manifestement de résoudre des problèmes d'une importance capitale avérée, seul un petit comité de cerveaux d'un milieu intellectuel isolé comprenaient ce qu'ils faisaient.
L'auteur du présent ouvrage était ainsi Fellow d'un collège de Cambridge à l'époque où Crick et Watson préparaient leur triomphale découverte de la structure de l'ADN (la « Double Hélice »), aussitôt saluée comme l'une des percées cruciales du siècle. Pourtant, alors même que je me souviens avoir rencontré Crick en société, la plupart d'entre nous ignorions purement et simplement que ces extraordinaires développements couvaient à quelques dizaines de mètres des portes de mon collège, dans des laboratoires devant lesquels nous passions régulièrement ou dans les pubs que nous fréquentions. Ceux qui poursuivaient ces recherches ne voyaient pas l'intérêt de nous en parler, puisque nous n'aurions pu les aider dans leur travail ni probablement comprendre au juste quelles étaient leurs difficultés.
Néanmoins, si ésotériques et incompréhensibles qu'aient été les innovations de la science, elles devaient trouver une traduction technologique concrète presque immédiatement.
Ainsi l'apparition des transistors, en 1948, fut-elle un sous-produit des recherches sur la physique des états solides, c'est-à-dire sur les propriétés électromagnétiques de cristaux légèrement imparfaits (leurs inventeurs reçurent le prix Nobel huit ans plus tard) ; il en va de même des lasers (1960), issus non pas d'études optiques, mais de recherches pour faire vibrer les molécules en résonance avec un champ électrique. Leurs inventeurs furent aussi rapidement reconnus par le Nobel, tout comme – un peu tard – le physicien cambridgien et soviétique Peter Kapitsa (1978) pour son travail sur la physique des basses températures à l'origine des supraconducteurs.
L'expérience de la recherche menée au cours des années 1939-1946 a démontré – du moins aux Anglo-américains – qu'une importante concentration de ressources permettait de résoudre les problèmes technologiques les plus délicats, dans un temps record, et d'encourager les innovations technologiques de pointe sans égard pour les coûts, que ce soit à des fins militaires ou de prestige national (par exemple, l'exploration de l'espace).
Cela ne fit qu'accélérer, à son tour, la transformation de la science de laboratoire en technologie, parfois avec un large champ d'application possible pour les besoins de la vie quotidienne. Les lasers sont un exemple de cette rapidité. Vus pour la première fois en laboratoire en 1960, ils avaient atteint le consommateur au début des années 1980 sous la forme du compact disc. Dans le domaine de la biotechnologie, le mouvement fut encore plus rapide. C'est en 1973 que les techniques de recombinaison de l'ADN, de mélange de gènes d'une espèce avec ceux d'une autre, apparurent pour la première fois relativement praticables. Moins de vingt ans plus tard, la biotechnologie était l'un des grands postes d'investissement médical et agricole.
De surcroît, essentiellement du fait de l'étonnante explosion de l'informatique théorique et pratique, les nouvelles avancées de la science devaient être traduites, dans des délais toujours plus courts, en une technologie que les utilisateurs finaux n'avaient aucun besoin de comprendre.
Le résultat consistait en une série de boutons ou un clavier permettant au premier imbécile venu, pour peu qu'il appuyât au bon endroit, d'activer une procédure automatique, autocorrectrice et, autant que possible, capable de prendre des décisions, sans exiger d'inputs supplémentaires de l'être humain ordinaire, avec ses compétences et son intelligence limitées et peu fiables.
Dans l'idéal, la programmation permettait de se passer de toute intervention humaine, sauf défaillance.
Les caisses des supermarchés des années 1990 illustrent cette élimination. Il suffît désormais à l'opérateur humain de reconnaître les billets et les pièces de monnaie locale et d'entrer la quantité offerte par le client. Un scanner automatique traduit le code-barres en prix, calcule le montant total des achats, établit la différence entre la somme donnée par le client et la somme due et indique à la caissière la monnaie à rendre. La procédure permettant d'y parvenir est d'une extraordinaire complexité et repose sur l'association d'un matériel terriblement sophistiqué et d'une programmation très élaborée. Reste que, sauf pépin, ces miracles de la technologie scientifique de la fin du XXe siècle n'exigent pas plus de la caissière que la reconnaissance des nombres cardinaux, un minimum d'attention et une plus grande capacité de tolérance à l'ennui. Il n'est même pas nécessaire de savoir lire et écrire. Pour la plupart des opérateurs concernés, les forces qui leur indiquent de dire au client qu'il doit 2,15 £ et de lui rendre 7,85 £ sur un billet de 10 £ sont aussi dénuées d'intérêt qu'incompréhensibles. Ils n'ont nul besoin d'y comprendre quoi que ce soit pour les faire marcher. L'apprenti sorcier n'a plus à s'inquiéter de son manque de connaissance.
La situation de la caissière de supermarché représente la norme humaine de la fin du XXe siècle, l'accomplissement de miracles de la technologie scientifique d'avant-garde, qu'il n'est pas nécessaires de comprendre ou de modifier, quand bien même saurions-nous, ou croirions-nous savoir ce qui se passe.
Un autre le fera ou l'a fait pour nous. Car même si nous nous croyons expert dans tel ou tel domaine particulier – c'est-à-dire être du genre à savoir arranger les choses si ça se passe mal, à concevoir ou à construire le dispositif en question –, nous sommes des profanes, des ignorants face à la plupart des autres produits quotidiens de la science et des techniques. Et même si tel n'est pas le cas, notre compréhension de ce qui fait marcher l'objet que nous utilisons, et des principes qui en sont à la base, présente tout aussi peu d'intérêt que le processus de fabrication des cartes à jouer pour le joueur de poker (honnête). Les télécopies sont destinées à des gens qui n'ont aucune idée des raisons pour lesquelles un appareil de Londres ressort un texte entré dans un appareil semblable à Los Angeles. Ils ne fonctionnent pas mieux quand ce sont des professeurs d'électronique qui y recourent.
À travers le tissu de la vie humaine saturé de technologie, la science fait donc une démonstration quotidienne de ses miracles dans le monde de la fin du XXe siècle. Elle est aussi indispensable et omniprésente – car même les coins de la planète les plus reculés connaissent le transistor et la calculette électronique – qu'Allah pour le pieux musulman. Nous pouvons nous interroger sur le moment où cette capacité de certaines activités humaines à produire des résultats surhumains est entrée dans la conscience collective, tout au moins dans celle des zones urbaines des sociétés industrielles «développées». C'est certainement après l'explosion de la première bombe nucléaire en 1945. On ne saurait cependant douter que le XXe siècle est celui où la science a transformé à la fois le monde et la connaissance que nous en avons.
(...)
Pourtant, le XXe siècle n'aura jamais été à l'aise avec la science qui a été sa réalisation la plus extraordinaire et dont il est devenu si dépendant. Le progrès des sciences naturelles s'est fait sur fond général de méfiance et de crainte, provoquant à l'occasion des flambées de haine et de rejet de la raison et de toutes ses productions.
Et dans l'espace indéfini qui sépare la science de l'antiscience, parmi les chercheurs de la vérité ultime par l'absurde et les prophètes d’un monde composé exclusivement de fictions, nous trouvons de plus en plus ce produit caractéristique et largement anglo-américain du siècle, en particulier de sa seconde moitié : la « science-fiction ». Anticipé par Jules Verne (1828-1905), le genre fut lancé par H. G. Wells (1866-1946) à la fin du XIXe siècle. Tandis que ses formes plus juvéniles, comme les westerns spatiaux familiers de la télévision ou du grand écran, avec les capsules cosmiques à la place des chevaux et les rayons de la mort en guise de revolvers à six coups, ont perpétué la vieille tradition des aventures fabuleuses avec des gadgets high-tech, les contributions plus sérieuses de la seconde moitié du siècle ont cultivé une vision plus sombre ou, en tout cas, plus ambiguë de la condition humaine et de ses perspectives.
Quatre sentiments ont nourri cette méfiance et cette peur. La science est incompréhensible. Ses conséquences tant morales que pratiques sont imprévisibles et probablement catastrophiques. Elle souligne l'impuissance de l'individu et sape l'autorité. Enfin, il ne faut pas oublier le sentiment que, dans la mesure où elle interférait avec l'état naturel des choses, la science était intrinsèquement dangereuse.
(...)
Dans la première moitié du siècle, cependant, les grands dangers auxquels la science a été exposée ne sont pas venus de ceux qui se sentaient humiliés par ses pouvoirs illimités et incontrôlables, mais de ceux qui croyaient pouvoir les contrôler.
Les deux seuls types de régimes politiques (hormis les retours, alors rares, au fondamentalisme religieux) qui devaient s'immiscer dans la recherche scientifique pour des raisons de principe, étaient tous deux profondément attachés au progrès technique illimité. Dans un cas, l'idéologie identifiait même le régime à la « science » et saluait la conquête du monde par la raison et l'expérience. De manières différentes, le stalinisme et le nazisme n'en devaient pas moins rejeter la science alors même qu'ils la mettaient au service de leurs desseins technologiques.
Ils lui reprochaient en fait de contester des visions du monde et des valeurs exprimées sous forme de vérités a priori.
Ainsi, les deux régimes eurent du mal à se faire à la physique post-einsteinienne. Les nazis la rejetaient comme une science « juive », tandis que les idéologues soviétiques la jugeaient insuffisamment « matérialiste » au sens léniniste du mot. En pratique, les uns et les autres devaient la tolérer, puisque les États modernes ne pouvaient se passer des physiciens post-einsteiniens.
Les nazis se privèrent cependant de la fine fleur des physiciens de l'Europe continentale en obligeant à l'exil les Juifs et leurs adversaires idéologiques, ruinant au passage la suprématie scientifique qu'avait exercée l'Allemagne au début du siècle. Entre 1900 et 1933, vingt-cinq des trente-six prix Nobel de physique et de chimie avaient couronné des Allemands. Depuis 1933, ceux-ci ne devaient plus recevoir qu'un prix sur dix.
Aucun des deux régimes ne fut non plus en phase avec les sciences biologiques. La politique raciale de l'Allemagne nazie horrifiait les généticiens dignes de ce nom, qui – essentiellement du fait des enthousiasmes eugéniques des racistes – avaient commencé, au lendemain de la Première Guerre mondiale, à prendre leurs distances vis-à-vis des politiques de sélection génétique appliquées à l'homme (et impliquant l'élimination des « inaptes »).
Mais il faut hélas admettre que le racisme nazi trouva tout de même de nombreux soutiens dans les milieux biologiques et médicaux allemands.
Sous Staline, le régime soviétique se trouva en désaccord avec la génétique pour des raisons idéologiques et parce que la politique officielle était attachée au principe suivant lequel, moyennant un effort suffisant, tout changement était réalisable, alors que cette science faisait valoir que, dans le champ de l’évolution en général et dans l'agriculture en particulier, tel n'était pas le cas.
En d'autres circonstances, la controverse, parmi les biologistes évolutionnistes, entre darwiniens (pour qui l'hérédité était génétique) et lamarckiens (qui croyaient à l'hérédité des caractères acquis et pratiqués par une créature de son vivant) aurait été réglée dans le cadre de séminaires et en laboratoire. En fait, la plupart des hommes de science estimaient l'affaire réglée en faveur de Darwin, ne serait-ce que parce que l'on n'avait trouvé aucune preuve concluante de l'hérédité des caractères acquis. Sous Staline, un biologiste marginal, Trofim Denisovitch Lyssenko (1898-1976) avait obtenu l'appui des autorités politiques en expliquant qu'il était possible de multiplier la production agricole par des méthodes lamarckiennes qui court-circuitaient les procédures orthodoxes de reproduction végétale et animale. En ce temps-là, il était mal venu de contester l'autorité. L'académicien Nikolaï Ivanovitch Vavilov (1885-1943), le plus célèbre des généticiens soviétiques, trouva la mort dans un camp de travail pour avoir critiqué Lyssenko (les autres généticiens soviétiques dignes de ce nom partageaient son point de vue). Mais ce n'est qu'au lendemain de la Seconde Guerre mondiale que la biologie soviétique se prononça officiellement pour le rejet obligatoire de la génétique, telle qu'on la comprenait dans le reste du monde, et ce au moins jusqu'à la disparition du dictateur. Comme il était à prévoir, cette politique eut des effets désastreux pour la science soviétique.
Si totalement différents qu'ils fussent à maints égards, les régimes de type national-socialiste et communiste soviétique se rejoignaient sur ce point : leurs citoyens étaient censés approuver une « doctrine vraie», cependant formulée et imposée par les autorités politico-idéologiques séculières.
Dès lors, l'ambiguïté et la gêne à l'égard de la science, éprouvée dans tant de sociétés, trouvèrent dans ces États une expression officielle – à la différence des régimes politiques dont les gouvernements laïques avaient appris au cours du XIXe siècle à faire profession d'agnosticisme face aux convictions personnelles de leurs citoyens. La montée des régimes d'orthodoxie séculière fut un sous-produit de l'Ère des catastrophes, et ils n'eurent qu'un temps.
En tout état de cause, la volonté de faire entrer la science dans le carcan de l'idéologie fut manifestement contre-productive, partout où l'on s'y essaya sérieusement (comme dans la biologie soviétique), ou ridicule, quand on laissa la science suivre son cours tout en se bornant à proclamer la supériorité de l'idéologie (comme dans le cas de la physique tant allemande que soviétique).
À la fin du XXe siècle, l'imposition officielle de divers critères à la théorie scientifique sont à nouveau l'apanage de régimes se réclamant d'un fondamentalisme religieux. Le malaise n'en persiste pas moins, ne serait-ce que parce que la science elle-même devient toujours plus incroyable et incertaine. Jusqu'à la seconde moitié du siècle, cependant, elle ne devait rien à la peur de ses résultats pratiques.
Certes, les scientifiques eux-mêmes surent mieux et plus tôt que quiconque quelles pouvaient être les conséquences potentielles de leurs découvertes. Depuis que la première bombe atomique était devenue opérationnelle (1945), certains d'entre eux avaient prévenu leurs maîtres – leurs gouvernements – des forces de destruction que le monde avait désormais à sa disposition.
Mais l'idée que la science est synonyme de catastrophe en puissance appartient fondamentalement à la seconde moitié du siècle : dans sa première phase – le cauchemar de la guerre nucléaire – à l'ère de la confrontation des superpuissances qui commença après 1945 ; dans sa phase ultérieure et plus universelle, à l'ère de la crise qui s'est déclarée dans les années 1970.
Mais, peut-être parce qu'elle a sensiblement ralenti la croissance économique mondiale, l'Ère des catastrophes était encore une ère d'autosatisfaction ; celle d'une science assurée de la capacité de l'homme à maîtriser les forces de la nature ou, plus grave, de la capacité de la nature à s'adapter aux pires choses que l'homme pourrait faire.
En revanche, les scientifiques eux-mêmes devaient être de plus en plus gênés par l'incertitude entourant l'usage potentiel de leurs théories et de leurs découvertes.