Où en sommes-nous ? (9) : Science, technologie et idéologie (Eric Hobsbawm)

Publié le par Thierry Ternisien d'Ouville

À partir d’un triple point de vue : philosophique, politique et historique.

Troisième texte

 

 

[1] Eric Hobsbawm, L’âge des extrêmes, André Versaille éditeur, 2008, extraits du chapitre Sorciers et apprentis : les sciences naturelles p. 673-715

Où en sommes-nous ? (9) : Science, technologie et idéologie (Eric Hobsbawm)

Aucune période de l'histoire n'a été plus envahie par les sciences naturelles ni plus dépendante  d'elles que le XXe siècle. Mais aucune, depuis la rétractation de Galilée, n'a été moins à l'aise avec  elles. Tel est le paradoxe auquel doit s'attaquer l'historien du siècle.

Mais avant de m'y essayer, il  importe de bien prendre la mesure du phénomène. 

En 1910, le nombre total de physiciens et de chimistes allemand et britanniques ne dépassait sans  doute pas 8000. À la fin des années 1980, on estimait le nombre des scientifiques et des ingénieurs  effectivement engagés dans la recherche et le développement expérimental à près de cinq millions,  dont près d'un million aux États-Unis , première puissance scientifique du monde, et un peu plus  dans les États européens. Même dans les pays développés, la communauté scientifique est certes  demeurée une toute petite fraction de la population, mais ses effectifs ont poursuivi une croissance  tout à fait spectaculaire doublant plus ou moins en vingt ans après 1970, même dans les économies  les plus avancées. (...) Dans les années 1980, le pays occidental avancé type produisait entre 130 et  140 doctorats es sciences par an pour chaque million d'habitants. (...)  (...)

Que le XXe siècle ait reposé sur la science n'a guère besoin de preuves. Jusqu'à la fin du XIXe siècle, la  « science avancée » – c'est-à-dire le genre de connaissance qui ne pouvait ni s'acquérir par une  expérience quotidienne, ni se pratiquer, ni même se comprendre sans de longues années d'études  couronnées par une formation supérieure ésotérique – n'avait qu'une gamme d'applications  pratiques relativement restreinte. La physique et les mathématiques du XVIIe siècle continuaient à  gouverner les ingénieurs. (...) 

Cela avait commencé à changer quelque part au cours du dernier tiers du siècle. À l'Ère des empires, commencent à apparaître non seulement les grandes lignes de la technologie de pointe moderne – il suffit de penser aux automobiles, à l'aviation, à la radio et au cinéma –, mais aussi celles de la théorie  scientifique moderne : la relativité, la physique quantique et la génétique. De surcroît, on percevait  désormais le potentiel technique immédiat des découvertes les plus ésotériques et les plus  révolutionnaires – de la télégraphie sans fil à l'utilisation médicale des rayons X, toutes deux fondées  sur des découvertes des années 1890.

Néanmoins, alors que la science de pointe du court XXe siècle était visible dès avant 1914, et que la haute technologie du XXe siècle était déjà implicite, la  science de pointe n'était pas encore devenue cette chose sans laquelle la vie quotidienne était  inconcevable partout dans le monde. Tel est aujourd'hui le cas alors que le millénaire touche à sa fin.

La technologie fondée sur la théorie  et la recherche scientifiques de pointe (...) aura dominé l'essor économique de la seconde moitié du  XXe siècle, et plus seulement dans le monde développé.

Sans la génétique moderne, l'Inde et l'Indonésie n'auraient pu produire suffisamment de vivres pour leurs populations en pleine explosion  démographique. À la fin du siècle, la biotechnologie est devenue un élément significatif de  l'agriculture et de la médecine. Et ces technologies reposaient sur des découvertes et des théories si  éloignées de l'univers du citoyen ordinaire, même dans les pays développés les plus sophistiqués,  qu'à peine quelques douzaines de personnes, tout au plus quelques centaines, pouvaient  initialement en deviner les applications pratiques.

Quand le physicien allemand Otto Hahn découvrit  la fission nucléaire en 1937, il se trouva même quelques-uns des scientifiques les plus actifs en ce  domaine, comme le grand Niels Bohr (1885-1962), pour douter qu'elle puisse avoir des applications  pratiques dans la paix ou dans la guerre, tout au moins dans un avenir prévisible. Et si les physiciens  qui en saisirent les potentialités n'en avaient rien dit à leurs généraux et à leurs hommes politiques,  ceux-ci seraient eux-mêmes restés dans l'ignorance – sauf à avoir fait des études supérieures de  physique, ce qui était peu probable.

De même, le célèbre article, dans lequel, en 1935, Alan Turing  exposa les fondements de la théorie informatique moderne, était à l'origine une spéculation destinée  aux spécialistes de logique mathématique. C'est la guerre qui lui offrit l'occasion, ainsi qu'à d'autres,  de donner à cette théorie une ébauche de traduction concrète afin de déchiffrer les codes de  l'ennemi ; mais lorsque ce texte était paru, personne ne l'avait lu, encore moins remarqué, hormis  une poignée de mathématiciens. Même dans son propre collège, ce génie pâle et empoté, alors  simple chargé de cours qui se distinguait par son goût du jogging et qui devint à titre posthume  quelque chose comme une icône des homosexuels, n'avait rien de très remarquable. Du moins n'en  ai-je pas gardé le souvenir. Alors même que des scientifiques tâchaient manifestement de résoudre  des problèmes d'une importance capitale avérée, seul un petit comité de cerveaux d'un milieu  intellectuel isolé comprenaient ce qu'ils faisaient.

L'auteur du présent ouvrage était ainsi Fellow d'un  collège de Cambridge à l'époque où Crick et Watson préparaient leur triomphale découverte de la  structure de l'ADN (la « Double Hélice »), aussitôt saluée comme l'une des percées cruciales du  siècle. Pourtant, alors même que je me souviens avoir rencontré Crick en société, la plupart d'entre nous ignorions purement et simplement que ces extraordinaires développements couvaient à  quelques dizaines de mètres des portes de mon collège, dans des laboratoires devant lesquels nous  passions régulièrement ou dans les pubs que nous fréquentions. Ceux qui poursuivaient ces  recherches ne voyaient pas l'intérêt de nous en parler, puisque nous n'aurions pu les aider dans leur  travail ni probablement comprendre au juste quelles étaient leurs difficultés.

Néanmoins, si ésotériques et incompréhensibles qu'aient été les innovations de la science, elles  devaient trouver une traduction technologique concrète presque immédiatement.

Ainsi l'apparition  des transistors, en 1948, fut-elle un sous-produit des recherches sur la physique des états solides,  c'est-à-dire sur les propriétés électromagnétiques de cristaux légèrement imparfaits (leurs inventeurs  reçurent le prix Nobel huit ans plus tard) ; il en va de même des lasers (1960), issus non pas d'études  optiques, mais de recherches pour faire vibrer les molécules en résonance avec un champ électrique.  Leurs inventeurs furent aussi rapidement reconnus par le Nobel, tout comme – un peu tard – le  physicien cambridgien et soviétique Peter Kapitsa (1978) pour son travail sur la physique des basses  températures à l'origine des supraconducteurs.

L'expérience de la recherche menée au cours des  années 1939-1946 a démontré – du moins aux Anglo-américains – qu'une importante concentration  de ressources permettait de résoudre les problèmes technologiques les plus délicats, dans un temps  record, et d'encourager les innovations technologiques de pointe sans égard pour les coûts, que ce  soit à des fins militaires ou de prestige national (par exemple, l'exploration de l'espace).

Cela ne fit  qu'accélérer, à son tour, la transformation de la science de laboratoire en technologie, parfois avec un large champ d'application possible pour les besoins de la vie quotidienne. Les lasers sont un  exemple de cette rapidité. Vus pour la première fois en laboratoire en 1960, ils avaient atteint le  consommateur au début des années 1980 sous la forme du compact disc. Dans le domaine de la  biotechnologie, le mouvement fut encore plus rapide. C'est en 1973 que les techniques de  recombinaison de l'ADN, de mélange de gènes d'une espèce avec ceux d'une autre, apparurent pour  la première fois relativement praticables. Moins de vingt ans plus tard, la biotechnologie était l'un  des grands postes d'investissement médical et agricole.

De surcroît, essentiellement du fait de l'étonnante explosion de l'informatique théorique et pratique,  les nouvelles avancées de la science devaient être traduites, dans des délais toujours plus courts, en  une technologie que les utilisateurs finaux n'avaient aucun besoin de comprendre.

Le résultat  consistait en une série de boutons ou un clavier permettant au premier imbécile venu, pour peu qu'il  appuyât au bon endroit, d'activer une procédure automatique, autocorrectrice et, autant que  possible, capable de prendre des décisions, sans exiger d'inputs supplémentaires de l'être humain  ordinaire, avec ses compétences et son intelligence limitées et peu fiables.

Dans l'idéal, la  programmation permettait de se passer de toute intervention humaine, sauf défaillance.

Les caisses  des supermarchés des années 1990 illustrent cette élimination. Il suffît désormais à l'opérateur humain  de reconnaître les billets et les pièces de monnaie locale et d'entrer la quantité offerte par le client.  Un scanner automatique traduit le code-barres en prix, calcule le montant total des achats, établit la  différence entre la somme donnée par le client et la somme due et indique à la caissière la monnaie à  rendre. La procédure permettant d'y parvenir est d'une extraordinaire complexité et repose sur  l'association d'un matériel terriblement sophistiqué et d'une programmation très élaborée. Reste  que, sauf pépin, ces miracles de la technologie scientifique de la fin du XXe siècle n'exigent pas plus  de la caissière que la reconnaissance des nombres cardinaux, un minimum d'attention et une plus  grande capacité de tolérance à l'ennui. Il n'est même pas nécessaire de savoir lire et écrire. Pour la  plupart des opérateurs concernés, les forces qui leur indiquent de dire au client qu'il doit 2,15 £ et de  lui rendre 7,85 £ sur un billet de 10 £ sont aussi dénuées d'intérêt qu'incompréhensibles. Ils n'ont nul  besoin d'y comprendre quoi que ce soit pour les faire marcher. L'apprenti sorcier n'a plus à  s'inquiéter de son manque de connaissance.

La situation de la caissière de supermarché représente la norme humaine de la fin du XXe siècle,  l'accomplissement de miracles de la technologie scientifique d'avant-garde, qu'il n'est pas  nécessaires de comprendre ou de modifier, quand bien même saurions-nous, ou croirions-nous  savoir ce qui se passe.

Un autre le fera ou l'a fait pour nous. Car même si nous nous croyons expert  dans tel ou tel domaine particulier – c'est-à-dire être du genre à savoir arranger les choses si ça se  passe mal, à concevoir ou à construire le dispositif en question –, nous sommes des profanes, des  ignorants face à la plupart des autres produits quotidiens de la science et des techniques. Et même si  tel n'est pas le cas, notre compréhension de ce qui fait marcher l'objet que nous utilisons, et des  principes qui en sont à la base, présente tout aussi peu d'intérêt que le processus de fabrication des  cartes à jouer pour le joueur de poker (honnête). Les télécopies sont destinées à des gens qui n'ont  aucune idée des raisons pour lesquelles un appareil de Londres ressort un texte entré dans un  appareil semblable à Los Angeles. Ils ne fonctionnent pas mieux quand ce sont des professeurs  d'électronique qui y recourent.

À travers le tissu de la vie humaine saturé de technologie, la science fait donc une démonstration  quotidienne de ses miracles dans le monde de la fin du XXe siècle. Elle est aussi indispensable et omniprésente – car même les coins de la planète les plus reculés connaissent le transistor et la  calculette électronique – qu'Allah pour le pieux musulman. Nous pouvons nous interroger sur le  moment où cette capacité de certaines activités humaines à produire des résultats surhumains est  entrée dans la conscience collective, tout au moins dans celle des zones urbaines des sociétés  industrielles «développées». C'est certainement après l'explosion de la première bombe nucléaire  en 1945. On ne saurait cependant douter que le XXe siècle est celui où la science a transformé à la  fois le monde et la connaissance que nous en avons.

(...)

Pourtant, le XXe siècle n'aura jamais été à l'aise avec la science qui a été sa réalisation la plus  extraordinaire et dont il est devenu si dépendant. Le progrès des sciences naturelles s'est fait sur  fond général de méfiance et de crainte, provoquant à l'occasion des flambées de haine et de rejet de  la raison et de toutes ses productions.

Et dans l'espace indéfini qui sépare la science de l'antiscience,  parmi les chercheurs de la vérité ultime par l'absurde et les prophètes d’un monde composé  exclusivement de fictions, nous trouvons de plus en plus ce produit caractéristique et largement anglo-américain  du siècle, en particulier de sa seconde moitié : la « science-fiction ». Anticipé par Jules  Verne (1828-1905), le genre fut lancé par H. G. Wells (1866-1946) à la fin du XIXe siècle. Tandis que  ses formes plus juvéniles, comme les westerns spatiaux familiers de la télévision ou du grand écran,  avec les capsules cosmiques à la place des chevaux et les rayons de la mort en guise de revolvers à six  coups, ont perpétué la vieille tradition des aventures fabuleuses avec des gadgets high-tech, les  contributions plus sérieuses de la seconde moitié du siècle ont cultivé une vision plus sombre ou, en  tout cas, plus ambiguë de la condition humaine et de ses perspectives.

Quatre sentiments ont nourri cette méfiance et cette peur. La science est incompréhensible. Ses  conséquences tant morales que pratiques sont imprévisibles et probablement catastrophiques. Elle  souligne l'impuissance de l'individu et sape l'autorité. Enfin, il ne faut pas oublier le sentiment que,  dans la mesure où elle interférait avec l'état naturel des choses, la science était intrinsèquement  dangereuse.

 (...)

Dans la première moitié du siècle, cependant, les grands dangers auxquels la science a été exposée  ne sont pas venus de ceux qui se sentaient humiliés par ses pouvoirs illimités et incontrôlables, mais  de ceux qui croyaient pouvoir les contrôler.

Les deux seuls types de régimes politiques (hormis les  retours, alors rares, au fondamentalisme religieux) qui devaient s'immiscer dans la recherche  scientifique pour des raisons de principe, étaient tous deux profondément attachés au progrès  technique illimité. Dans un cas, l'idéologie identifiait même le régime à la « science » et saluait la  conquête du monde par la raison et l'expérience. De manières différentes, le stalinisme et le nazisme  n'en devaient pas moins rejeter la science alors même qu'ils la mettaient au service de leurs desseins  technologiques.

Ils lui reprochaient en fait de contester des visions du monde et des valeurs  exprimées sous forme de vérités a priori.

Ainsi, les deux régimes eurent du mal à se faire à la physique post-einsteinienne. Les nazis la  rejetaient comme une science « juive », tandis que les idéologues soviétiques la jugeaient  insuffisamment « matérialiste » au sens léniniste du mot. En pratique, les uns et les autres devaient la tolérer, puisque les États modernes ne pouvaient se passer des physiciens post-einsteiniens.

Les nazis se privèrent cependant de la fine fleur des physiciens de l'Europe continentale en obligeant à  l'exil les Juifs et leurs adversaires idéologiques, ruinant au passage la suprématie scientifique qu'avait  exercée l'Allemagne au début du siècle. Entre 1900 et 1933, vingt-cinq des trente-six prix Nobel de  physique et de chimie avaient couronné des Allemands. Depuis 1933, ceux-ci ne devaient plus  recevoir qu'un prix sur dix.

Aucun des deux régimes ne fut non plus en phase avec les sciences  biologiques. La politique raciale de l'Allemagne nazie horrifiait les généticiens dignes de ce nom, qui – essentiellement du fait des enthousiasmes eugéniques des racistes – avaient commencé, au  lendemain de la Première Guerre mondiale, à prendre leurs distances vis-à-vis des politiques de  sélection génétique appliquées à l'homme (et impliquant l'élimination des « inaptes »).

Mais il faut  hélas admettre que le racisme nazi trouva tout de même de nombreux soutiens dans les milieux  biologiques et médicaux allemands.

Sous Staline, le régime soviétique se trouva en désaccord avec la  génétique pour des raisons idéologiques et parce que la politique officielle était attachée au principe  suivant lequel, moyennant un effort suffisant, tout changement était réalisable, alors que cette  science faisait valoir que, dans le champ de l’évolution en général et dans l'agriculture en particulier,  tel n'était pas le cas.

En d'autres circonstances, la controverse, parmi les biologistes évolutionnistes,  entre darwiniens (pour qui l'hérédité était génétique) et lamarckiens (qui croyaient à l'hérédité des  caractères acquis et pratiqués par une créature de son vivant) aurait été réglée dans le cadre de  séminaires et en laboratoire. En fait, la plupart des hommes de science estimaient l'affaire réglée en  faveur de Darwin, ne serait-ce que parce que l'on n'avait trouvé aucune preuve concluante de  l'hérédité des caractères acquis. Sous Staline, un biologiste marginal, Trofim Denisovitch Lyssenko  (1898-1976) avait obtenu l'appui des autorités politiques en expliquant qu'il était possible de  multiplier la production agricole par des méthodes lamarckiennes qui court-circuitaient les  procédures orthodoxes de reproduction végétale et animale. En ce temps-là, il était mal venu de  contester l'autorité. L'académicien Nikolaï Ivanovitch Vavilov (1885-1943), le plus célèbre des  généticiens soviétiques, trouva la mort dans un camp de travail pour avoir critiqué Lyssenko (les  autres généticiens soviétiques dignes de ce nom partageaient son point de vue). Mais ce n'est qu'au  lendemain de la Seconde Guerre mondiale que la biologie soviétique se prononça officiellement pour  le rejet obligatoire de la génétique, telle qu'on la comprenait dans le reste du monde, et ce au moins  jusqu'à la disparition du dictateur. Comme il était à prévoir, cette politique eut des effets désastreux  pour la science soviétique.

Si totalement différents qu'ils fussent à maints égards, les régimes de type national-socialiste et  communiste soviétique se rejoignaient sur ce point : leurs citoyens étaient censés approuver une « doctrine vraie», cependant formulée et imposée par les autorités politico-idéologiques séculières.

Dès lors, l'ambiguïté et la gêne à l'égard de la science, éprouvée dans tant de sociétés, trouvèrent  dans ces États une expression officielle – à la différence des régimes politiques dont les  gouvernements laïques avaient appris au cours du XIXe siècle à faire profession d'agnosticisme face  aux convictions personnelles de leurs citoyens. La montée des régimes d'orthodoxie séculière fut un  sous-produit de l'Ère des catastrophes, et ils n'eurent qu'un temps.

En tout état de cause, la volonté  de faire entrer la science dans le carcan de l'idéologie fut manifestement contre-productive, partout  où l'on s'y essaya sérieusement (comme dans la biologie soviétique), ou ridicule, quand on laissa la  science suivre son cours tout en se bornant à proclamer la supériorité de l'idéologie (comme dans le  cas de la physique tant allemande que soviétique).

À la fin du XXe siècle, l'imposition officielle de  divers critères à la théorie scientifique sont à nouveau l'apanage de régimes se réclamant d'un  fondamentalisme religieux. Le malaise n'en persiste pas moins, ne serait-ce que parce que la science elle-même devient toujours plus incroyable et incertaine. Jusqu'à la seconde moitié du siècle,  cependant, elle ne devait rien à la peur de ses résultats pratiques.

Certes, les scientifiques eux-mêmes surent mieux et plus tôt que quiconque quelles pouvaient être  les conséquences potentielles de leurs découvertes. Depuis que la première bombe atomique était  devenue opérationnelle (1945), certains d'entre eux avaient prévenu leurs maîtres – leurs  gouvernements – des forces de destruction que le monde avait désormais à sa disposition.

Mais  l'idée que la science est synonyme de catastrophe en puissance appartient fondamentalement à la  seconde moitié du siècle : dans sa première phase – le cauchemar de la guerre nucléaire – à l'ère de la  confrontation des superpuissances qui commença après 1945 ; dans sa phase ultérieure et plus  universelle, à l'ère de la crise qui s'est déclarée dans les années 1970.

Mais, peut-être parce qu'elle a  sensiblement ralenti la croissance économique mondiale, l'Ère des catastrophes était encore une ère  d'autosatisfaction ; celle d'une science assurée de la capacité de l'homme à maîtriser les forces de la  nature ou, plus grave, de la capacité de la nature à s'adapter aux pires choses que l'homme pourrait  faire.

En revanche, les scientifiques eux-mêmes devaient être de plus en plus gênés par l'incertitude  entourant l'usage potentiel de leurs théories et de leurs découvertes.

Publié dans CHN, Science, Technique, Hobsbawm

Pour être informé des derniers articles, inscrivez vous :