Repères pour un monde numérique (2/7)
Cours donné le 5 novembre 2015 à l'Université du Temps Libre (UTL) d'Orléans
Je rappelle la méthode de travail choisie pour rechercher nos repères pour un monde numérique :
- S’appuyer sur l’œuvre de deux penseurs (Hannah Arendt pour le XXe siècle et Bernard Stiegler pour le XXIe siècle).
- Lire ensemble quatre livres : La société automatique (2015), La gouvernance par les nombres (2015), Condition de l’homme moderne (1958), L’évènement anthropocène (2013).
- En dégager des « repères » que nous pourrons confronter à l’actualité et la production culturelle autour du thème d’un monde numérique et aux travaux de cinq penseurs : Edgar Morin (1921) , François Jullien (1951), Dany Robert-Dufour (1947), Jean-Pierre Dupuy (1941) et Ivan Illich (1926-2002).
Le tout, pour cette première saison, en six cours mensuels de novembre 2015 à avril 2016 (5 novembre, 10 décembre, 7 janvier, 4 février, 3 mars, 21 avril).
Cours suivis en mai 2016 par trois cours hebdomadaires (12, 19 et 26 mai) consacrés à mon second livre en cours d’écriture sur Hannah Arendt : Lire Hannah Arendt. Guide de voyage à travers une œuvre politique.
À travers ce support je vous apporterai avant chaque cours mes éléments de lecture et les quelques « repères » que j’aurai réussi à dégager.
De façon à permettre à chacun de disposer dans un seul document de l’ensemble de la réflexion menée, vous trouverez dans ce support l’intégralité de mes apports dans l’ordre chronologique inversé des cours. Un document de synthèse sera établi en fin d’année comme point de départ de la prochaine saison.
Table des matières ou sommaire
Face à un livre difficile et important, je commence toujours par consulter la table des matières ou le sommaire. En France nous disposons d’une table des matières située à la fin du livre. Au Québec, et dans les pays anglo-saxons, un sommaire est proposé au début du livre. Je ramène donc au début de notre étude de La société automatique sa table des matières pour une première vue d’ensemble de l’ossature et du vocabulaire du livre.
Deux couples de concepts
Notons que l’introduction évoque l’Anthropocène et la conclusion le Néguanthropocène. De quoi s’agit-il ? Pour le premier de ces deux termes le mieux est de se reporter à un des trois autres livres dont nous avons prévu l’étude : L’évènement Anthropocène[1].
L’Anthropocène : nous y sommes déjà, alors autant apprivoiser ce mot barbare et ce dont il est le nom. C’est notre époque. Notre condition. Cette époque géologique est devenue notre histoire depuis deux siècles et quelques. L’Anthropocène c’est le signe de notre puissance, mais aussi de notre impuissance. C’est une Terre dont l’atmosphère est altérée par les 1 400 milliards de tonnes de CO2 que nous y avons déversés en brulant charbon et pétrole. C’est un tissu vivant appauvri et artificialisé, imprégné par une foule de nouvelles molécules chimiques de synthèse. C’est un monde plus chaud et plus lourd de risques et de catastrophes, avec un couvert glaciaire réduit, des mers plus hautes, des climats déréglés. Proposé dans les années 2000 par des scientifiques spécialistes du « système Terre », l’Anthropocène est une prise de conscience essentielle pour comprendre ce qui nous arrive. Ce qui nous arrive n’est pas une crise environnementale, c’est une révolution géologique d’origine humaine.[2]
Le Néguanthropocène est un terme forgé par Bernard Stiegler pour désigner la nouvelle époque dans laquelle il nous faut, selon lui, entrer le plus rapidement possible convaincu qu’il est de l’impossibilité de survivre dans l’Anthropocène. Nous y reviendrons pendant la lecture de cet ouvrage.
Autres termes présents dans l’introduction et qui seront beaucoup utilisés : entropie et Néguentropie.
L'entropie est ici entendue comme la mesure du degré de désordre d'un système. D’origine thermodynamique, ce concept a été généralisé, et étendu à de nombreux domaines[3].
[1] Christophe Bonneuil et Jean-Baptiste Fressoz, Éditions du Seuil, 2013.
[2] Christophe Bonneuil et Jean-Baptiste Fressoz, L’évènement Anthropocène, Éditions du Seuil, 2013, p. 9-10.
[3] Le terme entropie a été introduit par Rudolf Clausius et est dérivé d'un mot grec signifiant « transformation ». Il caractérise le degré de désorganisation ou de manque d'information d'un système, mais possède également de nombreuses significations. En thermodynamique, l'entropie est une grandeur associée à un système de particules. En astrophysique, a été introduite l'entropie des trous noirs. En théorie de l'information, l'entropie quantifie le manque d'information . En écologie l'entropie est utilisée comme mesure de la biodiversité.
La néguentropie ou entropie négative, est un facteur d'organisation des systèmes physiques, et éventuellement sociaux et humains, qui s'oppose à la tendance naturelle à la désorganisation, donc à l'entropie. Ce concept a été initialement introduit par le physicien autrichien Erwin Schrödinger, dans son ouvrage Qu'est-ce que la vie ? (1944) pour expliquer la présence de « l'ordre » à l'intérieur des êtres vivants et leur tendance à s'opposer au chaos et à la désorganisation qui régit les systèmes physiques.[1]
Quelques remarques
Quelques expressions fortes semblent traduire l’époque : la destruction de la faculté de rêver ; foules conventionnelles automatisées ; dans le Léviathan électronique ; pris de vitesse ; à propos du temps disponible pour la génération qui vient.
La table des matières laisse pressentir un ouvrage riche mais difficile d’accès dont la seule structure visible, en première lecture, semble l’opposition entre fait et droit, entropie et néguentropie, Anthropocène et Néguanthropocène. J’y retrouve le double effet que me font les livres de Bernard Stiegler : l’attirance et la difficulté à comprendre.
La part d’incompréhension tient à deux facteurs. Stiegler peut s’exprimer de façon opaque pour différentes raisons ; soit parce qu’il est pris dans un mouvement d’élaboration où les idées se mélangent et se précipitent ; soit parce qu’il procède par des allusions qui échappent ; soit encore parce que sa façon de s’exprimer se révèle mal construite. L’incompréhension que je ressens en tant que lecteur peut aussi être liée au désir de comprendre trop vite. C’est pourquoi je vais avancer pas à pas dans sa lecture, ne retenant pour chaque chapitre que ce qui m’est partiellement ou presque totalement compréhensible, aidé par vos réactions, questions et commentaires.
Je ferai régulièrement, appel au vocabulaire d’Ars Industrialis, l’association fondée pour développer, diffuser et débattre la pensée de Bernard Stiegler.[2]
Pour améliorer ma compréhension, et j’espère la vôtre, je ferai aussi appel à un article publié par Bernard Stiegler dans un recueil de contributions consacré à sa pensée[1].
[1] Technologiques, La pharmacie de Bernard Stiegler, direction de Benoit Dillet et Alain Jugnon, Éditions nouvelles Cécile Defaut, 2013.
Passons maintenant à une première lecture chapitre par chapitre et voyons ce que nous pouvons en retenir pour notre projet de recherche de repères pour un monde numérique.
Pour ce cours du 5 novembre nous nous limiterons à l’introduction et aux trois premiers chapitres.
Deux remarques :
- Je reproduis ce qui m’a le plus intéressé et que je pense avoir compris dans chaque chapitre. Il ne s’agit donc pas d’un commentaire de ma part mais de la rétention[1] primaire, secondaire puis tertiaire de ma lecture.
- J’ai inséré des illustrations correspondant aux diapositives projetées lors du cours. Elles ont pour seule vocation d’agrémenter ma présentation, de la rendre moins aride et plus dynamique.
[1] Voir la définition de ce terme dans la partie Concepts et Vocabulaire.
Introduction. Entropie et néguentropie dans l’Anthropocène
Depuis 1993 un système technique planétaire se met en place. Basé sur la rétention tertiaire numérique, il constitue l’infrastructure d’une société automatique à venir. Société dont le destin serait fixé par la dynamique engendrée par l’économie des mégadonnées (big data). Deux illustrations en sont données par Stiegler.
L’analyse du modèle d’affaire de Google[1] qui réalise ses services sans aucune référence à une théorie du langage. Certains[2] en concluent qu’avec les milliards de données analysables en temps réel par le calcul intensif, il n’y a plus besoin ni de théorie, ni de théoriciens, les spécialistes des mathématiques appliquées à de très grandes bases de données se substituant aux scientifiques des différentes disciplines.
L’audition le 23 octobre 2008 de Alan Greenspan, président de la Réserve fédérale américaine par la Chambre des représentants. Devant expliquer les raisons de l’enchainement de catastrophes à partir de la crise des subprimes en août 2007, il se défendit en affirmant que la cause en était le mésusage des mathématiques financières et les systèmes de calcul automatisé du commerce numérique (digital trading)[3].
[1] basé sur ce que Kaplan appelle le « capitalisme linguistique ». Quand les mots valent de l’or, Le Monde Diplomatique, Novembre 2001
[2] par Chris Anderson le 23 juin 2008 dans Wired
[3] Dont la forme la plus connue est le commerce (trading) haute fréquence: exécution à grande vitesse de transactions financières par des algorithmes informatiques.
Un autre avenir est-il possible ? C’est, pour Stiegler, la question de la sortie de l’Anthropocène. Cette sortie, qui constitue l’horizon global de ses thèses, il l’appelle le Néguanthropocène. Il pose en principe premier que le temps gagné par l’automatisation doit être investi dans de nouvelles capacités de désautomatisation, c’est-à-dire de néguentropie.
L’Anthropocène, c’est l’ère du capitalisme industriel au sein duquel le calcul prévaut sur tout autre critère de décision. L’avènement de la machine thermodynamique a bouleversé tous les principes de la pensée et de l’action avec l’inscription dans et par le monde humain des processus physiques, de leur irréversibilité et de leur instabilité[1]. L’automatisation, sous la forme prise depuis le taylorisme, a engendré une immense entropie. L’activité humaine est devenue un facteur géologique, tellurique, installant, dès la fin du XVIIIe siècle les conditions de la prolétarisation généralisée : perte des savoir-faire, des savoir-vivre, des savoir concevoir et théoriser.
Avec l’invention du World Wide Web en 1993, l’Anthropocène est entrée dans une nouvelle époque. L’exploitation industrielle des traces numériques, qu’il a rendu possible, précipite la catastrophe entropique. Sous la forme d’un capitalisme 24/7 et d’une gouvernementalité algorithmique[2], le Web sert un fonctionnement hyper-entropique qui accélère la destruction consumériste du monde tout en installant une insolvabilité structurelle et insoutenable. Le tout basé sur une stupéfaction généralisée et une « stupidité fonctionnelle » destructrice des capacités néguentropiques que recèlent, au contraire des compétences, les savoirs.
À travers cet « évènement Anthropocène », ce qui fut structurellement dénié par la philosophie durant des siècles est, pour Stiegler, devenu patent : l’artefact est le ressort de l’hominisation, sa condition et son destin. Et il est, pour lui, impératif de requalifier la vie noétique (intellectuelle et spirituelle) dans tous les champs du savoir (faire, vivre, concevoir) en y intégrant les points de vue d’André Leroi-Gourhan[1] et de Georges Canguilhem[2], qui furent les premiers à poser l’artificialisation du vivant comme point de départ de l’hominisation.
Industrie des traces et foules conventionnelles automatisées
Les technologies numériques de la traçabilité constituent le stade le plus avancé du processus de grammatisation. À partir de la fin du Paléolithique supérieur[1] l’humanité apprend à discrétiser et à reproduire selon divers types de traces les flux temporels qui la traversent et qu’elle engendre : images mentales (inscriptions rupestres), discours (écritures), gestes (automatisation de la production), fréquences sonores et lumineuses (technologies analogiques d’enregistrement) et à présent comportements individuels, relations sociales et processus de transindividuation (algorithmes de l’écriture réticulaire). Devenues numériques, ces traces sont aujourd’hui engendrées par des interfaces, capteurs et autres appareils sous forme de nombres binaires constituant les données calculables base de la société automatique.
[1] Entre -45 000 et -30 000 ans. Période de la Préhistoire caractérisée par l’arrivée de l’Homme anatomiquement moderne en Europe, le développement de certaines techniques et l'explosion de l'art préhistorique.
Quelles que soient sa forme et sa matière, la rétention tertiaire, en tant que retenue artificielle par duplication matérielle et spatiale d’un élément mnésique et temporel, est ce qui modifie, de la façon la plus générale, c’est-à-dire en toute expérience humaine, les rapports entre les rétentions psychiques de la perception, les rétentions primaires, et les rétentions psychiques de la mémoire, les rétentions secondaires. Ces modifications du jeu entre rétentions primaire et secondaire, perception et mémoire, réalité et imagination, produisent des processus de transindividuation chaque fois nouveau.
Aux époques successives de rétentions tertiaires se forment des significations partagées par des individus psychiques, constituant des individus collectifs formant eux-mêmes des sociétés. Ces significations constituent le transindividuel comme ensemble de rétentions secondaires collectives au sein duquel se forment des protentions collectives qui sont les attentes typiques d’une époque.
Lorsque la vie, il y a deux ou trois millions d’années en vient à passer essentiellement par l’artifice, à ne plus pouvoir se passer de prothèses[1], apparaît ce qu’Aristote appelle l’âme noétique, qui désire et qui aime, qui prend soin de l’objet de son désir en l’idéalisant et en le socialisant.
Le désir est ce qui n’apparaît qu’avec l’artificialisation de la vie, avec ce que Georges Canguilhem décrit comme la vie technique. Avec l’apparition des supports artificiels fétichisables, l’instinct se désautomatise partiellement. Il peut se déplacer, changer d’objet. Il devient amovible comme les organes artificiels supports de la fétichisation. En cela, il n’est plus l’instinct, mais la pulsion. L’individuation vitale, celle des animaux, celle de l’économie de l’instinct, fait place à l’individuation psychique et collective, où il faut sans cesse contenir et retenir ces pulsions qui, parce qu’elles peuvent changer d’objet, sont dites perverses[2]. L’objet n’est désiré au point d’inverser les buts des pulsions qui le supportent que parce que, ainsi économisé, il fait plus qu’exister : il consiste. En cela, il excède tout calcul, devient infini.
[1] Ce qui caractérise l’humain comme le soulignait déjà Rousseau dans son Discours sur l’origine de l’inégalité parmi les hommes.
[2] En 1905, Freud explore dans la perversion fétichiste ce qu’il appellera plus tard l’économie libidinale (Trois essais sur la vie sexuelle. Fragments d’une analyse d’une hystérie et autres textes).
Avec la modernité et le capitalisme, l’artifice se manifeste au cœur de ce que Paul Valéry décrit comme une économie politique de l’esprit, fondée sur le commerce et la technologie industrielle, et qui conduit à ce qu’il appelle une baisse de la valeur esprit. À l’époque actuelle, hyperindustrielle, avec un capitalisme totalement computationnel[1], cette économie devient une déséconomie libidinale, caractérisée par un manque absolu de soin pour ses objets. Les objets ne peuvent plus constituer des supports d’investissement : ils ne sont plus infinitisables, car ils sont devenus intégralement calculables, c’est-à-dire totalement vains. Ils deviennent des riens : nihil. Le capitalisme intégralement computationnel est en cela l’accomplissement du nihilisme.
Avec l’automatisation intégrale et généralisée, le capitalisme paraît engendrer une nouvelle forme du totalitarisme.
Fondées sur l’autoproduction et l’exploitation algorithmique de traces numériques, les sociétés hyperindustrielles subissent la prolétarisation des savoir théoriques. La télédiffusion de traces analogiques[2] avait provoqué la prolétarisation des affects, des sensibilités, et de la relation sociale, remplaçant les savoir-vivre du citoyen par le conditionnement du consommateur. La soumission des corps laborieux aux traces mécaniques inscrites dans les machines avait entrainé la prolétarisation des savoir-faire, donc des conditions de subsistance, des travailleurs. La prolétarisation des savoirs théoriques est celle des fonctions noétiques telles que les concevait Kant : intuition, entendement et raison. La baisse de la valeur esprit frappe tous les esprits, parce qu’elle frappe l’esprit en tant que tel. Tout ce qui constituait les grandes promesses de l’époque des Lumières se renverse et semble inéluctablement voué à se transformer en poison. C’est ce mal-être pharmacologique comme dévalorisation absolue qu’annonça Nietzche.
[1] –et cela essentiellement à partir de la révolution conservatrice engagée dans les années 1980,
[2] la télévision joue le rôle de mécanisme de régulation, introduisant des effets jusqu’alors inconnus d’assujettissement et de supervision, avec la captation destructrice de l’attention et du désir des consommateurs
L’économie des traces (data) prétend pourtant être la relève de ce qui est perçu, surtout depuis 2008, comme une incurie : c’est ce qu’on appelle parfois l’utopie numérique. Et, depuis près de dix ans, Ars Industrialis soutient que la numérisation, qui a rendu possible l’industrie des traces, est porteuse d’un nouveau modèle industriel constitutif d’une économie de contribution – c’est-à-dire d’une économie reconstituant des savoir-faire, des savoir-vivre et des savoir-conceptualiser, et formant ainsi un nouvel âge du soin.
Cette tracéologie computationnelle et industrielle se présente aujourd’hui, à travers la gouvernementalité algorithmique, comme l’accélération, la cristallisation et la précipitation de l’insolvabilité, du discrédit, de la désindividuation et de l’entropie généralisée.
Est-il possible qu’un renversement s’opère, par lequel la trace redeviendrait un objet social d’investissements ?
Dans la société automatique, des réseaux numériques dits « sociaux » canalisent les expressions comportementales en les soumettant à des protocoles obligatoires. Les individus psychiques s’y plient, attirés par l’effet de réseau, hautement mimétique. Ainsi se constitue une nouvelle forme de foule conventionnelle, au sens que Freud[1] donnait à cette expression. La foule psychologique est un être provisoire, composé d’éléments hétérogènes pour un instant soudés, absolument comme les cellules d’un corps vivant forment par leur réunion un être nouveau manifestant des caractères fort différents de ceux que chacune de ces cellules possède. Freud montre qu’il existe aussi des « foules artificielles», ou « conventionnelles», qu’il analyse à travers les exemples de l’Église et de l’armée.
Au XXe siècle, et à partir des années 1920, les industries de programmes audiovisuels forment, à travers les programmes qu’elles diffusent en masse, de telles « foules artificielles ». Comme masses, ces foules deviennent le mode d’être ordinaire et permanent des démocraties industrielles, qui deviennent des télécraties industrielles. Freud ne pouvait pas voir en 1921 la possibilité – qui sera systématiquement exploitée à travers la radio par Goebbels et Mussolini – de constituer des foules artificielles par des technologies relationnelles[2]. Freud ne connut jamais la télévision, qui met puissamment en œuvre la pulsion scopique en la combinant à la puissance régressive des foules artificielles.
[1] « Psychologie des foules et analyse du moi » in Essais de psychanalyse. Texte commenté par Stiegler dans La Télécratie contre la démocratie.
[2] Les stations de radio ne se répandirent largement en Europe qu’à partir de 1923, la première station de radiophonie ayant été créée aux États-Unis par R.C.A. en 1920.
Quant à nous, nous découvrons le mimétisme automatisé basé sur l’effet de réseau et les boucles de rétroaction produites en temps réel par les mégadonnées (big data).
Engendrées par la rétention tertiaire numérique, les foules artificielles connectées constituent l’économie du crowd sourcing[1]. Les technologies des mégadonnées (big data) consistent pour une très large part à l’exploitation des potentialités du crowd sourcing sous ses très diverses formes.
Si quelqu’un comme Chris Anderson peut prétendre que les big data annoncent la « fin de la théorie »[2], c’est parce que les rétentions tertiaires numériques et les algorithmes, qui permettent de les produire aussi bien que de les exploiter, rendent possible le court-circuit de la raison prise de vitesse par le discernement, l’entendement[3] devenu une faculté analytique automatisée. Cette prolétarisation est un état de fait. Est-il inéluctable ? Stiegler soutient que non.
Le numérique, comme toute nouvelle forme de technique, constitue un nouveau pharmakon. Il est nécessairement toxique tant que de nouvelles thérapeutiques ne sont pas prescrites. La prescription thérapeutique constitue les savoirs comme règles pour prendre soin du monde. Elle est de la responsabilité du monde scientifique, artistique, juridique, religieux, de la vie de l’esprit en général et des citoyens quels qu’ils soient, et, en premier lieu, de ceux qui prétendent les représenter. La prolétarisation des esprits, et plus précisément la prolétarisation des facultés noétiques de théorisation et de délibération scientifiques, morales, esthétiques et politiques caractérise aussi bien le facteur déclenchant que le facteur résultant de la crise de 2008. Cette métamorphose[4] semble rendre impossible le travail critique, les savoirs théoriques étant les savoirs critiques. Cette période de souffrance s’apparente au stade de la chrysalide.
[1] Wikipedia présente ainsi le crowdsourcing : « Le crowdsourcing, ou externalisation ouverte ou production participative, est l'utilisation de la créativité, de l'intelligence et du savoir-faire d'un grand nombre de personnes, en sous-traitance, pour réaliser certaines tâches traditionnellement effectuées par un employé ou un entrepreneur. Ceci se fait par un appel ciblé (quand un niveau minimal d'expertise est nécessaire) ou par un appel ouvert à d'autres acteurs. Le travail est éventuellement rémunéré. Il peut s'agir de simplement externaliser des tâches ne relevant pas du métier fondamental de l'entreprise, ou de démarches plus innovantes. C'est un des domaines émergents de la gestion des connaissances.
[2] « la technologie des big data désignant le calcul intensif portant sur des données massives, où le traitement des données que sont les rétentions tertiaires numériques se produit en temps réel (à la vitesse de la lumière), à des échelles globales de plusieurs centaines de milliards de data , et à travers des dispositifs de capture implantés sur l’ensemble de la planète dans à peu près tous les dispositifs relationnels qui constituent une société »
[3] Au sens où l’entendait Kant.
[4] Stiegler préfère employer le terme de métamorphose pour traduire l’esprit post-larvaire dans lequel nous laisse cette crise.
Mais ce trouble planétaire peut aussi être considéré sous l’angle d’une nouvelle inquiétude qui, si elle ne tournait pas à la panique, pourrait être à l’origine d’une nouvelle intelligence de la situation, engendrant de nouveaux critères et de nouvelles catégories. Cette nouvelle intelligence serait celle qui, renversant la logique toxique du pharmakon, en ferait l’avènement d’un nouvel âge industriel constituant une société automatique fondée sur la déprolétarisation. La critique introduirait une bifurcation noétique dans la métamorphose, intervenant dans le processus métaphorique qu’est le vivant pour le dénaturaliser, le désautomatiser et, par-là, le néguanthropiser.
Pour aboutir à une socialisation, c’est-à-dire à une individuation collective, tout nouveau pharmakon, nécessite la formation de nouveaux savoirs, qui sont de nouvelles thérapeutiques de ce nouveau pharmakon. Par ces savoirs se constituent de nouvelles façons et raisons de faire, de vivre et de penser. Le problème avec le stade actuel de la prolétarisation est son caractère intrinsèquement entropique. Il épuise les ressources qu’il exploite : les individus psychiques et les individus collectifs. Au sens strict du terme, il les conduit à leur désintégration. Cette désintégration commença lorsque le consumérisme eut détruit les processus d’idéalisation et d’identification en soumettant toutes les singularités à la calculabilité. Le marketing fut contraint de solliciter et d’exploiter directement les pulsions, à défaut de pouvoir capter des désirs qui n’existaient plus parce que tous leurs objets, étant devenus des produits prêts à consommer (ready-made commodities), ils ne consistaient plus. La société automatique tente à présent de canaliser, de contrôler et d’exploiter ces dangereux automatismes que sont les pulsions en les soumettant à de nouveaux dispositifs eux-mêmes automatiques, qui capturent les automatismes pulsionnels en les prenant de vitesse, devenant des dispositifs de capture des expressions comportementales.
Le modèle du logiciel libre constitue au contraire une économie industrielle fondée sur la déprolétarisation. Avant même l’apparition du Web, Internet, qui en est l’infrastructure, milieu associé contributif et dialogique, a permis le développement d’un nouveau modèle industriel de production algorithmique de logiciels où les « utilisateurs » des programmes en sont par principe et en droit des praticiens, en cela qu’ils contribuent à l’individuation des logiciels. Leurs pratiques, qui de ce fait ne sont plus de simples usages font évoluer les logiciels eux-mêmes. L’économie du logiciel libre, tout comme le milieu technique constitué par la norme IP qui rend compatibles tous les réseaux numériques et par laquelle peut se former le réseau de réseaux appelé Internet, constitue ainsi un facteur d’apparition de l’économie contributive qui fournit les concepts d’un nouveau modèle industriel.
Mais Internet est un pharmakon qui peut, à l’opposé, devenir une technique d’hypercontrôle. Depuis l’apparition du social engineering, le traitement automatique des données personnelles issues des réseaux sociaux consiste à court-circuiter toute singularité qui pourrait se former au niveau de l’individu collectif et à transformer les singularités individuelles en particularités individuelles. En effet, à la différence du singulier qui est incomparable, le particulier est calculable, c’est-à-dire manipulable et soluble dans ces manipulations.
États de choc, états de fait, états de droit
Depuis la révolution industrielle, la diversification des objets techniques n’a cessé de s’intensifier. Au cours du XXe siècle, la guerre entre les innovations technologiques est devenue le principe élémentaire de l’évolution économique. La « destruction créatrice » n’a cessé d’affecter les organisations sociales et de créer des états de choc plus ou moins bouleversants. Des acteurs économiques, généralement nouveaux, saisissent les opportunités, détruisent les situations acquises par les acteurs sociaux issus du choc précédent. Ils installent un état de fait en avance de phase sur le droit. C’est ainsi que le système technique désajuste les systèmes sociaux. L’état de choc provoqué en 1993 par la création du Web généralisant l’écriture réticulaire entre tous les habitants solvables de la Terre a incommensurablement amplifié la stratégie du choc affirmant en 1979 qu’il n’y aurait pas d’alternative à la destruction de la puissance publique.
Le dépassement de cet état de fait passe par la reconstitution d’un état de droit. Elle suppose la reconsidération de la différence du fait et du droit. Différence qui[1] est à l’origine commune de l’état de droit, de la philosophie et de la science comme distinction originellement et par principe du théorique et de l’empirique. Ce qui doit être reconsidéré par rapport à la tradition juridique, philosophique et épistémologique tient à ce que la différenciation du droit et du fait est conditionnée par la rétention tertiaire. La rétention tertiaire littérale est la condition sine qua non de l’émergence simultanée du droit et du savoir rationnel reconfigurant tous les savoirs dès lors conçus à partir de l’expérience de la vérité, argumentée selon le canon de la démonstration géométrique[2].
La rétention tertiaire littérale constitue l’espace public en tant que tel, espace de l’expression par des traces spatialisées accessibles à tous ceux qui forment « le public ». L’individuation de l’espace public est conditionnée par la formation de chaque citoyen dans l’école (le skholeion) où il se forme à la lettre, par intériorisation (lire) et extériorisation (écriture). Intériorisation et extériorisation supposent l’acquisition de cette compétence comme nouvel automatisme écrit dans l’organe cérébral par l’apprentissage.
Le passage du stade toxique où le pharmakon numérique détruit les systèmes sociaux qui l’ont engendré à un état de droit curatif suppose deux choses à la fois : de nouvelles notions de ce qui constitue le droit en toute discipline rationnelle[3] ; de nouvelles notions de ce qui constitue le droit commun à tous les citoyens.
La capacité théorique et pratique à faire la différence entre le fait et le droit constitue la raison[4]. C’est pourquoi la prolétarisation de la vie de l’esprit ruine le droit et ne peut mener qu’à la barbarie. C’est ce qui se manifeste, de la façon sans doute la plus évidente, dans le développement conjugué des drones et des big data mis au service de la détection automatique des « suspects », c’est-à-dire de personnes dont le comportement est en corrélation[5], selon des calculs statistiques, avec celui de terroristes. Terroristes que ces nouvelles armes automatiques, les drones, permettent d’éliminer par une violence d’État qui, ne répondant à aucun droit de la guerre, répand le non-droit d’une police automatisée déterritorialisée et aveugle[6]. La liquidation du droit est elle-même directement liée à l’élimination du sacrifice, sans lequel il n’y a pas de guerrier, et par où le soldat qui a vaincu récolte plus que sa solde, la gloire. Le savoir suppose aussi la capacité d’un sacrifice de soi, qui n’est plus la mort qui trempe la gloire, mais un sacrifice noétique intermittent qui confère comme la mort ce que les Grecs appelaient le kléos, dont la soif de « réputation » contemporaine que les réseaux sociaux prétendent étancher chez leurs contributeurs est une version altérée.
[1] comme régime d’individuation psychique et collective
[2] C’est en raison de cette origine que l’on peut parler de « loi » en science.
[3] Chaque discipline définit les critères de droit scientifiques, certifiés par les pairs, par lesquels elle transforme un état de fait en un état de droit, une donnée empirique en une donnée théorique. Les avancées de toute science consistent en inventions de nouveaux critères, par où s’opèrent des changements de paradigme, et constituent une invention catégoriale.
[4] Kant
[5] En probabilités et en statistiques, étudier la corrélation entre deux ou plusieurs variables aléatoires ou statistiques numériques, c’est étudier l'intensité de la liaison qui peut exister entre ces variables. Le fait que deux variables soient « fortement corrélées » ne démontre pas qu'il y ait une relation de causalité entre l'une et l'autre. Le contre-exemple le plus typique est celui où elles sont en fait liées par une causalité commune.
[6] Voir Grégoire Chamayou, Théorie du drone, La Fabrique, 2013.
L’automatisation intégrale, rendue possible par la rétention tertiaire numérique, en court-circuitant toutes les possibilités thérapeutiques de désautomatisation, désintègre cette double expérience sacrificielle. Elle opère cette désintégration à la fois et du même mouvement du côté des guerriers et du côté des scientifiques. Le savant ne combat plus pour aucune consistance, ni contre aucune inconsistance : il ne sait plus rien de consistant. Tout comme le soldat qui n’a plus besoin de se battre, devenant le contrôleur de systèmes automatiques de télé-action meurtrière.
La désintégration généralisée[1] est engendrée par l’intégration automatisée du système technique désormais numérique de part en part à travers des standards, des normes de compatibilité, des formats d’échange, des formats de données, des plug-in[2], etc. Tout cela inclut l’ensemble des éléments du milieu hyperindustriel via les puces RFID[3] et autres systèmes d’identification, de tags et d’autotraçabilité.
Le numérique permet d’unifier tous les automatismes[4] en implantant du producteur au consommateur des capteurs et des actionneurs et les logiciels afférents par l’intermédiaire du produit. Les systèmes de conception assistée par ordinateur simulent et prototypent en images de synthèse et par impressions 3D sur la base d’automatismes cognitifs. Les robots sont commandés par des logiciels qui traitent des pièces détachées taguées par la technologie RFID. La conception[5] intègre le crowd sourcing comme le marketing est fondé sur les technologies de réseau et leurs effets. La logistique et la distribution sont devenues des systèmes de téléguidage à partir de l’identification numérique via l’«Internet des objets»[6]. La consommation est basée sur le social networking, etc.
Cette complète intégration du système technique par le numérique rend possible l’intégration fonctionnelle des automatismes biologiques, psychiques et sociaux, et c’est dans ce contexte que se développent le neuromarketing comme la neuroéconomie. Cette intégration fonctionnelle conduit du côté de la production à une robotisation totale qui ne désintègre pas seulement la puissance publique, les systèmes sociaux et éducatifs, les relations intergénérationnelles et conséquemment les structures psychiques. C’est le système économique industriel lui-même qui fut à la base du salariat en tant que critère répartiteur du pouvoir d’achat et formateur des marchés de masse capables d’absorber les produits du modèle consumériste, qui est en cours de désintégration, devenant fonctionnellement insolvable parce que fondamentalement irrationnel.
Une nouvelle rationalité économique peut et doit conduire :
- à un renforcement des savoirs, de leur partage, de leur intériorisation et de leur individuation facilitée par les automates ;
- à une renaissance du travail[7] rendue possible par la disparition de l’emploi, du salariat et du gouvernement par les impératifs d’augmentation du pouvoir d’achat, ce que depuis Keynes on appelait la croissance (growth).
[1] des savoirs, des pouvoirs, des modèles économiques, des systèmes sociaux, des structures psycho-relationnelles élémentaires et des relations intergénérationnelles, du système climatique
[2] En informatique, un plugin ou plug-in, aussi nommé module d'extension, module externe, greffon, plugiciel, ainsi que add-in ou add-on en France, est un paquet qui complète un logiciel hôte pour lui apporter de nouvelles fonctionnalités. Wikipedia.
[3] La radio-identification, le plus souvent désignée par le sigle RFID (de l’anglais radio frequency identification), est une méthode pour mémoriser et récupérer des données à distance en utilisant des marqueurs appelés « radio-étiquettes » (« RFID tag » ou « RFID transponder » en anglais) Wikipedia.
[4] technologiques mécaniques, électromécaniques, photo-électriques, électroniques, etc.
[5] Le design
[6] L'Internet des objets représente l'extension d'Internet à des choses et à des lieux du monde physique. Il représente les échanges d'informations et de données provenant de dispositifs présents dans le monde réel vers le réseau Internet. Troisième évolution de l'Internet, baptisée Web 3.0.
[7] Sous la forme de ce qu’Arendt appelle l’œuvre et l’action
La destruction de la faculté de rêver
À partir des années 1980 le tournant néolibéral s’appuie sur l’exploitation conjuguée des médias de masse, de la micro-informatique naissante et de la télématique. Toute nouveauté technologique est mise au service d’infrastructures instaurant un régime 24/7[1] où il est impossible de prendre le moindre moment de répit ou de pause pour mettre en perspective sur la longue durée des préoccupations ou des projets transindividuels. Ces infrastructures 24/7 qui ne s’arrêtent jamais, où il n’existe pas de pause, et où ce sont la décision et la réflexion qu’il s’agit de rendre «superflues», connectent en permanence les individus à des ressources en ligne qui court-circuitent la «vie quotidienne» en la vidant de sa quotidienneté, c’est-à-dire de sa familiarité : qui l’anonymisent.
Cette « intégration » des individus psychiques dans les routines standardisées et grammatisées – et, à travers elles, dans le système technique dont ces individus psychiques deviennent une fonction technique comme foules conventionnelles numériques au sein d’un milieu techno-géographique où l’humain est devenu un organe fonctionnel – est une désintégration des individus psychiques. Une participation réciproque du psychique et du collectif n’est possible qu’à la condition que l’individuation psychique ne puisse pas être réduite à l’individuation collective, c’est-à-dire : à la condition que le singulier ne puisse pas être réduit au particulier (au calculable ) – ne puisse pas être court-circuité, devancé et nié par l’opération de calcul effectuée sur ses traces. C’est une dissolution du psychique dans le collectif qui se produit dans les foules conventionnelles numériques.
[1] 24/7 est l'abréviation pour « 24 heures sur 24, 7 jours sur 7 ». Dans le commerce et l'industrie, cela signifie que le service est toujours disponible, peu importe le jour ou l'heure.
Le capitalisme 24/7, totalement computationnel, est conçu comme pouvoir de totalisation. Il prétend imposer par ses opérations une société automatique sans possibilités de désautomatisations, sans possibilités de théories, sans pensée. Toute pensée est un pouvoir effectivement exercé de désautomatiser et, en cela, un pouvoir de rêver exercé à travers des exercices dont relèvent les techniques de soi en général, et en particulier comme pratiques disciplinées des supports de mémoire (hypomnémata), mais aussi les songes scientifiques tels que Bachelard les rêve, les conçoit et les pratique.
Le rêve est ce qui articule une époque faite d’automatismes hérités, formant un fond préindividuel, avec les pouvoirs d’individuation et d’invention les plus improbables (incalculables) où se produisent les tournants et bifurcations. C’est ce que le capitalisme 24/7 tend à éliminer en nous privant de fait du droit de rêver, et même de dormir, en anéantissant toute forme d’intermittence, et donc tout temps de la pensée. Au nom du développement technologique et de l’innovation, il impose le maintien calculé d’un état de transition permanente d’autant plus efficace qu’il est auto-suggestif. Il trouve sa source dans ce que Joseph Schumpeter a décrit comme une destruction créatrice, dont l’État-providence[1] était un état de droit consolidé à l’échelle internationale[2].
C’est cet état de droit que la révolution conservatrice a liquidé en vue de restaurer un état de fait permettant de reconstituer un taux de profit qui était au début des années 1970 au plus bas. Il a imposé une guerre économique mondiale entre les nations, appelée mondialisation, en exploitant les médias audiovisuels devenant eux-mêmes mondiaux. Dans la période précédente, ces industries de l’imaginaire constituaient une industrie du rêve mise au service du capital : Hollywood était l’usine à rêves. Le tournant néoconservateur en fera une industrie des cauchemars par une exploitation systématique des pulsions[1], faute de pouvoir encore lier celles-ci en désir. À partir de 1993, avec la réticulation numérique, et après l’effondrement définitif du bloc de l’Est, la révolution conservatrice fera place au libertarianisme ultralibéral exploitant mimétismes, exhibitionnismes et voyeurismes par les médias numériques formant les nouvelles foules conventionnelles.
La fable[2] de la transition permanente voudrait nous faire croire qu’une constante transformation accélérée du monde par l’innovation technologique, elle-même commandée par le marketing spéculatif, est inéluctable, et que There is no alternative (TINA). S’opposer à cette fable, c’est affirmer qu’en effet nous vivons une transition et qu’on peut l’appréhender à partir de la métaphore de la « métamorphose. Ce n’est pas une simple transition technologique[3], mais une chrysalide organologique à trois dimensions constituant trois individuations corrélées, c’est-à-dire s’accomplissant à travers un processus de transindividuation psychique, technique et social, cependant qu’entre ces trois dimensions, et à l’intérieur de chacune d’elles, il y a des conflits.
Il y a évidemment une transition, et elle est entre deux modèles industriels :
- le consumérisme, fondé sur le taylorisme, les industries culturelles et l’État providence (welfare state) conçu comme redistribution directe et indirecte des gains de productivité sous forme de salaires pour des employés à la fois producteurs et consommateurs, c’est-à-dire dotés d’un pouvoir d’achat ;
- une société intégralement automatisée où il n’y a plus d’emploi, ni donc de pouvoir d’achat obtenu par un salaire, ni donc de producteur/consommateur, et qui doit de toute évidence instituer un nouveau processus de redistribution. Redistribution non pas du pouvoir d’achat, mais du temps. Le temps de constituer des savoirs et notamment des savoirs d’achat régissant les valeurs d’usage et les valeurs d’échange en fonction de valeurs pratiques et sociétales.
Parmi les transformations technologiques, certaines provoquent des changements de système technique. C’est le cas avec la technologie numérique. Et parmi les changements de système technique, certains provoquent des changements de civilisation : c’est le cas de l’écriture manuscrite et de l’imprimerie, et c’est aussi le cas du système technique numérique. Mais cette transformation fait, aussi, certainement apparaître une nouvelle forme de vie humaine au sens où en apparurent à l’époque du Paléolithique supérieur puis avec le Néolithique[4]. Une transformation d’une telle ampleur est tellurique au sens où elle bouleverse les fondements de la vie dans tous ses aspects, et pas seulement de la vie des êtres humains. C’est ce que l’on appelle l’Anthropocène.
[1] et des pulsions de destruction
[2] un storytelling
[3] et ce tout d’abord du fait qu’il n’y a jamais rien de simplement technologique
[4] Le Néolithique est une période de la Préhistoire marquée par de profondes mutations techniques, économiques et sociales, liées à l’adoption par les groupes humains d’un modèle de subsistance fondé sur l’agriculture et l’élevage, et impliquant le plus souvent une sédentarisation. Les principales innovations techniques sont la généralisation de l'outillage en pierre polie, la poterie, ainsi que le développement de l'architecture. Dans certaines régions, ces mutations sont telles que certains auteurs considèrent le Néolithique comme le début de la Protohistoire1
Pour Stiegler il est encore temps de penser, de rêver les conditions de réalisation de ses rêves, dans le monde contemporain. Cela passe par une pensée nouvelle des automatismes et de la désautomatisation, dans laquelle les automates viendraient servir la désautomatisation, ce qui est une question de conception des systèmes et infrastructures fondés sur les rétentions tertiaires numériques. Cela doit se produire parce que le capitalisme totalement computationnel est structurellement autodestructeur, c’est-à-dire absolument entropique. C’est notre responsabilité de créer les conditions d’installation d’une dynamique néguentropique à partir de ce potentiel contemporain d’automatisation et de désautomatisation.
La lecture de ces premiers chapitres de La société automatique nous a confronté avec des premiers concepts et éléments de vocabulaire. C’est à partir d’eux que nous pourrons établir progressivement, en les confrontant avec les lectures à venir et des compléments issus de l’actualité politique, économique, éditoriale et culturelle, nos « repères pour un monde numérique ».
Je vous propose un zoom sur six de ces concepts ou éléments de vocabulaire. Nous aborderons, ou non, les autres au fur à mesure de nos lectures.
Le World Wide Web (WWW), littéralement la « toile (d’araignée) mondiale », communément appelé le Web, et parfois la Toile, est un système hypertexte public fonctionnant sur Internet. Le Web permet de consulter, avec un navigateur, des pages accessibles sur des sites. L’image de la toile d’araignée vient des hyperliens qui lient les pages web entre elles.
Le Web a été inventé par Tim Berners-Lee et Robert Cailliau plusieurs années après Internet, mais c’est lui qui a rendu les médias grand public attentifs à Internet.
Depuis, le Web est fréquemment confondu avec Internet ; en particulier, le mot Toile est souvent utilisé dans les textes non techniques sans qu’il désigne clairement le Web ou Internet.
Le système technique du silicium : une machine à écrire planétaire[1]
Notre époque se caractérise par un système technique mondialisé. À l’exception de certaines zones désertiques ou très défavorisées, il est possible de faire fonctionner les principaux appareils de n’importe quelle société dans n’importe quelle autre. Les infrastructures mondialisées fournissent énergies, informations, financements, droits d’accès et connexions en tous genres, mais aussi pièces détachées, etc. Les réseaux électriques, numériques, bancaires, et les interconnexions logistiques maritimes, autoroutières et aériennes se déploient partout sur le globe.
Cet accomplissement de la mondialisation par l’extension planétaire du système technique a été rendu possible par une mutation de l’écriture qui affecta en leur cœur les systèmes psychosociaux. Le système technique n’a pu se planétariser que parce que dans le mouvement même de son industrialisation, il est devenu un système mnémotechnique mondialisé à travers un processus de grammatisation généralisée.
Depuis l’apparition, au cours des années 1960, de l’informatique de gestion, devenue un aspect central de ce qu’on appelle aujourd’hui la numérisation, l’écriture constitue la principale fonction de la technologie industrielle. Elle a rendu possible l’intégration des fonctions de conception, de promotion, de distribution et de consommation au niveau planétaire. Ce fonctionnement numérique de l’écriture et par l’écriture est basé sur une double articulation fonctionnelle : celle qui permet de tirer parti des propriétés physiques du silicium, et celle qui permet de tirer parti des propriétés logico-logistiques du langage alphabétique binairement encodé.
[1] Technologiques, La pharmacie de Bernard Stiegler, éditions Cécile Defaut, 2013
Les rétentions : la rétention tertiaire [1]
Les rétentions sont ce qui est retenu ou recueilli par la conscience. Ce terme est emprunté à Edmund Husserl, mais les rétentions tertiaires sont propres à la philosophie de Bernard Stiegler.
Rétentions primaires. Elles sont ce qui arrive au temps de la conscience, ce que la conscience retient dans le « maintenant qui passe », dans le flux perceptif qui soutient la conscience. Par exemple, la rétention primaire est la présence de la note tout juste passée dans une mélodie, qui a pour conséquence que le « mi » actuel n’est pas le même selon qu’il est précédé d’un « ré » ou d’un « fa ».
Rétentions secondaires. Les rétentions secondaires sont d’anciennes rétentions primaires devenues des souvenirs. Elles appartiennent à la mémoire imaginative, et non plus à la rétention-perception, sur laquelle elles ont cependant un impact. Les rétentions primaires sont en effet des sélections, car le flux de conscience que vous êtes ne peut pas tout retenir : ce que vous retenez est ce que vous êtes, mais ce que vous retenez dépend de ce que vous avez retenu.
Rétentions tertiaires. Elles sont le propre de l’espèce humaine. Ce sont les sédimentations hypomnésiques qui se sont accumulées au cours des générations en se spatialisant et en se matérialisant dans un monde d’artefacts, de supports de mémoire[2]. Elles permettent de ce fait un processus d’individuation psycho-socio-technique.
Les rétentions tertiaires surdéterminent les rétentions secondaires qui surdéterminent les rétentions primaires.
La prolétarisation consiste, d’une manière générale, à priver un sujet (producteur, consommateur, concepteur) de ses savoirs (savoir-faire, savoir-vivre, savoir concevoir et théoriser).
La classe ouvrière a été la première classe touchée par la prolétarisation avec la perte de ses savoir-faire dès le XIXe siècle. Depuis la prolétarisation s’étend à toutes les couches de la société.
Au cours du XXe siècle c’est le consommateur qui est dépossédé de ses savoir-vivre. Prolétarisé, il ne produit plus ses propres modes d’existence. Ceux-ci lui sont imposés par le marketing qui a transformé son mode de vie en mode d’emploi.
La crise de 2008 démontre que ce sont désormais les concepteurs et les décideurs qui sont prolétarisés. Concepteurs privés de leurs savoir concevoir par l’automatisation du commerce financier (trading) qui grammatise les points de vue économiques et financiers dominants. Décideurs privés de leur savoir décider comme dans la situation qui s’est installée avec les systèmes informatiques nucléaires où la prise de décision est court-circuitée par la performance de l’arsenal informatisé.
Que la grammatisation induise à travers le développement de ses stades successifs une prolétarisation n’est pas une fatalité. C’est une question pharmacologique qui aujourd’hui se pose avec une radicalité inédite dans la mesure où la prolétarisation atteint chacun d’entre nous, installant en chacun de nous les effets ravageurs de la « bêtise systémique », atteignant toutes les fonctions sociales, des plus humbles aux plus décisives.
[1] Vidéo de Stiegler sur le mot « prolétarisation » dans « Le grand réinventaire » : http://www.legrandreinventaire.fr/les-mots/?w=P
[2] Vocabulaire d’Ars Industrialis, 424-425.
Grammatisation[1]
La grammatisation désigne la transformation d'un continu temporel en un discret spatial (des grammes). C'est un processus de description, de formalisation et de discrétisation des comportements humains (calculs, langages et gestes) qui permet leur reproductibilité. C'est une abstraction de formes par l'extériorisation des flux dans les « rétentions tertiaires » (exportées dans nos machines, nos appareils).
Grammatiser, c'est donc discrétiser en vue de reproduire. Sera nommée gramme toute unité discrète inscrite dans un support technique de mémoire[2]. Le processus de grammatisation est l’histoire technique de la mémoire. Le processus de grammatisation ne concerne pas seulement le langage[3], mais aussi les gestes et les comportements[4]. Le machinisme industriel reproduit les gestes du travail, comme l'écriture imprimée reproduit la parole en autant d'exemplaires. C'est au XIXe siècle que commence un nouveau stade de la grammatisation : le stade analogique. Il permettra au XXe siècle la production et la reproduction d’objets temporels industriels comme, par exemple, le phonographe, le cinématographe, la télévision. Le sensible sous toutes ces formes devient reproductible. Le dernier stade de la grammatisation est le nôtre : le stade numérique. C’est celui de la société hyperindustrielle où l'extériorisation des fonctions de lecture et de computation semble dissociée de l’intériorisation qui accompagnait autrefois calcul et lecture.
Il existe trois discrétisations : littérale, analogique et numérique. Elles n'ont pas les mêmes modalités de socialisation et ne produisent pas les mêmes effets épistémiques. Typiquement, on ne fait pas de calculs sur des grammatisations analogiques, alors que l’informatique est faite pour faire des calculs, des traitements. Dans le cas de l’analogique, la discrétisation est insensible pour le destinataire, tandis qu’en passant à l’appareil numérique des parties du signal m’apparaissent en tant que discrètes et manipulables, et c’est ce qui rend possible ce qu’on appelle l’interactivité : je peux agir sur l’information.
Pharmakon[1]
En grec ancien, le terme de pharmakon désigne à la fois le remède, le poison et le bouc émissaire[2].
Tout objet technique est pharmacologique : il est à la fois poison et remède. Le pharmakon est à la fois ce qui permet de prendre soin et ce dont il faut prendre soin, au sens où il faut y faire attention. C'est une puissance curative dans la mesure et destructrice dans la démesure. Cet à la fois est ce qui caractérise la pharmacologie qui tente d'appréhender par le même geste le danger et ce qui sauve.
Toute technique est originairement et irréductiblement ambivalente : l'écriture alphabétique, par exemple, a pu et peut encore être aussi bien un instrument d'émancipation que d'aliénation. Si, pour prendre un autre exemple, le web peut être dit pharmacologique, c'est parce qu'il est à la fois un dispositif technologique associé permettant la participation et un système industriel dépossédant les internautes de leurs données pour les soumettre à un marketing omniprésent et individuellement tracé et ciblé par les technologies du user profiling.
En principe, un pharmakon doit toujours être envisagé selon les trois sens du mot : comme poison, comme remède et comme bouc émissaire (exutoire). C'est ainsi que la démarche curative des Alcooliques anonymes consiste toujours à mettre d'abord en valeur le rôle nécessairement curatif et donc bénéfique de l'alcool pour l'alcoolique qui n'a pas encore entamé une démarche de désintoxication.
Qu'il faille toujours envisager le pharmakon, quel qu'il soit, d'abord au point de vue d'une pharmacologie positive ne signifie évidemment pas qu'il ne faudrait pas s'autoriser à prohiber tel ou tel pharmakon. Un pharmakon peut avoir des effets toxiques tels que son adoption par les systèmes sociaux sous les conditions des systèmes géographiques et biologiques n'est pas réalisable, et que sa mise en œuvre positive s'avère impossible. C'est précisément la question que pose le nucléaire.
[1] Vocabulaire d’Ars Industrialis, 421-422.
[2] La question du pharmakon est entrée dans la philosophie contemporaine avec le commentaire que Jacques Derrida a donné de Phèdre : « La Pharmacie de Platon », La Dissémination, Seuil, 2003. Le pharmakon qu'est l'écriture (comme hyppomnésis) est ce dont Platon combat les effets empoisonnants et artificieux en y opposant l’anamnesis comme activité de « penser par soi-même ». J. Derrida montre que là où Platon oppose autonomie et hétéronomie, celles-ci cependant composent sans cesse.
Cette troisième partie a vocation à devenir, au fil des cours la plus importante. Nous y confronterons les concepts et éléments de vocabulaire dégagés de la lecture des quatre livres au programme à l’actualité politique, économique, éditoriale et culturelle.
À ce premier stade je vous propose de confronter à cette actualité, telle que chacun de nous peut la percevoir, deux concepts de la philosophie de Bernard Stiegler : ceux de Prolétarisation et de Pharmakon.
Concernant l’actualité je vous avais fourni le 5 octobre un recueil d’articles du Monde diplomatique :
- Résister à l’uberisation du monde (septembre 2015)
- L’ordolibéralisme allemand, cage de fer pour le Vieux Continent (août 2015)
- Police de la pensée économique à l’Université (juillet 2015)
- Feu vert à la surveillance de masse (juin 2015)
- Une hégémonie fortuite (mai 2015)
- Périssables démocraties (avril 2015)
- Les recettes des nouveaux pragmatiques (avril 2015)
- Dette publique, un siècle de bras de fer (mars 2015)
- Loi Macron, obscur objet du désir (mars 2015)
- Assauts contre les Lumières (février 2015)
- Le rêve de l’harmonie par le calcul (février 2015)
- Privés de vie privée (janvier 2015)
Je l’ai complété pour ce cours par un deuxième recueil de quatre articles, dont deux envoyés par Maryse Magnier[1] :
- Cette ville qui vaut un milliard ne sera jamais habitée (Le Figaro, 7 octobre 2015)
- Algorithm predicts sexual orientation of men with up to 70% accuracy, say researchers (The Guardian, 8 octobre 2015)
- Numérique : pour un nouvel âge démocratique (Médiapart, 8 octobre 2015)
- Une avancée importante pour le droit de savoir (Médiapart, 8 octobre 2015)
J’ai ajouté à ma bibliothèque d’essais sur le numérique : À quoi rêvent les algorithmes, Nos vies à l’heure des big data, de Dominique Cardon, La République des Idées, Éditions du Seuil, octobre 2015.
[1] N’hésitez pas à faire de même en m’envoyant des articles en lien avec ce cours.