Le séminaire Pharmakon en hypertexte : 2017

Séance 8 : Cosmopolitique de l’Internation 1 : à propos de l’exorganisme planétaire et de ses fonctions

Séance 8 : Cosmopolitique de l’Internation 1 : à propos de l’exorganisme planétaire et de ses fonctions

Questions de micro- et macro-cosmologie

Bernard Stiegler

Bernard Stiegler, « Séance 8 : Cosmopolitique de l’Internation 1 : à propos de l’exorganisme planétaire et de ses fonctions », dans Michel Blanchut, Victor Chaix (dir.), Le séminaire Pharmakon en hypertexte : 2017 (édition augmentée), Laboratoire sur les écritures numériques, Montréal, 2025, isbn : , https://pharmakon.epokhe.world/seminaire-hypertexte/2017/seance8.html.
version 0, 20/12/2025
Creative Commons Attribution-NonCommercial-ShareAlike 4.0 International (CC BY-NC-SA 4.0)

Enregistrement du 15 mars 2017 sur l’instance Peertube de la MSH Paris-Nord

Crédits : Épokhè et consortium CANEVAS

Source

Avant de rentrer dans le sujet à proprement parler de la session aujourd’hui, je voudrais reprendre très sommairement deux questions qui ont été abordées d’une part dans le cadre d’une réunion de la chaire de recherche contributive et d’autre part du séminaire de « l’équipée » où il a été question en particulier des rapports entre les communs et des questions de droit. Sur ce point particulièrement nous avons discuté des rapports entre la puissance publique et la puissance privée et nous d’une part et d’autre part, dans un contexte qui est celui de la chaire de recherche contributive et qui a pour ambition de réinventer la puissance publique locale mais aussi nationale, l’échelle micro-politique mais aussi macro-politique, micro-économique et macro-économique, donc la question est posée ici des rapports entre la puissance publique et la puissance privée et aussi et du coup des rapports entre le doit public et le droit privé. Ici je voudrais souligner, pour y revenir plus tard, ce sera un enjeu des séances d’avril de ce séminaire qui sera plus spécifiquement consacré aux questions de droit et en lien avec le programme Nextleap, je voudrais souligner que le droit en tant que droit politique, positivement formalisé en particulier à partir de la Grèce ancienne, le droit ménage toujours la protection de ce qui est privé et ici, la sphère publique c’est ce qui ne peut pas être confondu avec la sphère privée laquelle ne peut pas être capturée, absorbée et effacée par la sphère publique mais il faut comprendre ici que dans ce cas on parle d’espace privé en un sens qui n’a rien à voir avec ce qu’on appelle aujourd’hui le privé, qui est le privatisé c’est-à-dire ce qui est soumis à la propriété privée d’une activité économique qui devient une puissance économique qui est entrée en compétition depuis fort longtemps avec la puissance publique.

Si je le dis c’est pour introduire une problématique sur laquelle je reviendrai en avril qui est la question du secret. L’espace privé, au sens où c’est l’espace du foyer, Hestia, est aussi l’espace du secret. Et ce secret, dont Jacques Derrida avait beaucoup parlé à la fin de ses séminaires à l’École des hautes études, ce secret a une fonction, il doit être préservé parce qu’il a une fonction et je soutiendrai dans ce séminaire et dans les prochaines années s’il y en a, que cette fonction est la fonction néguentropique ou néguanthropologique par excellence ; c’est la fonction de préservation de la possibilité de bifurcations absolument improbables. Voilà le premier point que je voulais introduire et ça renvoie sur des questions mystagogiques dont j’ai l’intention, j’espère aussi, creuser le sujet dans un livre qui s’appelle Mystagogies qui n’est toujours pas terminé et qui passe par les questions artistiques notamment. D’autre part, avant de rentrer dans la question de la session d’aujourd’hui, je voudrais revenir sur un débat que nous avons eu lundi matin de cette semaine, et en vue de préparer un travail que nous allons devoir faire à savoir répondre à un appel d’offre dans le cadre du Projet d’investissement d’avenir sur les territoires innovants et dans ce contexte-là qui va être extrêmement déterminant pour les activités de la chaire de recherche contributive dans les semaines qui viennent, je voudrais revenir sur une question qu’a soulevée Olivier à propos de ce qu’on appelle parfois la morphogenèse des villes, ce que j’appelle moi-même leur métabolisme – c’est un terme d’ailleurs couramment usité dans l’urbanisme – mais que j’utilise là pas simplement pour décrire les flux internes des exorganismes urbains mais les processus de leur croissance, ce qu’on appelle aujourd’hui de leur développement qui est toujours, évidemment, une organogenèse exosomatique ; par exemple le développement d’une métropole par la création de zones commerciales, de nœuds de circulation ou de quoi que ce soit, c’est en fait une croissance exorganique qui est conditionnée par, je ne sais pas si on doit appeler ça des lois, mais en tout cas par des dynamiques qui ont des régularités qu’on retrouve dans toutes sortes de villes différentes et qui sont l’objet de l’urbanisme. Sur ce point, je voudrais faire un petit développement ; il y a une histoire des exorganismes ; le concept d’exorganisme, dans ce séminaire consacré à la micro et macro-cosmologie, c’est nouveau, en général, et c’est nouveau dans mon propre vocabulaire ; il y a très peu de temps que j’emploie cette expression. Je soutiens, depuis que je travaille en particulier à ce séminaire, qu’il y a des exorganismes dès le début de l’exosomatisation, autrement dit avant le paléolithique supérieur mais on n’en sait à peu près rien parce que ce qui nous en reste, ce ne sont que des fossiles, humains d’une part, et d’autre part des instruments ; c’est le temps de ce que Sigmund Freud, dans Totem et tabou, des hordes et là, je voudrais insister sur un thème très important ; Freud tente de penser cet espace exosomatique ou exorganique primordial que serait la horde – il s’appuie sur des travaux et des hypothèses de Richardson et de certains anthropologues du XIXème siècle y compris d’ailleurs des travaux de Darwin - Freud donc tente de penser ce qui constituerait « le premier code du droit » ; étant donné qu’on a pas de traces de cette époque des hordes autres que des objets de silex taillés – qui sont ce que j’appelle des rétentions tertiaires cristallines ; elles se sont conservées pendant des millions d’années parce qu’elles sont cristallines justement - on ne sait à peu près rien de ces exorganismes que devaient former ces petites communautés dont on sait quand même en revanche qu’elles étaient nomades, qu’elles suivaient des troupeaux de rennes notamment en Europe du nord – et pas seulement en Europe du nord puisqu’il y a eu des périodes de glaciation où toute l’Europe était habitées par des rennes. On sait à partir du paléolithique supérieur, c’est-à-dire à l’époque des grottes ornées (grotte Chauvet), on commence à savoir beaucoup plus de choses parce que comme je l’ai déjà dit dans ce séminaire d’ailleurs, nous voyons ce que voient les êtres exorganiques de cette époque-là à savoir des rétentions tertiaires hypomnésiques ; la connaissance des êtres exorganiques va être évidemment beaucoup plus grande lorsque vont apparaître les processus de sédentarisation à partir du néolithique qui vont faire émerger des formes exorganiques tout à fait nouvelles parce qu’elles sont territorialisées et que, autrement dit, elles constituent des unités territoriales qui rassemblent des sédentaires qui vont partager des formes de vie communes, exorganiques, abandonnant partiellement ou totalement le statut de chasseurs-cueilleurs nomades pour entrer dans l’exorganisation d’un territoire qui va devenir un exorganisme urbain à proprement parler autour duquel va se constituer ce qu’on appellera l’arrière-pays et c’est là que commencent à se configurer les formes urbaines telles qu’on les connait depuis pratiquement le néolithique mais qui se sont énormément transformées elles-mêmes, qui sont tout d’abord de petites unités de concentrations villageoises mais qui vont progressivement devenir de véritables villes, des villes qui vont devenir même parfois très importantes autour de palais constituant des concentrations palatiales (Persépolis) et ce qui va se former là c’est une autorité, qui est d’abord en général une autorité pharaonique basilique et divine, c’est l’époque du prêtre-roi.

Je ne vais pas faire ici une histoire et une archéologie des exorganismes urbains parce qu’on en pas le temps et que je n’en suis pas capable ; il faudrait pour ça s’appuyer sur les travaux de Jean-Paul DemouleLa Révolution néolithique en France La Découverte↩︎ que d’ailleurs nous pourrions peut-être un jour inviter en particulier si nous travaillons de manière approfondie sur la ville vraiment intelligente comme nous l’appelons, la truely smart city ; il faudrait aussi lire des historiens géographes tels par exemple Marcel RoncayoloLectures de villes. Formes et temps Editions Parenthèses↩︎ ; il en sera question dans le nouvel appel d’offre que nous allons diffuser bientôt puisque nous espérons trouver avec cet appel d’offre les ressources d’un chercheur en géographie urbaine. En tout cas, les formes urbaines se constituent autour de fonctions et en particulier à partir du XIXème siècle spécifiquement, mais même avant, des fonctions économiques qu’il faut décrire précisément. La fonction du village néolithique, ce n’est pas celle de la ville basilique ou celle de cité grecque évidemment, qui n’est pas non plus celle de la ville productive du XIXème siècle après la ville marchande de la Renaissance ou du Moyen-âge. Ce qui va se passer, et ça concerne spécifiquement St-Denis qui était une haute place de marché dans le Moyen-âge et où se tenait une grande foire, ce qui va se passer au XXème siècle à travers le développement du réseau automobile et de toutes sortes de fonctions qui vont accompagner le réseau automobile mais aussi les réseaux de radio et de télévision, c’est ce qui va transformer en profondeur l’espace urbain à travers de nouveaux types de réseaux notamment de réseaux routiers qui vont constituer des zones et de nouvelles fonctions qui va conduire à un fonctionnalisme en architecture (Le Corbusier) aujourd’hui un peu décrié ; cette évolution du XXème siècle, c’est quelque chose dont il faut nous occuper très systématiquement parce qu’elle constitue l’urbanité industrielle dans laquelle nous vivons toujours, c’est encore notre paysage, c’est un paysage dans lequel nous resterons encore longtemps – la société industrielle se transforme en profondeur mais nous ne sommes pas du tout dans un espace urbain postindustriel ni d’ailleurs postmoderne ou quoi que ce soit - nous sommes dans un nouveau type d’exorganisme urbain qui articule des exorganismes urbains et des exorganismes industriels que j’appelle moi-même hyperindustriels. Ces questions sont très importantes pour nous puisque ce que nous voulons faire sur le territoire de Plaine Commune, c’est une ville vraiment intelligente qui appartienne à cet âge des exorganismes qui eux sont réticulés par des fonctions d’un nouveau type dont je vais parler bientôt.

A travers l’exorganisme industriel qui apparaît au cours du XVIIIème siècle, les fonctions de la ville vont être dans certains cas absorbées presque intégralement par la fonction industrielle (voir les anciens corons et comment ils ont été structurés par les Charbonnages de France ; parmi les plus anciens territoires industriels de France, et même d’Europe). Cela dit, il y a toutes sortes d’autres formes d’absorption de fonctions industrielles par la ville, par l’exorganisme urbain (p. ex. un projet de développement urbain s’opère à travers des fonctions industrielles et commerciales) et il faut bien considérer aujourd’hui que ces questions de développements à l’aune de ce qui constitue les nouveaux exorganismes. Ce que je voudrais faire aujourd’hui c’est montrer que les exorganismes qui se sont constitués au XIXème siècle et que Andrew Ure a développé dans sa Philosophie de la manufacture sont à l’origine de ce que nous vivons maintenant à savoir un processus de synchronisation et de réticulation concrétisées en vue de réaliser des économies d’échelle. Ce séminaire est consacré en grand partie aux relations d’échelle entre les niveaux microcosmique, microéconomique, micropolitique et macrocosmique, macroéconomique et macropolitique en particulier, jusqu’à l’échelle de la biosphère ce qui veut dire que la macropolitique est aujourd’hui une géopolitique et ces relations d’échelle, elles ont été radicalement modifiées au XIXème siècle avec l’apparition des exorganismes industriels parce que ceux-ci se sont organisés essentiellement autour de l’organisation de gains de productivité fondés sur ce qu’on appelle en économie des économies d’échelle.

Je voudrais vous amener à comprendre ce qui s’est passé en terme de transformation des fonctions industrielles dans ce domaine des échelles et qui a fini par conduire aujourd’hui à une technologie de scalabilité qui permet en faisant précisément de nouveaux types d’économie d’échelle à travers de nouvelles relations d’échelle de former des exorganismes planétaires, comme par exemple Amazon que presque tout le monde connaît et que presque tout le monde utilise, qui constituent des fonctions qui ne sont plus simplement urbaines – Amazon est d’une façon plus générale ce qu’on appelle le capitalisme des plateformes - mais biosphérique qui instaurent des fonctionnalités de la biosphère à l’échelle planétaire ; c’est le nouveau contexte absolument majeur rompant complètement avec 250 ans d’histoire de l’anthropocène que nous devons désormais étudier très précisément car le projet que nous menons à Plaine Commune doit être étroitement pensé en relation avec cette évolution où nous pensons, c’est la thèse fondamentale de ce programme, que ces exorganismes planétaires ont des tendances entropiques, autodestructrices, extrêmement toxiques, productrices d’innombrables externalités négatives, qui reposent sur un capitalisme de prédation, faisant travailler des gens sans les payer etc. et nous pensons que ces exorganismes planétaires doivent être amenés à se reconfigurer, peut-être en transformant profondément pour s’articuler avec des micro-échelles comme celle de notre territoire de Plaine Commune au sens où ces micro-échelles qui sont donc des localités, des micro-localités, sont des échelles de la production de bifurcations néguentropiques et ici il est important de poser que ce que disait au départ l’entreprise Apple lorsqu’elle s’était lancée dans ce qui a conduit au Macintosh au début des années 80 contre Big Blue, IBM en l’occurrence : son slogan étant « small is beautiful » ; nous devons nous réapproprier ce slogan pour en faire non pas un slogan mais une « pansée » avec un a et pas simplement avec un e. Nous devons en faire une façon de pa/enser, une façon de vivre, un art de vivre et une économie de la localité néguanthropologique qui ne s’oppose pas à la macroéconomie biosphérique, en même au-delà, mais qui compose avec elle pour produire des bifurcations porteuses d’avenir et porteuses autrement dire aussi de solvabilité au-delà du modèle extrêmement toxique du consumérisme planétaire que les plateformes portent à un niveau de rupture, à une limite qui celle que je présenterai dans un instant comme une eschatologie, non pas au sens simplement religieux mais au sens où en grec « limite » ça se dit eschaton.

J’avais annoncé dans le message qui rappelait cette séance et qui en esquissait les intentions générales, j’avais rappelé que le but de ce séminaire c’est aussi de réinterpréter un texte très important d’Emmanuel Kant qui s’appelle Idée d’une histoire universelle d’un point de vue cosmopolitique qui a joué un rôle de référence dans la construction de la Société des Nations en 1919 après la première guerre mondiale – et la Société des Nation, c’est une expression que l’on trouve dans le texte de Kant ; a propos de ce texte, je voudrais souligner un point qui me paraît fondamental et qui est que Emmanuel Kant, en parlant de cosmopolitique et évidemment nous tenterons de réinterpréter sa cosmopolitique du double point de vue, d’une part des questions de microcosmologie et de macrocosmologie qui nous intéressent ici, avec toutes les questions de relations d’échelle, de technologie de calcul, de la scalabilité etc. que j’ai déjà évoquées dans les séances précédentes. Dans ce texte, Emmanuel Kant parle de statistiques et c’est une question d’une extraordinaire modernité ; pourquoi ? parce la statistique c’est ce qui commence à se développer dans la Prusse – Michel Foucault en a beaucoup parlé – elle est la science de l’Etat c’est-à-dire comme la science de la gouvernementalité ; alors qu’elle émerge, cette gouvernementalité statistique, Emmanuel Kant l’a très bien en vue (VIII, 17). J’y insiste parce qu’évidemment, j’en ai parlé d’ailleurs dans La société automatique, ce qui se passe entre Emmanuel Kant et nous au XXIème siècle, c’est un passage de la gouvernementalité fondée sur la statistique c’est-à-dire de la gouvernementalité d’Etat à ce que Berns et Rouvroy ont appelé La gouvernementalité algorithmique qui n’est plus du tout celle de l’Etat mais précisément celle des plateformes et ici nous devons faire une critique et d’Emmanuel Kant et du capitalisme des plateformes et de sa gouvernementalité algorithmique à partir d’une référence qui évidemment ne peut pas être mobilisée par Kant lui-même puisqu’elle n’arrive que 20 ans après sa mort à savoir la question de l’entropie et de la thermodynamique telle qu’elle va conduire à une conception du cosmos complètement différente de celle de Newton et complètement différente donc du cadre cosmologique qui est encore celui de Kant dans sa cosmologie rationnelle exposée dans sa Critique de la raison pure. Si j’en parle, ce n’est uniquement pour mettre en valeur des questions d’histoire de la philosophie qui nous importent au plus haut point dans ce séminaire mais c’est parce que je voudrais au cours de l’été prochain à Epineuil réunir un aréopage de personnalités de toutes les disciplines académiques et éventuellement d’autres disciplines, politiques, artistiques, technologiques, industrielles pour réfléchir à la manière dont nous pourrions essayer de penser l’articulation entre le microcosmique et le macrocosmique du point de vue de l’internation tel qu’il est développé par Marcel Mauss en 1920, un an après la création de la Société des Nations qui conduira, comme vous le savez, à la catastrophe de la seconde guerre mondiale exactement 20 ans après la création de la SDN. Je voudrais combiner la lecture et la réinterprétation de ces deux discours de Kant d’une part et de Mauss d’autre part en prenant particulièrement en compte ce que dit Marcel Mauss d’une part de ce que c’est que la nation, d’autre part de la question de la localité de toute réalité culturelle, de son idiomaticité aussi – ça renvoie à mes questions idiomatiques et idiotextuelles évidemment de ce point de vue-là – mais également de ce que Mauss dit de l’apparition prochaine de réseaux qui transformeront profondément ce que Vernadsky, que Mauss ne connaît pas encore – appellera la biosphère. C’est dans ce contexte-là que nous sommes aujourd’hui, ce contexte que j’appelle l’entropocène avec un e et sans a. Voilà pour resituer cette session dans la trajectoire générale de ce séminaire et ceci ayant été fait, je voudrais rentrer dans la matière à proprement parler de cette session.

En 1993, l’anthropocène s’est installé en franchissant le seuil de l’échelle planétaire ; 1993, c’est aussi l’année où Jeff Bezos crée la société Amazon en ayant une bonne compréhension, je crois, de ce qui se prépare au CERN dont je suis convaincu que la CIA explore de très près ce qui s’y concocte comme suite logicielle et nouveau format et nouvelle norme d’hypertexte qu’on appelle html et qui va conduire le CERN à rendre public toute cette suite logicielle le 30 avril 1993 ce qui va déclencher un processus disruptif absolument colossal sans aucun précédent historique et dont nous n’avons par encore mesuré du tout la portée. Le world wide web a concrétisé, au sens très précis que Simondon donne à ce verbe à savoir comme intégration fonctionnelle dans ce qu’il appelle une convergence technologique des machines industrielles, ce que Heidegger a appelé le Gestell depuis 1949, c’est-à-dire depuis la conférence qui a pour titre La question de la technique. Qu’est-ce que le Gestell ? c’est l’histoire de l’être lorsque l’être est devenu une concrétion – j’emploie le mot « concrétion » en pensant aussi à la « concrescence » de Whitehead – de la métaphysique, comme dirait Heidegger lui-même, sous la forme d’une infrastructure industrielle réticulaire et planétaire qui est rendue possible – c’est moi qui parle cette fois-ci – par la rétention tertiaire numérique. C’est cela que la cybernétique, dont en 1966, dans un entretien pour des Spiegel, Heidegger dit qu’elle remplace la philosophie, va concrétiser en installant un nouveau type de milieu associé techno-géographique dont nous avons un petit peu parlé tout au début de ce séminaire et qui était aussi le premier objet de discussion de Réenchanter le monde, le manifeste d’Ars Industrialis. Aujourd’hui en 2017, presque la moitié de la population mondiale est reliée en permanence aux plateformes et à leurs réseaux, où qu’elles soient parce qu’il existe un système satellitaire d’échelle planétaire qui couvre la totalité du territoire terrestre.

C’est ainsi qu’ont été réunies les conditions pour que s’installe la disruption qui est fondée sur la vitesse de transmission et de traitement computationnel de l’information, à savoir que le traitement de l’information peut se produire aux deux tiers de la vitesse de la lumière c’est-à-dire incomparablement plus rapidement que le traitement de l’information, s’il y en a, dans l’activité noétique des êtres exosomatiques que nous sommes. C’est ainsi que la technique moderne comme l’appelle Heidegger dans La question de la technique, la conférence de 1949, qui est en réalité le capitalisme, a concrétisé le Gestell c’est-à-dire la disruption comme infrastructure organique d’échelle planétaire. Il y a des infrastructures, comme celles d’Amazon par exemple, qui sont d’échelle planétaire et même, pourrait-on dire, extraterrestres, relativement, puisqu’elles sont à la limite de l’entour de la planète ; on dit qu’elles sont à limite, c’est qu’elles sont à la limite de son attraction planétaire.

Le smart capitalism qui est issu de la disruption héberge de toute évidence une tendance à la totalisation puisqu’il effectue des calculs qui totalisent, sous forme d’additions, de soustractions et de multiplications, des comportements et de ce point de vue-là, ce smart capitalism est une sorte de soft totalitarism, une sorte de technologie de totalisation qui conduit à des tendances totalitaires c’est-à-dire des tendances à éliminer toute singularité c’est-à-dire toute possibilité improbable de bifurcation qui permettrait au système dynamique qu’est la biosphère exosomatisée d’ouvrir une possibilité d’avenir dans son devenir entropique et si le capitalisme des plateformes peut avoir cette tendance entropique extrêmement dangereuse c’est parce qu’il met en œuvre d’une manière totalement hégémonique et illimitée, sans critique autrement dit au sens où la critique c’est la délimitation, c’est l’énonciation de limites, c’est toujours une sorte d’eschatologie, le discours sur les limites, ce capitalisme donc met en œuvre des opérations de calcul qui constituent son allagmatique – je reprends ici l’expression de Simondon expliquée à la fin de L’individuation à la lumière des notions de forme et d’information, la grand thèse de Simondon à la fin de laquelle vous trouvez un petit texte de 10 pages qui explique ce que c’est que l’allagmatique et sur lequel, pour ceux qui connaissent bien pharmakon, vous savez que Anaïs Noni a fait des travaux très importants et je crois qu’elle les continue. Qu’est-ce qui caractérise l’allagmatique du smart capitalism ou encore capitalisme des plateformes, totalisant sinon proprement totalitaire ? c’est qu’il est fondé sur des économies d’échelle d’ampleur planétaire se produisant à la vitesse de la lumière et ce faisant, il impose un processus de dénoétisation massive qui est lui-même fondé sur un processus de prolétarisation des échanges en tout genre qui a commencé dès la fin du XVIIIème siècle en Angleterre mais qui, avec l’allagmatique computationnelle de la rétention tertiaire numérique, réticulaire, a permis le développement d’un entendement automatisé, entièrement automatique, complètement indépendant de la fonction de la raison et qui, du coup, devient entropique. C’est la raison pour laquelle nous soutenons qu’il faut repenser ce capitalisme des plateformes, en faire une critique qui n’est pas simplement une critique formelle mais qui vienne objecter à ce capitalisme des plateformes des architectures de données différentes des architectures qu’il promeut lui-même sur ses propres plateformes et différentes des architectures de données qui aujourd’hui caractérisent le world wide web c’est-à-dire ce qui a été initié d’abord avec html et ensuite avec les nouvelles versions qui sont apparues, comme vous le savez certainement depuis. Ce soft totalitarism, ce totalitarisme de de la totalisation algorithmique que Berns et Rouvroy appellent la gouvernementalité algorithmique c’est un totalitarisme de la modulation au sens où Gilles Deleuze avait commencé avant quiconque à méditer cette transformation en essayant de penser ce qu’il avait appelé les sociétés de contrôle pour les différencier de ce que Foucault décrivait comme étant les sociétés disciplinaires. Cela dit, ce capitalisme smart qui repose sur les calculs et qui réduit l’intelligence au calcul, ce qui est une immense erreur, et à fortiori la noèse qui elle-même ne se réduit pas à l’intelligence mais en aucun cas la noèse n’est réductible au calcul, parce qu’il est réductionniste en ce sens-là et ce réductionnisme est en fait celui du cognitivisme, du comportementalisme, ce smart capitalism conduit à des situations qui sont économiquement insolvables, environnementalement insoutenables et psycho-socialement insupportables et engendre des régressions autoritaires qui, elles, ne sont pas du tout soft, mais parfaitement hard, qui mettent en œuvre des processus de sélection, de répression, de soumission, d’intimidation dont il faut craindre évidemment que les entreprises computationnelles disruptives s’en accommodent tout à fait car en fait elles en ont besoin. C’est la raison pour laquelle Peter Thiel dont nous lirons un texte précisément lorsque nous lirons Marcel Mauss et Emmanuel Kant, un texte de 2009 où Peter Thiel déroule sa conception de la politique à l’époque du smart capitalism, nous verrons comment, en fait, ce libertarien a besoin d’une autorité d’Etat, d’une puissance publique répressive, mobilisant la police et l’armée, réduisant ses fonctions essentiellement à celles de la répression mais ayant absolument besoin de cette puissance publique de répression pour précisément ne pas l’assumer elle-même. On peut imaginer, cela dit, c’était un peu à l’horizon de la guerre de l’Irak deuxième édition de Georges Busch Jr que tout cela conduise à une privatisation de la police et de l’armée, on le sait bien, c’est une des possibilités d’évolution de ce modèle libertarien mais je ne suis pas sûr que ce soit immédiat et je pense plutôt qu’en effet le néonationalisme de Trump va au contraire réactiver les fonctions régaliennes répressives de l’Etat fédéral américain.

La dénoétisation, c’est ce qui caractérise la gouvernementalité algorithmique ; c’est dans ce contexte-là uniquement qu’est possible ce qu’on appelle la post-thruth, la post-vérité ; la dénoétisation c’est ce qui résulte d’un non redoublement épokhal qui caractérise la disruption - c’est ce que j’ai essayé de décrire dans La société automatique mais aussi dans Dans la disruption, comment ne pas devenir fou – et qui instaure en ce moment ce que j’ai décrit, dans un ouvrage en cours, comme une paralysie noétique qui provoquée par la réticulation systémique telle que la rétention tertiaire numérique la rend possible ; mais la réticulation systémique ne commence pas à la fin du XXème siècle avec le world wide web ; en fait, elle se met en place dès la fin du XVIIIème siècle ; l’usine, telle que Andrew Ure l’analyse et qu’il la nomme « une fabrique » qu’il étudie en 1835 et dont Marx reprend les concepts en 1857 c’est-à-dire dans les Grundrisse, est avant tout un réseau c’est-à-dire d’une organisation sous contrôle d’agents de maîtrise qui, à travers ce réseau social que constitue la hiérarchie, synchronise des relations fonctionnelles entre machines que servent des ouvriers qui sont devenus des prolétaires et qui, de ce fait, sont appelés à disparaître comme le comprend très bien Marx dès 1857 et comme il l’annonce ; ce que nous vivons aujourd’hui, c’est ce que Marx anticipe donc en 1857. Les prolétaires, ce ne sont plus des ouvriers, qui sont devenus des pièces de ce vaste automate – c’est une expression de Andrew Ure - qu’est devenue la fabrique, les prolétaires peuvent disparaitre dès lors que le réseau peut devenir non plus celui qui était encore social de la hiérarchie et de la maîtrise assurant le fonctionnement du commandement et qui d’ailleurs reproduit celui de l’armée comme on le sait bien - les analyses de Foucault insistent beaucoup sur ce point : la discipline des sociétés disciplinaires, c’est d’abord celle qui se configure à l’armée et d’ailleurs dans la maîtrise d’une machine à feu qu’on appelle le fusil ou le canon qui impose déjà une synchronisation des corps d’armée et un faire corps tout a fait particulier qu’on retrouve d’ailleurs dès les éléments d’organisation stratégique des armées romaines puisque tout le monde sait que par exemple les armées romaines avaient la capacité à « faire la tortue » c’est-à-dire à avancer sous des boucliers pour se protéger des catapultes et autres projectiles (faire la tortue qu’est-ce que c’est ? c’est former un exorganisme tout à fait temporaire qui correspond à une figure militaire, stratégique ou tactique, elle-même appuyée sur des instruments exosomatiques de guerre, des armes, des boucliers etc.

L’usine c’est qui va évoluer au cours du XIXème et du XXème siècle vers ce qui va nous conduire aujourd’hui, au début du XXIème siècle au remote control computationnel comme modulation où toutes les fonctions de production, de consommation, de logistique, de marketing, de conception même sont intégrées à un vaste réseau biosphérique qui repose sur la modulation ( par exemple la modulation de la logistique just in time ; ça c’est ce que décrit déjà Deleuze ; la modulation de l’atelier flexible, des machines à commandes numériques, reprogrammables, des robots, des bots, des robots humanoïdes et androïdes, des cobots et puis des objets autonomes connectés que ce soit des automobiles, des télévisions, des réfrigérateurs ou tout ce qui plus généralement constitue l’Internet des objets) ; la fonction réticulaire est alors grammatisée par la rétention tertiaire numérique et la réticulation est ici la condition, comme mise en relation, du faire corps social mais cette question du faire corps social apparaît bien avant la fin du XVIIIème siècle ; elle apparait dès le XVIIème siècle avec les grandes philosophies du droit, de la fondation du droit naturel, de la philosophie politique qui sont celles de Hobbes, de Spinoza, de Locke notamment et cette question du faire corps social qui va devenir au XVIIIème siècle, à la fin du XVIIIème siècle, celle su faire corps exorganique de l’usine de production et on retrouve ça aussi chez David Hume d’ailleurs, traitée un peu différemment, tout ça c’est ce qui se produit à travers le processus de grammatisation lequel s’opère d’abord comme division industrielle du travail et à travers la rétention tertiaire mécanique qui progressivement absorbe le métier des ouvriers qui deviennent ainsi des prolétaires ; cela, c’est ce qui se déploie comme intégration d’automatismes pour constituer le nouveau type d’exorganismes que décrit Andrew Ure en 1935 et que Marx cite dans les Grundrisse. C’est ces nouveaux exorganismes que j’appelle industriels que Ure lui-même appelle des fabriques.

La fabrication est la fonction d’exosomatisation par excellence ; c’est qui commence non pas avec les fabriques que décrit Ure mais c’est ce qui commence avec l’exosomatisation il y a au moins 3 millions d’années, même probablement plus longtemps parce que ce processus d’exosomatisation s’entame avant l’hominisation même ; cette fonction d’exosomatisation qu’est la fonction de fabrication de tous temps se transforme profondément et radicalement lorsqu’elle devient l’exosomatisation industrielle c’est-à-dire rationalisée par la réalisation d’économie d’échelle et c’est ce qui va constituer ce qu’on appellera à partir de Karl Marx la production qui deviendra ainsi avec Marx un concept philosophique. Ici il faut citer Andrew Ure ; il écrit ceci : (c’est dans le deuxième tome) « la fabrique signifie la coopération de plusieurs classes d’ouvriers, adultes ou non adultes (c’est ce que décrit toute la littérature du XIXème siècle qui parle de la misère des enfants en Angleterre) surveillant avec adresse et assiduité un système de mécanique productive mise continuellement en action par un pouvoir central » ; voilà un propos fondamental, un pouvoir central que Michel Foucault réanalysera dans le panopticon à travers Bentham donc et dans une autre institution exorganique qui s’appelle la prison. Ainsi conçue, la fabrique exclut toute fabrique dont le mécanisme ne forme pas un système continu ce qui signifie que pour Ure ce qui caractérise la fabrique c’est ce processus de continuité ; c’est l’organisation de cette continuité qui constitue ce que j’appelle moi-même la synchronisation, un système continu qui dépend d’un seul principe moteur, voilà la question fondamentale qui forme, je cite toujours Ure, un vaste automate composé de nombreux organes mécaniques et intellectuels qui opèrent de concert et sans interruption pour produire un même objet, ce même objet pouvant être, comme Adam Smith presque 60 ans plus tôt, une épingle. La fabrique, telle que l’automatisation en constitue le cœur dès le départ c’est ce qui poursuit la fabrication devenue, dès l’origine de l’hominisation, l’organogenèse comme exosomatisation mais à partir de la fin du XVIIIème siècle, cette fabrication se produit dans des conditions absolument nouvelles qui vont vers l’automatisation elle-même gouvernée par les économies d’échelle à travers un organisme qui est encore servi à l’époque de Ure et de Marx bien entendu, par des humains mais où déjà Marx va souligner dès 1857 que ceux-ci qui deviennent des fonctions auxiliaires, qui, lorsque le savoir se sera complètement intégré à la production industrielle, dit Marx, seront superflus ; on en aura plus besoin. Ça c’est ce que nous vivons avec le smart capitalism.

L’exosomatisation en général prolonge donc l’organogenèse endosomatique par une organogenèse exosomatique que l’économie en général et Marx en particulier décrivent comme production parce que la production devient le concept central d’une science qui va se développer surtout au XVIIIème siècle qui est l’économie politique et dont Marx va produire au XIXème siècle une critique qui va venir au cœur de la philosophie mais il est très important de redire une fois encore que c’est dans L’Idéologie allemande en 1846 que Marx posera ces questions, bien avant de citer Ure et peut-être même avant de l’avoir lu, en décrivant précisément l’exosomatisation qui se produit non pas au XIXème siècle mais comme origine de l’hominisation ; c’est ce que les marxistes français derrière Althusser ont totalement oublié comme ils ont oublié les développements des Grundrisse ; c’est pour ça que la pensée politique française est spécialement indigente si on la compare à celle de l’Italie.

Telle que la décrivent Ure et Marx, la révolution industrielle constitue donc avant tout un nouveau type d’exorganismes qui sont caractérisés par la synchronisation du processus de production, synchronisation qui est appelée par Ure « continuité » et qui est conditionnée par la division industrielle du travail telle qu’Adam Smith l’analyse dans sa fabrique d’épingles au début de La richesse des nations et qui permet déjà l’automatisation. C’est cette extrême division du travail qui va conduire à l’automatisation qui va permettre à Jaccard par exemple d’implanter ses métiers et progressivement à toute l’industrie du machinisme industriel de développer les processus d’automatisation progressivement dans toutes les activités. C’est cela qui constituera la base de l’économie marxienne qui est présentée dans Le Capital et en particulier dans le chapitre qui s’appelle De la grande industrie. Dans les premiers exorganismes industriels tels que les décrit Adam Smith puis Ure puis Marx, ce qui lie en synchronisant ce n’est pas le réseau de la modulation tel que Gilles Deleuze en analyse le fonctionnement pour décrire la spécificité des sociétés de contrôle, c’est l’organisation de l’aliénation dans les sociétés disciplinaires au sens de Foucault. Dans les deux cas cependant il s’agit de configurer une organisation exorganique hautement synchronisée en fonction d’un calcul de rentabilité fondé sur une économie d’échelle et qui, à la différence des organisations sociales antérieures et après l’homogénéisation idiomatique qu’on rendues possibles les technologies linguistiques de l’imprimerie – celles que décrit Sylvain Auroux dans La révolution technologique de la grammatisation où il montre que l’Occident va prendre la maitrise du monde à travers la colonisation via un processus de grammatisation fondé sur ce qu’il appelle « les outils linguistiques » à savoir les dictionnaires et les grammaires et évidemment les techniques d’orthographie c’est-à-dire de prescriptions de normes en orthographe issues de la typographie et de l’imprimerie etc. - tout cela donc va préparer, dès la Renaissance, la Réforme puis la naissance du capitalisme que Weber décrit comme ce qu’il appelle « un nouvel esprit », un esprit du capitalisme issu d’une nouvelle forme d’église, l’Eglise réformée, c’est cela qui va rendre possible ensuite, non plus la synchronisation des idiomes comme dans les colonies conquises par les Conquistadores et les immigrés en Amérique du nord qui vont massacrer les indiens, mais par une synchronisation, cette fois-ci, de la production à laquelle, je le redis, déjà David Hume s’intéressait dans un texte très important que je citerai peut-être dans une prochaine séance.

Ce qu’il s’agit d’éliminer dans tous ces processus de synchronisation, c’est la diachronie c’est-à-dire la localité. Si maintenant on pose, comme je l’affirme depuis trois ou quatre ans, que la localité c’est l’échelle microcosmique, nécessairement microcosmique, où se produisent des bifurcations néguentropiques, alors on voit que, épistémologiquement, l’épistémè que constitue le capitalisme est une épistémè négative c’est-à-dire une épistémè qui détruit le savoir, c’est ce que j’appelle le non savoir absolu, mais j’y reviendrai plus tard. Apparus dès le début de la révolution thermodynamique, basés à la fois sur les machines à vapeur et sur les automatismes de Vaucanson et mises au service de la production par Joseph-Marie Jaccard, les exorganismes industriels que décrivent Smith, Ure et Marx deviendront au XXème siècle des entreprises transnationales à partir du moment où la synchronisation sera étendue au contrôle des comportements des consommateurs d’une part, via les industries culturelles – c’est ce que j’ai essayé de décrire dans Mécréance et discrédit et De la misère symbolique en m’appuyant sur Adorno et Horkheimer – mais aussi à travers le développement de la technologie informatique et j’y reviendrai évidemment.

Là il faut se projeter bien au-delà du concept de biopouvoir tel que le conçoit Michel Foucault ; il faut aller plus loin parce que ce qui en jeu là ce n’est le pas le bios, ce n’est en tout cas pas le biologique, ce n’est pas l’organique autrement dit ; c’est l’organologique, c’est donc le technologique et il faut repenser ce qui n’est plus simplement du biopouvoir, ni même ce que j’ai appelé du psycho-pouvoir dans les ouvrages précédemment cités, mais un neuro-pouvoir c’est-à-dire une prise de contrôle des cerveaux (Maurizio Lazzarato a eu des intuitions sur ces questions en passant par Gabriel de Tarde mais en même temps je pense qu’il faudrait discuter avec lui car son concept de capitalisme des cerveaux, il lui manque quelque chose que Maryanne Wolf lui apporte et que j’essaye moi-même d’apporter via Maryanne Wolf). Tout ceci n’est possible, ceci c’est-à-dire ces processus de synchronisation qui conduisent à la constitution d’entreprises exorganiques qui deviennent au XXème siècle transnationales comme IBM par exemple, ceci n’est possible que parce que la production exorganique n’est plus une question biologique mais une question technologique c’est-à-dire à la fois éco-nomique, organo-logique et pharmaco-logique ; au XXIème siècle et via la réticulation computationnelle, à partir du moment où va se développer le social engineering, les exorganismes industriels vont devenir fonctionnellement planétaires c’est-à-dire qu’ils vont constituer des plateformes de portée planétaire dont l’arrière-pays si je puis dire est la planète entière, est l’ensemble de la biosphère ; et alors, ces exorganismes industriels biosphériques vont réaliser des économies d’échelle à l’échelle de ce qu’on appelle les très grands nombres au sens du mathématicien Bernoulli – j’y reviendrai aussi bientôt en référence à Musil - tels que les performances du calcul intensif permettent de les calculer et de les traiter, de les transformer, de lest opérationnaliser à travers ce que j’appelais tout à l’heure l’allagmatique computationnelle de la scalabilité à travers une technologie qui celle de ce qu’on appelle en informatique théorique le calcul intensif. En se développant ainsi, ces plateformes, qui existent depuis très peu de temps s’il est vrai qu’elles se sont véritablement constituées avec le social engineering c’est-à-dire avec les réseaux sociaux lorsqu’elles ont permis de court-circuiter le World Wide Web et qu’elles sont devenues des modes d’accès au net direct, ces plateformes instaurent des monopoles fonctionnels à l’échelle de la biosphère et du Gestell et elles le font en exploitant des infrastructures satellitaires orbitales qui finiront par devenir un jour tout à fait extraterrestres, c’est l’horizon de réflexion tout à la fois de Carl Schmitt dans sa Théorie du partisan (1963) et de Peter Szendi l’interprétant tout en lisant Emmanuel Kant (on invitera une fois Peter Szendi sur ces questions mais je ne vais pas en parler tout de suite).

Il est crucial de prendre la mesure et la démesure de ce qui est en jeu ici sur le plan micro et macrocosmique à travers les techniques de scalabilité dont Google, avec le service (ou l’instrument, la plateforme) Google Earth a popularisé une dimension sensible ; la scalabilité désigne ici une gestion automatique des échelles qui est gérée par des algorithmes qui permettent de zoomer et de dézoomer comme le dit un texte de Dominique Cardon publié dans un livre qui s’appelle Digital Studies – c’est un livre qui constitue les actes du colloque que nous avions eu il y a 4 ans sur ces questions – où il avait montré que ces technologies de scalabilité ont permis le développement d’outils de visualisation qui eux-mêmes posent toutes sortes de questions du côté du Data journalism, du côté des Open datas, du côté de toute une industrie des datas et une technologie informationnelle des datas qui prépare, je crois, pour ce qui me concerne, l’ère de ce qu’on appelle aujourd’hui la post-vérité. La scalabilité automatique repose avant tout sur un effacement des potentialités diachroniques, elle élimine les singularités parce qu’elle valorise de manière systémique les moyennes, c’est ce qu’a montré Frédéric Kaplan dans sa critique du capitalisme linguistique de Google ; valoriser systémiquement les moyennes c’est conduire à l’élimination systémique de ce que Nietzsche appelle les exceptions ; autrement dit, ce qui se concrétise ainsi c’est l’accomplissement du nihilisme comme constante sélection du médiocre – le médiocre étant ici ce qui court-circuite les conditions de cette épreuve de la vérité qu’est toujours la transindividuation du singulier. Qu’est ce que l’épreuve de la vérité dont la post-vérité est en quelque sorte l’épreuve négative ? l’épreuve de la vérité c’est le fait que – et c’est d’ailleurs l’enjeu de la parrêsia dont parle Foucault dans son dernier séminaireFoucault-Le-Courage-de-la-verite-Le>↩︎ - la vérité arrive toujours comme une perturbation d’une singularité qui vient bousculer les organisations métastabilisées par les moyennes ; la vérité, de ce point de vue-là , c’est toujours ce qui est exactement le contraire du calcul des moyennes et cela signifie que la post-vérité, qui est produite par l’élimination des singularités ; d’un point de vue néguanthropologique, cela signifie « un passage à la limite » au sens de la théorie des systèmes telle que la mobilise René Passet dans son livre qui s’appelle L’économique et le vivant ; qu’est ce qu’un passage à la limite dans la théorie des systèmes ? c’est ce qui ruine la dynamique dont procède ce système ; lorsqu’un système passe à la limite, à l’eschaton si on peut dire, il se détruit parce que ce passage à la limite ruine ses propres conditions de fonctionnement ; en l’occurrence, cette destruction, c’est ce que théorise Ludwig von Bertalanffy, est provoquée par une augmentation considérable de l’entropie dans le système. Comme capitalisme smart imposant le totalitarisme soft de la totalisation computationnelle généralisée telle qu’elle est parvenue en créant des exorganismes industriels au XIXème siècle et des marchés de masse au XXème siècle à l’échelle de la synchronisation planétaire réalisant ainsi l’intégration fonctionnelle des être non inhumains devenant ainsi inhumains c’est-à-dire dénoétisés par les milieux associés réticulaires qui constituent des quasi fourmilières numériques au sens où j’en avais parlé dans La misère symbolique, le capitalisme smart donc fait que le système dynamique qu’est la vie exosomatique a atteint son extrême limite, sa limite proprement eschatologique qui est aussi la limite de la biosphère ; c’est aussi cela l’enjeu des réflexions géopolitiques de Schmitt et des commentaires qu’en donne Peter Szendi ; nous y reviendrons et nous lirons Carl Schmitt avec Nietzsche dont je parlerai dans la prochaine séance pour tenter de spécifier à la fois les enjeux de la géopolitique planétaire et déterrianisée dans La théorie du partisan de Schmitt et la portée de son concept de katechon dans sa théologie politique qui est un texte beaucoup plus ancien. Je reviendrai en détail sur toutes ces questions dans La technique et le temps tome 5 La guerre des esprits.

Je voudrais maintenant que nous nous appesantissions sur un concept extrêmement important qui est celui de ce qu’on appelle en économie les monopoles naturels. La scalabilité automatisée reconfigure radicalement la question de ce qu’on appelle depuis l’apparition des exorganismes industriels les économies d’échelle et avec elles la problématique de ces monopoles dits naturels dont je vais soutenir maintenant qu’elle est transformée par le capitalisme des plateformes en problématique des monopoles fonctionnels de la biosphère planétairement exosomatisée. Le concept de monopole naturel est étroitement lié à l’histoire des réseaux industriels qui sont apparus au XIXème siècle et de leur rapport au territoire, ces réseaux étant le réseau ferré et le réseau télégraphique etc. Il faut noter que le télégraphe est monopolisé par l’Etat en 1837 en France et qu’il en arrivera de même des réseaux ferrés ; c’est ainsi que sera créée la Société nationale des chemins de fer (SNCF) à la fin du XIXème siècle pour des raisons qui sont liées à la théorie des monopoles naturels.

Dans la théorie économique, une branche d’activité est en situation de monopole naturel sur un territoire plus ou moins vaste lorsque les économies d’échelle y sont très fortes (notice Wikipédia « monopoles naturels »)

on retrouve donc la notion d’économie d’échelle ;

 cette situation se présente le plus souvent lorsque l’activité de la branche (entendre la branche industrielle, les transports, les communications etc.) *est fondée sur l’utilisation d’un réseau au coût très élevé ce qui tend à donner une avantage déterminant à l’entreprise dominante, puis après disparition des concurrents, conduit à une situation de monopole 

Chacun sait qu’en économie, le monopole d’une puissance privée instaure une distorsion dangereuse pour l’économie et c’est une des raisons pour lesquelles il y a des lois contre les monopoles aux Etats-Unis et dans lesquelles en Europe on a souvent nationalisé – en France par exemple – ces structures-là (mais évidemment il n’y a pas que la France qui a nationalisé les Chemins de fer par exemple, ou les télécommunications ; l’Amérique même). C’est depuis cette notion même de monopole naturel et telle qu’elle agence échelle, réseau et territoire qu’il faut appréhender les enjeux de ce qui constitue la nouvelle intelligence artificielle dont nous parlerons à l’IRI à la fin de cette année, au mois de décembre au Centre Pompidou, dans un colloque qui aura pour titre « La bêtise artificielle ».

La nouvelle intelligence artificielle, qui est donc d’abord pour moi aujourd’hui une bêtise artificielle, telle qu’elle a été rendu possible par la réticulation massive de la population mondiale, l’intelligence artificielle d’aujourd’hui, c’est celle qui repose sur d’immenses bases de données dont les actionnaires des plateformes sont les propriétaires et dont nous sommes nous-mêmes les producteurs c’est-à-dire les prolétaires s’auto-exploitant c’est-à-dire exploitant leur force de travail mais aussi la liquidation de leur singularité au bénéfice d’actionnaires qui les pillent. Mettant en œuvre le calcul intensif et le deep learning, la réticulation massive, qui rend possible la production de mégadonnées, elles-mêmes accessibles via des métadonnées et qui rendent possibles les boucles de rétroaction qui s’accomplissent en temps réel à l’échelle de la planète à 200 millions de mètres par seconde, la réticulation massive donc est la fonction centrale de la transformation des exorganismes industriels territoriaux qui sont apparus au XIXème et au XXème siècle en exorganismes planétaires qui, au XXIème siècle, assurent et exploitent les fonctions exosomatiques de la biosphère et dans toutes sortes de domaines – pour l’instant la distribution telle qu’Amazon l’accomplit dans un certaine nombre de secteurs, déjà les transports avec Uber et ça va s’étendre à bien d’autres domaines des transports, mais aussi la santé comme on le sait bien avec la holding que Google a faite avec Glaxco en créant une nouvelle entreprise qui s’appelle Galvani Bioelectronics (2016) pour exploiter la médecine 3.0 etc. Cet accompagnement des ces exorganismes planétaires par les fonctions de l’intelligence artificielle consiste à ajuster automatiquement des échelles qui sont des échelles extrêmement éloignées en apparence, celles du consommateur, et même des organes du consommateur dans le cas de la médecine 3.0, celles des organes exosomatiques de ce consommateur et de son profil avec l’échelle des groupes avec lesquels il est réticulé via ces plateformes et les organes de ces plateformes, avec celles des fonctions de conception, de production, de marketing, de logistique, de distribution des exorganismes telles que ces fonctions sont elles-mêmes exploitées à l’échelle planétaire et c’est cette consolidation de ces échelles extrêmement éloignées qui est réalisée par des calculs sommés à l’échelle de la biosphère en temps réel dans le macrocosme exorganique que constitue le Gestell satellitaire piloté la fonction de calcul elle-même mise au service exclusif des calculs de rentabilité ; de rentabilité pour qui ? non pas pour l’exorganisme lui-même mais pour ses actionnaires, ça c’est très important.

Ainsi se constituent des monopoles non naturels mais fonctionnels et biosphériques par où les exorganismes industriels réticulés deviennent des fonctions planétairement unifiées de la biosphère laquelle devient elle-même ainsi un exorganisme planétaire. L’exorganisme terrestre ainsi constitué et porté dans de telles conditions aux limites de l’entropocène est-il viable ? son destin n’est-il pas plutôt, en l’état et faute d’une évolution radicale, celui des infusoires tel que Freud le décrit en 1920 en montrant que ces infusoires sont condamnées à s’autodétruire par une intoxication liée à l’incapacité à éliminer les toxines produites par leur métabolisme ? si tel est le cas, à quelles conditions faudrait-il transformer ce métabolisme pour surmonter l’auto-intoxication par ses produits qui s’appellent aujourd’hui des externalités négatives ? il s’agit du métabolisme de ces exorganismes industriels qui prétendent assumer des fonctions biosphériques et qui, en réalité, détruisent la biosphère. S’il existe de telles conditions qui permettraient de dépasser les limites de l’entropocène c’est-à-dire l’eschatologie de l’entropocène pour entrer dans l’ère de ce que nous appelons le néguanthropocène, comment est-ce possible ? notre réponse à cette question est posée depuis 2014 ; un nouvel état de fait requiert un nouvel état de droit et ce nouvel état de droit, qui doit s’appuyer sur une nouvelle économie politique elle-même constituée par une économie contributive de la néguentropie, doit être constitué par une internation au sens de Marcel Mauss dans le texte qui s’intitule La nation qui a été réédité récemment au Presses universitaires de France PUF. Dans le système dynamique néguanthropologique , l’avenir du système réside dans sa capacité à cultiver des potentialités non seulement néguentropiques ou endosomatiques c’est-à-dire génétiques mais néguanthropologiques avec un a et un h et donc exosomatiques c’est-à-dire épiphylogénétiques ; c’est pourquoi, au moment où les fonctions exorganiques planétaires, entrepreneuriales, monopolistiques structurent, à travers les technologies de la scalabilité qui leur permettent de rayonner de l’infiniment petit à l’infiniment grand en les ajustant instantanément planétairement et fonctionnellement à différents niveaux de la biosphère, au moment donc où ces exorganismes et ces fonctions exorganiques structurent l’ensemble de la biosphère et même au-delà c’est-à-dire dans l’orbite satellitaire géostationnaire, à l’échelle du système solaire également avec Curiosity, Rosetta et Philae – ce n’est pas encore aujourd’hui une activité de l’économie des plateformes, on est loin de là mais néanmoins c’est bien l’horizon d’une extension de tout cela hors de l’orbite terrestre qui est en jeu dans ces démarches, la Chine ayant une véritable stratégie – considérant toutes ces questions, il est alors capital de noter ce que Alfred Lotka pose en 1922 dans un texte important que d’une part la vie en général, exosomatique et endosomatique, que Lotka appréhende ainsi que Vernadsky, comme une masse organique consistant en transformations biochimiques comme le dit Vernadsky dans La biosphère et telle qu’elle constitue un système dynamique qui doit être appréhendé dans sa globalité comme compétition entre les espèces mobilisant et maximisant la transformation des énergies disponibles à travers une nouvelle forme d’énergie qu’est l’énergie vivante, tout cela étant issu de la combustion solaire et les résidus de cette biomasse formant ce qu’on appelle aujourd’hui la nécromasse, la vie en général donc pour Lotka, sous tous ses aspects, forme un système dynamique d’échelle planétaire qui tend fonctionnellement dans le cadre du processus de sélection qu’est la lutte pour la vie telle que Darwin l’a décrite, à transformer toute énergie et toute matière inorganique en énergie et en matière organique et donc en mouvement vital c’est-à-dire en kinesis (kinésie) et en metabole au sens où dans le livre II de la Physique, Aristote en parle. Deuxièmement, Lotka pose que dans la vie exosomatique – alors ça ce n’est plus dans le texte de 1922 mais dans un texte de 1945 – cette transformation ne s’accomplit plus en fonction des règles de la matière organique à savoir la biologie, mais en fonction de prescriptions socio-économiques qui engendrent aussi des conflits entre groupes exosomatiques c’est-à-dire entre ce que j’a appelé dans ce séminaire des exorganismes. Le processus de sélection devient alors artificiel ; ce n’est plus le processus de sélection darwinien et ces conflits peuvent devenir guerriers. En fait il est très important de noter que les deux textes de Lotka auxquels je me réfère ici ont été publiés, le premier en 1922 après la première guerre mondiale et le deuxième texte, publié en 1945 ; ces deux textes sont écrits sous le choc des deux grands conflits guerriers de la première et de la deuxième guerre mondiale ; Lotka raisonne, pour comprendre ce que c’est que la dynamique biochimique des vivants endosomatiques puis exosomatiques, après et depuis les processus de destruction massive en quoi ont consisté les deux guerres mondiales du XXème siècle ; il écrit le second texte à la toute fin de la seconde guerre mondiale en citant un rapport du Bureau international du travail sur les effets catastrophique du conflit sur les populations civiles et dans ce texte de 45 il se réfère aussi au texte de 1922 qu’il rédige au sortir de la première guerre mondiale et 3 ans après le texte de Paul Valéry aura publié en 1919 au moment de la Société des nations d’ailleurs et qui s’appelle La crise de l’esprit que j’ai beaucoup commenté dans Ce qui fait que la vie vaut la peine d’être vécue parce que je soutiens que Paul Valéry y développe une pharmacologie de l’esprit et pas simplement une économie politique de l’esprit dont le concept n’apparaitra d’ailleurs qu’en 1939 dans Regards sur le monde actuel où plus que jamais Valéry développera ce concept pharmacologique de la vie de l’esprit en anticipant ce qu’il appelle « une baisse de la valeur esprit » c’est-à-dire une catastrophe spirituelle et c’est évidemment à quelques mois du début de la deuxième guerre mondiale et peu de temps avant que la réalité d’Auschwitz devienne une réalité connue de tous.

Etudiant les agencements fonctionnels et historiques entre individuation technique et individuation psychique et collective, j’ai appelé organologie générale dans De la misère symbolique ce qui tente d’instruire d’un point de vue pharmacologique la question de ce que Lotka décrit comme une orthogenèse exosomatique ; de quoi Lotka parle-t-il ? d’un concept qui a été avancé après Darwin et un peu contre Darwin, le concept d’orthogenèse sur lequel je vais revenir dans un instant. Qu’est-ce qu’en dit Lotka ?

D’un point de vue physiologique, la question de savoir si dans le cadre des espèces endosomatiques, l’orthogenèse est un fait ou une fiction est un sujet de controverse dans le champ de la biologie mais l’évolution de l’espèce humaine est incontestablement orthogénétique

qu’est-ce que cela signifie ? en biologie, le point de vue orthogénétique conteste que la sélection naturelle serait le seul critère d’évolution du vivant ; selon Lotka, qui dit qu’il ne sait pas s’il faut adopter ce point de vue-là pour ce qui concerne les êtres endosomatiques, il est absolument certain pour lui que l’évolution exosomatique est manifestement orthogénétique et cela signifie qu’elle met en œuvre des critères d’évolution qui constituent un processus de sélection artificielle endogène au système qui est formé non pas par l’organisme biologique mais par l’exorganisme que forment les organes psychosomatiques, les organes exosomatiques et les organisations collectives qui constituent les règles de l’exorganisme, le tout constituant un groupe social où l’enjeu c’est l’ajustement local de l’espèce à des organes qui ne cessent de se transformer ;

La connaissance engendre la connaissance et avec les méthodes actuelles d’enregistrement, cela signifie l’accumulation incessante des connaissances et des compétences techniques qui se basent sur elles. Mais la connaissance vient tandis que la sagesse tarde [Tennyson] et par sagesse nous entendons l’ajustement de l’action aux finalités pour le bien de l’espèce. C’est précisément ce qui va de travers au plan de l’humain [c’est-à-dire de l’être exorganique ou exosomatique] ; les récepteurs et les effecteurs [de l’humain en tant qu’être exosomatique] ont été perfectionnés à l’extrême ; mais le développement des savoirs est tellement resté à la traîne que le résultat de nos efforts en a de fait été inversé

Qu’est- ce que ça signifie ? ça signifie que l’exosomatisation telle qu’elle est observable, en 1945, au sortir de la deuxième guerre mondiale a produit une inversion de valeur ; c’est tout à fait comparable à ce que dit en 1919 Paul Valéry dans La crise de l’esprit à la sortie de la première guerre mondiale mais l’argument est un peu différent en même temps ; le constat est le même mais l’explication est un peu différente ; le constat est que ce qui était producteur de valeurs positives devient producteur de catastrophes, de destructions et la cause de cela ce n’est pas simplement une faillibilité ou un détournement possible des savoirs que sont par exemple pour Paul Valéry les mathématiques qui servent à la balistique des armées d’artillerie de la première guerre mondiale, la chimie qui sert à faire du gaz moutarde ou des bombes etc. non, là pour Lotka c’est le retard du savoir sur l’exosomatisation ; c’est ce que j’appelle le retard du double redoublement épokhal. C’est dans ce moment extrême que la crainte de voir les êtres exosomatiques rejoindre le destin des infusoires peut prendre corps chez Freud comme chez Lévi-Strauss que je cite ici lorsqu’il dit en 2004 et que j’avais commenté dans Mécréance et discrédit:

L’espèce humaine vit sous une sorte de régime d’empoisonnement interne 

c’est évidemment en reprenant cette problématique au titre de ce qu’il avait appelé une entropologie avec un e dans Tristes tropiques que me suis mis à développer ce concept de néguanthropologie et de néguanthropocène contre la thèse de Lévi-Strauss lui-même ; pas contre ce qu’il dit là mais contre les conséquences qu’il en tire quant à ce qui concerne l’anthropologie ou plus exactement quant aux conséquences qu’il n’en tire pas quant à la nécessité de développer une nouvelle néguanthropologie c’est-à-dire de repenser de fond en comble la question de ce qu’on pourrait appeler l’exosomatisation et comme ce qui doit dépasser la théorie de l’entropie négative que l’on trouve chez Schrödinger.

01 :38 :00