Matinale Variation en Ca(ca)tastrophismes & autres Apoca(ca)lyps(é)ismes : Contes (post/hyper)modernes de la folie ordinaire

« La société du risque désigne une époque dans laquelle les aspects négatifs du progrès déterminent de plus en plus la nature des controverses qui animent la société. Ce qu’initialement personne ne voyait et surtout ne souhaitait, à savoir la mise en danger de chacun et la destruction de la nature, devient le moteur de l’histoire. Il ne s’agit donc pas d’analyser les dangers en tant que tels, mais de démontrer que, devant le péril industriel qui nous menace et la disparition des enjeux traditionnels du conflit de classe, apparaissent de nouvelles configurations.

Pour l’analyse politique, le plus important est tout d’abord de distinguer entre risques et dangers. C’est la confrontation de la société avec son potentiel d’autodestruction créé de toutes pièces qui marque à mes yeux la rupture. Les dangers de l’atome, de la chimie, de la manipulation génétique constituent des risques qui, contrairement à la première période industrielle 1) ne sont limités ni dans l’espace, ni dans le temps, ni sur le plan social, 2) ne peuvent être imputés à des personnes selon les règles de la causalité, de la culpabilité et de la responsabilité en vigueur, et 3) ne peuvent faire l’objet d’une compensation ou d’une quelconque assurance. Là où les assurances privées refusent de couvrir les risques – tel est le cas pour les développements technologiques que nous avons évoqués –, on franchit le seuil entre les risques calculables et les risques incalculables. Autrement dit : au regard des risques encourus, le système régulateur qui contrôle « rationnellement » les destructions industrielles ressemble à des freins de bicyclette montés sur un avion supersonique.

Si les effets secondaires non pensés de la production industrielle sont bien devenus les foyers d’une crise écologique globale, il ne faut pas pour autant en conclure que nous avons affaire à de simples problèmes environnementaux. Il s’agit bien davantage d’une crise profonde des institutions de la société industrielle dont les enjeux politiques sont considérables. On fabrique de façon industrielle des dangers qui sont tout à la fois externalisés sur le plan économique, individualisés sur le plan juridique, légitimés sur le plan scientifique, et minimisés sur le plan politique !

La question décisive est alors de savoir comment une politique écologique pourrait s’imposer et ainsi imposer des limitations à ce processus.

Il faut avant tout se garder de toute attitude naïve. Tout d’abord, une telle politique ne peut s’appuyer mécaniquement ni sur l’ampleur du danger ni sur l’idée implicite que tout le monde se sent nécessairement concerné. En effet, certains dangers – par exemple, celui des radiations atomiques – sont invisibles et imperceptibles pour l’homme de la rue. Les destructions et leur dénonciation sont des réalités qui doivent être médiatisées par des symboles – ainsi de la « mort des forêts » ( Waldsterben). C’est seulement à travers des images et par la mise en scène de symboles significatifs que l’on peut devenir « attentif » aux dangers imperceptibles qui menacent à notre insu le quotidien.

Ensuite, plus le danger est grave et proche, plus, paradoxalement, on résiste à en reconnaître l’évidence. Ceux qui sont le plus durement touchés sont souvent aussi ceux qui nient le plus obstinément le danger – et qui doivent le nier pour pouvoir continuer à vivre. Multiplier les visions apocalyptiques peut facilement engendrer des effets contraires à ceux que l’on recherchait, et renforcer l’impuissance et le fatalisme.

Enfin, la quête d’un sujet révolutionnaire que nous a légué la société de classe ne pourra pas aboutir si l’on cherche un substitut au prolétariat en feuilletant les pages d’un fanzine de la contre-culture. Bref, il n’existe pas de « prolétariat écologique ». Mais faut-il en rester là ? À mon avis, non. Cette façon de voir reste aveugle aux nouvelles formes de mobilisation. Malgré leur fragilité, celles-ci, en tirant le signal d’alarme, manifestent, face à une bureaucratie qui avait promis la sécurité, une prise de conscience des menaces qui pèsent sur la vie de chacun. La question centrale est donc celle de la réflexivité politique du danger. Si on se rend à l’évidence et que l’on prouve que les gardiens de la rationalité et de l’ordre permettent qu’on nous mette en danger de mort en toute légalité, cela va vraiment faire désordre au niveau politique. On peut dire qu’à la question de savoir quel était le sujet politique de la société industrielle correspond aujourd’hui celle de savoir en quoi consiste la réflexivité politique dans la société du risque. Il faut néanmoins souligner qu’une telle préoccupation collective pour les problèmes de sécurité, de la part à la fois des institutions et des médias, repose sur des conditions exceptionnelles qui sont le lot des démocraties les plus développées et les plus riches. De plus, cette réflexivité politique n’est l’apanage de personne. Comme on a pu s’en rendre compte au lendemain de Tchernobyl, elle sert à la fois les mouvements de contestation écologistes et le développement de politiques industrielles. Que l’écologie apparaisse dans les sondages comme une urgence n’est donc pas sans rapport avec les nombreuses initiatives citoyennes menées dans ce domaine. Mais il ne faut pas oublier qu’une telle urgence est indissociable du fait que les dangers de destruction sont aujourd’hui tout à la fois normalisés et en progression constante. Comment faut-il alors comprendrecette situation étrange ?

[…]

Une nouveauté essentielle par rapport au conflit de l’époque industrielle, c’est que le scénario écologique prévoit que des individus ou des petits groupes puissent agir d’une manière très efficace. Cela est assez curieux, voire paradoxal. D’une part, lorsqu’ils sont menacés par une catastrophe industrielle, les régions, les États deviennent des ilôts de détresse. D’autre part, au sein des zones dangereuses, se joue un intéressant « judopolitique ». Il s’agit en effet de retourner les conséquences de la puissance industrielle dominante contre elle-même, par exemple en faisant valoir que les matières dangereuses sont devenues pratiquement omniprésentes. Prenons l’exemple d’un conflit actuel. En Allemagne, les sols sont contaminés par la dioxine, souvent bien au-delà des seuils autorisés, en particulier dans les régions industrielles, ce qui augmente les risques de cancer, en particulier pour les nourrissons et les enfants qui jouent à même le sol. Faire connaître au public le taux de toxicité des sols et l’importance du danger dans certaines régions, et proposer des seuils acceptables qui tiennent compte de l’incertitude générale est susceptible de déclencher une tempête politique, grâce à laquelle il deviendra peut-être possible d’imposer une politique de prévention. Ce qui d’ailleurs pourrait avoir des répercussions sur d’autres sujets et d’autres pays.

Redessiner ainsi les frontières du politique dans la société du risque ne conduit pas pour autant à affirmer que l’action collective menée par les instances politiques traditionnelles soit devenue superflue.

Au contraire, modifier les dispositifs d’imputation des responsabilités, c’est nécessairement faire appel à la capacité de la « grande politique » à prononcer des sanctions.

Néanmoins, les opportunités d’action politique sont aujourd’hui démultipliées. Les lieux et les instances où, apparemment, on ne fait que se plier aux contraintes objectives, deviennent des espaces politiques périphériques qui, dans l’interdépendance générale qui règne, ne peuvent ni être soumis à un contrôle absolu ni agir de façon autonome, mais peuvent en revanche faire émerger des alternatives qui rendent manifeste l’échec des politiques de prévention menées au niveau des institutions.

Répétons-le encore une fois, mais autrement : la politique écologique a une portée universelle par ses thèmes. Le conflit traverse même les personnes. Là où le cœur bat pour la nature, la raison est secouée et souvent aussi la routine des vieilles habitudes. Tout cela constitue l’arrière-plan d’un renversement qui ne peut être accompli, en dernière instance, que si de nombreuses personnes y contribuent. Les révolutions écologiques ne passent que par un étroit trou de serrure, par des changements infimes dans les façons de penser et d’agir des individus. Il y a bien sûr des objectifs généraux, des priorités et des dangers de dérapage. Réussir à contourner ces obstacles dépendra surtout de révolutions de fourmis, de ces millions de petites démarches à la base comme au sommet par lesquelles la possibilité d’un approfondissement écologique de la démocratie pourra être expérimentée voire conquise de haute lutte.

Tout cela soulève à nouveau la question du sujet politique. L’individu doit-il donc vraiment rouler sa pierre sur la montagne avec sa contre-chi-mie de pacotille ? Non. Le scénario écologique libère, comme nous l’avons dit, une réflexivité d’ordre politique. Celle-ci ne favorise pas seulement une réaction écologique, mais chatouille très efficacement les institutions, renverse éventuellement les bases du calcul, remet en cause les autorités industrielles, déstabilise les certitudes les mieux établies, court-circuite la séparation instituée des espaces d’intervention et ranime en filigrane les vieilles oppositions sous des formes renouvelées. Bref, cela crée du mouvement – même involontaire – contre l’ordre dominant, dans ce système figé par les discours péremptoires et les faux-fuyants du monde industriel. Et grâce à ce vent, qui peut devenir tempête, les voiliers des Lumières écologistes peuvent trouver une dynamique et naviguer, tout autant dans le sens du vent que contre lui.

À travers cette réflexivité politique, dont l’exploitation à moitié naïve et stratégique a fait le succès du mouvement écologiste, se concentrent tous les ingrédients du conflit écologique : l’importance désormais attestée et objective d’accidents et de périls dissimulés; l’erreur séculaire de la gestion traditionnelle des dangers; le double jeu des institutions chargées de garantir la sécurité collective et de ceux qui mettent en danger les biens les plus fondamentaux que nous avons en commun; l’appel aux « nécessités objectives » comme vecteur de victoires durables dans la répartition des moyens; la fragilité qui finit par affecter toute forme de garantie, désormais suspendue à des connaissances susceptibles d’être sans cesse remises en cause.

Encore une fois : pourquoi alors ne fait-on rien – ou plus rien ? Cette fois, je répondrai par une autre question : en quoi consiste la compréhension et la prise au sérieux du danger dans et pour le quotidien ? La question sociale, face à ce problème, a fait une expérience singulière.

On peut circonscrire la pauvreté par des définitions, on peut la faire disparaître dans les statistiques, mais elle n’en demeure pas moins pour l’homme une épreuve sensible et douloureuse.

En revanche, l’écologie n’est pas seulement abstraite : elle suppose, au contraire, une défiance à l’égard des sens. Ce n’est souvent que contre les apparences de normalité que l’on peut percevoir le péril.

Ce n’est qu’à l’aide d’instruments de mesure compliqués, souvent coûteux, et de procédés méthodiques que l’on peut décider de la nature et du degré du danger. Les dangers en question conduisent en quelque sorte à remplacer les organes de perception individuels par des « organes » étatiques, bureaucratiques, scientifiques. Ce sont les instituts de recherche qui deviennent nos yeux, les institutions de santé publique nos oreilles et les ministères de l’environnement nos mains – ministères qui d’ailleurs le plus souvent s’en lavent les mains ! Pour reprendre cette image : que la main droite ignore ce que fait la main gauche, telle est ici la règle.

Avec la reconnaissance du « poison de la semaine », on se décharge subrepticement sur des institutions de sa propre faculté de juger. Pour le dire autrement, faire le hérisson face au danger constitue une forme de défense civile. La défense de l’autonomie souveraine des sens et de la conscience de soi contre ces définitions venues de l’extérieur, de surcroît infantilisantes et intimidantes, des flots de dangers qu’aucun barrage ne saurait contenir, constitue une vertu originaire de la démocratie.

En fin de compte, pour que la peur disparaisse et retourne là d’où elle est (apparemment) venue : du néant, il faut continuer à faire la chose la plus naturelle au monde : faire confiance à ses yeux.

Expropriation des sens ou acceptation des dangers que l’on ne peut pas percevoir et manifestement pas éviter, voilà le dilemme central dans lequel nous plonge la pluralité mouvante des dangers au quotidien. Si on ne dénoue pas cette situation, toutes les initiatives dirigées contre les institutions ne serviront à rien, parce qu’elles ne font rien contre l’infantilisation des citoyens; bien au contraire elles contribuent à la consacrer.

Ce que voit ou ne voit pas un individu n’est pas déterminé par l’acuité de sa vue, et ne dépend pas seulement de lui et de son attention, mais essentiellement de ce qu’il sait ou de ce qu’il ignore. C’est la connaissance qui libère le regard. Celui qui sait davantage et autrement voit mieux, voit autrement et d’autres choses.

Là où il est culturellement possible mais aussi de la plus haute importance de savoir quels sont les êtres vivants qui souffrent de la pollution de l’air, le phénomène devient visible et sensible. On percevra en conséquence les symptômes des arbres mourants même là où les institutions restent muettes sur la disparition des espèces ou la dédramatisent.

L’aveuglement quotidien devant l’omniprésence de dangers universels formalisés scientifiquement est donc un processus relatif, susceptible d’être changé. Il dépend de la connaissance dont dispose la société, de sa capacité à donner une forme concrète à son expérience et de l’attention que sa culture permet d’accorder « au premier coup d’œil » à des processus dont les effets sont discrets. Dans une perspective extrêmement lointaine, une société qui aura accordé toute son attention à la destruction industrielle de la vie et de ses normes, permettra d’acquérir et de diffuser des connaissances, mettra en valeur ce qui peut rendre visible ce qui était jusqu’à maintenant resté invisible, soumettra au moins certaines de ses caractéristiques fondamentales au jugement de tous.

  • C’est seulement ainsi que, face au développement sauvage d’une « expertocratie ès danger », l’idée même de démocratie pourra être préservée.

Celui qui souhaite ouvrir les yeux sur les questions écologiques et les garder ouverts doit produire et faire partager du savoir et des manières de voir, donc développer une culture.

On peut légitimement supposer qu’il existe une relation entre le macrocosme qui produit les dangers et le microcosme qui agit au quotidien, tant par rapport aux autres qu’à lui-même. De tels rapprochements demeurent encore largement impensés et inexplorés. Mais il est permis de penser par exemple, qu’une population qui se donne la peine de trier ses déchets aura bien du mal à comprendre pourquoi on continue à produire des montagnes de détritus. Les décharges deviendront donc les paratonnerres de la colère démocratique. A contrario, accepter et assumer sans distance critique la brutalité de la circulation automobile constitue la meilleure préparation mentale au prochain accident nucléaire majeur. La politique de la circulation est indissociable d’une culture politique plus large : elle consiste à établir des accords partout où cela est possible, à gagner un peu de tranquillité, même si cela peut conduire à imposer à certains des contraintes douloureuses.

Ce n’est pas seulement ce qui est perdu, mais l’absence de souvenir de cette perte qui la consacre une seconde fois, pour de bon.

Le souvenir qui préserve ce qui est perdu d’une disparition dans les limbes est indissociable de la recherche d’une culture, du désir de maintenir une présence.

Celui qui, enfermé dans l’éphémère du présent, méprise le passé parce qu’il est passé et n’ouvre pas son horizon à d’autres possibilités – dans sa propre vie, dans le rapport à la nature, à la politique – perdra jusqu’au souvenir de ce qu’il a perdu, y compris la douleur de la perte qui est à l’origine de toute contestation.

La nature est muette, certes. Pourtant, même les plantes peuvent commencer à témoigner lorsque l’attention de celui qui se soucie d’elle est sollicitée – sans mots, seulement à travers l’activité et l’observation humaines. L’environnement naturel devient ainsi un monde de signes et d’indices, un miroir, le symbole d’entités sensibles et de processus qui ne se voient pas à l’œil nu, mais apparaissent à celui qui, comme le dit le vieux Goethe, a appris à lire « dans le livre de la nature ».

Ce n’est pas le fait que des espèces disparaissent qui attire l’attention sur la disparition des espèces. La contestation est elle aussi essentiellement un écho du spectacle donné dans les grands journaux et les émissions de télévision. C’est seulement lorsque la nature s’inscrit dans les images quotidiennes des hommes, dans les histoires qu’ils racontent, que les beautés et les souffrances qui en émanent sont exposées au regard.

Voir, c’est voir à travers la culture. L’attention naît par le récit. La culture, c’est nous qui voyons, qui écoutons par l’intermédiaire de symboles à travers lesquels ce qui est invisible ou oublié apparaît et vit d’une façon imagée. Cela ne va pas de soi, mais c’est ainsi que les choses se passent; et cela correspond à du travail, à de l’art, le plus souvent à un travail rédactionnel qui doit surmonter bien des résistances. Cet aspect sensible de la culture est pour cette raison aussi important que le courage et le savoir objectif. La réflexivité politique a besoin d’images pour se mettre en œuvre et se développer. Elle suppose donc une conception « journalistique » de son programme et des questions à creuser dans les médias où se fabrique l’opinion publique.

Tout cela présuppose de restaurer et de redéfinir, contre la science, les conditions mêmes de l’expérience dans la société.

Car la science n’est plus depuis longtemps une science de l’expérience; c’est une science qui produit des données, des méthodes, des produits et dont la réussite – mesurée à l’aune de la compréhension qu’elle a d’elle-même – repose justement sur la limitation et la dévalorisation de l’expérience en tant que source subjective de l’incertitude sensible.

Telle qu’elle se montre et règne aujourd’hui, la science s’est imposée pour ainsi dire contre l’expérience et son omnipotence, afin de parvenir à la puissance et à l’objectivité technique.

L’expérience – entendue au sens de l’appréhension sensible de l’individu – est l’orpheline de ce monde transformé par la science.

L’expérience, témoin n° 1, juge de la vérité, devient le concept essentiel du subjectif, une relique – l’atelier de faussaires qui s’emparent de la raison et se jouent d’elle. Ce n’est pas la science, mais c’est le sujet, la subjectivité qui se trompent.

  • Dépourvue de sujet, la science serait, conformément à son idéal, aussi parfaite que la technique qui doit mettre l’homme entre parenthèses lorsqu’il s’agit de maîtriser les dangers auxquels elle l’a exposé.

Mais c’est par cette expérience de la société qui proteste contre l’aveuglement dévastateur de la machine industrielle que l’on se fait entendre. La Science tire les leçons de la « science » de l’expérience publique, non seulement une fois en passant, mais d’une façon systématique, avec néanmoins quelques bons coups de main et en opposant une résistance farouche au dévoilement des effets qu’elle produit et des erreurs qu’elle refoule.

En effet, deux orientations et deux types de science commencent à se dissocierdans la civilisation du danger : la science des données et celle de l’expérience. La vieille science des laboratoires, aujourd’hui à son apogée, pénètre et structure le monde – jusqu’à manipuler le code génétique. Mathématisée, technicisée, cette science ne repose pas sur l’expérience. Or c’est justement cette expérience discursive et publique qui, par les controverses qu’elle mène, révèle les objectifs et les moyens, les conséquences et les dangers. Toutes deux ont leurs perspectives, leurs défauts, leurs contraintes et leurs méthodes particulières. La science des données et des laboratoires ne sera jamais capable de supprimer l’incertitude du probable, qui par définition n’exclut rien, et elle est aveugle aux conséquences qui accompagnent ses réussites et les mettent en péril. La négociation publique des dangers établit au contraire un lien avec le quotidien, elle est saturée d’expériences. Mais elle est aussi dépendante des médias, susceptible de subir des manipulations, d’une certaine manière hystérique. Dans tous les cas, dépourvue de laboratoires, elle dépend de la recherche et de l’argumentation scientifiques, alors qu’elle a besoin de la science (c’est là la tâche classique qui incombe aux universités !) pour poser des questions longtemps passées sous silence et se maintenir en éveil contre toutes les formes de résistances. Il ne s’agit donc pas d’une science des réponses, mais d’une science des questions. Mais elle peut aussi, par l’expression d’opinions controversées, proposer à l’examen public des objectifs et des normes, et éveiller ainsi des doutes et les rendre tenaces, des doutes qui seraient toujours restés à l’écart du champ de la science, traditionnellement aveugle aux conséquences. Dans les deux cas, il s’agit aussi d’un type de connaissance tout à fait différent. Là, il est spécialisé, complexe, dépendant de méthodes. Ici, il porte sur des caractéristiques concrètes et des erreurs fondamentales (par exemple, cette question décisive des seuils intangibles).

L’objectif serait – au sens de Popper – de rompre avec le diktat de la science des laboratoires, de le réguler par une forme de participation scientifique transparente et d’interpellation publique, et ainsi de surmonter les insuffisances de la conscience quotidienne et des mass media. Cette science de l’expérience publique produit déjà quelques effets. Néanmoins, elle reste à organiser et à doter des symboles de la connaissance et d’une compétence décisionnelle – dont la rationalité propre doit être fondée. Elle pourrait alors jouer le rôle d’une sorte de « chambre supérieure ». Elle devrait prendre comme critère d’évaluation la question : comment vou-lons-nous vivre ? et l’appliquer aux projets et aux conséquences de la recherche scientifique. C’est seulement à partir du déploiement maîtrisé de cette science de l’expérience, en dépit des controverses nécessaires qu’elle suscite à l’encontre des cercles fermés de la science des laboratoires, que la vigueur du droit, de la politique et du quotidien pourrait se faire entendre contre la domination des experts (et des contre-experts). C’est ainsi qu’aujourd’hui, comme on s’opposait hier aux passe-droits du monarque, on pourrait rétablir et fonder à nouveau frais la séparation des pouvoirs, le contrôle démocratique et le droit d’expression contre la technocratie de tous les dangers.

Tout cela peut paraître idéaliste, passablement abstrait, bien improbable, technocratique et, ce qui est le plus vraisemblable, passer seulement pour une belle idée. Contre tous ces reproches, je ne peux ni ne souhaite me défendre. Il me semble que le passage d’une politique de révélation des scénarios d’horreur inspirée par la science à une nouvelle orientation portée par les sciences sociales et qui soulève avant tout le problème des responsabilités (quelle que soit la portée des question en jeu) permet de reprendre l’initiative politique et de fournir une réponse devenue très urgente au grand concours mondial du risque majeur avec les meilleures chances de succès.

Le mouvement écologiste et les Verts eux-mêmes ne sont pas les derniers à être divisés sur la question de savoir si l’ampleur et l’urgence des dangers ne contraignent pas à envisager des mesures technocratiques. Certains redoutent que lorsqu’il est minuit moins cinq et qu’il ne reste que quelques courts instants à vivre, on ne soit plus en situation de prendre des gants avec la liberté ou les idéaux des Lumières périmés depuis longtemps.

À mon avis il y a ici une erreur de raisonnement. On méconnaît l’affinité élective secrète entre le mouvement écologiste et la démocratisation de la société. Une politique à long terme contre les dangers exige de freiner le développement des techno-sciences, d’ouvrir des possibilités de l’infléchir, de le réviser et d’établir les responsabilités, bref suppose une capacité à rechercher des accords, donc à étendre la démocratie dans ces domaines jusque-là réservés de la science, de la technique et de l’industrie. On ne reconnaît pas et on n’exploite pas « les opportunités de la société du risque »

(Thomas Schmid). Il s’agit bien plutôt de jouer pleinement la carte du doute contre les certitudes dogmatiques de l’industrie. L’objectif n’est pas de revenir en arrière, mais de proposer une autre modernité, une modernité qui reste fidèle à l’exigence d’autodétermination et lutte contre sa négation dans la société industrielle. »

– Beck, U. (2001). La politique dans la société du risque. Revue du MAUSS, no 17(1), 376-392.

« La sollicitude intéressée des grandes puissances : Comment la santé est devenue un enjeu géopolitique

Ni l’altruisme ni la philanthropie n’expliquent la préoccupation des grandes puissances pour la santé mondiale. Mais plutôt des intérêts tantôt sécuritaires, tantôt économiques ou géopolitiques.

Néanmoins, l’Europe pourrait mieux utiliser les fonds octroyés aux institutions internationales. La priorité revient à l’Afrique francophone, où se concentrent les défis des décennies à venir.

[…]

La relecture de l’histoire de la santé indique que la tenue des premières conférences internationales sur le sujet, au XIXe siècle, était moins motivée par le désir de vaincre la propagation de la peste, du choléra ou de la fièvre jaune que par la volonté de réduire au minimum les mesures de quarantaine, qui s’avéraient coûteuses pour le commerce… Ces tensions entre la médecine, la santé, les intérêts marchands et le pouvoir politique forment les termes d’une équation paradoxale inhérente à la question de la santé publique mondiale. L’accès des populations pauvres aux médicaments dans le cadre des Accords sur les aspects des droits de propriété intellectuelle liés au commerce (Adpic) exprime bien ces tensions, qui, dans le monde contemporain, peuvent aller jusqu’au bras de fer.

Les fondateurs et les partenaires du Fonds mondial de lutte contre le sida, la tuberculose et le paludisme présupposent que les stratégies de lutte contre ces trois maladies sont pertinentes dans tous les pays et qu’« il ne manque plus que l’argent ». Pour comprendre cette vision financière des enjeux de santé et ses limites en termes d’efficacité, il faut revenir sur le contexte dans lequel le Fonds mondial a été créé.

En 1996, M. William Clinton, alors président des Etats-Unis, publie une directive appelant à une stratégie davantage orientée vers les maladies infectieuses. Il s’agit là moins d’un élan d’altruisme que d’une préoccupation de sécurité nationale. Propagation, conséquences économiques, retard dans le développement de nouvelles molécules, résistance des agents infectieux aux antibiotiques, mobilité des populations, croissance des mégapoles, faiblesse des systèmes de santé des pays pauvres : ces sujets inquiètent l’administration américaine, et ce bien avant les attentats du 11 septembre 2001.

Dès 1997, l’Institut de médecine, instance de référence scientifique américaine, publie un rapport expliquant que la santé mondiale est « d’un intérêt vital pour les Etats-Unis ». Pour la première fois apparaît l’expression global health, que nous traduisons par santé mondiale : « Les pays du monde ont trop en commun pour que la santé soit considérée comme une question relevant du niveau national. Un nouveau concept de “santé mondiale” est nécessaire pour traiter des problèmes de santé qui transcendent les frontières, qui peuvent être influencés par des événements se produisant dans d’autres pays, et auxquels de meilleures solutions pourraient être envisagées par la coopération (4). »

Alors que le sida se propage en Afrique australe de manière spectaculaire, la publication en 1999 par le ministère de la défense sud-africain de taux élevés de prévalence de l’infection par le virus de l’immunodéficience humaine (VIH) chez les militaires de nombreux Etats d’Afrique alarme les autorités. Les capacités de défense nationale ne seraient, à court terme, plus suffisantes pour faire face à des conflits internes ou externes. Selon l’International Crisis Group (ICG), de nombreux pays « ne seront bientôt plus en mesure de contribuer aux opérations de maintien de la paix (5) ». Sur la période 1999-2008, le Conseil national des services de renseignement du gouvernement américain, le National Intelligence Council (NIC), centre de réflexion stratégique, publie six rapports sur la santé mondiale. Fait inédit, ces documents définissent une maladie comme un « agent de menace non traditionnel » pour la sécurité des Etats-Unis, dont les bases militaires constellent la planète.

Cette « menace » va parvenir jusqu’aux Nations unies. Pour la première fois de son histoire, le 10 janvier 2000, à New York, le Conseil de sécurité inscrit à l’ordre du jour de sa réunion un thème qui n’est pas lié à un risque direct de conflit : « La situation en Afrique : l’impact du sida sur la paix et la sécurité en Afrique ». Les Etats-Unis président les échanges, avec le vice-président Albert Gore le matin et l’ambassadeur des Etats-Unis à l’ONU, Richard Holbrooke, l’après-midi. Il en sortira plusieurs résolutions. L’article 90 de la résolution de la session spéciale de l’Assemblée générale des Nations unies du 27 juin 2001 appelle à la création d’un « fonds mondial santé et VIH-sida afin de financer une réponse urgente à l’épidémie selon une approche intégrée de prévention, de prise en charge, de soutien et de traitement, et d’appuyer les Etats dans leurs efforts contre le sida, avec une priorité donnée aux pays les plus touchés, notamment en Afrique subsaharienne et dans les Caraïbes ».

Le Fonds mondial voit le jour grâce à la mobilisation des membres du G8 par M. Annan. Loin du « fonds santé et sida » recommandé, le mandat du partenariat public-privé (PPP) mondial porte seulement sur le sida, la tuberculose et le paludisme. La politique de sécurité nationale américaine se nourrit de peurs plus ou moins fondées contre lesquelles il faut lutter : le communisme, le terrorisme, les maladies… Tels sont les « traumatismes » inspirant les politiques de défense des Etats-Unis, qui n’hésitent pas, pour défendre leurs positions sur les enjeux de santé mondiale, à instrumentaliser le Conseil de sécurité des Nations unies.

Après une décennie marquée par la guerre en Afghanistan et en Irak, la stratégie de M. Barack Obama consiste à emmener son pays vers d’autres combats que les « conflits à l’extérieur ». Il s’agit de « restaurer le leadership américain à l’étranger », y compris pour relever les défis liés au contrôle des épidémies, thème expressément mentionné dans la stratégie de sécurité nationale en 2010. Lorsque le gouvernement annonce, en juillet 2012, la création au sein du département d’Etat de l’Office of Global Health Diplomacy — institué juste avant le départ de Mme Hillary Clinton —, il affirme vouloir prendre le contrôle et le pouvoir. « Nous avons recommandé de passer du leadership en interne [c’est-à-dire entre les agences nationales de coopération sanitaire] au leadership mondial par le gouvernement américain », précise le communiqué. « Les Etats-Unis ont bien compris qu’au fond la véritable puissance, aujourd’hui, c’est de pouvoir jouer dans les deux sphères, interétatique et transnationale », analyse l’historien des relations internationales Georges-Henri Soutou (6).

Choix financiers sous influence

L’analyse des facteurs qui ont façonné les politiques sanitaires de ces dernières décennies permet de distinguer trois conceptions : la santé mondiale comme investissement économique, comme outil sécuritaire et comme élément de politique étrangère (sans même parler de charité ou de santé publique, deux composantes supplémentaires qui, d’après David Stuckler et Martin McKee, complètent l’ensemble (7)). En politique, la notion de sécurité implique l’urgence, le court terme et le contrôle des maladies contagieuses, plutôt que l’approche holistique et systémique de long terme qu’exigerait le renforcement des capacités institutionnelles des systèmes de santé. La pérennité des interventions financées pendant près de quinze ans en est fragilisée.

Ces observations aident à comprendre pourquoi l’aide n’est que d’une efficacité limitée : quels que soient les montants alloués par le Fonds mondial ou par le gouvernement américain au travers du plan d’urgence de lutte contre le sida (Pepfar (8)), les performances de ces programmes sur le terrain s’avèrent décevantes. La pertinence des financements en faveur de la prévention, ou l’ajustement des interventions à des dynamiques démographiques, urbaines, sociales, économiques ou conflictuelles, et aux spécificités nationales de la propagation, sont autant d’éléments fondamentaux relativement peu pris en compte.

Trente ans après le début de la pandémie, peu de moyens sont alloués à la recherche locale, épidémiologique, anthropologique et économique au service de la décision. Pour deux personnes mises sous traitement, cinq nouvelles infections se produisent. Le retentissement des violences sexuelles sur la féminisation de la pandémie en Afrique n’est pas même une hypothèse de recherche, sur un continent où les conflits armés se multiplient ! A l’échelle internationale, le détournement de quelques millions de dollars du Fonds mondial suscite davantage l’indignation que l’absence d’analyse, dans les pays mêmes, de l’efficacité des stratégies. Opérés sous influence, les choix financiers privilégient pourtant le paradigme curatif de la santé, au bénéfice de l’industrie pharmaceutique, plutôt que la prévention de la transmission du VIH.

De la multiplication des acteurs de l’aide au développement émergent des conflits de gouvernance entre « décideurs » et « partenaires », ce qui entraîne une dilution des responsabilités : qui doit rendre des comptes sur l’utilisation des financements alloués au travers de partenariats mondiaux ou de mécanismes innovants, quelle que soit la thématique ? Pour les aspects financiers, la responsabilité relève du conseil d’administration du Fonds mondial, plutôt que du seul secrétariat exécutif. Les aspects techniques et stratégiques sont censés être traités par les pays et leurs partenaires (Onusida, Fonds des Nations unies pour l’enfance — Unicef — et OMS). Si les agences de l’ONU ont apporté un appui technique aux Etats, leurs équipes ont-elles su les accompagner vers une vision stratégique qui tienne compte de leurs spécificités pour enrayer les trois pandémies ? Si la réponse est non, il est temps de l’assumer.

L’Afrique, la France et l’Europe seront confrontées au cours des décennies à venir à des défis hors normes. La population du continent noir va doubler d’ici à 2050, passant de un à deux milliards d’habitants, soit 20 % de la population mondiale. D’après l’économiste François Bourguignon, invité au Collège de France pour présenter son ouvrage sur la « mondialisation de l’inégalité », la pauvreté — au sens strict — sera un problème exclusivement africain d’ici à 2040 ou 2050 (9).

Transitions démographique et épidémiologique sont en marche sur un continent qui s’urbanise rapidement, et où des maladies chroniques dont nous n’avons pas encore mesuré l’ampleur deviennent plus massives : cancers, diabètes, maladies cardio-vasculaires et respiratoires, problèmes de santé mentale, maladies liées aux pollutions environnementales… Ces affections, non ou tardivement dépistées et diagnostiquées, se propagent telles de nouvelles pandémies, en plus des accidents sur la voie publique, ajoutant à la charge de travail de personnels de santé déjà en nombre très insuffisant.

Les inégalités de santé s’inscrivent dans le sillage des inégalités économiques et sociales. Les systèmes d’assurance- maladie et de protection sociale se mettent en place trop lentement et inégalement d’une région à l’autre. La « couverture sanitaire universelle » serait utile aux populations pauvres si elle était un moyen au service d’une politique fondée sur les priorités nationales, et en particulier sur la prévention.

Compte tenu des liens historiques et des relations politiques, économiques et commerciales que la France et l’Europe entretiennent avec l’Afrique subsaharienne depuis quelques siècles, la contribution politique, leur expertise et leurs financements sont encore attendus, et ne doivent pas s’effacer derrière les priorités américaines. La situation en Afrique francophone de l’Ouest et du centre appelle des réactions massives sur le long terme.

A faire converger les objectifs de développement avec ceux du développement « durable » pour le monde d’après 2015, nous prenons le risque de ne nous intéresser qu’aux enjeux mondiaux communs, et de négliger une nouvelle fois les Etats fragiles et les populations les plus vulnérables. Les priorités, pour ceux-ci, sont plutôt l’éducation des filles (jusqu’au niveau de l’enseignement supérieur), la santé des femmes enceintes, les maladies tropicales ignorées et les capacités institutionnelles à élaborer et à gérer des politiques complexes.

Ne perdons pas de temps à plaider en faveur de la santé : « Ceux qui se posent la question de savoir si une meilleure santé est un bon instrument de développement négligent peut-être l’aspect le plus fondamental de la question, à savoir que santé et développement sont indissociables, insiste Amartya Sen. Il n’est pas nécessaire d’instrumentaliser la santé pour en établir la valeur, c’est-à-dire d’essayer de montrer qu’une bonne santé peut également contribuer à stimuler la croissance économique. » Privilégions, pour chacun sur la planète, l’idée d’une santé durable, plutôt que le seul mécanisme de financement qu’incarne la couverture sanitaire universelle, désormais présentée comme un objectif de développement durable. »

Dominique Kerouedan (Le Monde diplomatique, juillet 2013)

What is

Global Trends?

Every four years since 1997, the National Intelligence Council has published an unclassified strategic assessment of how key trends and uncertainties might shape the world over the next 20 years to help senior US leaders think and plan for the longer term. The report is timed to be especially relevant for the administration of a newly elected US President, but Global Trends increasingly has served to foster discussions about the future with people around the world. We believe these global consultations, both in preparing the paper and sharing the results, help the NIC and broader US Government learn from perspectives beyond the United States and are useful in sparkling discussions about key assumptions, priorities, and choices.

« Coronavirus Is the Perfect Disaster for ‘Disaster Capitalism
Naomi Klein explains how governments and the global elite will exploit a pandemic.

[La crise est l’occasion de faire passer des politiques impopulaires]

The coronavirus is officially a global pandemic that has so far infected 10 times more people than SARS did. Schools, university systems, museums, and theaters across the U.S. are shutting down, and soon, entire cities may be too. Experts warn that some people who suspect they may be sick with the virus, also known as COVID-19, are going about their daily routines, either because their jobs do not provide paid time off because of systemic failures in our privatized health care system.

Most of us aren’t exactly sure what to do or who to listen to. President Donald Trump has contradicted recommendations from the Centers for Disease Control and Prevention, and these mixed messages have narrowed our window of time to mitigate harm from the highly contagious virus.

These are the perfect conditions for governments and the global elite to implement political agendas that would otherwise be met with great opposition if we weren’t all so disoriented. This chain of events isn’t unique to the crisis sparked by the coronavirus; it’s the blueprint politicians and governments have been following for decades known as the “shock doctrine,” a term coined by activist and author Naomi Klein in a 2007 book of the same name.

History is a chronicle of “shocks”—the shocks of wars, natural disasters, and economic crises—and their aftermath. This aftermath is characterized by “disaster capitalism,” calculated, free-market “solutions” to crises that exploit and exacerbate existing inequalities.

Klein says we’re already seeing disaster capitalism play out on the national stage: In response to the coronavirus, Trump has proposed a $700 billion stimulus package that would include cuts to payroll taxes (which would devastate Social Security) and provide assistance to industries that will lose business as a result of the pandemic.

“They’re not doing this because they think it’s the most effective way to alleviate suffering during a pandemic—they have these ideas lying around that they now see an opportunity to implement,” Klein said.

VICE spoke to Klein about how the “shock” of coronavirus is giving way to the chain of events she outlined more than a decade ago in The Shock Doctrine.

This interview has been lightly edited for length and clarity.

Let’s start with the basics. What is disaster capitalism? What is its relationship to the “shock doctrine”?

The way I define disaster capitalism is really straightforward: It describes the way private industries spring up to directly profit from large-scale crises. Disaster profiteering and war profiteering isn’t a new concept, but it really deepened under the Bush administration after 9/11, when the administration declared this sort of never-ending security crisis, and simultaneously privatized it and outsourced it—this included the domestic, privatized security state, as well as the [privatized] invasion and occupation of Iraq and Afghanistan.

The “shock doctrine” is the political strategy of using large-scale crises to push through policies that systematically deepen inequality, enrich elites, and undercut everyone else. In moments of crisis, people tend to focus on the daily emergencies of surviving that crisis, whatever it is, and tend to put too much trust in those in power. We take our eyes off the ball a little bit in moments of crisis.

Where does that political strategy come from? How do you trace its history in American politics?

The shock-doctrine strategy was as a response to the original New Deal under FDR. [Economist] Milton Friedman believes everything went wrong in America under the New Deal: As a response to the Great Depression and the Dust Bowl, a much more activist government emerged in the country, which made it its mission to directly solve the economic crisis of the day by creating government employment and offering direct relief.

If you’re a hard-core free-market economist, you understand that when markets fail it lends itself to progressive change much more organically than it does the kind of deregulatory policies that favor large corporations. So the shock doctrine was developed as a way to prevent crises from giving way to organic moments where progressive policies emerge. Political and economic elites understand that moments of crisis is their chance to push through their wish list of unpopular policies that further polarize wealth in this country and around the world.

Right now we have multiple crises happening: a pandemic, a lack of infrastructure to manage it, and the crashing stock market. Can you outline how each of these components fit into the schema you outline in The Shock Doctrine ?

The shock really is the virus itself. And it has been managed in a way that is maximizing confusion and minimizing protection. I don’t think that’s a conspiracy, that’s just the way the U.S. government and Trump have utterly mismanaged this crisis. Trump has so far treated this not as a public health crisis but as a crisis of perception, and a potential problem for his reelection.

The shock doctrine was developed as a way to prevent crises from giving way to organic moments where progressive policies emerge.

It’s the worst-case scenario, especially combined with the fact that the U.S. doesn’t have a national health care program and its protections for workers are abysmal. This combination of forces has delivered a maximum shock. It’s going to be exploited to bail out industries that are at the heart of most extreme crises that we face, like the climate crisis: the airline industry, the gas and oil industry, the cruise industry—they want to prop all of this up.

How have we seen this play out before?

In The Shock Doctrine I talk about how this happened after Hurricane Katrina. Washington think tanks like the Heritage Foundation met and came up with a wish list of “pro-free market” solutions to Katrina. We can be sure that exactly the same kinds of meetings will happen now— in fact, the person who chaired the Katrina group was Mike Pence. In 2008, you saw this play out in the original [bank] bail out, where countries wrote these blank checks to banks, which eventually added up to many trillions of dollars. But the real cost of that came in the form of economic austerity [later cuts to social services]. So it’s not just about what’s going on right now, but how they’re going to pay for it down the road when the bill for all of this comes due.

Is there anything people can do to mitigate the harm of disaster capitalism we’re already seeing in the response to the coronavirus? Are we in a better or worse position than we were during Hurricane Katrina or the last global recession?

When we’re tested by crisis we either regress and fall apart, or we grow up, and find reserves of strengths and compassion we didn’t know we were capable of. This will be one of those tests. The reason I have some hope that we might choose to evolve is that—unlike in 2008—we have such an actual political alternative that is proposing a different kind of response to the crisis that gets at the root causes behind our vulnerability, and a larger political movement that supports it.

This is what all of the work around the Green New Deal has been about: preparing for a moment like this. We just can’t lose our courage; we have to fight harder than ever before for universal health care, universal child care, paid sick leave—it’s all intimately connected.

If our governments and the global elite are going to exploit this crisis for their own ends, what can people do to take care of each other?

”’I’ll take care of me and my own, we can get the best insurance there is, and if you don’t have good insurance it’s probably your fault, that’s not my problem”: This is what this sort of winners-take-all economy does to our brains. What a moment of crisis like this unveils is our porousness to one another. We’re seeing in real time that we are so much more interconnected to one another than our quite brutal economic system would have us believe.

We might think we’ll be safe if we have good health care, but if the person making our food, or delivering our food, or packing our boxes doesn’t have health care and can’t afford to get tested—let alone stay home from work because they don’t have paid sick leave—we won’t be safe. If we don’t take care of each other, none of us is cared for. We are enmeshed.

We’re seeing in real time that we are so much more interconnected to one another than our quite brutal economic system would have us believe.

Different ways of organizing society light up different parts of ourselves. If you’re in a system you know isn’t taking care of people and isn’t distributing resources in an equitable way, then the hoarding part of you is going to be lit up. So be aware of that and think about how, instead of hoarding and thinking about how you can take care of yourself and your family, you can pivot to sharing with your neighbors and checking in on the people who are most vulnerable. »

Marie Solis (Vice, mars 2020). [Traduction française de l’article ici]

« Le néolibéralisme fait du risque un paradigme qu’il oppose à la centralité du travail. Véritable analyseur sociétal, le risque est énoncé comme « valeur des valeurs » et à ce titre occulte la place du travail dans la production et dans les rapports sociaux. Le risque crée les nouvelles temporalités de l’urgence et de l’aléa, prétend déplacer les rapports de domination et de conflictualité sur la seule prise de risque.

L’individu, sommé d’être » entrepreneur de lui-même » et délié, devient coupable de ses échecs et est tenté de se réfugier dans un statut de victime et dans des communautés de peurs. L’État social est invalidé par la construction d’un marché du social et d’une société assurantielle où la précaution cède la place à la réparation. L’insécurité sociale se conjugue alors avec un nouvel ordre sécuritaire de contrôle.

[…]

L’idéologie du risque est convoquée comme justification d’un capitalisme dérégulé et dans l’injonction faite aux acteurs d’être entrepreneurs d’eux‑mêmes. Elle oriente les politiques publiques et les stratégies sociales réactives s’en trouvent modifiées.

Dans la pensée néolibérale, le risque devient un analyseur sociétal, une matrice des nouvelles peurs collectives et déplace la question sociale vers l’individu, énoncé comme victime. Le risque légitime enfin le recentrage de l’État sur ses fonctions régaliennes de sûreté. L’État n’est plus ce régulateur que sa forme contemporaine d’État de droit social et démocratique instituait, mais il devient le prescripteur et l’opérateur de la société de contrôle.

[…]

L’ambition de la pensée néolibérale du risque n’est pas la seule réinstitution du social, elle est de refonder le lien politique : « le risque n’est plus alors seulement un objet de la politique, il définit un principe de politisation, un principe d’institution de la politique, un peu comme le contrat a pu l’être dans la philosophie du droit naturel » (Ewald & Kessler, op. cit. : 56).

Il s’agit tout à la fois de refonder le pacte social sur un nouvel individualisme et une éthique du risque, de repenser le mode de construction de l’intérêt général à partir des rationalités individuelles, d’invalider l’État social au profit de la gouvernance.

Pour autant les référentiels et constructions théoriques méritent d’être interrogés : de quel individu parle‑t‑on alors que le risque institue la posture centrale de la « victime » ? de quel État parle‑t‑on quand le principe de précaution dérive de l’assurantiel vers le contrôle et que l’exception devient la norme ?

[…]

C’est la société‑providence revendiquée par la troisième voie anglo‑saxonne où l’État n’est plus qu’un investisseur social parmi d’autres (Blair & Giddens, 2002). Il s’agit bien d’une « vision de l’intérêt général, où les acteurs de la société civile ne sont pas à sa disposition, mais où, à l’inverse, il se conçoit comme étant à leur service» (Ewald & Kessler, op. cit. : 70). Nous retrouvons là, très précisément, le rôle du processus démocratique dans la conception politique libérale qui est de « programmer l’État dans l’intérêt de la société », celle‑ci étant définie comme « le système des relations structurées par l’économie de marché, entre des personnes privées et leur travail social » (Habermas, 1998 : 259). Dans cette conception, celle du « marché du politique », et selon J. Habermas, la politique se réduit à un combat pour s’emparer de positions permettant de disposer du pouvoir administratif au mieux des intérêts privés. Dans l’espace public et au parlement, le processus de formation de l’opinion et de la volonté est défini par la concurrence entre acteurs collectifs ou coalisés engagés dans des actions stratégiques de conquête de positions de pouvoir. Le vote vient simplement conforter ces coalitions et compromis. On comprend dès lors, que le meilleur mode de gouvernement, dans cette approche de la société du risque, soit la « gouvernance »6 qui met en négociations les intérêts privés et publics, particuliers et coalisés, portés par des interlocuteurs dits « valables » et permet de relativiser le poids du vote dans le processus décisionnel. Il s’agit, en amont des décisions, d’éclairer les voies du possible, à partir d’expertises portées par des réseaux de pairs cooptés, afin de maximiser les prises de risques des agents rationnels.

L’État n’est plus protecteur (externalisation des risques), mais garant des « bonnes conduites » d’agents économiques responsabilisés.

Si le risque est bien cette « ressource » mobilisée par la « bonne gouvernance », cette valeur positive à l’aune de laquelle se mesure et s’institue l’individu, il ne s’enracine pas moins dans l’imaginaire de l’aléa, du danger, de la menace. Face à un risque perçu comme exogène, les groupes savaient désigner des victimes émissaires, construire des rituels expiatoires et consolateurs. L’endogénéisation du risque à l’activité humaine assigne à la victime un nouveau statut, une posture centrale et la construit, elle aussi, dans le registre de l’action. Y. Michaud indique qu’« il y a deux indices pour mesurer la violence : les victimes et, éventuellement, la peur» (2004). Le risque, internalisé et sociétisé, dote – tel Janus – cet « individu situé », institué comme acteur de la société civile de marché et du processus politique, de deux faces emblématiques, antagoniques et complémentaires, celles du coupable et de la victime. L’un ne saurait exister sans l’autre. Le risque, réinstituant le social, construit bien deux postures liées. Une posture est une des « places » assignées dans la distribution et la reliance des risques, dans le « marché des maux ». Elle est une position dans les rapports de force ou de soumission que le risque génère. Elle est enfin une figure, un masque, que porte l’acteur dans la distribution des rôles sociaux. La culpabilité est le corollaire de la responsabilité, en cas de défaillance, d’objectif non atteint, de faute intentionnelle ou non. Les processus technologiques sont réputés infaillibles et l’erreur ne saurait donc être qu’humaine, alors que l’on sait que tout incident a toujours plusieurs causes factuelles. La victime, exclue du gain lié au risque, va devoir se valoriser et se reconstruire, elle, dans l’affichage de postures singulières.

[…]

La posture centrale de la victime, dans la société du risque, est attestée tant par le discours scientifique que par le sens commun. « Le pouvoir, saisi par le risque, fait de nous des victimes potentielles et nous invite à nous objectiver comme telles» écrit F. Ewald (op. cit. : 41).

[…]

Ce processus réparateur, en fait construction sociale de la victime dans le registre de l’action, est la condition même de l’effacement du trauma.

Dans la nouvelle société de risque, la quête et l’énonciation, à tout prix, d’un ou des coupables est la condition même de la reconnaissance de la victime et donc de la régulation sociale et du retour à l’ordre. Ainsi les conflits sociaux, les désordres, sont traduits en victimes « innocentes », toujours « prises en otages », d’une part, et en coupables, déclinés dans l’ordre de la présomption de délinquance, de l’autre. Cela joue également dans la sphère privée en particulier dans le contentieux médical. Si, malgré tout, la culpabilité ne peut être rapportée à un auteur, l’incident est décliné dans l’ordre de « l’accident de la vie » et non plus dans celui des failles ou dynamiques d’un système. À défaut de responsables identifiables (handicap, difficulté sociale, etc.), la collectivité se doit d’offrir à la victime une mise en scène compassionnelle et un panel de services réparateurs (services sociaux, médicaux, etc.) auquel il pourra accéder grâce à des indemnités ou des allocations « compensatrices ».

Enfin, il convient de noter que cette gémellité coupable/victime peut se retourner contre la victime elle‑même dès lors qu’elle figure dans le registre de l’action. Ainsi, un chômeur, s’il n’est pas énoncé comme directement coupable de son éviction du travail (licenciement) devra cependant reconstruire, grâce à ses allocations temporaires et au panel de services de requalification offerts, son employabilité. Entrepreneur de lui‑même, s’il n’est pas capable d’opérer sa « sortie de crise », il sera présumé coupable car responsable. Il bascule, comme pour bien d’autres formes d’exclusion, dans une présomption de fraude (les dits faux‑allocataires) sinon de délinquance.

Nous avons vu que le risque était au fondement d’une nouvelle construction politique. L’intérêt général sociétal se construirait selon les mêmes mécanismes de la « main invisible » que dans l’instance économique. La « troisième voie », sociale‑libérale, a bien des traits communs avec le néolibéralisme. La mobilisation de la « société civile restaurée » comme mode de protection sociale active (société providence) ne diverge que sur la conception de la société civile : elle est réduite aux entreprises (assurances, services aux particuliers) pour les uns et matinée de tiers secteur (mutuellisme, associations), pour les autres. De même la remise en cause de l’État social, comme État protecteur et régulateur, ne débouche pas sur le credo libertarien de la fin de l’État : « la réforme de l’État peut au contraire accroître l’influence des gouvernements. Il convient de ne pas confondre un grand État avec un État fort»(Blair & Giddens, op. cit. : 167). Il s’agit de réduire le périmètre de l’État pour opérer son recentrage sur ses missions régaliennes renforcées. Un État fort s’accommode parfaitement d’une décentralisation de certaines compétences et de délégations de services publics. La proximité n’est pas gage de démocratie et les modes de gestion du local peuvent être parfaitement despotiques. La gouvernance semble être le triomphe de cette « pensée non plus de la division, mais du consensus, de l’accord, de la négociation molle» selon les mots d’E. Enriquez et Ch. Haroche (2002 : 82). En fait, la gouvernance sert à éclairer, de manière experte et consensuelle, les voies du possible et à faciliter – de ce fait – l’implémentation des politiques sectorielles ; elle peut n’être que le masque d’un néodespotisme éclairé s’appuyant sur les réseaux technico‑courtisans d’experts. La gouvernance, outre qu’elle ne concerne pas les missions régaliennes, ne dit rien du processus politique démocratique si ce n’est que le vote a un coût d’opportunité trop fort car il peut aller jusqu’à invalider les « bonnes décisions ». Ainsi l’État, que l’on prétend « modeste », se démultiplie comme État fort car « la société du risque n’est donc pas une société révolutionnaire, elle est bien plus que cela : elle est une société de la catastrophe. L’état d’exception menace d’y devenir un état normal […] la société du risque a tendance à générer un totalitarisme « légitime » de la prévention qui sous couvert d’empêcher que ne se produise le pire, finit par créer […] les conditions d’apparition de ce qui est encore pire » (Beck, op. cit. : 143‑145).

La prévention n’est pas celle des causes des fractures sociales, des dysfonctionnements, mais celle des désordres qu’ils peuvent engendrer. Cette prévention‑là appartient à l’arsenal répressif et sécuritaire.

La litanie des exceptions aux règles des États de droit – et ce dans tous les pays et dans tous les domaines – n’est plus à faire, les livres noirs et rapports annuels sur les atteintes aux droits fondamentaux s’en chargent. Les États s’émancipent des règles diplomatiques séculaires, des chartes et droits internationaux, bafouent les droits‑libertés des personnes en proclamant et réitérant des « états d’urgence ». M. Foucault avait déjà montré en 1977 que la gestion de la peur par l’alibi terroriste remettait en cause les fondements de l’État de droit : « Désormais, la sécurité est au‑dessus des lois. Le pouvoir a voulu montrer que l’arsenal juridique est incapable de protéger les citoyens » (Foucault, op. cit. : 367). Le terrorisme, la sécurité deviennent les prismes au travers desquels tout conflit social, tout surgissement peuvent être vus. Il s’agit bien d’une construction politique des peurs, sur la base de « communautés de menace» (Beck, op. cit.) qui transgressent les frontières des États‑nations et donc aussi les matrices historiques des droits régaliens.

La société du risque participe pleinement, dans sa fantasmagorie comme dans sa réalité sécuritaire, des mondialisations.

Si l’exception devient la norme, c’est dire aussi que dans le nouvel ordre sécuritaire, « ce sont les sociétés de contrôle qui sont en train de remplacer les sociétés disciplinaires » (Deleuze, 1990). Autant la coexistence des dispositifs disciplinaires indépendants laissait des espaces de liberté et d’autonomie, autant « les différents contrôlats sont des variations inséparables, formant un système à géométrie variable dont le langage est numérique. Les enfermements sont des moules, des moulages distincts, mais les contrôles sont une modulation » dit encore G. Deleuze. Le contrôle est un processus autodéformant, en expansion, centrifuge et au maillage réticulaire : « dans les sociétés de discipline on n’arrêtait pas de recommencer, tandis que dans les sociétés de contrôle on n’en finit jamais avec rien». Le fichage numérique, les doubles peines, le contrôle postacquittement de la dette sociale, la surveillance prennent tout leur sens.

L’accoutumance à la peur fait de l’exception faite pour les uns, identifiés comme « combattants illégaux », une norme acceptable, voire exigée, par tous. Ainsi, la peur, fille du risque, engendre, dans l’état d’exception à nouveau la peur, celle de l’arbitraire, du désordre que représente l’installation dans la durée de ces appareils de contrôle et de retour à l’ordre.

Ainsi, dans la société du risque poussée à son extrême, et pour reprendre les mots du Freud de Malaise dans la civilisation, cité par le juriste B. Edelman, « chaque individu est virtuellement un ennemi de la civilisation ». « L’histoire humaine est l’histoire d’un danger » nous dit encore Edelman (1999 : 342).

En guise de non‑conclusion, il nous reste à entrevoir comment le risque, aune à la mesure duquel se mesure la valeur des individus, dans la société de risque, peut générer des « communautés de peurs » dont parle Beck. Pour lui c’est « la solidarité des choses vivantes qui, dans la menace, concerne au même titre chacun et chaque chose » (op. cit. : 136) et donc crée ces nouvelles communautés.

La « main invisible » conduisant à l’intérêt général, construite sur la confrontation des intérêts privés et sur le calcul rationnel dont seraient dotés les agents, ne peut s’appliquer à l’exposition au risque et à la nature des menaces.

Il note aussi que la prise de conscience du risque peut être inversée, par accoutumance, en dénégation de la peur.

Pour ma part, ce serait à partir de la reconnaissance de « l’individu situé » appréhendé par les situations, avoirs, manques qu’il partage avec d’autres, que des « communautés ou coalitions d’intérêts » se manifesteraient. Le risque ne serait qu’un des éléments, parmi d’autres, de ces divers partages et donc reliances. L’individu est au centre de dyades relationnelles qu’il noue avec chaque fois des « autres » différents. Habitant, il partage un territoire, un environnement commun, dont il défend la qualité ou l’identité, avec ses voisins ; parent d’élèves, il partage une institution comme l’école avec les enseignants, les autres parents, les élèves, l’administration ; consom/acteur, il s’organise avec d’autres consommateurs et des producteurs en réseaux dits équitables. Pour autant, le travail, dans ses nouvelles modalités (multiactivité, flexibilité) mais aussi dans l’ordre de l’absence (chômage) reste un élément structurant même s’il épouse des formes semblables. Ces appartenances multiples, fluctuantes et floues, génèrent des mouvements qui sont marqués – eux – du sceau de l’unicité thématique, de l’éphémère, de la résurgence, de l’horizontalité et mobilisent des répertoires d’action et de protestation singuliers. La perception du risque, de la menace, les peurs sont également des éléments coagulants de ce type de mouvements. Il n’en demeure pas moins que ce sont les constructions sociale et politique du risque et de ses déclinaisons en peurs et sécurité, qui peuvent sédimenter et enkyster ces mouvements en communautés figées, en quête d’autoprotection et cultivant au bout du compte la « mêmitude » d’un côté et légitimer un ordre de contrôle social de l’autre.

La construction théorique du risque que le néolibéralisme mais aussi le social‑libéralisme s’efforcent d’instiller comme l’un des paradigmes, l’autre étant le marché, de la pensée unique débouche donc sur la justification d’une société de contrôle. Société de marché et société du risque finissent par converger.

Mais sur la base même des nouvelles postures assignées aux individus, des formes de résistance, certes plus labiles voire éphémères mais susceptibles de se radicaliser, peuvent se développer. C’est un autre objet d’études. »

– Marchand, A. (2007). Le risque, nouveau paradigme et analyseur sociétal. Journal des anthropologues, 108-109(1), 211-236.

« La catastrophe est de l’ordre de l’interruption désastreuse, qui déborde le cours supposé normal de l’existence, le lit naturel d’un fleuve ou des digues artificielles, emportant parfois avec elle l’ordre institué. Accident majeur qui renverse le cours des choses, la catastrophe rend l’espace inhabitable. Mais pour un temps. Dans les pires scénarios de science-fiction, les survivants s’adaptent et reconstruisent — ou alors c’est la fin du monde… La catastrophe tient en effet le milieu entre l’accident, qui s’ajoute à l’ordinaire sans bouleverser radicalement la continuité historique, et l’apocalypse comme discontinuité dernière.

Légitime démence
Or notre situation contemporaine entretient un rapport à la catastrophe que l’on pourrait juger paradoxal : son aspect quasi-routinier.

« La société du risque est une société de la catastrophe. L’état d’exception menace d’y devenir un état normal », écrivait Ulrich Beck en 1986.

Cette tendance est aujourd’hui avérée, et la catastrophe fait partie de notre quotidienne actualité. Elle semble perdre son caractère de discontinuité partielle et de continuité relative au profit d’une confusion des genres, comme si l’apocalypse pouvait nous arriver sans cesse, comme si la catastrophe définissait désormais un rapport de continuité démentiel au monde.

Mais une démence qui, en ce qui concerne ses conditions de possibilité, nous semble cependant légitime : notre sensibilité exacerbée aux risques est construite, ce n’est pas une production idéologique. Et c’est sur cette sensibilité que prend corps ce que nous nommons une biopolitique des catastrophes, soit une forme de « gouvernementalité » qui aurait intégré le dit « principe de précaution » :

la biopolitique des catastrophes est une hyper-biopolitique qui, sur un mode conjuratoire ou régulateur, tente de prendre en charge la totalité de la vie humaine et du vivant dont elle use.

Une nouvelle sensibilité
Nous parlons d’un rapport démentiel au monde pour désigner un excès, mais pas une erreur de perception. Car ce rapport est, pour partie au moins, fondé. Et nous avons souvent raison d’être aussi fous que le monde. Notre démence, pourrait-on dire, est orthomaniaque. Car la « société de la catastrophe » présente les conditions de possibilité du sentiment de vulnérabilité à la catastrophe. Nous sommes sensibles aux risques, ce qui veut dire que nous y sommes d’abord et avant tout sensibilisés. Notre thèse va ainsi à l’encontre des approches qui, poursuivant les analyses de Norbert Elias, voient dans le « processus de civilisation » un mouvement unilatéral de désensibilisation au long cours par intégration des interdits, auto-contrôle et refoulement (enfermement et invisibilisation) de la violence, un mouvement d’anesthésie généralisée que l’utilisation d’anxiolytiques et autres psychotropes viendrait achever. Car si refoulement ou invisibilité programmée il y a, celle-ci est aussi l’effet politico-organique de nouvelles perceptions, d’une attention accordée à de nouveaux phénomènes.

Ces nouvelles perceptions sont l’effet direct de la globalisation, dont l’une des caractéristiques majeures est la disparition d’un Dehors transcendant : désormais, nous dit-on, tout est dedans. Ce qui veut dire que nous ne pouvons plus rejeter à l’extérieur l’effet indésirable de nos actions, nous savons que cet effet finira par nous affecter. Devenir sensibles, par la force des choses, à ce que nous faisons, c’est devenir sensibles à nous-mêmes. L’auto-affection constitutive de la globalisation techno-informatique est la condition de possibilité de notre sensibilité aux catastrophes. C’est nous-mêmes que nous redoutons parce que c’est nous-mêmes que nous percevons, en tant qu’effet d’une auto-production. D’où cette espèce de rétroaction obligatoire du socius postmoderne sur lui-même, cette sorte d’automatisme de l’auto-production, cette auto-machination d’allure fatale qu’il nous semble constater aux heures d’insomnie mass-médiatique.

L’on comprendra sans doute mieux ce régime d’immanence auto-perceptive en accommodant le regard non pas sur la « disparition » de l’« autre » ou du « dehors », mais sur la frontière séparant ce dehors d’un dedans. Car la mondialisation, nous l’expérimentons, a remis en cause cette distinction : trans-nationalisation du capital, informatisation, numérisation du monde, mise en réseau, « convergence » de tous les systèmes de communication, processus global de « synchronisation » (Stiegler) où nous recevons en « temps réel » des informations touchant l’ensemble de la planète. « Mondialisation des “affects”, “SYNCHRONISATION des émotions collectives” dans le “CONTINUUM AUDIOVISUEL” » dit Virilio :

en privilégiant le « temps réel », l’immédiat et l’« ubiquité » au détriment du passé, du futur et de la place assignable, notre société « met en scène » et privilégie l’accident global.

Entendons le concept de communication dans un sens archaïque, celui de contagion, ou de communication « virale » (Baudrillard). Ce qui s’est mis en place dans la seconde partie du XXe siècle, c’est un nouveau socius exprimant localement, selon des formes de contractions toujours singulières, la communication globale, c’est-à-dire la communication d’un Globe devenu boule contagieuse.

Si l’épidémie nous émeut, nous panique, c’est que le socius est épidémique, c’est que chaque phénomène — une émeute urbaine, une caricature dans un journal — est susceptible de se propager à toute vitesse à travers le monde.

Risques
D’où cette conséquence : il faut ainsi comprendre la « société du risque » à partir du socius et non du risque. Ce n’est pas, nous dit Beck, l’intensité du risque qui d’abord importe, mais son degré probable d’extension socio-géographique.

Selon Beck, le risque contemporain a en effet quatre caractéristiques majeures. Il a le Globe comme théâtre et domaine d’expansion possible, il peut toucher tout le monde. L’« expropriation écologique »  prend le temps qu’il faut mais finit par se répandre — « effet boomerang » — alors que le risque « traditionnel » n’impliquait quant à lui qu’une personne, son proche entourage. Avant, on prenait un risque, mais le risque global est reçu, d’abord passif. Et c’est d’en être passible qui nous permet de comprendre et remettre en cause les modalités sans cela inaccessibles de leur production, de leur injuste mise en action.

Seconde caractéristique, le risque global est grandement destructeur. Rappelons ici que la sensibilité aux risques contemporains s’est initialisée avec l’éclair d’Hiroshima, l’âge nucléaire sous ses aspects militaires et civils. Double versant inséparable et chronologique : la mort est matrice de Progrès, voilà le grand refoulé de l’Occident. Nous sommes pourtant visuellement sensibilisés, il y a des images d’Hiroshima, des témoins, on ne nous aura pas fait le coup de l’Irreprésentable. Le visuel du champignon atomique est une image intégrée à nos dispositifs de pensée que les compagnies de la mort nucléaire tentent d’adoucir par la promotion de l’énergie pour tous et pour tout, ou d’effacer par le « secret défense » lorsque ce lobby représente le phallus d’un État ; voyez la République française.

La troisième caractéristique fait du risque contemporain l’effet primaire de la modernisation technologique, et non sa conséquence. Vous pouvez en effet considérer la pollution comme l’effet « secondaire » du progrès industriel, le nuage de fumée entourant dès lors le pur joyau du progrès. Mais il est une autre façon de le considérer : comme impliqué dans la machine. La « fin du dehors » n’est autre que celle d’un clivage entre cause et effet : il n’y a pas un Avant (le Bien pour tous) et un Après (le Mal comme dommage collatéral du Bien pour tous) mais une contemporanéité des deux. Virilio a poussé cette logique jusqu’à son point de renversement, ce qu’il nomme l’« accident originel » : « si l’accident révèle la substance, c’est bien que CE QUI ARRIVE (accidens) est une techno-analyse de CE QUI EST en dessous (substare) de tout savoir. » Voilà qui devrait changer notre regard : « Inventer le navire à voile ou à vapeur, c’est inventer le naufrage […]. Inventer l’automobile domestique, c’est produire le télescopage en chaîne sur l’autoroute », etc. C’est depuis toujours que l’accident révèle la substance, mais l’industrialisation de l’« accident artificiel » par temps de « synchronisation » nous exposerait au désastre global.

Quatrième et dernier critère : leur invisibilité — comment voir des radiations, comment voir ce que pourrait provoquer l’exposition à l’amiante ? Beck insiste pour le coup sur la nécessité des discours capables de dire et prédire ce qu’on ne peut que pré-voir à défaut d’un voir immédiat : l’information en continu sur les risques est appelée par un socius exposé à lui-même, qui tente d’intégrer par avance les conséquences encore invisibles de ses actions.

En définitive, ce que l’on comprend, c’est qu’un risque totalement intégré au socius, inséparable de son développement, est mal nommé : au lieu d’être quelque chose qui nous attend, simplement posé devant nous, le risque est intériorisé comme une composante normale de notre vie psycho-politique.

Hyper-biopolitique : prévention et précaution
Une nouvelle forme de « gouvernance » s’est mise en place, homogène aux processus que nous venons de décrire, une sorte de biopolitique des catastrophes tentant d’épouser le contour des risques contemporains.

Si nous parlons de biopolitique des catastrophes, c’est afin de pointer le fait que les gouvernements semblent intégrer dans leurs politiques le rapport à des catastrophes passées comme à venir, et se préoccuper de la question suivante : comment les éviter ?

Derrière nous s’accumulent des désastres : « vache » dite « folle », sang contaminé, amiante, Tchernobyl, autant de phénomènes hybrides mêlant nuage naturel et radioactivité, science et politique.

La conjuration de ces catastrophes passe par l’usage du « principe de précaution », inscrit pour la France dans la loi Barnier de 1995 et la Charte de l’Environnement (2004), et au niveau européen par le Traité de Maastricht (1992). Ce principe suppose de définir le risque comme un accident qui peut nous arriver et nous affecter — mais que signifie ici pouvoir, de quel possible s’agit-il ? Il faut distinguer un risque probabilisable, en ce sens avéré, d’un risque purement potentiel échappant à ce calcul et nous plongeant dans l’incertain. Le risque avéré peut faire l’objet d’une action de « prévention » facilement justifiable, là où le risque potentiel implique une réponse plus difficile à légitimer ; entre en scène le principe de « précaution ».

Catherine Larrère et Raphaël Larrère  définissent les risques « potentiels » comme étant « vraisemblables » mais non pas « scientifiquement établis ». Là où la prévention implique un « calcul d’optimisation » en « avenir incertain », la précaution suppose une « procédure de décision en avenir controversé » : on « suspend » l’introduction d’une innovation pour réduire l’incertitude, c’est-à-dire pour « prendre le temps ». Il ne nous semble pourtant pas évident de pouvoir éviter la catastrophe à partir des définitions ainsi constituées. Bien entendu, il faut « laisser se développer les controverses scientifiques concernant les risques encourus ». Mais la question de savoir comment on les laissera se développer est fondamentale. Car certains soutiendront qu’il faut laisser se développer les champs d’O.G.M. afin de vérifier s’ils sont, oui ou non, nocifs ! L’argument est fallacieux, destructeur de toute résistance politique — mais pourquoi ? Parce que le concept de catastrophe n’est pas soluble dans celui de risque.

Analysant le rapport Kourilsky-Viney relatif à l’application du principe de précaution en France, Jean-Pierre Dupuy note que les deux auteurs de ce rapport dénaturent l’incertitude du risque « potentiel » en l’intégrant à un nouveau calcul, celui d’un « risque de risque » pouvant faire l’objet d’une conjoncture, rabattant dès lors l’incertain sur le risque et la précaution sur la prévention. Rabattement qui fait l’impasse sur des caractéristiques structurelles de l’incertitude relative aux risques contemporains ; incertitude qui, si elle n’est pas prise en compte, fera passer la catastrophe dans les mailles conceptuelles du risque. Une ignorance nécessaire et objective, nous dit Dupuy, est fondée dans la complexité des écosystèmes : au-delà d’une certain seuil critique disparaît la capacité de résilience du système. Ainsi pour la formation d’un désert, absolument irrémédiable : la connaissance ne peut ici qu’être en retard sur l’événement désastreux. La seconde raison de cette incertitude est liée aux boucles de rétroactions positives, c’est-à-dire à des amplifications imprédictibles : toute la littérature scientifique concernant le réchauffement climatique ne fait que prouver cela, lorsque chaque changement écosystémique provoque en retour une aggravation. La troisième est liée, nous dit Dupuy, aux inventions à venir (aux accidents programmés dirait Virilio) : on ne manque pas de connaissance ici, plus de savoirs ne changerait rien. Inutile patience… Il ne s’agit pas de se demander si les « menaces » sont « très peu probables » ou « quasi certaines », il s’agit de voir qu’elles sont, au vu des caractéristiques ici décrites, « inéluctables ». C’est tout le rapport à la possibilité de la catastrophe qu’il faut modifier.

Politique-fiction : prophétie, “temps réel”, information
Dupuy pose le problème de façon ontochronologique : ou bien on prévient avec succès la catastrophe, et elle ne peut s’inscrire nulle part après coup, elle n’aura pas été (c’est le cas du SRAS) ; ou bien cette prévention invalide logiquement de penser la catastrophe comme possibilité future. Dans le premier cas, nous envisageons les possibles comme ce dans quoi nous opérons un choix, des possibles déjà là ; dans le second, le possible succède au réel : s’inscrivant toujours après coup dans le passé, le possible ne peut par définition être évité… Solution de Dupuy : rendre la catastrophe « inéluctable », la présenter comme nécessaire en donnant à l’avenir la réalité qui lui manque. Ce schème est celui de la « prophétie de malheur », qui a pour particularité de s’avérer fausse, d’être faite pour ne pas se réaliser ; telle est l’authentique « prévention ». Il s’agirait donc de lâcher la question mal posée de l’incertitude, qu’il serait vain et contre-productif de minorer, afin de fixer une certitude, celle du pire.

Cela implique, opération un peu complexe mais réaliste, de penser l’avenir comme à la fois certain et causé par nous, un avenir, dit Dupuy, contre-factuellement indépendant du présent. La dépendance contre-factuelle dit : si j’avais fait ceci au lieu de cela, alors l’avenir aurait été différent ; l’indépendance contre-factuelle remplace le « si » par un « même si » : même si j’avais fait cette autre chose, il n’en aurait pas été différemment. Il nous faut donc distinguer entre impuissance contre-factuelle et pouvoir causal. Le prophète de malheur sait ce qu’est une prophétie auto-réalisatrice, qui est vraie non pas en tant que telle mais par ses effets ; parce qu’il le sait, il en joue. Si la catastrophe ne se produit pas dans le futur, cette prophétie montre son efficacité comme acte de parole (et non par son contenu). Comme une prophétie hétéro-réalisatrice, vérifiée par sa négation. Ou un performatif négatif — quand dire, c’est dé-faire. Mais défaire en agissant causalement au présent sur un point contre-factuellement indépendant de celui-ci : il faut toujours avoir à l’esprit la différence entre ces deux temps, linéaire-causal et récursif, temps de l’« histoire » et temps « fictif » du « projet ». Pour le coup, cette prophétie de malheur ne tend pas tant à se vérifier qu’à prouver sa puissance. C’est littéralement l’introduction de la puissance du faux en politique.

Pourquoi pas. Cela nous change de la politique du Vrai, ou celle, à son revers, de l’Opinion. Et nous semble efficace pour comprendre un certain type d’activisme contemporain. Lorsque les « faucheurs volontaires » agissent pour conjurer la menace d’une « contamination » par OGM, ils posent à la fois un point fixe, celui de la situation dans laquelle, c’est certain, nous allons nous retrouver (impuissance contre-factuelle), et dans le même temps considèrent que leur action peut enrayer ce mouvement (pouvoir causal). L’argument qui consiste à leur reprocher de ne pas laisser faire la science envisage l’extension des OGM au-delà de leur aire d’implantation comme un simple possible incertain, possible parmi les possibles que seul l’« obscurantisme » et la « terreur » orchestrée par de méchants bougres s’occupant, ô crime impardonnable, des affaires scientifico-publiques, nous fixerait à tort comme horizon indépassable… Curieux retournement de situation, fausse perception ontochronologique permettant l’allégeance de certains esprits aux Seigneurs du temps.

L’épisode récent de ladite « grippe aviaire » nous permet de définir la logique générale de cette hyper-biopolitique : pour la première fois de son histoire, l’humanité est aux prises avec le traitement d’une pandémie qui n’existe pas. Les États provisionnent des ressources financières, des masques et d’incertains vaccins non pas en fonction de dommages visibles mais de flux d’informations, de boucles d’informations projectives et prospectives évoluant parfois heure par heure.

L’hyper-biopolitique a pour modèle une sorte de gouvernance just in time, capable de répondre à la vitesse des dernières informations. Lorsqu’elle est en mode conjuratoire, la biopolitique des catastrophes ne se fixe sur aucun dommage perçu, mais sur la possibilité du dommage. Ce serait sans compter avec l’effectivité de la catastrophe, soit le dommage réalisé — vache folle, canicule, tsunami etc. C’est alors que l’hyper-biopolitique passe en mode régulatoire, et agit dans l’après-coup. Certes toujours en fonction des flux d’informations, avec l’idéal suivant : panser les plaies au moment même de leur ouverture, afin d’éviter l’installation de tout trauma — voire la répétition de ce même type de catastrophe : en mode régulatoire, l’hyper-biopolitique maintient sa dimension prospective dans son mode même de régulation. Comme s’il s’agissait, en définitive, de conjurer ce qui a eu lieu et de réguler ce qui viendra… Inversant l’axe du temps, la politique-fiction devient ici véritablement fantasmatique.

Mais au prix d’un oubli des conditions de la catastrophe qui a eu lieu. Voilà ce que Vandana Shiva nous demande de prendre en considération lorsqu’elle analyse l’impact du tsunami de 2004 :

la régulation hyper-biopolitique fait l’impasse sur les formes de destruction que nous mettons en œuvre, et les formes de construction que nous délaissons.

Destruction des mangroves et des récifs coralliens qui ont supprimé les barrières protectrices contre les tempêtes, les cyclones, les ouragans et les tsunamis, soit un développement économique s’effectuant dans l’ignorance des « limites écologiques » et des « impératifs de l’environnement », conduisant « inévitablement à une catastrophe inimaginable ». D’une certaine manière, l’immersion dans les flux d’information peut aussi rendre impossible un rapport connectif à la planète : « si les animaux et les communautés indigènes ont eu l’intelligence d’anticiper le tsunami et de se mettre à l’abri, il a manqué aux cultures du XXIe siècle plongées dans la technologie de l’information, la connaissance de Gaïa pour se connecter, à temps, au tremblement de terre et au tsunami et pour se mettre à l’abri. ».

La biopolitique des catastrophes occulte l’éco-politique. La gestion politique du possible est la digestion du possible, elle rend impossible une autre politique.

Écopolitique now

Il y a donc deux écueils. Le premier consiste à minorer les risques au nom d’une comptabilité rationnelle somme toute insuffisante. C’est à ce titre que la pensée des catastrophes est utile : elle fait sauter le verrou gestionnaire qui semble incapable de prendre la mesure exacte de ce qui nous arrive, et peut encore nous arriver. Mais, second écueil, la pensée des catastrophes est elle-même au risque de déclencher une peur dont il ne faut rien attendre, si ce n’est pire. Même si cette peur provient des systèmes d’alarme écologistes, sera-t-elle capable de conjurer la possibilité d’un éco-fascisme religieux ?

Si nous prenons acte de la question des catastrophes à partir de leurs conditions de possibilité, nous disons que c’est le rapport à la catastrophe dont il faut se méfier, le rapport catastrophiste à la catastrophe, ce dangereux redoublement. Voilà ce que nous reprochons à Dupuy :

entre nous et la fixation du Pire, il n’y a rien, nulle politique. Autant l’idée d’un « mal systémique » à distinguer d’un « mal moral » et d’un « mal naturel » nous semble fructueuse, autant l’oubli de la politique sous la morale est, au bout du compte, stérile.

Ainsi ne comprend-il pas que la désignation d’une cause politique réelle ne signifie nullement la recherche névrotique d’un responsable là où il n’y en a pas, mais la nécessaire distinction qu’il faut effectuer, devant chaque cas, entre l’infortune (qu’on ne peut assigner devant aucun tribunal), l’injustice (identifiable politiquement), et le mal « systémique » comme effet d’une « autotranscendance » d’un ordre social qui se présente comme extérieur aux « actions individuelles » alors qu’il provient de leur « mise en synergie ».

Alors, regardons cette « mise en synergie » qui, elle, ne commence pas par nous tomber dessus, mais est produite, technologiquement, économiquement et politiquement. Il nous a ainsi semblé utile de comprendre les fondements de la biopolitique des catastrophes, afin d’éviter une critique trop rapide, de type classiste et classique, résolument aveugle aux enjeux réels de l’écologie politique. C’est cette prise en considération qui nous éloigne de la position de Virilio : certes, la substance doit être pensée à partir de l’accident, et l’effet doit être vu dans la cause (la contingence ne doit en aucun cas constituer un asile de l’ignorance), sous peine d’idéalisme progressiste. Mais c’est là où la résistance politique prend aussi son sens. Virilio ne voit dans les affects et le bouclage biopolitique que la matière de la manipulation, et non la possibilité de son renversement. De Madrid 2004, il retient l’idée que c’est l’attentat qui fait voter contre Aznar : or, pour reprendre ses termes, l’« émotion publique » qui a « bouleversé » l’« indispensable sérénité du vote démocratique » fut surtout l’effet du démontage du mensonge d’Aznar, c’est-à-dire l’effet de la communication intelligente et politique des affects par SMS, par l’Internet etc. 

En termes de gouvernement ordinaire, la biopolitique des catastrophes s’inscrit dans un régime parlementaire postmoderne où les représentants sont certes séparés des électeurs par leur mode d’élection, mais cependant collés par nécessité, effet technique et global, aux affects, pensées et actions de ces derniers.

L’info-gouvernance subit le poids de cette prise directe, de cette prise rapide avec ce qui arrive, avec ce que les gens pensent, ressentent, avec la propre rapidité de réaction de ces derniers. Et c’est là où il faut intervenir.

Premièrement en nommant les dommages réels, et non simplement les risques et les catastrophes à venir. Cette nomination aura pour effet l’inscription mémorielle, à partir de laquelle l’accident révèlera sa logique, et la localisation de torts politiquement identifiables. Deuxièmement, en étendant le réseau de communication au-delà de la sphère humaine, évitant ainsi l’autisme de l’information qui nous étouffe — le monde est encore trop petit, nous manquons de mondialisation. Troisièmement, en étirant le temps réel à la faveur d’un imaginaire créateur. Car la biopolitique des catastrophes s’inscrit dans une temporalité qui a pour fonction de gérer la maintenance du présent par pré-vision du possible, prévenant ainsi la possibilité d’une éco-politique transformatrice. La projection du Pire, le pilonnage du concept de risque à coups de catastrophes, ne suffit pas à désamorcer ce piège. Il reste à produire les images d’un monde désirable. Détruire l’utopie du progrès est une chose, laisser en friche la fonction fabulatrice dont naissent des mondes en est une autre. Parodions Breton : ce n’est pas la crainte de la catastrophe qui nous forcera à laisser en berne le drapeau de l’imagination. »

– Neyrat, F. (2006). Biopolitique des catastrophes. Multitudes, no 24(1), 107-117.

« L’emprise de la science sur la modernité suscite des réactions diverses. On peut se concentrer sur ses effets structurels : la science, de plus en plus assimilée aux techniques qu’elle suscite et qui la suscitent est-elle le levier d’une nouvelle société de progrès (« société de la connaissance ») ou de troubles irrépressibles (« société du risque »). L’étude des dossiers révèle une situation particulièrement complexe, où la science est à la fois omniprésente et très faiblement thématisée. Où le modèle de l’emprise de la science pourra révéler les ambiguïtés des situations qu’il entend penser et les paradoxes de l’emprise du vrai qui le fonde. Associé au principe de « précaution » dans la prise de décision, un principe de « circonspection » est requis par une éthique scientifiques se donnant à résoudre les modalités d’application pratique des savoirs scientifiques.

Les sciences sociales sont perpétuellement écartelées entre deux soucis : accumuler de multiples données et produire une interprétation générique. Ces deux pôles sont autant en conflit qu’ils sont complémentaires et on leur transpose souvent le mot de Kant : sans le premier le second est vide ; sans le second, le premier est aveugle. Dans les faits, la connaissance ordinaire élabore en permanence des interprétations générales sur des données limitées et incertaines. Les sciences sociales tournent le problème de multiples façons. Elles privilégient les descriptions et les études de cas ou créent des bases de données standardisées ; elles refusent les généralisations ou les soumettent à l’austère discipline de la modélisation ; parfois elles affirment avec force le primat de la pensée théorique ou de l’interprétation et s’affranchissent d’un contrôle empirique jugé illusoire (voir par ex. Adorno, 1957, 1979).

Or, au-delà de ces choix, qui alimentent les débats et la réflexion des méthodologues et des épistémologues (voir par ex. Berthelot, 2000 a), force est de constater la capacité de certaines représentations génériques à s’imposer comme des cadres de pensée incontournables. C’est le cas des réponses à cette question récurrente : dans quelle société, dans quel monde, vivons-nous ? Société traditionnelle, moderne, capitaliste, socialiste, industrielle, post-industrielle, sous-développée, développée, de consommation, programmée, assistée… ? Modernité, postmodernité, sur-modernité… ? Il faudrait faire l’inventaire de ces termes et en étudier non seulement la genèse, mais le parcours social, entre pensée savante et pensée publique, épuration critique et obésité sémantique, neutralité axiologique et engagement militant… Ces dénominations prétendent saisir le principe de la société à un moment donné, ce à partir de quoi l’ensemble des faits et de l’expérience sociale s’ordonne et devient intelligible. Ils privilégient des oppositions sociopolitiques frontales (capitalisme/socialisme), des positions sur une échelle historique (traditionnel/moderne, sous-développé/développé), des mutations structurelles fondamentales comme le basculement des activités du secteur primaire au secteur secondaire (société industrielle), de celui-ci au secteur tertiaire (société post-industrielle) et, en son sein, au rôle déterminant du traitement de l’information (société programmée, société de l’information).

Dans les vingt dernières années sont apparus, indépendamment l’un de l’autre, deux termes, appelés à se rapprocher comme les deux faces d’une même préoccupation :

société du risque, société de la connaissance. Ils ont pour caractéristique commune de pointer le rôle nouveau tenu par la science et la connaissance dans la société contemporaine.

Les deux expressions de « société de la connaissance » et de « société du risque » illustrent d’une certaine façon – et en tout cas dans ce domaine – l’affaissement des barrières disciplinaires en sciences sociales. Leur substantif commun, « société », n’en fait pas des notions spécifiquement sociologiques. Bien au contraire, les termes dérivent d’une discipline à l’autre. On pourrait parler de « thématiques transdisciplinaires », mais cela reste flou. Je pense plus pertinent d’insister sur le passage d’un domaine de préoccupation et d’intérêt à un autre.

Ainsi, « la société de la connaissance » sert de drapeau à des questions de gestion et de management des entreprises, de constitution et de pilotage de systèmes d’information, de mise en place de modules de formation, d’établissement de réseaux documentaires et bibliothécaires, de programmation de politiques de recherche européennes…

La « société du risque » est, elle, le cadre où peuvent s’inscrire les multiples préoccupations sociales, politiques, économiques, assurantielles, nées de l’apparition dans des secteurs comme l’énergie, l’environnement, l’alimentation ou la santé, de processus négatifs incontrôlés ou inaperçus, susceptibles d’engendrer des dommages majeurs. Elle devient donc aussi bien un objet de thématisation scientifique, se déclinant d’un domaine et d’un registre à l’autre, qu’un objet de mobilisation sociale et de débat public.

[…] Le fil commun qui parcourt ces usages vient manifestement de l’économie, bien que la chose ne soit pas si simple et que l’expression d’« économie cognitive » ait une acception théorique différente de ce qui est ici visé (Paulré, 2003). Très grossièrement, information et connaissance peuvent être conçues de deux façons distinctes : comme des biens objectivés et des facteurs de croissance, ou comme des représentations intervenant dans les croyances et les activités cognitives des agents. Peut-être serait-il bon de réserver au premier aspect l’expression d’« économie de la connaissance » et au second celle d’« économie cognitive ». Quoi qu’il en soit, on peut sans doute accepter la réduction sémantique suivante :

a) l’« économie de la connaissance » désigne une économie de compétitivité généralisée, fondée sur l’innovation technique et l’optimisation de la circulation et du traitement de l’information ;

b) la « société de la connaissance » est une société organisée autour d’une économie de la connaissance.

Autant l’économie de la connaissance est cernable et peut constituer une catégorie analytique, autant la société de la connaissance l’est peu. Elle semble, pour l’instant, être envisagée sous trois registres : celui de l’exaltation idéaliste du savoir et de la culture, celui des conditions sociales d’une économie de la connaissance, celui, enfin de ses effets pervers possibles. Au titre du deuxième registre, il faut ranger la généralisation des technologies de l’information et de la communication et les programmes d’équipement, de numérisation, de formation des compétences et de mutation des systèmes professionnels qui leur sont associés ; au titre du troisième, les risques de « fracture numérique », d’exclusion sociale et de délitement des liens sociaux. Ces trois registres, sont d’autant plus insuffisants pour cerner – et désigner – ce que peut être une société bâtie sur une économie de la connaissance, qu’ils laissent totalement de côté les mécanismes de réactivité, de réflexivité, et d’inventivité, par lesquels les agents sociaux et les forces sociales interagissent avec les mécanismes économiques et les perturbent. Pour le sociologue, les mécanismes qui travaillent les sociétés contemporaines – élévation des compétences et précarisation des statuts, gestion rationnelle et incertitude, individualisme et communautarisme, sécularisation des croyances et intégrismes sectaires ou religieux… – ne se laissent guère réduire à « une société de la connaissance », définie comme simple superstructure d’une « économie de la connaissance ».

[…]

Il sera sans doute plus réceptif à l’expression de « société du risque ». D’une part parce que cette dernière est associée à une vision critique de la société ; d’autre part, parce qu’elle a été thématisée en partie dans le cadre de la sociologie.

La notion de risque est d’abord associée au traitement de l’aléatoire. Elle est sans doute fort ancienne. Malinovski notait que les rituels mélanésiens étaient bien plus minutieux avant une pêche en haute mer, toujours incertaine, que dans d’autres circonstances. Cependant, si superstition et pratiques conjuratoires appartiennent à la sagesse populaire, le risque en diffère en ce qu’il relève du calcul : celui des probabilités d’échec ou d’accident d’une entreprise menée en contexte d’incertitude ; celui du coût de son assurance et de son dédommagement. Chaque accident dans la vie des individus et des organisations peut ainsi être transformé en risque, susceptible d’être assuré et dédommagé.

Il faut, de ce fait, distinguer la catastrophe du risque. Elle brise le cours des choses par sa soudaineté, sa violence et son ampleur. Bien qu’exceptionnelle, elle est souvent récurrente, comme les grandes inondations, les avalanches, les tremblements de terre ou les catastrophes minières.

En quatre siècles, par exemple, l’Italie a connu une centaine de tremblements de terre majeurs (Guidoboni, 2002).

Risques et catastrophes appartiennent à l’histoire des sociétés humaines. Pourquoi en faire dès lors le thème d’une mutation sociale affectant spécifiquement les sociétés contemporaines ? Serait-ce la multiplication des risques objectifs ou l’ampleur des catastrophes dans le monde actuel qui en justifieraient l’usage ? Non, car, dans le premier cas, ce ne sont pas les risques objectifs qui ont augmenté, mais les risques assurés ; il vaudrait mieux alors parler de « société assurantielle ». Dans le second, le passé a laissé des traces suffisantes de catastrophes, qui supportent aisément la comparaison avec celles qui nous affectent, de l’engloutissement sous la lave d’Herculanum et Pompéi au séisme de 1201 qui fit plus d’un million de morts dans le Bassin méditerranéen.

Pourquoi donc parler de « société du risque » et en quel sens ? Il y a une acception faible et une acception forte du terme. L’acception faible l’utilise comme axe de référence pour réunir tout un ensemble de préoccupations et d’études, associées à la prévention et la gestion des risques dans les sociétés contemporaines. Cela va de ce qui est identifié comme risque dans un secteur donné aux réflexions politiques sur la démocratie technique et le principe de précaution, en passant par les technologies de suivi et d’alerte, les comités d’expert et les procédures de gestion de crise. L’acception forte est donnée par Ulrich Beck dès 1986. Le nuage de Tchernobyl plane sinistrement sur cette thématisation :

« Depuis Tchernobyl, les centrales nucléaires – ultimes performances des forces productives et créatives humaines – sont devenues les nouveaux signes avant-coureurs d’un Moyen Âge moderne du danger. Elles assignent des menaces qui transforment l’individualisme de l’âge moderne – qui est simultanément poussé à son comble – en son contraire le plus exact. »

Mais au-delà de l’événement – dont l’affaire du sang contaminé en France, la crise de « la vache folle » en Angleterre vont apparaître comme de sinistres échos – l’ouvrage est une thèse forte, inscrite dans la réflexion critique sur la modernité menée sans discontinuité par la sociologie allemande depuis le début du xxe siècle.

Ce qui caractérise la « société (industrielle) du risque ». C’est l’expression exacte de Beck. c’est la spécificité des risques. À la différence des catastrophes naturelles, ils procèdent de l’activité de l’homme. Quand ils n’en procèdent pas directement, ils sont amplifiés et démultipliés par elle.

Ils sont « irréversibles », « invisibles », causant des dégâts majeurs et se jouant des frontières tout en renforçant les inégalités internationales ; ils constituent « un réservoir sans fond, insatiable » qui porte la logique capitaliste à un plus haut degré ; ils n’existent qu’à travers la connaissance que l’on en a, et bousculent les règles du jeu politique en s’imposant au cœur du débat public :

« La société du risque est une société de la catastrophe. L’état d’exception menace d’y devenir l’état normal » (p. 41-43).

Ce qui caractérise également cette société, c’est le nouvel engagement de la science. La société industrielle relevait d’une « scientification primaire », d’une application de la science et de sa rationalité aux technologies industrielles. La société du risque relève d’une « scientification réflexive » : à travers les procédés les plus avancés de manipulation de la matière qu’elle a induits, la science est confrontée aux limites de son prométhéisme ; de solution, elle devient source de problèmes et doit faire retour sur elle-même pour interroger la naïveté de ses croyances dans la validité et l’innocuité de ses procédés et sa capacité de résolution des problèmes.

Le risque s’inscrit donc comme phénomène majeur de la « modernité réflexive », quels que soient, par ailleurs, les problèmes posés par cette théorie (Bourdin, 2003 b).

Même si leur niveau de thématisation et de conceptualisation est différent, « la société de la connaissance » et la « société du risque » apparaissent donc comme les deux faces d’un même Janus moderne. Et cette ambivalence repose, à un certain niveau, sur les ambiguïtés que revêt l’emprise de la science dans le monde contemporain.

Quelle place est accordée à la science dans chacune de ces orientations ? Concevons-les, pour neutraliser leur décalage conceptuel, comme deux points de vue organisant une description déterminée du monde contemporain. Que révèlent et que dissimulent ces deux discours, de la place de la science et de sa signification ?

La science y apparaît omniprésente. Mais à d’importantes restrictions près. Le flou de la notion de « société de la connaissance », oblige à descendre au niveau, davantage balisé, de l’« économie de la connaissance ». Celle-ci donne lieu à de multiples textes et travaux. Elle opère une généralisation et une uniformisation à usage économique de la connaissance. La science, du xviie au xxe siècle est définie comme une science « ouverte » (open science), dans ses objectifs, dans ses fonctionnements, dans ses effets. Si, d’un point de vue économique, les connaissances qu’elle produit sont appropriables et transformables en procédés techniques, cette mise à disposition sur le marché est gratuite. Une distinction claire existe entre le monde de la recherche scientifique et celui des entreprises, publiques ou privées, usant ponctuellement ou largement des résultats scientifiques disponibles tout en développant de leur côté leurs procédés. En revanche, l’économie de la connaissance change profondément cette donne. La concurrence accrue sur des marchés ouverts contraint les entreprises à changer d’échelle et à maximiser leurs performances (voir par ex. Duizabo, Guillaume, 1997). Pour cela, elles doivent également optimiser la dimension cognitive de leurs activités et sont amenées à élargir la notion de connaissance et à la privatiser : l’élargir, en recensant l’ensemble des connaissances utiles à leur fonctionnement, mobilisables et intégrables à un système de gestion et de veille – connaissances scientifiques stricto sensu, mais aussi connaissances appliquées, informations, savoirs localisés, savoirs tacites ; la privatiser, en étendant le système traditionnel des brevets et, plus encore, en intervenant dans la recherche fondamentale par le développement d’une recherche interne (voir par ex. David, Foray, 2003 ; David, 2004 a et b).

Les questions sociales et politiques posées par cette évolution sont multiples.

Sur le plan social, une société de la connaissance qui serait strictement asservie à une économie de la connaissance, risquerait d’être la pire société d’exploitation et de mépris jamais connue, les connaissances, transformées en compétences, étant par essence fragiles et d’obsolescence rapide et continue.

La logique économique inviterait d’autant plus facilement à des renouvellements incessants des agents que l’objectivation des connaissances locales et tacites dans des systèmes partagés dépouille leurs dépositaires et les rend moins indispensables.

Le diplôme, instrument de protection et de régulation des sociétés démocratiques, ne serait plus lui-même qu’un mince viatique initial.

La recherche, basculant du côté de fonds privés, serait soumise à des exigences de rentabilité et contrainte d’abandonner des objectifs fondamentaux de long terme, à la réussite aléatoire et aux bénéfices imprévisibles.

Cela n’est bien sûr encore qu’une utopie sinistre, mais dont maints éléments sont aujourd’hui en place.

Éviter qu’une « économie de la connaissance » n’engendre ce type de « société de la connaissance » est manifestement un problème sociologique et politique majeur. Il n’en invite que davantage à comprendre le rôle effectif que joue et que peut jouer la science – dont nous avons vu l’omniprésence complexe – dans ces développements. Et celui-ci dépend fondamentalement de ce qu’est la science. Avant de préciser ce point, envisageons l’autre point de vue.

Le lien entre science et « société du risque » est explicitement fait par Ulrich Beck. La chose est moins nette dans la multiplicité des travaux consacrés au risque, tant les angles d’attaque peuvent être divers. Une « affaire » (comme le sang contaminé) ou une controverse (comme celles de l’énergie nucléaire, des ogm ou de l’évolution climatique), met au premier plan des procédés techniques, des procédures de contrôle et d’alerte, des mesures, des acteurs – économiques, politiques, associatifs, médiatiques –, des comités, des rapports et des débats d’experts, des attitudes publiques, des appels – à la justice, à la raison – des sentiments collectifs – indignation, défiance, suspicion… Pour les uns, l’enjeu des débats est d’apprécier la nature exacte du risque et de mettre au point des procédures adaptées ; pour d’autres, il est de rompre avec un système de croissance suicidaire dont chaque affaire et chaque dossier ne font que décliner une conséquence désastreuse ; pour les chercheurs en sciences sociales, il s’agit d’un « analyseur » exceptionnel de certains mécanismes sociaux : construction des représentations et des argumentations ; mode de passage dans l’espace public (alerte, controverses, médiatisation, actions spectaculaires, « forums hybrides ») ; formes de prises de décision sous impératif de crise ; effectivité et ambiguïté du principe de précaution ; profils et itinéraires sociaux des agents impliqués ; modalités de représentation et de gestion des catastrophes dans l’histoire… La science, comme telle, est là, dispersée, diluée, segmentée.

Cependant, elle est omniprésente. Elle est en amont des phénomènes, dans les procédés techniques contestés : énergie et déchets nucléaires, émission de CO2, ogm, farines animales… Ces procédés résultent, non d’un développement technologique autonome, mais d’un travail d’application, à des questions pratiques (produire de l’énergie, améliorer l’alimentation animale, renforcer les espèces végétales à usage nutritionnel ou pharmaceutique) de connaissances scientifiques. Que le lien sciencetechnologie fonctionne en boucle, ou plus précisément en spirale, ne signifie pas que l’on sort de la science, mais à l’inverse que la différence entre science et technologie devient un effet de spécification ou de modulation au sein d’un espace scientifique commun, ce que manifeste également la multiplication des programmes scientifiques de recherche et développement.

La science se retrouve de même présente tout au long de la gestion des crises ou du développement du débat public. Elle fournit, à chaque partie, des ressources argumentaires et des points d’appui ; elle produit, à chaque étape, des analyses, des mesures, des diagnostics, des propositions, des réflexions.

Dire « la science » est bien sûr un abus et une facilité de langage. C’est une abstraction qui recouvre l’engagement d’une multitude d’agents (les chercheurs), relevant de spécialisations disciplinaires de plus en plus pointues et, simultanément, de plus en plus ouvertes, appelés à travailler en étroite collaboration avec des ingénieurs, des techniciens, des secteurs professionnels, des pouvoirs publics, et à endosser des statuts divers : chercheurs, experts, démarcheurs, conseillers, témoins… Cette complexification des sphères d’activité et des statuts peut aboutir, paradoxalement, à rendre invisible la spécificité du scientifique. L’effet de défiance, que ne manque pas d’engendrer le scandale du sang contaminé ou l’arrêt proclamé du nuage de Tchernobyl aux frontières françaises, joue également le rôle de filtre déformant.

Scientifiques et politiques sont accusés, en amont, de jouer les apprentis sorciers ; ils tendent, en aval, à être décrédibilisés et délégitimés.

À chaque niveau la perception de la science oscille selon les scènes où elle est engagée et les acteurs qui l’utilisent : une même mesure, comme un taux de radioactivité, pourra tour à tour être utilisée comme un argument d’apaisement ou de contestation ; un même rapport deviendra une ressource argumentative pour deux positions opposées.

Ces deux points de vue – celui de « la société de la connaissance » et celui de « la société du risque » – confrontent à un double mouvement : un mouvement d’opacification de la connaissance scientifique, par intégration aux divers facteurs cognitifs de production dans un cas, par implication dans un débat public en imputation causale de l’autre ; un mouvement d’évaluation pragmatique, opéré sous l’égide de l’utilité pour l’économie de la connaissance, de la dangerosité pour la « société du risque ». Les chercheurs en sciences sociales qui souhaitent avoir l’avis de la sociologie des sciences sur ces points sont engagés dans le même balancier : la thèse de la « triple hélice », envisagée au chapitre précédent, privilégie la science comme facteur d’innovation ; la thèse dédifférentialiste colle au débat public et en épouse les défiances. Le constructivisme social peut s’y déployer à l’envi puisque « le risque », dans chaque domaine, est à ce point enjeu de représentations, d’attitudes (de défiance ou de confiance), de débats, de luttes, voire de coups d’éclats, qu’il se « construit » sans cesse par la thématisation des divers acteurs.

Je veux, cependant, à l’inverse, avancer un autre modèle, ne serait-ce que pour en éprouver la pertinence. Celui de l’emprise de la science, fondé sur l’emprise du vrai.

Pourquoi parler de l’« emprise de la science » ? Qu’est-ce que cela signifie ? Dans le débat public – et sa projection sur la scène sociologique – l’expression, face au constructivisme, peut malheureusement résonner comme une position archaïque, « dépassée » m’a dit une fois un étudiant compatissant. Il n’est plus bon de parler de science ou de vérité. Pour autant, je ne vois pas très bien en quoi l’association entre constructivisme, postmodernisme et progressisme serait conceptuellement évidente. Se libérer de l’autorité de la science, lorsqu’elle relève d’une imposition indue, est sans doute un progrès.

Sauf que, la critique rationnelle, qui peut établir ce fait, étant par définition même l’apanage de la science, cette « libération » reste dans le cadre du fonctionnement le plus normal de la science et de son extension à la critique rationnelle. Cette discussion n’aurait aucun sens s’il n’était pas possible de trancher rationnellement de la valeur de vérité différentielle des thèses en présence.

Parler d’« emprise de la science » signifie donc que, bien loin de se diluer dans l’indifférenciation de savoirs localisés, la science impose un modèle de normativité à toutes les sphères d’activité. Cette science est, évidemment, la science moderne, telle que nous l’avons partiellement décrite dans le chapitre précédent, ramifiée, proliférante, sur-instrumentalisée, opaque, couvrant la totalité du spectre allant, dans tous les domaines de la réalité, des théories fondamentales à l’ingénierie. Contrairement aux thèses dédifférentialistes, je pense que son noyau épistémologique, commun à l’ensemble du spectre, n’est pas vide. Il s’élabore en permanence autour d’une normativité problématique et procédurale : quels qu’en soient les niveaux, la généralité ou la spécificité, les questions sont les mêmes : quels sont les problèmes ? quelles procédures utiliser pour les résoudre ? à quelles normes s’astreindre dans cette résolution ? Quels savoirs, quelles coopérations, quelles instrumentations mobiliser ? D’une certaine façon, la vie, l’action, imposent ces questions tous les jours, à tous les individus. Mais la spécificité de la science tient en ce qu’elle se bâtit exclusivement, obstinément, opiniâtrement, autour d’elles. Elle les reprend sans cesse et rassemble, dans cette activité et les interactions qu’elle engendre, des communautés savantes dont la seule norme radicale  est, in fine, le vrai, telle qu’elle a été définie plus haut.

Cela n’est en rien contradictoire avec le développement de l’incertitude. C’en est au contraire le contrepoint rigoureux dès lors que la notion de vérité est indépendante de tout engagement métaphysique.

Le vrai, par ailleurs, finit par être masqué – et donc d’autant plus facilement dénié – par les termes spécifiques qui le déclinent dans les divers domaines de pensée et d’activité : pertinence, originalité, valeur, précision, efficacité…

La spécificité de la société contemporaine est que les activités de pensée sont devenues de plus en plus des activités cognitives procédurales, et qu’elles pénètrent, comme ressources indispensables à tout cours d’action, la plus grande partie des sphères d’activité sociales. Cette rationalisation poursuit et amplifie celle qu’avait thématisée Weber (1920, 1971).

Si l’on reprend la distinction qu’il proposait, entre rationalité substantielle – désignant le point de vue auquel est référé le processus de rationalisation – et rationalité formelle – indiquant le niveau de mise en cohérence rationnelle des éléments associés à la satisfaction de ce point de vue le monde contemporain semble en proposer une double concentration : autour de l’efficacité d’une part, des technologies de formalisation rationnelle de l’autre.

Ce processus n’est pas lié à la science comme telle. Ce n’est pas elle qui définit les objets d’une activité sociale, de plus en plus soumise à l’emprise de l’économie et de l’utilité.

Mais, volontairement ou à son corps défendant, la science est devenue, dans cette évolution sociétale globale, la principale ressource, tant substantielle que formelle, de l’action : elle fournit les théories, les savoirs, les cadres de pensée, les méthodes nécessaires à la résolution des problèmes dans les secteurs d’activité les plus larges ; elle informe, au moyen de ses exigences procédurales, l’ensemble des techniques de gestion de l’information.

On pourrait résumer cela ainsi : les sphères d’activité sociale, dans la société contemporaine, se structurent de plus en plus en systèmes « sociocognitifs », dont le rationalisme scientifique et technique constitue la ressource principale.

Économie de la connaissance et société du risque peuvent être réévaluées de ce point de vue. La dilution relative de la connaissance scientifique, dans les théories de l’économie de la connaissance, au profit d’une conception plus large et indifférenciée de la connaissance, s’explique très simplement. La connaissance scientifique, dans sa dimension substantielle (c’est-à-dire sous forme de théories et de résultats), ne peut être qu’une composante des savoirs à mobiliser pour parvenir à un optimum économique sur un produit ou un service donnés, dans un marché donné. Il faut également faire appel à des savoirs localisés, spécifiques à la production du produit et à son environnement économique, ainsi qu’aux savoirs tacites des agents, forgés dans la résolution réitérée des micro-problèmes présents tout au long de la chaîne de production et de distribution. En revanche, dans sa dimension formelle, la connaissance scientifique par la médiation de l’informatique, peut déployer toute son emprise. Elle fournit les procédures et les outils de formalisation et de mobilisation de l’ensemble des informations indispensables à l’optimisation de la production.

Emprise de l’économie – soumission tendancielle de tout élément à un calcul d’utilité – et emprise de la science – source exponentielle de ressources cognitives – se confortent donc mutuellement, sans pour autant se confondre.

Faut-il parler de « société du risque » ? Beck, parle d’ailleurs plutôt de « société (industrielle) du risque » et l’inscrit dans la modernité réflexive, en laquelle, contrairement au post-modernisme, il voit également le seul recours.

Si l’on suit le point de vue de l’« emprise de la science », la science peut être présente au risque à quatre niveaux : dans les chaînes de causalité générant les situations à risque et leurs effets, insidieux ou explosifs ; dans les procédures d’identification, de mesure, de contrôle, de suivi de ces situations et de prévision de leurs effets ; dans les innovations technologiques ou les prescriptions comportementales visant à réduire les risques ou à les prévenir ; dans les discours, enfin, mobilisés par les agents sociaux pour qualifier des situations comme situations à risque et légitimer ou délégitimer l’action de ceux qui en ont la charge.

À l’aune de ce point de vue,

la forme contemporaine du risque est pensable selon deux aspects : objectivement, comme un effet pervers du développement industriel et des révolutions positives qu’il a engendrées : révolution démographique, révolution alimentaire, révolution sanitaire, révolution énergétique ; subjectivement, comme un effet réflexif du savoir scientifique, c’est-à-dire comme un effet en retour, sur les préoccupations humaines, de certaines révélations concernant des phénomènes que seule la science peut appréhender et mesurer, comme l’état de la couche d’ozone ou les évolutions glaciaires.

Parler d’effets pervers (ou d’effets émergents, Boudon, 2003) ne vise pas à en minimiser l’importance – comme les trop fameux « dommages collatéraux » des stratèges –, mais à en expliciter le mécanisme (Boudon, 1977). Il ne s’agit pas de simples effets secondaires malencontreux, mais de l’émergence, brutale ou progressive, d’une situation dommageable, qui peut être majeure, à partir d’une multitude d’actions qui ne la souhaitaient pas. Il peut y avoir, parmi celles-ci, des erreurs, voire des fautes. Mais fondamentalement, toute personne qui, le matin, tourne la clé de contact de sa voiture, contribue à l’émission de gaz carbonique, au renforcement de l’effet de serre et au risque d’une perturbation irréversible du système terre-océan. Ce risque objectif – indépendant de la conscience que nous en avons –, est subjectivement perçu, décrit, dénoncé dès lors que peuvent être saisis, grâce à la science, les mécanismes et les chaînes de causalité qui le produisent et envisagés ses effets.

Une même chaîne relie tous ces phénomènes. Celle de la constitution du rationalisme et du réalisme scientifiques comme horizon opératoire majeur des principales sphères d’activité humaine.

Ce constat est à l’évidence trop général. Le rationalisme juridique constitue un autre horizon opératoire majeur, dans la production incessante d’une normalisation et d’une réglementation des sphères d’activité. Mais il suffit à mon propos qui visait, à travers les notions – signes de « société de la connaissance » et de « société du risque », à préciser la place tenue par la science dans les phénomènes visés par ces termes et le statut de vérité de la connaissance scientifique qui s’y trouvait engagé.

Ce statut de vérité, bien loin d’être entamé, est généralisé par l’intermédiaire de sa forme procédurale. Et c’est bien là que gît le problème. Dans le langage d’Habermas, cette généralisation équivaut à une réduction de la sphère éthique communicationnelle à la sphère instrumentale du travail. Dans celui de Luhman, au déploiement de logiques systémiques autoréférencielles et non maîtrisables.

Dans les deux cas, ce qui est signifié est que la dimension proprement éthique et politique de l’activité humaine – ce en quoi elle réfère à des fins et des valeurs – est systématiquement et sournoisement rabattue sur sa dimension instrumentale et opératoire.

Cette dimension éthique et politique ne s’attache pas seulement aux questions diverses de déontologie ou de définition de l’intérêt général et du bien commun. Celles-ci sont évidemment essentielles. Mais, associées précisément à cette emprise du vrai et à sa généralisation, se posent également des questions radicalement nouvelles, d’éthique épistémologique.

La généralisation de la norme du vrai, sous l’une ou l’autre de ses déclinaisons, peut aboutir aussi à sa réification et à sa fétichisation.

Or les chercheurs savent parfaitement que le degré de certitude des propositions sur lesquelles ils travaillent est variable. Que précisément parce qu’il est procédural, le vrai peut s’appuyer temporairement sur des hypothèses hésitantes ou relever de modèles apparemment irréalistes.

Au principe de précaution, défini pour la prise de décision publique, il conviendrait d’adjoindre un principe de circonspection, défini pour l’usage des procédés et des savoirs scientifiques dans des contextes d’incertitude.

Ces antinomies, ces conflits, sont loin d’échapper à la conscience collective. L’emprise de la science ne s’exerce pas seulement dans la structuration et l’orientation des systèmes d’activités. Elle est aussi forte au niveau des idées. Elle génère un affrontement, voire une confusion des représentations, dont le post-modernisme et le constructivisme sont doublement partie prenante, comme effet et comme agent. »

– Berthelot, J. (2008). Chapitre 9. L’emprise de la science : sommes-nous dans une société de la connaissance ? dans une société du risque ?. Dans : , J. Berthelot, L’emprise du vrai: Connaissance scientifique et modernité (pp. 165-182). Presses Universitaires de France.

« Ce dont nous avons (vraiment) besoin

Le génie du capitalisme d’après-guerre aura consisté à réorienter la volonté de changement vers l’insatiable désir de consommer. Ce modèle trouve à présent sa limite dans l’épuisement des ressources naturelles.

Pour imaginer un mode de vie à la fois satisfaisant et durable, récuser l’empire de la marchandise ne suffit pas. Il faut d’abord réfléchir à ce qui nous est indispensable.

[…]

Tous les besoins « authentiques » ne sont pas d’ordre biologique.

Aimer et être aimé, se cultiver, faire preuve d’autonomie et de créativité manuelle et intellectuelle, prendre part à la vie de la cité, contempler la nature… sur le plan physiologique, on peut certainement faire sans.

Mais ces besoins sont consubstantiels à la définition d’une vie humaine digne d’être vécue. André Gorz les appelle « besoins qualitatifs » ; Ágnes Heller, « besoins radicaux ».

Les besoins qualitatifs ou radicaux reposent sur un paradoxe. En même temps qu’il exploite et aliène, le capitalisme génère à la longue un certain bien-être matériel pour des secteurs importants de la population. Il libère de ce fait les individus de l’obligation de lutter au quotidien pour assurer leur survie. De nouvelles aspirations, qualitatives, prennent alors de l’importance. Mais, à mesure qu’il monte en puissance, le capitalisme empêche leur pleine réalisation.

La division du travail enferme l’individu dans des fonctions et des compétences étroites tout au long de sa vie, lui interdisant de développer librement la gamme des facultés humaines.

De même, le consumérisme ensevelit les besoins authentiques sous des besoins factices. L’achat d’une marchandise satisfait rarement un vrai manque. Il procure une satisfaction momentanée ; puis le désir que la marchandise avait elle-même créé se redéploie vers une autre vitrine.

Constitutifs de notre être, les besoins authentiques ne peuvent trouver leur satisfaction dans le régime économique actuel. C’est pourquoi ils sont le ferment de bien des mouvements d’émancipation. « Le besoin est révolutionnaire en germe », dit André Gorz (4). La quête de son assouvissement conduit tôt ou tard les individus à soumettre le système à la critique.

Les besoins qualitatifs évoluent historiquement. Voyager, par exemple, permet à l’individu de se cultiver et de s’ouvrir à l’altérité. Jusqu’au milieu du XXe siècle, seules les élites voyageaient. Désormais, la pratique se démocratise. On pourrait définir le progrès social par l’apparition de besoins toujours plus enrichissants et sophistiqués, et accessibles au plus grand nombre.

Mais des aspects néfastes apparaissent parfois en cours de route. Si le transport en avion proposé par les compagnies à bas coût contribue à rendre le voyage accessible aux classes populaires, il émet aussi une énorme quantité de gaz à effet de serre, et il détruit les équilibres des zones où les touristes se rendent en masse pour voir… d’autres touristes en train de regarder ce qu’il y a à voir. Voyager est devenu un besoin authentique ; il faudra pourtant inventer de nouvelles façons de se déplacer, adaptées au monde de demain.

Si le progrès social induit parfois des effets pervers, des besoins à l’origine néfastes peuvent, à l’inverse, devenir viables avec le temps. Aujourd’hui, la possession d’un smartphone relève d’un besoin égoïste.

Ces téléphones contiennent des « minerais de sang » — tungstène, tantale, étain et or notamment —, dont l’extraction occasionne des conflits armés et des pollutions graves. Ce n’est pourtant pas l’appareil lui-même qui est en question. Si un smartphone « équitable » voit le jour — le Fairphone semble en être une préfiguration (5) —, il n’y a pas de raison que cet objet soit banni des sociétés futures.

D’autant plus qu’il a donné lieu à des formes de sociabilité nouvelles, à travers l’accès continu aux réseaux sociaux ou grâce à l’appareil photographique qu’il intègre. Qu’il encourage le narcissisme ou génère des névroses chez ses utilisateurs n’est sans doute pas inévitable.

En ce sens, on ne peut exclure que le smartphone, à travers certains de ses usages, se transforme progressivement en besoin qualitatif, comme le voyage avant lui.

Selon André Gorz, la société capitaliste a pour devise : « Ce qui est bon pour tous ne vaut rien. Tu ne seras respectable que si tu as “mieux” que les autres (6). » On peut lui opposer une devise écologiste : « Seul est digne de toi ce qui est bon pour tous. Seul mérite d’être produit ce qui ne privilégie ni n’abaisse personne. » Aux yeux de Gorz, un besoin qualitatif a ceci de particulier qu’il ne donne pas prise à la « distinction ».

En régime capitaliste, la consommation revêt en effet une dimension ostentatoire. Acheter le dernier modèle de voiture revient à exhiber un statut social (réel ou supposé). Un beau jour, cependant, ce modèle passe de mode et son pouvoir distinctif s’effondre, provoquant le besoin d’un autre achat. Cette fuite en avant inhérente à l’économie de marché contraint les entreprises qui se concurrencent à produire des marchandises toujours nouvelles.

Comment rompre avec cette logique de distinction productiviste ? Par exemple, en allongeant la durée de vie des objets. Une pétition lancée par Les Amis de la Terre exige que l’on fasse passer la garantie des marchandises de deux ans — une obligation inscrite dans le droit européen — à dix ans (7). Plus de 80 % des objets sous garantie sont réparés ; or ce pourcentage tombe à moins de 40 % une fois l’échéance passée. Moralité : plus la garantie est longue, plus les objets durent ; et plus la quantité de marchandises vendues et donc produites diminue, limitant par la même occasion les logiques de distinction, qui reposent souvent sur l’effet de nouveauté.

La garantie, c’est la lutte des classes appliquée à la durée de vie des objets.

Qui détermine le caractère légitime ou non d’un besoin ? Un risque apparaît ici, qu’Ágnes Heller appelle la « dictature sur les besoins (8) », comme celle qui prévalut en URSS. Si une bureaucratie d’experts autoproclamés décide de ce que sont les besoins « authentiques », et par conséquent les choix de production et de consommation, ceux-ci ont peu de chances d’être judicieux et légitimes. Pour que la population accepte la transition écologique, il faut que les décisions qui la sous-tendent emportent l’adhésion. Établir une liste de besoins authentiques n’a rien d’évident et suppose une délibération collective continue. Il s’agit donc de mettre en place un mécanisme qui vienne d’en bas, d’où émane démocratiquement une identification des besoins raisonnables.

Difficile d’imaginer ce que pourrait être un tel mécanisme. En esquisser les contours constitue une tâche brûlante de notre temps, dont dépend la construction d’une société juste et viable.

La puissance publique a certainement un rôle à jouer, par exemple en taxant les besoins futiles pour démocratiser les besoins authentiques, en régulant les choix des consommateurs. Mais encore faut-il convaincre de la futilité de nombreux besoins ; et, pour cela, il faut un dispositif situé au plus près des individus. Il s’agit d’extraire le consommateur de son tête-à-tête avec la marchandise et de réorienter la libido consumandi vers d’autres désirs.

[…] »

Razmig Keucheyan (Le Monde diplomatique, février 2017)

« L’individu privatisé

La philosophie n’est pas philosophie si elle n’exprime pas une pensée autonome. Que signifie « autonome » ? Cela veut dire autosnomos, « qui se donne à soi-même sa loi ». En philosophie, c’est clair : se donner à soi-même sa loi, cela veut dire qu’on pose des questions et qu’on n’accepte aucune autorité. Pas même l’autorité de sa propre pensée antérieure.

C’est là d’ailleurs que le bât blesse un peu, parce que les philosophes, presque toujours, construisent des systèmes fermés comme des oeufs (voir Spinoza, voir surtout Hegel, et même quelque peu Aristote), ou restent attachés à certaines formes qu’ils ont créées et n’arrivent pas à les remettre en question. Il y a peu d’exemples du contraire. Platon en est un. Freud en est un autre dans le domaine de la psychanalyse, bien qu’il n’ait pas été philosophe.

L’autonomie, dans le domaine de la pensée, c’est l’interrogation illimitée ; qui ne s’arrête devant rien et qui se remet elle-même constamment en cause.

Cette interrogation n’est pas une interrogation vide ; une interrogation vide ne signifie rien.

Pour avoir une interrogation qui fait sens, il faut déjà qu’on ait posé comme provisoirement incontestables un certain nombre de termes. Autrement il reste un simple point d’interrogation, et pas une interrogation philosophique.

L’interrogation philosophique est articulée, quitte à revenir sur les termes à partir desquels elle a été articulée.

Qu’est-ce que l’autonomie en politique ? Presque toutes les sociétés humaines sont instituées dans l’hétéronomie, c’est-à-dire dans l’absence d’autonomie. Cela veut dire que, bien qu’elles créent toutes, elles-mêmes, leurs institutions, elles incorporent dans ces institutions l’idée incontestable pour les membres de la société que cette institution n’est pas œuvre humaine, qu’elle n’a pas été créée par les humains, en tout cas pas par les humains qui sont là en ce moment. Elle a été créée par les esprits, par les ancêtres, par les héros, par les Dieux ; mais elle n’est pas œuvre humaine.

Avantage considérable de cette clause tacite et même pas tacite : dans la religion hébraïque, le don de la Loi par Dieu à Moïse est écrit, explicité. Il y a des pages et des pages dans l’Ancien Testament qui décrivent par le détail la réglementation que Dieu a fournie à Moïse. Cela ne concerne pas seulement les Dix Commandements mais tous les détails de la Loi. Et toutes ces dispositions, il ne peut être question de les contester : les contester signifierait contester soit l’existence de Dieu, soit sa véracité, soit sa bonté, soit sa justice. Or ce sont là des attributs consubstantiels de Dieu. Il en va de même pour d’autres sociétés hétéronomes. L’exemple hébraïque est ici cité à cause de sa pureté classique.

Or, quelle est la grande rupture qu’introduisent, sous une première forme, la démocratie grecque, puis, sous une autre forme, plus ample, plus généralisée, les révolutions des temps modernes et les mouvements démocratiques révolutionnaires qui ont suivi ? C’est précisément la conscience explicite que nous créons nos lois, et donc que nous pouvons aussi les changer.

Les lois grecques anciennes commencent toutes par la clause édoxè tè boulè kai to démo, « il a semblé bon au conseil et au peuple ». « Il a semblé bon », et non pas « il est bon ». C’est ce qui a semblé bon à ce moment-là. Et dans les temps modernes, on a, dans les Constitutions, l’idée de la souveraineté des peuples. Par exemple, la Déclaration des droits de l’homme française dit en préambule : « La souveraineté appartient au peuple qui l’exerce, soit directement, soit par le moyen de ses représentants. » Le « soit directement » a disparu par la suite, et nous sommes restés avec les seuls « représentants ».

Quatre millions de dollars pour être élu
Il y a donc une autonomie politique ; et cette autonomie politique suppose de savoir que les hommes créent leurs propres institutions. Cela exige que l’on essaye de poser ces institutions en connaissance de cause, dans la lucidité, après délibération collective. C’est ce que j’appelle l’autonomie collective, qui a comme pendant absolument inéliminable l’autonomie individuelle.

Une société autonome ne peut être formée que par des individus autonomes. Et des individus autonomes ne peuvent vraiment exister que dans une société autonome.

Pourquoi cela ? Il est assez facile de le comprendre. Un individu autonome, c’est un individu qui n’agit, autant que c’est possible, qu’après réflexion et délibération. S’il n’agit pas comme cela, il ne peut pas être un individu démocratique, appartenant à une société démocratique.

En quel sens un individu autonome, dans une société comme je la décris, est-il libre ? En quel sens sommes-nous libres aujourd’hui ? Nous avons un certain nombre de libertés, qui ont été établies comme des produits ou des sous-produits des luttes révolutionnaires du passé. Ces libertés ne sont pas seulement formelles, comme le disait à tort Karl Marx ; que nous puissions nous réunir, dire ce que nous voulons, ce n’est pas formel. Mais c’est partiel, c’est défensif, c’est, pour ainsi dire, passif.

Comment puis-je être libre si je vis dans une société qui est gouvernée par une loi qui s’impose à tous ? Cela apparaît comme une contradiction insoluble et cela en a conduit beaucoup, comme Max Stirner (2) par exemple, à dire que cela ne pouvait pas exister ; et d’autres à sa suite, comme les anarchistes, prétendront que la société libre signifie l’abolition complète de tout pouvoir, de toute loi, avec le sous-entendu qu’il y a une bonne nature humaine qui surgira à ce moment-là et qui pourra se passer de toute règle extérieure. Cela est, à mon avis, une utopie incohérente.

Je peux dire que je suis libre dans une société où il y a des lois, si j’ai eu la possibilité effective (et non simplement sur le papier) de participer à la discussion, à la délibération et à la formation de ces lois. Cela veut dire que le pouvoir législatif doit appartenir effectivement à la collectivité, au peuple.

Enfin, cet individu autonome est aussi l’objectif essentiel d’une psychanalyse bien comprise. Là, nous avons une problématique relativement différente, parce qu’un être humain est, en apparence, un être conscient ; mais, aux yeux d’un psychanalyste, il est surtout son inconscient. Et cet inconscient, généralement, il ne le connaît pas. Non pas parce qu’il est paresseux, mais parce qu’il y a une barrière qui l’empêche de le connaître. C’est la barrière du refoulement.

Nous naissons, par exemple, comme monades psychiques, qui se vivent dans la toute-puissance, qui ne connaissent pas de limites, ou ne reconnaissent pas de limites à la satisfaction de leurs désirs, devant lesquels tout obstacle doit disparaître. Et nous terminons par être des individus qui acceptent tant bien que mal l’existence des autres, très souvent formulant des vœux de mort à leur égard (qui ne se réalisent pas la plupart du temps), et acceptent que le désir des autres ait le même droit à être satisfait que le leur. Cela se produit en fonction d’un refoulement fondamental qui renvoie dans l’inconscient toutes ces tendances profondes de la psyché et y maintient une bonne partie des créations de l’imagination radicale.

Une psychanalyse implique que l’individu, moyennant les mécanismes psychanalytiques, est amené à pénétrer cette barrière de l’inconscient, à explorer autant que possible cet inconscient, à filtrer ses pulsions inconscientes et à ne pas agir sans réflexion et délibération. C’est cet individu autonome qui est la fin (au sens de la finalité, de la terminaison) du processus psychanalytique.

Or, si nous faisons la liaison avec le politique, il est évident que nous avons besoin d’un tel individu, mais il est évident aussi que nous ne pouvons pas soumettre la totalité des individus de la société à une psychanalyse.

D’où le rôle énorme de l’éducation et la nécessité d’une réforme radicale de l’éducation, pour en faire une véritable païdaïa comme disaient les Grecs, une païdaïa de l’autonomie, une éducation pour l’autonomie et vers l’autonomie, qui amène ceux qui sont éduqués — et pas seulement les enfants — à s’interroger constamment pour savoir s’ils agissent en connaissance de cause plutôt qu’emportés par une passion ou par un préjugé.

Pas seulement les enfants, parce que l’éducation d’un individu, au sens démocratique, est une entreprise qui commence avec la naissance de cet individu et qui ne s’achève qu’avec sa mort. Tout ce qui se passe pendant la vie de l’individu continue à le former et à le déformer. L’éducation essentielle que la société contemporaine fournit à ses membres, dans les écoles, les collèges, les lycées et les universités, est une éducation instrumentale, organisée essentiellement pour apprendre une occupation professionnelle. Et à côté de celle-ci, il y a l’autre éducation, à savoir les âneries que diffuse la télévision.

Sur la question de la représentation politique, Jean-Jacques Rousseau disait que les Anglais, au XVIIIe siècle, croient qu’ils sont libres parce qu’ils élisent leurs représentants tous les cinq ans. Effectivement, ils sont libres, mais un jour sur cinq ans. En disant cela, Rousseau sous-estimait indûment son cas. Parce qu’il est évident que même ce jour sur cinq ans on n’est pas libre. Pourquoi ?

Parce qu’on a à voter pour des candidats présentés par des partis. On ne peut pas voter pour n’importe qui. Et on a à voter à partir de toute une situation réelle fabriquée par le Parlement précédent et qui pose les problèmes dans les termes dans lesquels ces problèmes peuvent être discutés et qui, par là même, impose des solutions, du moins des alternatives de solution, qui ne correspondent presque jamais aux vrais problèmes.

Généralement, la représentation signifie l’aliénation de la souveraineté des représentés vers les représentants. Le Parlement n’est pas contrôlé. Il est contrôlé au bout de cinq ans avec une élection, mais la grande majorité du personnel politique est pratiquement inamovible. En France un peu moins. Ailleurs beaucoup plus. Aux Etats-Unis, par exemple, les sénateurs sont en fait des sénateurs à vie. Et cela viendra aussi en France.

Pour être élu aux Etats-Unis il faut à peu près 4 millions de dollars. Qui vous donne ces 4 millions ? Ce ne sont pas les chômeurs. Ce sont les entreprises. Et pourquoi les donnent-elles ? Pour qu’ensuite le sénateur soit d’accord avec le lobby qu’elles forment à Washington, pour voter les lois qui les avantagent et ne pas voter les lois qui les désavantagent. Il y a là la voie fatale des sociétés modernes.

On le voit se faire en France, malgré toutes les prétendues dispositions prises pour contrôler la corruption.

La corruption des responsables politiques, dans les sociétés contemporaines, est devenue un trait systémique, un trait structurel. Ce n’est pas anecdotique. C’est incorporé dans le fonctionnement du système, qui ne peut pas tourner autrement.

Quel est l’avenir de ce projet de l’autonomie ? Cet avenir dépend de l’activité de l’énorme majorité des êtres humains. On ne peut plus parler en termes d’une classe privilégiée, qui serait par exemple le prolétariat industriel, devenu, depuis longtemps, très minoritaire dans la population. On peut dire, en revanche, et c’est ce que je dis, que toute la population, sauf 3 % de privilégiés au sommet, aurait un intérêt personnel à la transformation radicale de la société dans laquelle elle vit.

Mais ce que nous observons depuis une cinquantaine d’années, c’est le triomphe de la signification imaginaire capitaliste, c’est-à-dire d’une expansion illimitée d’une prétendue maîtrise prétendument rationnelle ; et l’atrophie, l’évanescence de l’autre grande signification imaginaire des temps modernes, c’est-à-dire de l’autonomie.

Est-ce que cette situation sera durable ? Est-ce qu’elle sera passagère ? Nul ne peut le dire. Il n’y a pas de prophétie dans ce genre d’affaire. La société actuelle n’est certainement pas une société morte. On ne vit pas dans Byzance ou dans la Rome du Ve siècle (après J.-C.). Il y a toujours quelques mouvements. Il y a des idées qui sortent, qui circulent, des réactions. Elles restent très minoritaires et très fragmentées par rapport à l’énormité des tâches qui sont devant nous. Mais je tiens pour certain que le dilemme que, en reprenant des termes de Léon Trotski, de Rosa Luxemburg et de Karl Marx, nous formulions dans le temps de Socialisme ou Barbarie, continue d’être valide, à condition évidemment de ne pas confondre le socialisme avec les monstruosités totalitaires qui ont transformé la Russie en un champ de ruines, ni avec l’ « organisation » absurde de l’économie, ni avec l’exploitation effrénée de la population, ni avec l’asservissement total de la vie intellectuelle et culturelle qui y avaient été réalisés.

Voter pour le moindre mal
Pourquoi la situation contemporaine est-elle tellement incertaine ? Parce que, de plus en plus, on voit se développer, dans le monde occidental, un type d’individu qui n’est plus le type d’individu d’une société démocratique ou d’une société où on peut lutter pour plus de liberté, mais un type d’individu qui est privatisé, qui est enfermé dans son petit milieu personnel et qui est devenu cynique par rapport à la politique.

Quand les gens votent, ils votent cyniquement. Ils ne croient pas au programme qu’on leur présente, mais ils considèrent que X ou Y est un moindre mal par rapport à ce qu’était Z dans la période précédente. Un tas de gens voteront Lionel Jospin sans doute (3) aux prochaines élections, non pas parce qu’ils l’adorent ou qu’ils sont éblouis par ses idées, ce serait étonnant, mais simplement parce qu’ils sont dégoûtés par la situation actuelle. La même chose d’ailleurs s’est passée en 1995, lorsque les gens ont été écœurés par quatorze ans de prétendu socialisme dont le principal exploit a été d’introduire le libéralisme le plus effréné en France et de commencer à démanteler ce qu’il y avait eu comme conquêtes sociales dans la période précédente.

Du point de vue de l’organisation politique, une société s’articule toujours, explicitement ou implicitement, en trois parties.

1) Ce que les Grecs auraient appelé oïkos, c’est-à-dire la « maison », la famille, la vie privée.

2) L’agora, l’endroit public-privé où les individus se rencontrent, où ils discutent, où ils échangent, où ils forment des associations ou des entreprises, où l’on donne des représentations de théâtre, privées ou subventionnées, peu importe. C’est ce qu’on appelle, depuis le XVIIIe siècle, d’un terme qui prête à confusion, la société civile, confusion qui s’est encore accrue ces derniers temps.

3) L’ecclesia, le lieu public-public, le pouvoir, le lieu où s’exerce, où existe, où est déposé le pouvoir politique.

La relation entre ces trois sphères ne doit pas être établie de façon fixe et rigide, elle doit être souple, articulée. D’un autre côté, ces trois sphères ne peuvent pas être radicalement séparées.

Le libéralisme actuel prétend qu’on peut séparer entièrement le domaine public du domaine privé. Or c’est impossible, et prétendre qu’on le réalise est un mensonge démagogique. Il n’y a pas de budget qui n’intervienne pas dans la vie privée publique, et même dans la vie privée. Et ce n’est là qu’un exemple parmi tant d’autres. De même, il n’y a pas de pouvoir qui ne soit pas obligé d’établir un minimum de lois restrictives ; posant par exemple que le meurtre est interdit ou, dans le monde moderne, qu’il faut subventionner la santé ou l’éducation. Il doit y avoir dans ce domaine une espèce de jeu entre le pouvoir public et l’agora, c’est-à-dire la communauté.

Ce n’est que dans un régime vraiment démocratique qu’on peut essayer d’établir une articulation correcte entre ces trois sphères, préservant au maximum la liberté privée, préservant aussi au maximum la liberté de l’agora, c’est-à-dire des activités publiques communes des individus, et qui fasse participer tout le monde au pouvoir public. Alors que ce pouvoir public appartient à une oligarchie et que son activité est clandestine en fait, puisque que les décisions essentielles sont toujours prises dans la coulisse. »

Cornelius Castoriadis. (Le Monde diplomatique, février 1998)

« Dans ses écrits des années 1990, Giddens continue à explorer les caractéristiques de ce qu’il appelait antérieurement la société de classes. Il parle désormais de « modernité », un terme quasi synonyme, par lequel il désigne les « modes de vie ou d’organisation sociale apparus en Europe vers le XVII e siècle, et qui progressivement ont exercé une influence plus ou moins planétaire » [CM, p. 11]. La modernité se poursuit jusqu’à nos jours, même si, à partir des années 1960, on assiste à de nouvelles transformations importantes qui font entrer les sociétés dans la phase de « modernité radicale » qui se poursuit jusqu’à aujourd’hui et que nous analyserons au chapitre IV.

Le passage de la société traditionnelle à la modernité repose sur plusieurs conditions : le rapport distancié à l’espace et au temps, qui permet d’extraire les relations sociales des lieux où se déroulent les interactions, de même qu’un type particulier de réflexivité, qui consiste, pour l’individu moderne, à réviser continuellement ses pratiques à la lumière d’informations nouvelles. Il s’agit là des « sources de dynamisme de la modernité » : « Sans elles, la démarcation de la modernité par rapport aux ordres traditionnels n’aurait pu survenir d’une façon aussi radicale, aussi rapide, et à un échelon aussi mondial » [CM, p. 69].

[…]

Les quatre dimensions de la modernité
Le capitalisme

À partir de la lecture qu’il fait de l’œuvre de Marx, Giddens caractérise le capitalisme par plusieurs traits. En premier lieu, la production des biens y est commandée par la recherche du profit. En deuxième lieu, cette production repose sur une relation d’exploitation entre, d’une part, des acteurs qui détiennent la propriété privée des moyens de produire et, de l’autre, une main-d’œuvre qui doit vendre sa force de travail pour gagner sa vie et assurer sa subsistance ; cette relation forme l’axe central d’un système de rapports de classes. En troisième lieu, la sphère de l’économie est relativement distincte des autres sphères de la vie sociale, en particulier de la sphère du politique et donc de l’action de l’État ; ce dernier dépend néanmoins de la prospérité des entreprises pour assurer ses revenus.

Giddens s’intéresse surtout aux deux derniers traits. Il a longuement réfléchi à la question des rapports de classes. Ils sont bien spécifiques à la société capitaliste, et donc à la modernité : dans les sociétés antérieures, on observe certes des inégalités importantes de pouvoir et de richesse et donc, d’une certaine manière, des différences de classes ; pourtant, on ne peut pas parler d’exploitation d’une classe par l’autre.

En effet, le type de travail exercé par la classe laborieuse n’est pas déterminé par la classe dirigeante. Dans les civilisations non industrielles, la classe laborieuse est faite essentiellement d’agriculteurs, et ceux-ci contrôlent largement le contenu de leur travail, même s’ils doivent abandonner à la classe dirigeante une partie de leur récolte ou de l’argent que celle-ci leur rapporte.

Ce n’est que dans certains cas limités (construction de fortifications ou de temples, exploitation de mines, opérations militaires, etc.) que la classe dirigeante intervient directement dans le contenu des tâches de la classe laborieuse.

Il en va différemment avec l’avènement du capitalisme, qui prive les travailleurs du contrôle des moyens de production. Ceux-ci sont dans les mains de la classe dirigeante qui organise la production et contrôle le processus de travail. Dans la société capitaliste, « le travailleur a besoin d’un employeur pour gagner ses moyens de subsistance, de même que l’employeur a besoin d’une force de travail pour mener à bien la production […]. Ceci implique l’intrusion des rapports de classes dans le cœur même de l’activité productive » [CCHM, p. 130].

Les rapports de classes connaîtront au cours des XIX e et XX e siècles des changements importants, auxquels Giddens s’est intéressé dès ses écrits des années 1970. En quoi la concentration économique – qui se marque par le contrôle accru de la production par les grandes sociétés transnationales – a-t-elle un impact sur les rapports de classes ? Est-il correct, en particulier, de considérer que le développement des grandes sociétés a opéré une fragmentation de la classe dirigeante : à côté des propriétaires, y aurait-il désormais le groupe des gestionnaires, plus intéressé par la stabilité de la firme que par le profit qu’elle réalise ? Que faut-il penser de la thèse de l’« institutionnalisation des rapports de classes », selon laquelle les classes laborieuses se seraient progressivement intégrées au système capitaliste, plutôt que de le transformer en profondeur ? En quoi les rapports de classes se modifient-ils avec le développement des activités de service, ou avec l’extension des nouvelles technologies de l’information et de la communication, etc. ? Voilà quelques-unes des questions qui concernent les rapports de classes et leur évolution.

Giddens insiste sur une autre spécificité du capitalisme : le fait que la sphère économique y est distincte des autres sphères de la vie sociale, en particulier de la politique.

Dans la plupart des sociétés non capitalistes, « les membres de la classe dirigeante sont aussi les fonctionnaires de l’État. État et classe dominante forment donc une seule et même réalité. Ceci n’est pas le cas dans la société capitaliste. Les membres de la classe dominante, à savoir les responsables des entreprises et de l’industrie, peuvent certes prendre part au gouvernement de la société ; mais, pour l’essentiel, le leadership des entreprises et la direction de l’État sont institutionnellement distincts » [SBCI, p. 76].

Dans la société capitaliste, l’État est donc autonome par rapport aux entreprises.

Toutefois, selon l’expression que Giddens reprend au philosophe marxiste français Nicos Poulantzas, cette autonomie est relative dans la mesure où « l’État est dépendant, pour ses revenus, de la bonne marche des entreprises ; il ne peut survivre si les entreprises industrielles n’atteignent pas un certain niveau de prospérité. Or, ces entreprises, il ne les contrôle pas ; ce contrôle est réservé à la classe capitaliste. L’autonomie des responsables de l’État est donc fortement limitée par la dépendance dans laquelle ils se trouvent par rapport aux entreprises capitalistes » [SBCI, p. 76-77].

L’industrialisme
La deuxième dimension de la modernité concerne la production industrielle des biens, telle qu’elle est commandée par le développement des sciences et des techniques. Elle consiste à recourir à des sources d’énergie comme le charbon, le pétrole, l’électricité, etc., pour produire des biens sur une large échelle en utilisant les machines, puis, à une période plus récente, les technologies de l’information et de la communication. Outre la production des biens, l’industrialisme concerne aussi les transports, les communications ainsi que la vie domestique, et notamment l’habitat, l’équipement ménager, etc.

L’industrialisme a progressivement transformé notre environnement naturel, sans commune mesure avec ce qui s’observe dans les sociétés non industrielles. Ainsi, au début de l’industrialisation, des transferts de populations se sont opérés en direction des lieux de travail, près desquels les populations venaient habiter. Les villes se sont développées, avant que l’habitat ne s’étende dans des zones auparavant désignées comme étant la campagne ; en conséquence, la distinction ville/campagne s’est progressivement estompée. On peut ajouter à ces changements liés à l’habitat, les transformations de l’environnement causées directement par le développement de l’industrie et des services : construction des entreprises, des bureaux, etc., sans compter l’agriculture qui recourt à la mécanisation et à l’usage de produits chimiques. Enfin, il faut noter les transformations liées au développement des moyens de transport des marchandises et des personnes (routes, voies ferrées, aviation, etc.). Bref, « il y a peu d’aspects de notre environnement matériel qui n’aient pas été, d’une manière ou d’une autre, atteints par l’intervention humaine ». En ce sens, nous vivons aujourd’hui « la fin de la nature » [RW, p. 27].

S’inspirant largement des travaux du sociologue allemand Ulrich Beck et en particulier de son ouvrage La Société du risque [1986/2002], Giddens montre que le développement de l’industrialisme a un impact profond sur le type de risques auxquels nous sommes confrontés : alors que nous nous heurtions à des « risques externes », nous sommes à présent face à des « risques fabriqués ».

Les dimensions sociales et politiques des risques contemporains, selon Ulrich Beck
Dans La Société du risque, Beck s’intéresse à l’« architecture sociale et à la dynamique politique » des menaces auxquelles sont confrontées nos sociétés contemporaines. Il avance les cinq thèses suivantes.

  • « 1) Les risques générés au stade le plus avancé du développement des forces productives […] provoquent systématiquement des dommages, souvent irréversibles, restent la plupart du temps invisibles, requièrent des interprétations causales, se situent donc seulement et exclusivement dans le domaine de la connaissance (scientifique ou plutôt antiscientifique) qu’on a d’eux, peuvent être transformés, réduits ou augmentés, dramatisés ou banalisés par la connaissance, et se prêtent donc tout particulièrement aux processus de définition sociale […]. »
  • « 2) La répartition et l’augmentation des risques génèrent des situations sociales de menace. Elles recoupent partiellement l’inégalité des situations de couches ou de classes, mais donnent lieu à une logique de répartition fondamentalement différente : tôt ou tard, les risques liés à la modernisation touchent aussi ceux qui les produisent ou en profitent. Ils recèlent un effet boomerang qui déborde le schéma de la société de classes. Les riches et les puissants n’en sont plus préservés […]. Dans le même temps, les risques produisent de nouvelles inégalités internationales, d’une part entre tiers-monde et pays industrialisés, d’autre part entre pays industrialisés. Ces risques minent l’édifice de compétences de l’État-nation […]. »
  • « 3) Cependant, la diffusion et la commercialisation des risques ne rompent aucunement avec la logique de développement capitaliste ; elles la portent bien plutôt à un degré plus élevé. Les risques liés à la modernisation relèvent du big business. Ce sont eux, ces besoins insatiables recherchés par les économistes […]. Les risques liés à la civilisation constituent un réservoir de besoins sans fond, insatiable, éternel, qui s’autoproduit […]. »
  • « 4) On peut posséder des richesses, mais on est touché par les risques ; c’est la civilisation qui les assigne. Pour résumer cela en une formule schématique : dans les situations de classes ou de couches sociales, c’est l’être qui détermine la conscience tandis que dans les situations de menace, c’est la conscience qui détermine l’être. Une importance politique nouvelle est dévolue à la connaissance […]. »
  • « 5) Les risques socialement reconnus recèlent une singulière charge explosive : ce qui jusqu’alors était considéré comme apolitique devient politique – l’élimination des « causes » au sein même du processus d’industrialisation […]. Dans la société du risque se dessine ainsi […] le potentiel politique des catastrophes. S’en prémunir et les gérer, voilà qui peut impliquer une réorganisation du pouvoir et des attributions. La société du risque est une société de la catastrophe. L’état d’exception menace d’y devenir un état normal. »
  • Source : Beck [1986/2002, p. 41-43].

Les premiers tiennent aux menaces que la nature fait peser sur nos activités ou sur nos existences : les famines, les inondations, etc. Giddens développe en particulier l’exemple des dangers encourus par les marins qui font de longues traversées : ce sont ces risques qui ont conduit à la création des systèmes d’assurance au cours du XVIII e siècle. Quant aux risques fabriqués (maufactured), ils tiennent aux conséquences des actions que nous menons par rapport à la nature. Les risques environnementaux sont de cette catégorie : risque d’irradiation nucléaire, risques liés au réchauffement de la planète, au développement des OGM, etc. Ces risques sont inédits : nous n’en avons pas fait préalablement l’expérience ; il est donc difficile d’en estimer l’ampleur et même parfois d’en comprendre la véritable nature. Il est donc aussi difficile d’y faire face, tant du point de vue des particuliers que de celui des pouvoirs publics. Avec les progrès de l’industrialisme, les risques fabriqués ont pris progressivement le pas sur les risques externes, ce qui signifie que « nous avons commencé à nous soucier moins de ce que la nature nous fait que de ce que nous faisons à la nature » [RW, p. 26].

La surveillance
Les sociétés modernes, avec leur double composante capitaliste et industrielle, se sont développées dans le cadre d’États-nations. Une des caractéristiques majeures de ce type d’État est de disposer des moyens de surveillance très développés (cf. chapitre III). C’est la troisième dimension institutionnelle de la modernité, que Giddens analyse dans la foulée des travaux de Weber et de Foucault. La capacité de surveillance des États repose sur leur appareil législatif et réglementaire, mais aussi sur la masse des données accumulées concernant les individus. Celles-ci permettent une surveillance portant sur un grand nombre de domaines de l’existence, une surveillance qui va souvent jusque dans le détail de leurs activités quotidiennes. Ces contrôles centralisés se combinent avec des formes de supervision directe auxquelles les individus sont soumis dans différents lieux, parfois durant de longues périodes, en particulier dans les prisons, les asiles psychiatriques, mais aussi les entreprises. C’est notamment dans ce contexte qu’il faut replacer les techniques modernes de management des hommes.

Cette double surveillance peut s’exercer dans des perspectives politiques très différentes. Elle peut se combiner avec le développement des droits des citoyens dans le cadre de l’État-providence. Ainsi, les droits au chômage, ou aux soins de santé, nécessitent que soient enregistrées des données très détaillées concernant les activités des individus. Inversement, la surveillance peut être utilisée dans une perspective politique autoritaire, dans le but de réduire ces droits et libertés.

On touche ici à la question du totalitarisme. Ce phénomène constitue une tendance qui guette les États modernes. Le totalitarisme ne se conçoit en effet que dans les sociétés où l’État parvient à pénétrer les activités quotidiennes des citoyens. Il combine les techniques de surveillance rapprochée, typiques des États modernes, avec un usage des moyens militaires – la quatrième dimension institutionnelle de la modernité – dirigé non pas vers l’extérieur, mais bien vers l’intérieur de la société.

La puissance militaire
Parallèlement au développement de la surveillance interne, les États modernes ont acquis le monopole de la violence externe et donc de la guerre. Tel n’était pas le cas des États traditionnels qui dépendaient souvent, dans le domaine militaire, des princes locaux qui leur prêtaient main forte, mais qui pouvaient aussi, dans certaines circonstances, se retourner contre eux. Les institutions militaires forment ainsi la quatrième dimension constitutive de la modernité. Giddens est conscient que cette thèse n’est guère partagée par la communauté des sociologues : il est rare, note-t-il, que les traités de sociologie accordent une place importante à la question des institutions militaires et de la guerre. Sans doute, estime-t-il, ceci tient-il au fait que la tradition sociologique, qu’elle soit libérale ou marxiste, considère le capitalisme et l’industrialisme comme des forces essentiellement pacifiques. Effectivement, dans le courant du XIX e siècle, on a vu, en Europe, les forces militaires se dégager des affaires intérieures des États, ce qui a correspondu à la séparation entre la police, d’une part, et l’armée, de l’autre. Mais ceci n’a pas pour autant signifié la fin des guerres. Au contraire, les moyens militaires se sont développés et se sont orientés vers l’extérieur, en direction d’autres États.

La guerre, le « taylorisme », la discipline et les uniformes
Giddens détaille les divers changements organisationnels qui résultent des transformations dans la manière de faire la guerre.

« C’est dans une large mesure dans la sphère militaire, comme Munford en particulier nous le rappelle, que le pouvoir administratif dans son sens moderne a été expérimenté […]. Maurice [de Nassau, prince d’Orange] a ainsi introduit deux changements administratifs que l’on rencontrera plus tard dans toutes les organisations bureaucratisées : la formation d’un corps d’experts qui détient la connaissance exclusive de certaines techniques administratives essentielles et la création simultanée d’une population « déqualifiée » de soldats ordinaires […]. Les techniques du taylorisme se répandirent ainsi dans la sphère des forces armées plusieurs centaines d’années avant qu’elles ne soient identifiées dans la sphère de la production avec le label en question […]. Comme Taylor le fit bien plus tard, Maurice divisa les aspects techniques du travail du soldat en des séquences spécifiques et régulières d’actes simples […]. On exigeait des soldats qu’ils s’exercent à ces séquences jusqu’à ce qu’ils soient en mesure de suivre automatiquement les procédures « correctes ». Plutôt que d’être considérées comme des « artisans », qualifiés dans l’usage des armes, les recrues étaient considérées comme devant s’exercer pour acquérir la familiarité nécessaire avec l’équipement militaire qu’elles manipulaient […]. »
« Sous l’impact de cette mutation administrative, de profonds changements se produisirent dans la nature des forces armées et dans le comportement sur le champ de bataille […]. Le sens moderne de mots comme « uniforme » ou « discipline » date de cette époque. Le premier terme était au départ un adjectif et devint un nom à partir du moment où le fait de porter des vêtements standardisés devenait la norme dans les armées […]. Le terme « discipline », qui était utilisé antérieurement pour désigner la propriété de quelqu’un qui suivait une série d’enseignements, en vint à désigner, sous l’influence de l’entraînement militaire […], le résultat final de ces enseignements. Dans les nouvelles formes de batailles, les faits d’armes personnels et l’héroïsme perdirent beaucoup de leur importance, montrant par là que la transition du spectacle à l’anonymat, que Foucault repère en ce qui concerne les châtiments, ne doit pas uniquement être associée à l’incarcération. Les casernes, d’ailleurs, apparurent en étroite association avec l’uniforme et la discipline militaires. »
Source : Giddens [NSV, p. 113-115].

L’existence d’institutions militaires, ainsi que la préparation et la conduite de la guerre, a d’énormes répercussions sur les sociétés modernes. Évoquons d’abord les répercussions de la guerre sur le fonctionnement des organisations. À l’époque de la formation des États-nations européens, la conduite de la guerre pose de plus en plus de problèmes, du fait notamment de l’augmentation de la taille des armées et de la complexité accrue de l’armement. Ces difficultés conduisent à la création des écoles militaires, qui assurent une formation systématique des officiers et des soldats. Les experts militaires de l’époque procèdent à une analyse des tâches du personnel de l’armée ; celles-ci sont divisées en séquences de gestes simples, auxquels les soldats doivent s’exercer de manière systématique. Selon Giddens, en matière d’organisation du travail, « l’armée a joué un rôle précurseur, influençant à la fois l’appareil de l’État et les autres organisations, en ce compris les entreprises » [NSV, p. 113].

Une autre influence de la guerre concerne la citoyenneté. L’enrôlement en masse des hommes dans les armées européennes au cours des deux guerres mondiales a été un moment crucial dans la création du sentiment national et dans la progression des droits civiques. Le début du XX e siècle a d’ailleurs vu le droit de vote s’étendre dans plusieurs États européens. L’engagement massif des hommes dans l’armée, d’une part, et les droits civiques, de l’autre, constituent, en quelque sorte, les deux faces d’une même pièce.

Les liens entre les dimensions institutionnelles
Giddens considère que les quatre dimensions institutionnelles de la modernité interagissent les unes avec les autres. Il accorde, en particulier, beaucoup d’attention à l’interaction de la dimension « puissance militaire » avec la dimension « industrialisme ». Ce qu’il appelle l’« industrialisation de la guerre » constitue à ses yeux un phénomène multiforme, qui a pris naissance au XIX e siècle pour se développer et culminer au XX e siècle. Il consiste, fondamentalement, à appliquer les techniques industrielles tant à la production de l’armement qu’à la mise au point de moyens de transport des armes et des troupes, ainsi qu’aux moyens de communication rendus nécessaires par la conduite de la guerre.

[…]

Quatre types de mouvements sociaux
Conformément aux principes et aux concepts de la théorie de la structuration, il faut comprendre les quatre dimensions institutionnelles de la modernité comme autant de constellations de pratiques produites et reproduites par les acteurs.

Dans cette (re)production interviennent des phénomènes de pouvoir et, en particulier, de domination : chacune des institutions met en scène des acteurs – la classe dirigeante pour le capitalisme, l’État pour la surveillance, etc. – qui contrôlent des ressources spécifiques, tantôt d’allocation (les usines, le capital financier, etc.), tantôt d’autorité (les informations écrites ou informatisées, les lois et réglementations, etc.), et les mettent en œuvre dans une relation de pouvoir fondamentalement inégalitaire. Cette domination n’est pas pour autant absolue : le pouvoir suscite un contre-pouvoir, donnant lieu à ce que Giddens appelle la « dialectique du contrôle ».

Dans le contexte de la modernité, ce contre-pouvoir et cette dialectique du contrôle prennent la forme de mouvements sociaux. Ils constituent un type particulier de système social, défini comme « des formes d’action collective qui tentent d’opérer des transformations importantes dans certaines des composantes de l’ordre qui prévaut dans une société » [SBCI, p. 87].

Giddens suggère que quatre types de mouvements sociaux ont respectivement comme arène privilégiée chacune des quatre composantes institutionnelles de la modernité.

Ceci est représenté par la figure 5 [CM, p. 165], qu’il faut en quelque sorte superposer à la figure 4.

Ainsi, les mouvements ouvriers ont pour arène le capitalisme ; ils cherchent à transformer les rapports de classes dont celui-ci est porteur. Les mouvements pour la liberté d’expression, pour les droits civiques, etc. ont pour champ d’intervention la surveillance exercée par l’État. Les mouvements pacifistes ont pour arène la violence exercée dans le cadre des conflits guerriers, en particulier la menace que représentent les armes nucléaires. Quant aux mouvements écologistes, ils s’en prennent à la dimension de l’industrialisme, et en particulier à ce qu’on a appelé plus haut l’environnement créé.

Certes, il faut parler à chaque fois d’arène privilégiée. Comme on l’a montré ci-dessus, les dimensions institutionnelles de la modernité interagissent les unes avec les autres. Il est donc logique que les mouvements sociaux traversent eux aussi les frontières des institutions et que, par exemple, le mouvement ouvrier soit aussi porteur de revendications relatives à l’organisation de la production (dimension industrialisme) ou à la liberté d’expression des travailleurs (dimension surveillance).

Il en résulte que les différents mouvements ont assez naturellement des liens les uns avec les autres, mais qu’ils sont aussi en tension, dans la mesure où ils s’attaquent à des systèmes de domination en partie distincts, qui trouvent leur origine à des périodes différentes de l’histoire de la modernité.

Il faut admettre aussi, indique Giddens, que cette typologie est loin d’être exhaustive. Par exemple, elle ne permet pas de situer précisément les mouvements féministes. Peut-être – mais Giddens n’évoque pas cette raison – parce que la domination de sexe n’est pas spécifique à la modernité. »

– Nizet, J. (2007). III. Les institutions de la modernité. Dans : Jean Nizet éd., La sociologie de Anthony Giddens (pp. 49-62). La Découverte.

« Voluntourism Is Colonialism Wrapped In The White Savior Complex

THROUGH VOLUNTOURISM, THE WHITE SAVIOR COMPLEX REPACKAGES AND PRESENTS NOTIONS OF THE PRIMITIVE AFRICAN THAT WHITE PEOPLE USE TO FURTHER COLONIALISM.

So there I was browsing Tinder when I came across something awful and disturbing. I’d like to immediately establish that I don’t take dating apps seriously. I’ve previously joked to close friends that Tinder is akin to an app like candy crush which I’ll whip out to instantly ease boredom. I’ve consumed a fair share of blanditude and misogynoir interacting with men off the app so I don’t expect them to stray away from their regular programming online. Once it’s open, I humour myself by trying to guess what I’ll be privy to on this occasion. This time, it was a white man who slid in a photo of him volunteering in an orphanage in Africa (not the continent with distinct countries, the monolith). His cartoon-like grin captured how proud the was of the photo that resulted from this opportunity. With arms wide open, he was generously hugging as many Black kids that could fit in his embrace. Appalled, I noted how frequently this happened to me since relocating to Nairobi, to the degree where it has repelled me from the app entirely. In the mind of the average dude-bro, the puppy pics and gym selfies that must excite white women, won’t make us melanated ebony queens swoon as much as voluntourism and neo-colonialist expressions of white supremacy will.

I should be able to report photos like this and carry on with my swiping. But how does one articulate and subsequently report this when there is nothing in Tinder guidelines to support this claim or prohibit the behavior. Western media, rooted in liberal iterations of insidious racism, encourages white people to use impoverished Black kids as photo backdrops and deems it entirely appropriate. And therein lies the crux of this epidemic.

Anthropology professor Andrea Freidus defines volunteer tourism as “an emerging trend of travel linked to ‘doing good’”. The criticisms levied around this fad has resulted in the clever portmanteau we now refer to as voluntourism. Its branches have since evolved to encompass not just why people from the West travel to “enlighten” those on the dark continent, but how they engage with Africans on these dangerous quests. I recall Madonna’s visits to one of Nairobi’s slums Kibera in late 2016 where her findings left her perplexed. In an attempt to raise awareness about these feudal living conditions, she falsified that sanitation is entirely non-existent as people in Kibera drink sewage water from trenches. Her sensationalised Instagram caption read, “imagine this is where your water comes from! @shofco is working to change this in… Africa’s largest slum.”

A more recent example of voluntourism involves Twitter sensation Brother Nature’s visit to a Maasai Mara in November 2018. His trip was sponsored by apparel brand Karmagawa which disassociates itself from other voluntary schemes because it uses its “products, social media and… the website to spread the message of great charities and give them much needed exposure.” Brother Nature was so inspired by the children in the village, he let them star and dance in a triller video captioned “Love my new friends!” What remains grossly etched in my mind is how tattered and old their clothes are. One of the boys quite literally has a glaring hole in his t-shirt. You’d think that since a clothing brand sponsored his trip, and he donned some of the attire from the brand in this video, he would consider sharing some with these kids so everyone could look fresh for the gram. But no. Props must remain authentic at all times, even though logic begs otherwise.

“There is no Roman priest and a European [trader]- both are the same!” – Old Kikuyu proverb (Mbiti 1969, 231).

Although charitable organisation’s package these trips as “cultural exchanges” rather than forceful impositions, aid-work by nature and character is yet another technology of colonial violence. The white saviour industrial complex repackages and presents notions of the primitive African that Christian missionaries to “civilise” us. Citizens of Kibera don’t want or need intruders. When asked about their thoughts on foreign volunteers, their frustrations ring loud and clear: “Kibera is not a national park and we are not wildlife. Trespassers like this Danish woman boast that she has visited Kibera on more than 30 occasions and ‘brings friends to see how people live here.’” And “The people might not have money like us, but they are happy and that’s why I keep on coming.” To the residents, living in an area where unemployment is high and living conditions are dire is not a choice. However, to these white foreigners, Kibera is a dystopian virtual reality that they opt-in and out of with ease. Once the simulation ceases, the white saviour thirsts for the next humbling experience.

Unsurprisingly, these fantasies and fictions about Africa have fostered a climate of impunity that has created the conditions for the white supremacy to thrive. I and numerous other continental Africans grew up plagued with headlines of church volunteers and peace corps abusing young orphans with unshakeable authority. In an attempt to bring these atrocities to light, it is difficult to pick just one. The face of white terrorism is Matthew Lane Durham, a 24-year-old missionary from Oklahoma charged with traveling to engage in illicit sexual conduct after visiting Kenya on three different occasions. He recorded his confessions of sexually assaulting at least ten children between the ages of 4-15 in writing and on video. His defence attorney claimed duress, blaming his deviant behaviour Kenyan cultural practices, claiming “it’s like some cult over there.” In his words, the innocent all-American teenager was under the influence of “pseudo-tribal-psychological-vodoo.”

RECOMMENDED: WHITE WOMEN: MAASAI CULTURE IS NOT HERE FOR YOUR COLONIALIST EXPLOITATION
White supremacy is serial rapist Hans Vriens Egon Dieter. Hans was convicted in the Netherlands in 1995 and sentenced to three years for sexually abusing 182 minors. After serving his sentence, he freely travelled and relocated to Kenya and conducted the guise of an orphanage where he abused and filmed dozens of young girls. White supremacy is Simon Harris, a former head of charity who was convicted of eight counts of indecent and sexual assault. White supremacy is Renee Bach. A missionary with no medical training moved to Uganda at age 18 and replicated surgical procedures she’d learned from youtube on malnourished babies. An unknown number of children died in her care, although estimates speculate that they are at least 105. Renee still roams free.

“Would you rather we didn’t volunteer and left these starving African kids with no food and water at all?” – White proverb.

Right on cue, the performative nature of white allyship immediately surfaces when any legitimate criticism to challenge voluntourism is challenged by abandonment altogether. We aren’t saying that donating to charity should be discouraged. Successful organisations run by locals like No White Saviours exemplify that you shouldn’t be the ones steering the wheel. According to NWS, “The problem arises when you receive praise for simply being…in close proximity to Black bodies.” NWS encourages well-wishers abroad to identify local organisations and support their specific needs. This way, you are entrusting development work to experts who are not only formally trained but who are culturally sensitive. So far, NWS are successfully crowdfunding private investigations to ensure perpetrators like Renee are held accountable for their crimes.

Remember, not all heroes wear capes, or take photos with Black kids while they’re at it. And most importantly, the hero in this story certainly isn’t white. If these truths struck a nerve, I suggest you embrace the discomfort. »

Naila Aroni, (Wear Your Voice Magazine, Intersectional Feminist Media, mars 2020)

« La croyance apparaît de prime abord comme l’attitude propositionnelle par excellence. Quand je crois, mon esprit se trouve dans une relation unique et singulière d’appréhension directe à l’égard d’une proposition. Typiquement, je crois que p (que la Lune a une surface accidentée, que Napoléon a été empoisonné sur Sainte-Hélène, que 2 + 5 = 7, que Dieu m’aime ou que Dieu n’existe pas). On fait parfois remarquer que d’autres attitudes propositionnelles comme le désir ou la crainte, moins clairement délimitées épistémologiquement, apparaissent moins souvent que la croyance dans la littérature philosophique. En effet, l’importance de la croyance pour la philosophie – et notamment pour la philosophie de la religion contemporaine – s’explique aisément par le fait qu’il semble possible, et pour certains même nécessaire, de dissocier entièrement sa dimension psychologique de son contenu épistémique. Du reste, depuis Hume on considère l’acte de croire comme involontaire : je ne saurais créer de toute pièce une croyance ; au contraire, si je crois que p c’est que, au regard de l’évidence, la croyance que p s’impose d’elle-même.

La croyance dépendrait ainsi d’une représentation « désengagée » de la raison, séparée des ressorts motivationnels du sujet et solidaire d’une orientation en philosophie générale qui a été qualifiée, péjorativement, d’ « épistémologique ».

[…]

Croire au sens d’adhérer au contenu d’une proposition, fût-ce à propos du divin, ne traduit donc pas tout ce qu’implique pour le fidèle le fait de vivre cette foi et de diriger son attention et ses affects vers Dieu. Pour cela, un engagement actif qui exprime la direction d’une vie (ou, à défaut, de ses activités présentes) serait une condition minimale, sans parler de l’enchâssement de cette vie dans une tradition ou dans une communauté.

Le problème est que ceux qui soutiennent cette approche complexifiée de la croyance religieuse cherchent, non moins que les défenseurs d’un « évidentialisme normatif » comme William Clifford et, plus récemment, Pascal Engel, un critère de démarcation clair et étanche entre les croyances manifestement absurdes et irrationnelles (sur lesquelles tous s’accordent) et les croyances valides. Pour l’évidentialiste, ces dernières doivent toutes répondre indifféremment à des exigences strictes de justification, les croyances religieuses n’ayant « ni privilège ni passeport diplomatique ». Mais pour l’adhérent d’une religion, ce critère serait bien trop restrictif et aurait (selon, par exemple, ceux qui s’inspirent de la philosophie de la religion wittgensteinienne) l’effet d’éliminer de nombreuses croyances dont la cohérence ne se manifeste qu’à travers les multiples instances de sens partagé (rituel, liturgie, textes, tradition) d’une Lebensform. Mais justement, répond l’évidentialiste – et qui peut le contester ? – faute d’avoir à soumettre leurs croyances au tribunal de la raison, les formes de vie plus ou moins autonomes sont en permanence au risque de dérives sectaires. Ni l’engagement « pragmatiste » (la croyance religieuse se justifie par ses effets bénéfiques) ni le « saut » fidéiste (« La foi commence précisément là où s’arrête la pensée ») – ni a fortiori une combinaison, fût-elle faiblement religieuse, des deux  – ne remplace le correctif apporté par l’examen patient du bien-fondé empirique de toute croyance quelle qu’elle soit, bassement factuelle ou spéculative, scientifique ou religieuse. Et si la chasse aux croyances irrationnelles emporte avec elle celles des religions établies et des théologies séculaires, c’est que l’austère idéal d’un savoir fondationnaliste et transparent l’exige comme la condition de possibilité de l’exercice de la raison.

[…]

Si croire une personne c’est croire qu’il existe des évidences qui attestent ce qu’elle dit indépendamment du fait qu’elle le dit, la relation que j’ai avec elle ne joue aucun rôle dans ma croyance.

[…]

La croyance n’est toutefois pas tant passive (en tout cas, pas au sens de Hume), qu’originaire : loin d’être une sorte de savoir appauvri et approximatif, elle constitue, au contraire, une « certitude primitive » qui assure à celui qui la possède la possibilité de naviguer épistémiquement dans le monde et d’évaluer la véracité des propositions le concernant. Dans certains des écrits de Husserl et, de manière sensiblement différente, pour Wittgenstein, la question de la croyance renvoie au sol (Glaubensboden) à partir duquel il devient possible de juger du vrai et du faux. Mais alors que pour le premier, la certitude de la croyance (Glaubensgewissheit) est « certitude d’être » fondée dans la subjectivité transcendantale qui met « entre parenthèses » la communauté linguistique, pour le second la raison (Grund) de la croyance est, tout simplement, le « jeu » fondamental appris, dès la première enfance, qui repose sur un large arrière-plan de certitudes afin de pouvoir, le cas échéant, mettre en doute une partie très limitée de sa superficie.

Selon Wittgenstein, en effet, Mon image du monde, je ne l’ai pas parce que je me suis convaincu de sa justesse ; ou parce que je suis convaincu de sa justesse. Elle est la toile de fond dont j’ai hérité et sur laquelle je distingue le vrai et le faux.

Cette nécessaire reconnaissance de « la raison de la raison » de la croyance n’invalide donc aucunement une appréciation du rôle fondamental joué par le langage dans lequel nous l’exprimons. Elle peut même, suivant une perspective un peu différente, être sensiblement enrichie par l’étymologie, laquelle permet de « suivre à la trace les glissements de la pensée », «… depuis un contexte qui présuppose au moins la possibilité de relations faites de confiance réciproque vers un sens décontextualisé et neutre, propositionnel.

Ainsi, la racine du verbe croire en Français, comme celle de believe en Anglais ou de glauben en Allemand nous place dans une optique non pas de doute à l’égard du monde mais de confiance à l’égard d’autrui, une confiance qui, à l’image des relations ordinaires qui accompagnent et donnent sa saveur à une vie humaine, n’est jamais absente, mais jamais non plus acquise une fois pour toutes.

Le premier sens de croire que donne le Robert étymologique est « mettre sa confiance en quelqu’un ». La racine anglo-saxonne de believe est geliefan, littéralement « chérir », le vieux mot lief désignant le bien-aimé, quelqu’un qu’on est d’emblée disposé à croire. L’Allemand glauben conserve un lien, certes distant, à lieben, « amour ». Croire traduit le Latin credo qui descend d’une expression cor do dont la signification est « Je donne mon cœur ». « Être vrai », c’est se montrer fidèle à son engagement (nous parlons encore de « l’amour vrai »).

En dehors de sa logique propositionnelle, « la croyance renvoie à une relation dans laquelle, par définition, plus d’une personne est impliquée. Le croyant doit être disposé à aimer, mais celui dans lequel il croit [the believed-in] doit à son tour susciter et maintenir cette croyance. On ne saurait déterminer à l’avance et avec certitude si l’un ou l’autre est digne d’être cru, cela devant être éprouvé par l’engagement et par l’expérience ».

Ce que nous pourrions appeler, en empruntant une expression wittgensteinienne, la « grammaire profonde » du verbe croire suggère par conséquent une complexité humaine qu’une analyse purement logique et propositionnelle (la « grammaire de surface ») ne sera jamais à même de révéler ni même de reconnaître. Dans son très remarquable livre The Master and his Emissary. The Divided Brain and the Making of the Western World, le psychiatre Iain McGilchrist soutient, à grand renfort d’exemples tirés non seulement de sa propre expérience clinique, mais des sciences en général, de la philosophie, de la littérature, de la peinture et la musique, que l’évolution culturelle du monde occidental depuis le xviie siècle favorise systématiquement le langage et l’esprit de la précision et de l’explicitation au dépens d’une reconnaissance de la nature irréductiblement opaque de bien des réalités qui nous entourent et qui sont, à des degrés divers, inexprimables dans cet idiome. « Dans ses propres termes, le langage [de la précision] est dans l’impossibilité de sortir du monde qu’il a lui-même créé, si ce n’est par une auto-transcendance poétique ».

Paradoxalement, l’origine de ce penchant pour la précision ne se trouve pas tant dans la science que dans la religion. Plus précisément, elle s’exprime dans la volonté (littéralement) iconoclaste des Puritains anglais du milieu du xviie siècle de faire table rase d’une accumulation séculaire de significations incarnées (rituels, vêtements, tableaux, vitraux…), une intention qui exprimait une crainte morbide de ce qui pourrait être transmis de façon implicite et oblique à travers le temps et un désir de contrôler la pure verticalité de la relation à Dieu. Se référant au livre de Joseph Leo Koerner, The Reformation of the Image, McGilchrist affirme que Le problème de la Réforme […] était sa binarité « ou bien/ou bien », une « haine qui prenait racine dans la distinction étanche et absolue entre le vrai et le faux ». En raison de l’incapacité [des réformateurs radicaux] à accueillir l’ambigu et le métaphorique ainsi que leur crainte du pouvoir de l’imaginaire, les images étaient devenues des objets qui inspiraient la terreur. Il fallait réduire des statues à de « simples morceaux de bois ». En réalité, les supposés idolâtres n’avaient jamais imaginé pour un instant qu’ils faisaient un culte à une statue : cette fiction n’existait que dans l’esprit des iconoclastes, qui ne comprenaient pas comment le divin pouvait se trouver entre une « chose » (la statue) et une autre (celui qui la contemplait) plutôt que d’être figé dans la matérialité de la chose elle-même.

[…]

Au lieu de se demander à quoi nous croyons, il serait peut-être plus pertinent d’interroger le comment du croire : comment et avec quoi croyons-nous ?

Cette question, est suggérée obliquement par la thèse principale du livre de McGilchrist selon laquelle le sens de la latéralisation du cerveau humain ne se situe pas dans une répartition des fonctions cognitives respectivement des deux hémisphères cérébrales, mais dans un profond clivage philosophique qui sépare leurs manières d’aborder le monde. En effet, selon cette thèse controversée, la culture de la modernité tardive qui est la nôtre reflète et affirme en permanence l’épistémologie représentationnaliste qui caractérise le fonctionnement de l’hémisphère gauche, aux dépens de la forme d’attention directe et intuitive de l’hémisphère controlatéral (droit), entraînant un escamotage significatif de la complexité du monde que chacun aborde. Voici la synthèse que propose McGilchrist de ce qui les différencie ces deux « mondes » :

Le monde de l’hémisphère gauche, reflet de l’abstraction et de l’emploi d’un langage dénotationnel, produit de la clarté ainsi que le pouvoir de manipuler des choses qui sont connues, explicites, fixes, statiques, isolées, décontextualisées, désincarnées et de nature générale, mais qui sont, en fin de compte, inanimées [lifeless]. Au contraire, l’hémisphère droit, qui dévoile un monde d’individus vivants, incarnés, entremêlés et évolutifs, admet un degré d’implicite et reconnaît que notre connaissance toujours imparfaite des choses ne saurait décrire intégralement et sans reste leur nature. À l’égard de ce monde, l’hémisphère droit se place dans une disposition de souci [care], alors que la connaissance que médiatise l’hémisphère gauche demeure un système clos. Ce dernier peut certes se targuer d’une forme de perfection, mais au prix d’un vide autoréférentiel, car cette connaissance est celle d’une représentation mécanique de choses déjà connues. Là où la chose elle-même est pleinement « présente » à l’hémisphère droit, elle n’est que re-présentée dans l’hémisphère gauche ; là où l’hémisphère droit se montre conscient de l’Autre, quelle que puisse être la nature de celui-ci, la conscience qu’a l’hémisphère gauche est de lui-même.

La philosophie et les naturalismes
« La philosophie devrait nous aider à comprendre le cerveau, et la nature du cerveau devrait à son tour permettre d’élucider les problèmes philosophiques ». Il est pourtant tout sauf certain que cette lecture des dispositions inhérentes au substrat neurologique de la pensée humaine puisse avoir sur la philosophie contemporaine de l’esprit l’influence qu’elle mérite. La tâche est compliquée par la manière dont ce livre transgresse allègrement des frontières qui sont devenues structurantes pour le monde contemporain et pour la pensée contemporaine. Sa thèse repose en effet sur l’identification à la fois physique (neurologique) et pragmatique (intentionnelle) de deux formes d’inégalité qui caractérisent le cerveau : la première est fonctionnelle, ce qui (dans un monde ou la rationalité est fonctionnelle ou n’est pas) favorise la domination de l’hémisphère gauche ; la seconde est axiologique, ce qui (pour les mêmes raisons) tend à renforcer le mutisme de l’hémisphère droit. Les représentants récents du matérialisme philosophique (Quine, Armstrong, les Churchland) rejetteraient cette hypothèse en raison d’une naturalisation à leurs yeux imparfaite, inaboutie. La conviction – exprimée dans la métaphore du maître et son émissaire – d’une inégalité normative entre les deux hémisphères place McGilchrist non seulement en opposition au naturalisme philosophique tel que ce terme est habituellement compris, mais aux antipodes des partisans du dogme selon lequel la science n’a ni sens ni valeur, sa fonction étant purement explicative. De plus, il semble suggérer que les procédures de recherche empirique auxquelles se fient les naturalistes convaincus reçoivent leur validation de la dimension de l’intelligence humaine la plus isolée du réel (de sa « quiddité »), incapable qu’elle est de sortir de la représentation abstraite. Non pas que la science soit à ses yeux sans valeur : McGilchrist dit explicitement et à répétition qu’il considère cette science – qu’il a longtemps pratiquée – et plus généralement la rationalité inférentielle qu’elle incarne, comme indispensables à la vie et à la pensée humaines (essentielles en particulier à la correction des intuitions souvent informes en provenance de l’hémisphère droit). Mais il conclut que le besoin institutionnel et organisationnel de la science contemporaine de disposer de procédures fiables et éprouvées, de protocoles de recherche et de prévisibilité, a l’effet de l’isoler de ce qui est inconnu et inattendu et de l’inépuisable complexité que recèlent les rapports entre l’être humain et le monde.

À l’inverse, une partie significative de la philosophie analytique s’est depuis longtemps armée contre toute identification du contenu des actes mentaux comme la croyance à son « contenant » matériel et cérébral. La pensée n’aurait ainsi pas d’« organe » ni ne serait liée métaphysiquement à aucune « chose », âme ou cerveau. La pensée, dit par exemple Frege, ne « revêt l’habit sensible » d’une proposition que pour plus de commodité, pour être « saisissable », ce qui veut dire qu’elle est une réalité singulière « inassignable à une position dans la durée temporelle » ;  mais aussi qu’elle est, comme la science rigoureuse, « plus sèche » (trockner) que les Geisteswissenschaften :

Ce que l’on peut appeler la tonalité, le parfum, l’éclairage d’une poésie, cette couleur donnée par les césures et par le rythme, rien de cela n’appartient à la pensée.

Pour un philosophe d’emblée convaincu de l’immatérialité de la pensée, McGilchrist sera sans doute lu comme un simple naturaliste à propos de l’esprit, liant les dispositions mentales d’un être humain à la forme de l’organe naturel qu’est le cerveau. En réalité, l’argument de son livre dépend de l’hypothèse d’une évolution complexe qui rattache la plasticité du cerveau non seulement à celle de la pensée (et réciproquement), mais aussi à celle de la culture.

Le cerveau, dit-il, n’est « pas plus le moteur de la culture que la culture n’est à l’origine du développement cérébral : inévitablement, ils se modifieront l’un l’autre ».

L’un des facteurs qui contraigne notre compréhension du monde doit toutefois être la manière dont les deux hémisphères atteignent (ou non) une complémentarité entre leurs formes réciproques de perception et de compréhension.

Si les différences hémisphériques demeurent stables à travers l’histoire humaine, il n’est pas exclu que « des mutations culturelles exploitent ces différences ; mais cette exploitation et ses retombées pour la pensée humaine seront toujours et forcément contraintes par les différences.

Sur la base de remarques rédigées dans les années 1940, on attribue parfois à Wittgenstein une position antinaturaliste semblable à celle de Frege. Dans Zettel, notamment, Wittgenstein nie très explicitement que des données neurologiques puissent expliquer intégralement les pensées :

Rien ne semble plus naturel que de supposer que la pensée n’est coordonnée à aucun processus cérébral ; de sorte qu’il serait donc impossible de lire des processus de pensée à partir des processus cérébraux. Voici ce que je veux dire : quand je parle ou quand j’écris, il y a – je suppose –, coordonné à mes pensées écrites ou parlées, tout un système d’impulsions qui provient de mon cerveau. Mais pourquoi ce système devrait-il se prolonger dans la direction du centre ? Pourquoi un tel ordre ne devrait-il pas pour ainsi dire émerger du chaos ? […]
Il est donc tout à fait possible que certains phénomènes psychologiques ne puissent pas faire l’objet de recherches physiologiques, dans la mesure où rien de physiologique ne leur correspond.
[…] Pourquoi n’y aurait-il pas de régularité psychologique à laquelle ne correspond aucune régularité physiologique ? Si cela bouleverse nos concepts de la causalité, c’est qu’il est temps de les bouleverser.
Le préjugé favorable au parallélisme psycho-physiologique est un fruit de conceptions primitives de nos concepts. Car admettre une causalité entre phénomènes psychologiques sans médiation physiologique, c’est, pense-t-on, confesser du même coup l’existence d’une essence brumeuse de l’âme.

Le naturalisme revêt pourtant une grande variété de formes. Comme le fait remarquer David Pears, si une philosophie résolument descriptive plutôt que spéculative peut être qualifiée de naturaliste, alors Wittgenstein était naturaliste.

Wittgenstein ne conteste pas davantage que notre pensée est façonnée par notre cerveau qu’il ne doute que notre manière de parler est façonnée par la forme de notre bouche ou notre manière de nous déplacer par le fait que nous sommes des bipèdes.

Il éprouvait certes un rejet viscéral pour le scientisme inintelligent de nombreux de ses contemporains, mais aussi pour les diverses tentatives de passer outre la complexité inhérente à la compréhension de l’esprit qui attribuaient la pensée à un organe immatériel intérieur sans rapport avec le monde.

L’anti-scientisme de Wittgenstein s’inspire d’une forme de naturalisme au moins en ceci, qu’il exprime sa conviction qu’un progrès scientifique qui nous permettrait de corréler pensées et comportements de manière matérialiste et extérieure aboutirait à des interactions que nous ne pourrions plus reconnaître comme humaines.

À la différence de ses formes purement matérialistes, le naturalisme de Wittgenstein est compatible avec une reconnaissance de l’adéquation de nos évaluations et de nos jugements ordinaires qui portent sur la réalité humaine autour de nous. Cela explique l’attrait de sa philosophie pour McGilchrist, qui le cite tout au long de son ouvrage et dont naturalisme modéré et intégral ne récuse ni la présence d’influences causales ni la possibilité pour l’esprit de se transcender en raison de la structure complexe de son substrat organique. Loin de suggérer une étiologie uniquement naturelle et réductionniste des phénomènes mentaux qui impliquerait une neutralité axiologique à l’égard des opérations mentales, McGilchrist défend la supériorité de la forme de perception du monde incarnée dans l’hémisphère droit. Dans l’article précédemment cité, il rend très explicite le lien entre la théologie et les conclusions qu’il tire de ce modèle neurologique :

Nous n’atteindrons même pas le point de départ d’une compréhension du divin en nous servant des outils dont se sert l’hémisphère gauche. Car ces outils ont évolué afin de servir des fins purement pratiques, celles de l’exploitation et de la manipulation du monde. Je suggérerais, au contraire, qu’il faudrait aborder les révélations et les autorévélations, réelles ou supposées, du divin principalement avec les capacités de l’hémisphère droit, car c’est sa fonction de découvrir ce dont l’hémisphère gauche, engagé comme il l’est dans des tâches de nature locale et utilitaire, ne saurait même pas soupçonner l’existence. L’hémisphère droit a évolué afin de nous rendre conscients de ce qui se passe dans le monde en tant que totalité et afin de pouvoir comprendre la nature des choses dans ce même contexte global ainsi que nos relations vis-à-vis d’elles. Il s’en suit qu’une théologie articulée dans les termes d’un ensemble de propositions tiré d’un modèle autoréférentiel et abstrait du monde, qui privilégie par-dessus tout la clarté et la cohérence inférentielle, encourt le risque de trahir et de déformer l’objet qu’il cherche à élucider.

La philosophie du cerveau de McGilchrist rejoint sur ce point une perspective originale développée indépendamment par la philosophe de la religion américaine Eleonore Stump. Selon cette dernière, la philosophie analytique (qu’elle pratique) souffre d’une « hémianopie cognitive », une cécité partielle des capacités cérébrales qui a l’effet d’exclure l’apport de l’expérience directe (laquelle serait, selon McGilchrist, l’apanage de l’hémisphère droit) :

Dans sa préoccupation quasi-exclusive avec le traitement des données par le cerveau gauche [left-brain mediated pattern-processing], la philosophie [analytique] tend à négliger les questions ardues et opaques qui relèvent des relations entre personnes […]. La vision intellectuelle du côté droit du champ de la cognition se trouve ainsi occultée, en particulier à propos des aspects de la réalité qui recouvrent la complexité et les nuances de la pensée, du comportement et des relations interpersonnelles. Ce déficit passerait sans doute inaperçu dans des travaux sur la logique modale ou dans la philosophie des mathématiques ; mais il devient flagrant dans un cadre dans lequel il est question d’interactions entre personnes.

L’autolimitation de la philosophie de la religion à l’analyse des propositions doxastiques a selon Stump l’effet de masquer une complexité épistémologique potentiellement féconde qu’elle décèle dans la distinction bien connue de Russell entre knowledge by acquaintance (la connaissance directe des choses) et knowledge by description (la connaissance abstraite des propositions portant sur des choses). Dans une intention décidément très peu russellienne, elle rapproche la première d’une tradition épistémologique qu’elle trouve dans la pratique imagée et affective par laquelle, au XIIIe siècle, l’ordre mendiant franciscain s’est construit une identité théologique et collective. L’« épistémologie franciscaine » – à la différence de la « dominicaine », abstraite et propositionnelle, que Stump attribue à l’autre ordre mendiant du haut Moyen-Âge –, serait essentiellement narrative et, pour cette raison, sensible au contexte dans lequel vit, cherche, prie et aime l’agent, ainsi qu’aux aléas d’une vie psychique et émotionnelle partagée et surtout à l’expérience – universelle et pourtant irréductiblement singulière – de la souffrance. La complexité de cette méta-épistémologie ne vient pourtant pas seulement de l’existence d’une forme « franciscaine » de connaissance qui serait elle-même, sans doute, déjà complexe en raison des variables temporelles, intersubjectives et collectives dont elle doit tenir compte ; elle vient plutôt de l’impératif de maintenir ensemble ces deux perspectives épistémologiques, « dominicaine » non moins que « franciscaine », en accordant à chacune un rôle nécessaire, alors qu’elles sont incommensurablement différentes. Que celles-ci se trouvent hébergées de part et d’autre du clivage hémisphérique du cerveau humain ne surprendra peut-être que ceux qui se laissent enfermer dans l’autoréférentialité sémantique mentionnée plus haut. « Puisse Dieu, disait Wittgenstein, donner au philosophe la faculté de pénétrer ce que tout le monde a sous les yeux ». Mais il avouait que rien n’était plus difficile. »

– Sharkey, R. (2020). Avec quoi croyons-nous ?. Philosophie, 145(2), 133-145.

« […]

Depuis que Jean-Luc Nancy a lancé avec La Communauté désœuvrée au début des années 1980 une réflexion philosophique sur la communauté, le sujet fait régulièrement retour en France. Il a ses protagonistes célèbres, Maurice Blanchot, Jean-Christophe Bailly, Giorgio Agamben, Robert Esposito, ses sectateurs, et ses détracteurs. Rappelons d’abord qu’en proposant cette réflexion, Jean-Luc Nancy cherchait à contester le célèbre constat de Sartre qualifiant le communisme d’horizon indépassable de notre temps. L’approche de ce qu’il nomme l’en commun par le concept de communauté était, selon lui, inédite : « la communauté était alors [en 1983] un mot ignoré du discours de la pensée », affirme-t-il. Sa nouveauté tenait en tout cas au fait que Nancy déplaçait les enjeux posés par Barthes et Foucault sur la manière de défendre la société : Barthes dans Comment vivre ensemble faisait en 1976 profession de non méthode, et s’attachait à débusquer les apories du « vivre ensemble » en étudiant des cas marginaux, caractérisés par ce qu’il nomme les idiorrythmies [sic] ; Foucault avait par sa théorie du « grand renfermement », jeté les bases d’une saisie des procédures de marginalisation sociale à l’âge classique, et poursuivi ses réflexions dans le champ du biopolitique, en passant par l’examen des cas de quarantaine, des lépreux, des pestiférés. Ces penseurs accordaient à l’accueil et à l’examen du marginal, de l’exception, une place fondamentale : Nancy, qui pensait la communauté en s’appuyant sur Bataille, installait quant à lui un balancement entre l’exceptionnel (faire communauté est une opération élective) et l’ordinaire (tout individu, par l’incomplétude qui le fonde, peut se former le désir de faire communauté). Cet accueil de l’ordinaire, du quelconque, dont Bailly et Agamben sauront tirer profit, est l’une des explications de son succès.

Un succès relatif cependant : c’est en effet une caractéristique de l’usage du mot communauté que de ne s’être jamais imposé durablement, mais de faire sans cesse retour. Le débat sur la communauté n’a d’ailleurs pas bénéficié de l’appui des penseurs de la « théorie française » : lancé après la mort de Barthes en 1979 et juste avant celle de Foucault, qui meurt en 1984, il ne sera engagé ni par Deleuze ni par Derrida, celui-ci manifestant même son hostilité à l’égard de l’emploi d’un mot qu’il juge trop enraciné dans le théologique. Nancy lui-même prononcera la mort de la notion en 1996, dans Être singulier pluriel où il annonce renoncer à l’usage de ce mot, et le remplacer par des substantivations du même ordre que celles que Milner qualifie d’énallages à propos de l’écriture de Roland Barthes. Il déclare :

J’ai préféré lui substituer peu à peu les expressions disgracieuses d’« être-ensemble », d’« être-en-commun » et finalement d’« être-avec ». Il y avait des raisons à ces déplacements et à la résignation, au moins provisoire, à ces disgrâces de langue. De plusieurs côtés je voyais venir les dangers suscités par l’usage du mot « communauté » : sa résonance invinciblement pleine, voire gonflée de substance et d’intériorité, sa référence assez inévitablement chrétienne (communauté spirituelle et fraternelle, communielle) ou plus largement religieuse (communauté juive, communauté de la prière, communauté des croyants — umma), son usage à l’appui de prétendues ethnicités, ne pouvaient que mettre en garde.

Nancy voit des « dangers » nouveaux à l’utilisation du mot et annonce l’abandonner. On pourrait croire que les violences liées aux communautarismes font peser sur ce concept un poids trop lourd, mais il réactive le cycle en 2001 avec la Communauté affrontée puis en 2014 avec La Communauté désavouée. La question de la communauté refait ainsi régulièrement surface, et à chaque reprise, des conditions sont posées pour son usage, qui visent soit à le restreindre, soit à le préciser. Ainsi, François Noudelmann défend-il l’usage du terme au début des années 2000, à condition de l’émanciper de ses connotations substantielles, pour conjurer le risque d’un resurgissement du paradigme généalogique. Ce faisant, il glisse de l’article défini à l’indéfini, invitant à « penser une communauté ou des communautés qui échappent au substantialisme et aux réifications idéologiques ». C’est dans cette perspective qu’il synthétise dans Pour en finir avec la généalogie les termes du débat lancé par Nancy. En 2010, Yves Citton réinvestit le concept de communauté dans Mythocratie en proposant l’expression « la communauté qui arrive », pour désigner des singularités spécifiques rassemblées autour du travail de création, et pour marquer le rôle d’interruption et de perturbation qu’elles peuvent jouer ensemble dans le continuum du monde contemporain. Cette communauté « qui arrive » est accidentelle, temporaire, interstitielle.

 […] Le concept de communauté tel qu’on peut l’employer aujourd’hui est l’héritier de ces évolutions, qui le rendent apte à désigner non plus seulement un ensemble de sujets réunis par une croyance ou des convictions communes, mais un espace historicisé accueillant les « idiorrythmies » de Barthes, le débat contradictoire, les conflictualités, la négociation.

Cet espace commun d’élaboration de la pensée peut être attaché à un lieu, une zone, par exemple, ou être un espace énonciatif, comme une revue scientifique, ou comme le tiers espace qu’Homi Bhabha assigne à la négociation dans le contexte postcolonial. Il est constitué d’un regroupement provisoire, ponctuel, fragile, de singularités librement rassemblées, comparaissant, s’exposant, et exposant leurs désaccords. Ce n’est ni l’air de famille, ni la conviction, ni le projet, ni même l’adhésion qui font la communauté, mais le consentement, et la division en son cœur même. En ce sens, la communauté ne fait pas que différer du communautarisme : elle est exactement l’inverse du communautarisme — dont la raison d’être est de faire un seul corps contre un ennemi commun —, de sorte que faire communauté est justement le meilleur moyen de se prémunir contre lui. C’est en ce sens que les compositeurs de l’École de Darmstadt font communauté.

[…]

L’échelle d’observation des faits artistiques propre à la notion de communauté offre l’avantage d’être émancipée à la fois des perspectives nationales sous lesquelles se placent les histoires littéraires conventionnelles, et des risques d’atomisation inhérents aux approches monographiques. La communauté est une notion traversière, plus souple que celles de groupe, de tendance, ou de courant, qu’elle recoupe sans se confondre avec elles. L’étude de quelques aspects variés et contradictoires du traitement des textes par les compositeurs qui ont participé à la riche aventure de Darmstadt permet de prendre la mesure de l’empan de ce « mot filet », mais aussi de saisir qu’il est possible de « faire communauté », dans le désaccord et de penser la communauté depuis la division.

La communauté que forment ces compositeurs n’est ni substantielle, ni consensuelle, ni idéologique. Elle est faite du consentement à la comparution, à la confrontation, à la rencontre et au débat. Cette « communauté désaccordée » toute provisoire et querelleuse qu’elle fût, et parce qu’elle fut querelleuse, favorisa l’émergence d’éclats de pensée qui provoquent encore la nôtre.

[…] Cette homologie est, en définitive, un artifice rhétorique qui revient à dire simplement que dans le domaine des formes artistiques, le chœur est non pas l’équivalent de ce que désigne le mot communauté dans les sociétés humaines, mais l’instrument symbolique qui permet le mieux de la penser. »

– Mégevand, M. (2020). Le chœur dans la Nouvelle Musique ou la communauté désaccordée. Littérature, 197(1), 62-80.

« Les prochaines décennies nous réservent de grosses surprises et d’énormes défis. Certains auront un air de déjà vu, d’autres seront complètement inédits. Nous aurons à faire face à des choix difficiles et à des dilemmes politiques sans précédent. Ces bouleversements ne sauraient tarder et affecteront certainement la vie d’adulte des jeunes générations actuelles. Ce n’est toutefois pas une raison pour sombrer dans un pessimisme unilatéral.

Les décennies à venir nous offrent également la possibilité de faire les choses différemment de ce qui a été fait par le passé. L’objet de ce livre est d’analyser, sur la base de notre connaissance sociologique de l’histoire mondiale, la nature probable des défis et des opportunités qui se présenteront à nous, et d’en débattre. En fin de compte, l’aspect le plus troublant du monde de l’après-guerre froide, c’est que, depuis près de trois décennies, il n’est plus de bon ton – et il est même carrément embarrassant – de débattre des avenirs possibles de notre monde et surtout des perspectives d’évolution du capitalisme.

C’est la conviction que quelque chose d’énorme se profile à l’horizon qui a motivé l’effort collectif des cinq auteurs de ce livre : nous avons affaire à une crise structurelle bien plus importante que la grande récession de 2008, laquelle risque de passer rétrospectivement pour le simple prologue d’une période de troubles et de transformations bien plus profonds. D’après Immanuel Wallerstein, il y a de bonnes raisons de croire à un effondrement prochain du système capitaliste. Au cours des trois ou quatre prochaines décennies, il se pourrait bien que les capitalistes du monde entier, après avoir complètement saturé les marchés planétaires de leurs produits, ne puissent plus faire face aux coûts sociaux et environnementaux de leur production et se voient confrontés à une véritable paralysie en matière de décision d’investissement.

Tout au long des cinq derniers siècles, le capitalisme s’est caractérisé comme une économie marchande cosmopolite et organisée de façon explicitement hiérarchique à l’échelle mondiale, au sein de laquelle des acteurs privilégiés opérant depuis le centre géographique du système ont été en mesure de faire d’énormes profits dans des conditions de risque raisonnables et limitées.

Or, souligne Wallerstein, malgré son dynamisme, cette réalité historique ne peut manquer de se heurter à des limites systémiques, ainsi qu’il en va de tous les systèmes historiques. Si l’on accepte cette hypothèse, le capitalisme devrait finir par déboucher sur une impasse du point de vue des capitalistes eux-mêmes.

Randall Collins met l’accent sur un mécanisme plus spécifique qui représente un défi pour l’avenir du capitalisme : les conséquences politiques et sociales du chômage structurel de masse qui guette une proportion importante – jusqu’aux deux tiers – des classes moyennes éduquées sous l’impact des nouvelles technologies de l’information et de la communication, et ce dans les pays du Nord comme dans le reste du monde. Ce n’est que depuis peu que les analystes économiques des médias ont découvert ce phénomène, mais ils ont tendance à se contenter d’évoquer très vaguement de possibles remèdes politiques conjoncturels. Collins analyse de façon systématique les cinq soupapes de sécurité qui, par le passé, ont permis au capitalisme de surmonter les coûts sociaux de sa dynamique irrépressible d’innovation technologique. Aucune d’elles ne semble aujourd’hui suffire pour compenser la tendance au chômage technologique qui menace le secteur de l’administration et les services. Les capitalismes des xix e et xxe siècles avaient mécanisé le travail manuel, mais ils avaient compensé cette mécanisation par la croissance des emplois de classe moyenne, nécessitant une formation supérieure. Or la nouvelle vague d’innovation technologique du xxie siècle tend à rendre cette classe moyenne superflue. Ce qui nous amène à une autre hypothèse : la fin du capitalisme pourrait être provoquée par la disparition de sa base politique et sociale au sein de la classe moyenne.

Pour sa part, Craig Calhoun estime qu’un capitalisme réformé pourrait être sauvé. Il s’appuie pour le démontrer sur le fait, reconnu par nous tous, que le capitalisme n’est pas seulement une économie de marché, mais aussi une économie politique. Son cadre institutionnel est façonné par des choix politiques. Le fonctionnement de marchés complexes est peut-être marqué par des contradictions structurelles, mais c’est sur le terrain de la politique que celles-ci peuvent être surmontées, ou bien au contraire laissées libres de déployer leurs effets destructeurs. Autrement dit, soit une fraction suffisamment éclairée des décideurs capitalistes assumeront leur responsabilité et affronteront les coûts systémiques de leurs actions, soit ils continueront à faire cavalier seul et à adopter un comportement irresponsable, celui-là même qui les caractérise depuis le déclin de la contestation du système par la gauche au cours du dernier quart de siècle. La question du degré de radicalité de la transition du capitalisme contemporain vers un futur système remanié reste ouverte. On peut toujours envisager le retour d’une économie socialiste centralisée, mais l’émergence d’un capitalisme d’État de type chinois paraît encore plus probable. Il y aura sans doute toujours des rapports marchands, même si les formes spécifiquement capitalistes de propriété et de gestion financière cessent de prédominer. Il se peut que le capitalisme survive tout en perdant une partie de sa capacité à contrôler l’intégration économique mondiale.

Michael Mann est favorable à une solution de type social-démocrate aux problèmes du capitalisme, mais il met aussi en évidence des problèmes encore plus profonds qui sont liés au caractère multicausal des sources du pouvoir. Parallèlement au capitalisme, il faut prendre en compte la politique, la géopolitique et la géostratégie, l’idéologie et la diversité régionale du monde contemporain. C’est cette complexité qui, selon Mann, rend l’avenir du capitalisme très difficile à prévoir. La menace la plus importante, pour le coup tout à fait prévisible, est une crise écologique qui ne peut que s’aggraver au cours des prochaines décennies. On imagine facilement comment elle pourrait déboucher sur des conflits autour de l’eau et des ressources alimentaires et entraîner une pollution massive et des déplacements de populations majeurs. Tout cela augmenterait le risque de réactions politiques de type totalitaire, voire de conflagrations armées mobilisant les arsenaux nucléaires. Mann relie tous ces phénomènes à la préoccupation centrale de ce livre : l’avenir du capitalisme. D’après lui, si la crise du changement climatique est si difficile à surmonter, c’est qu’elle a partie liée avec l’ensemble des institutions mondialisées : le capitalisme en tant que poursuite effrénée du profit, des États-nations autonomes jaloux de leur souveraineté et les droits des consommateurs individuels, qui légitiment tout à la fois l’État et le marché modernes. Pour résoudre la crise écologique, il faudra une transformation majeure du cadre institutionnel de notre existence actuelle.

Il s’agit là de pronostics structurels qui ne sont pas sans parenté avec ce qu’on appelle les « tests de résistance » dans le domaine de l’ingénierie civile, mais aussi, nous le savons aujourd’hui, dans celui du système financier. Il n’est pas question pour nous de condamner ou de défendre le capitalisme. Chacun d’entre nous a ses propres convictions morales et politiques, mais, en tant que pratiquants de la sociologie historique, nous savons que le sort des sociétés humaines – c’est du moins le cas depuis la dizaine de milliers d’années qui nous séparent du niveau élémentaire de subsistance des petits groupes de chasseurs-cueilleurs – ne dépend pas de la quantité de biens ou de maux sociaux qu’elles engendrent. La question n’est pas de savoir si le capitalisme est meilleur ou pire que toutes les autres sociétés ayant existé jusqu’à nos jours. La question est de savoir s’il a encore un avenir.

Cette question fait écho à une vieille prédiction. L’idée d’un effondrement prochain du capitalisme était au cœur même de l’idéologie officielle de l’Union soviétique, dont le système s’est lui-même effondré. Ce paradoxe est-il en soi une garantie d’avenir pour le capitalisme ? Georgi Derluguian réinscrit l’expérience soviétique dans le cadre global de la géopolitique mondiale, cause profonde de son autodestruction. Il explique aussi comment la Chine a évité l’effondrement du communisme en devenant le nouvel enfant prodige de la croissance capitaliste. Le communisme n’était pas une alternative viable au capitalisme. Pourtant, la manière dont le bloc soviétique s’est effondré subitement en 1989, au terme de grandes mobilisations à la base et d’une panique paralysante au sommet, a peut-être quelque chose d’important à nous suggérer sur l’avenir politique du capitalisme.

Notre propos n’est pas ici d’élaborer des scénarios catastrophes. Contrairement aux experts en prospective économique ou en sécurité qui essaient d’anticiper des évolutions à court terme en modifiant quelques variables de la situation existante, il nous paraît futile de faire des prédictions trop spécifiques. La diversité des aspirations humaines et la variabilité des circonstances font que le cours des événements est contingent et imprévisible. Tout ce qu’on peut tant bien que mal prévoir, ce sont les dynamiques structurelles profondes. Deux des auteurs de ce livre, Collins et Wallerstein, qui ne voient pas d’issue possible pour le capitalisme, avaient déjà prédit la fin du communisme soviétique dans les années 1970. Ce que personne ne pouvait prévoir, c’était la date précise ou le fait que ce serait les anciens membres du Comité central eux-mêmes qui démoliraient de façon irrationnelle leur propre position de superpuissance industrielle et militaire. Si ce résultat était imprévisible, c’est parce qu’il n’y avait aucune raison qu’il se produise exactement de cette façon.

C’est précisément le caractère sous-déterminé de notre avenir politique qui nous empêche de succomber au désespoir de l’apocalypse. Un des effets de la crise systémique est de desserrer, voire de briser, des contraintes structurelles elles-mêmes héritées des dilemmes du passé et des décisions institutionnelles des générations antérieures. Elle engendre des bifurcations historiques qui font qu’il n’est plus possible de s’en tenir aux routines habituelles. Non seulement le capitalisme a entraîné la destruction créatrice de technologies et de formes de production plus anciennes, mais il a engendré des inégalités et dégradé l’environnement. La profondeur de la crise capitaliste peut être une occasion de réorganiser les affaires planétaires de l’humanité de façon à promouvoir une plus grande justice sociale et un environnement plus vivable.

Notre argument central, c’est qu’il y a pour les systèmes historiques diverses façons – plus ou moins destructrices – de dépérir tout en se transformant en quelque chose d’autre. L’histoire des sociétés humaines est passée par des moments d’explosion révolutionnaire, des phases de développement expansif et des périodes souvent bien trop longues de stagnation, voire d’involution. Ce dernier scénario, aussi indésirable qu’il soit, reste à terme une des issues possibles de la crise mondiale. Il se pourrait tout simplement que le dynamisme des structures économiques et politiques du capitalisme actuel s’essouffle face à la hausse des coûts et des pressions sociales. D’un point de vue structurel, cela pourrait entraîner la fragmentation du monde en plusieurs blocs hostiles, oppressifs et xénophobes. D’aucuns y verront l’incarnation du fameux « choc des civilisations », d’autres la réalisation d’une anti-utopie orwellienne à la 1984 fondée sur les technologies de surveillance électronique les plus avancées. Pour rétablir l’ordre social dans un contexte très conflictuel, on peut tout aussi bien imaginer un recours à des moyens qui évoqueront le fascisme qu’un approfondissement substantiel de la démocratie. C’est sur cet aspect que nous avons voulu mettre l’accent dans ce livre.

Au cours des dernières décennies, l’opinion dominante dans les milieux politiques et au sein même des sciences sociales hégémoniques était qu’il ne valait même pas la peine de réfléchir à des changements structurels majeurs. L’économie néoclassique fonde ses modèles sur l’hypothèse d’un univers social fondamentalement immuable. En cas de crise, il suffirait de quelques ajustements politiques et d’une dose d’innovation technologique pour relancer le capitalisme. Il ne s’agit pourtant que d’une extrapolation à partir de l’expérience empirique : 500 ans d’existence du capitalisme ne prouvent pas pour autant que le système soit éternel. Les diverses critiques philosophico-culturelles d’obédience postmoderne qui ont émergé pendant les années 1980 en réaction à l’enlisement des espoirs utopiques de 1968 et à la crise manifeste du communisme soviétique ont elles aussi fini par accepter, non sans une certaine dose de désespoir existentiel, l’hypothèse de la permanence du capitalisme. De ce fait, les théoriciens postmodernes ont eu tendance à détourner le regard des réalités structurelles. Nous présenterons dans notre chapitre de conclusion une analyse plus détaillée de la situation mondiale actuelle et du climat intellectuel qui l’accompagne.

Nous avons délibérément rédigé ce livre dans un style relativement accessible, dans le but d’ouvrir un espace à la discussion la plus ample possible. On trouvera des arguments plus élaborés, ainsi que toutes les notes bibliographiques nécessaires, dans les monographies que chacun d’entre nous a publiées individuellement. Notre principal domaine de recherche universitaire est généralement connu sous le nom d’analyse des systèmes-mondes ou de macrosociologie historique. Les « macrosociologues » étudient les origines du capitalisme et de la société moderne, ainsi que la dynamique des anciens empires et des civilisations antiques. En adoptant une perspective de longue durée sur les faits sociaux, ils constatent que l’histoire humaine progresse à travers une série de contradictions et de conflits qui se cristallisent sur de longues périodes dans des configurations structurelles éphémères et entrelacées. Nous nous entendions suffisamment entre nous sur ce point pour nous permettre de rédiger de façon collective les premier et dernier chapitres de ce livre. Cela dit, chacun d’entre nous possède aussi sa propre approche théorique et son domaine d’expertise spécifique, et les jugements qui en découlent trouvent leur expression dans les chapitres individuels. Ce petit livre n’est pas un manifeste chanté à l’unisson. Il est un débat entre égaux qui discutent sur la base de leur connaissance du passé et du présent des sociétés humaines. Il nous invite par conséquent à poser sérieusement et ouvertement la question de savoir quel pourrait être le prochain grand tournant de l’histoire mondiale.

Sommes-nous au fond en train de prophétiser l’avènement d’une forme de socialisme ? Au lieu de nous livrer à des polémiques inutiles sur la base d’un acte de foi idéologique, nous préférons répondre à cette question de façon raisonnée et en deux parties. En premier lieu, il n’est pas question de prophétiser ; nous insistons en effet sur le respect des règles de l’analyse scientifique. Cela signifie en l’occurrence montrer avec un niveau de précision raisonnable pourquoi les choses peuvent changer et comment on passe d’une situation historique à une autre. La destination finale sera-t-elle le socialisme ? Nos arguments concernent un moyen terme qui pourra durer quelques décennies. La question que pose Randall Collins est celle du déclin imminent des classes moyennes, dont le rôle dans l’organisation du marché et de la quête du profit est devenu technologiquement superflu. Comment l’éviter ? On pourrait imaginer une forme de réorganisation socialiste de la production et de la distribution – une économie politique coordonnée de façon consciente et collective au service de la majorité de la population. C’est justement l’aggravation structurelle des problèmes du capitalisme avancé qui font du socialisme le candidat le plus plausible à sa succession. On ne peut pas oublier pour autant les leçons de l’expérience des États communistes et sociaux-démocrates au xx e siècle. Le socialisme a ses propres problèmes, dont le principal est une forme d’organisation hypercentralisée qui a largement ouvert la voie au despotisme politique et au déclin progressif du dynamisme économique. Même si la solution à la crise du capitalisme passe par une forme de socialisme, ce sont dès lors les problèmes spécifiques du socialisme qui reviendront au premier plan. Se risquant à formuler un pronostic à plus long terme, Collins suggère que le socialisme lui-même ne durera pas éternellement et que le monde oscillera entre diverses formes de capitalisme et de socialisme au fur et à mesure que ces systèmes seront confrontés à leurs carences respectives.

Craig Calhoun et Michael Mann offrent chacun à leur façon des perspectives plus optimistes, telles que la possibilité d’une alliance entre États-nations contre la menace d’une catastrophe écologique ou nucléaire. La vitalité du capitalisme pourrait dès lors être garantie par une version sociale-démocrate moins agressive de la mondialisation. Quant à Georgi Derluguian, il estime que la société qui remplacera le capitalisme, qu’elle qu’en soit la forme, ne ressemblera pas au modèle communiste. Heureusement, les conditions historiques du « socialisme de forteresse » à la soviétique ont disparu, de même que les conflits géopolitiques et idéologiques du siècle dernier. Immanuel Wallerstein estime toutefois intrinsèquement impossible de prédire ce qui pourrait remplacer le capitalisme. On peut imaginer soit un système non capitaliste qui conserverait toutefois les fonctions hiérarchiques et polarisantes du capitalisme, soit un système relativement démocratique et égalitaire. Peut-être que plusieurs systèmes-mondes différents émergeront de la transition. Calhoun avance l’hypothèse que, pour faire face tant aux menaces externes qu’aux risques internes qui perturbent le fonctionnement du capitalisme, des systèmes moins étroitement connectés pourraient voir le jour. Il dément par là même l’idée largement répandue d’une irréversibilité de la mondialisation, qui n’est qu’une affirmation idéologique sans réel fondement théorique.

Les penseurs et les dirigeants politiques du xxe siècle, de quelque bord qu’ils fussent, ont eu tort de croire qu’il n’existait qu’une seule voie vers l’avenir. Cette conviction idéologique, d’ardents défenseurs du capitalisme, du communisme ou du fascisme l’ont soutenue et ont tenté de l’imposer. Si aucun d’entre nous ne souscrit à l’idée utopique que tout est possible grâce à la seule volonté humaine, on peut toutefois démontrer qu’il existe diverses façons possibles d’organiser la société. Le résultat final dépend largement des conceptions et des aspirations politiques suscitées par les grandes crises qui fonctionnent comme moments fondateurs de l’histoire. Par le passé, de tels moments se sont souvent traduits par des effondrements et des révolutions politiques.

Mais les cinq auteurs de ce livre s’accordent à penser qu’il est fort peu probable que les développements politiques de la crise mondiale du capitalisme débouchent sur des révolutions semblables à celles du passé, à savoir des mouvements survenant séparément dans tel ou tel État-nation et marqués par un niveau de violence considérable. C’est d’ailleurs ce qui nous permet de cultiver l’espoir que les choses pourront se faire autrement, et de meilleure façon, à l’avenir.

Le capitalisme n’est pas un espace physique, tel un palais royal ou un quartier financier qui pourrait être investi par une foule révolutionnaire ou devenir la cible de manifestations idéalistes. Il ne se résume pas non plus à un ensemble de politiques « raisonnables » susceptibles d’être adoptées ou corrigées conformément aux prescriptions des éditorialistes de la presse économique. Nombre de progressistes et de marxistes partagent la vieille illusion idéologique selon laquelle le système capitaliste se résume à l’équation « économie de marché + travail salarié ». C’est d’ailleurs ce que presque tout le monde s’accordait à penser tout au long du xx e siècle. Nous pouvons constater aujourd’hui les conséquences néfastes de cette croyance universelle. Les rapports marchands et le travail salarié ont existé bien longtemps avant l’émergence du capitalisme, et il est plus que probable que la coordination sociale par le biais du marché survivra au capitalisme.

De notre point de vue, le capitalisme est simplement une configuration historique spécifique des rapports marchands et des structures étatiques au sein de laquelle l’obtention d’un gain économique privé par tous les moyens, ou presque, est un objectif primordial et la mesure de tout succès. L’émergence d’une organisation différente et plus satisfaisante du marché et de la société humaine n’est nullement exclue.

On trouvera dans cet ouvrage et dans nos nombreux écrits antérieurs une série de raisons permettant de soutenir cette affirmation. Mais proposons pour l’instant au lecteur une brève fable historique. Il y a fort longtemps que les êtres humains rêvent de voler, au moins depuis aussi longtemps qu’ils rêvent de justice sociale. Pendant plusieurs millénaires, ce rêve est resté une chimère. Et puis, un jour, on est entré dans l’ère des montgolfières et des dirigeables. Pendant près d’un siècle, ces appareils ont donné lieu à diverses expérimentations, avec comme on le sait des résultats plutôt mitigés, voire parfois carrément désastreux. Mais parallèlement s’était créée une couche d’ingénieurs et de scientifiques, ainsi qu’une forme de structure sociale susceptible d’alimenter et de stimuler leur créativité. La véritable percée technologique eut lieu grâce à l’invention de nouveaux types de moteur et des ailes en aluminium. Aujourd’hui, nous pouvons tous voler, mais la majorité d’entre nous restent prisonniers des sièges exigus de la classe touriste, tandis que seule une poignée d’audacieux ont accès à l’ivresse du vol autonome en pilotant de petits avions ou des parapentes. En outre, l’aviation, c’est aussi l’horreur des bombardements aériens et la menace sournoise des drones. La technologie propose, mais les êtres humains disposent. La réalisation de rêves très anciens impose aussi souvent de nouveaux choix difficiles. Pourtant, l’optimisme est une condition historique nécessaire à la mobilisation des énergies passionnelles dans un monde confronté à des choix structurellement divergents entre divers avenirs possibles. Les grandes avancées ne deviennent possibles que lorsque la réflexion et le débat sur la gamme des options alternatives conquièrent une audience suffisamment large. »

– Wallerstein, I., Collins, R., Mann, M., Derluguian, G. & Calhoun, C. (2016). Introduction. Le prochain grand tournant. Dans : Immanuel Wallerstein éd., Le capitalisme a-t-il un avenir (pp. 5-17). La Découverte.

« […]

La fin du monde ?
Cependant, tous les scénarios que j’ai esquissés jusqu’ici pourraient bien être invalidés par deux autres crises potentielles qui pourraient se révéler encore plus graves que les deux guerres mondiales. Toutes deux sont inédites et ont un caractère indéniablement systémique et global. Et elles ne peuvent pas être limitées pas des frontières nationales ou macrorégionales, car elles sont liées à l’atmosphère même que nous respirons tous.

La première menace globale est militaire, c’est celle de la guerre nucléaire. La gravité de cette menace est presque totalement incalculable dans la mesure où elle dépend de toute une série d’événements dont chacun est susceptible de se produire ou pas. Jusqu’à présent, nous n’avons connu que deux confrontations à caractère potentiellement nucléaire, la première entre les États-Unis (et leurs alliés britanniques et français) et les Soviétiques, la seconde entre l’Inde et le Pakistan, la Chine restant en arrière-plan dans une position plutôt passive. Dans chacun de ces cas, la menace de la destruction mutuelle assurée était tellement évidente pour les deux camps en présence qu’ils y ont répondu, au terme de deux demi-crises, par une logique de désescalade en bon ordre. La dissuasion nucléaire a fonctionné.

Mais lorsqu’on aura plus de deux puissances impliquées dans des conflits plus complexes, la solution ne sera pas aussi évidente. Ce sont justement des conflits multipolaires encourageant certains acteurs à déchiffrer de façon erronée les intentions de leurs adversaires qui ont déclenché les deux guerres mondiales. Au Moyen-Orient, Israël a déjà des armes nucléaires et l’Iran est en voie de les obtenir, ce qui risque d’inciter d’autres puissances régionales à les imiter. Ce serait fort dangereux pour la région, pour ses voisins, pour l’approvisionnement en pétrole d’une bonne partie du monde et pour la communauté internationale en général. Ce type de courses aux armements n’a pas grand-chose à voir avec le capitalisme. Si une guerre nucléaire éclatait, les survivants ne pourraient guère attribuer au capitalisme qu’un rôle mineur dans la catastrophe. Néanmoins, l’Iran se laissera peut-être persuader d’abandonner ses projets nucléaires ; ou bien peut-être que l’Arabie saoudite, l’Irak et la Turquie n’entreront pas dans la course pour faire face à l’Iran ; et peut-être même que la rationalité humaine est capable de maîtriser les dangers posés par la multiplication de puissances rivales dotées de l’arme nucléaire. Reste le scénario dans lequel des terroristes s’empareraient d’un explosif nucléaire. Qui pourrait en prédire l’issue, vu que certains terroristes semblent être motivés par des objectifs supramondains ? Leur idéologie pourrait bien être la plus dangereuse qui ait jamais existé.

La seconde crise systémique est en revanche tout à fait prévisible, à moins que des mesures extraordinaires ne soient prises pour l’éviter. Le changement climatique est une réalité (je me penche sur la question dans le chapitre 12 du quatrième volume de The Sources of Social Power). L’air, la mer et la terre sont victimes d’un réchauffement progressif tout en connaissant simultanément des fluctuations de température plus importantes, principalement en raison des activités humaines. La menace est globale, puisque les émissions de gaz à effet de serre affectent les gens partout dans le monde. Elle est grosse de plusieurs scénarios catastrophes simultanés : pénurie de nourriture et d’eau, fonte de la calotte polaire et dégel de la toundra, montée du niveau des océans, etc. Des millions de personnes risquent déjà une mort prématurée à cause du réchauffement de la planète et, d’ici vingt à trente ans, si la direction du développement des sociétés humaines ne change pas radicalement, c’est la survie même d’une poignée de nations parmi les plus pauvres qui est en question.

Si l’humanité veut intervenir à temps pour réduire de façon substantielle les émissions, il lui faudra contester et réformer radicalement trois grandes institutions qui ont connu un grand succès au cours du siècle dernier. La première est le capitalisme, mais seulement parce que c’est aujourd’hui le mode de production dominant au niveau mondial. À son apogée, le socialisme d’État était tout aussi destructeur de l’environnement. Comme le signalent les écologistes radicaux, il faut déconnecter la société de la logique implacable du profit. Cela pourrait se traduire par des mesures visant à « discipliner » le monde des affaires à travers des formes de régulation et de contrôle centralisées, ou bien par une imposition du flux des ressources consommées par les entreprises, ou bien par des mécanismes de marché tels que les « bourses de carbone », qui incitent les capitalistes à investir plus fortement dans les industries « vertueuses » à faible émission. Si ces politiques sont menées avec rigueur, le capitalisme survivra, même si ce sera sous une forme beaucoup plus réglementée. Étant donné que de nombreuses industries ne produisent pas un très haut niveau d’émission, il n’y a pas de raison que les capitalistes soient tous unis dans l’opposition à ces mesures. Elles pourraient au contraire inaugurer une nouvelle phase de « destruction créatrice » où les technologies à faible émission de carbone engendreraient des profits et de nouveaux emplois. Certains entrepreneurs misent déjà sur une telle évolution et investissent dans les carburants alternatifs, la préservation des forêts et des zones humides et autres innovations écologiques. Pour l’instant, l’introduction des technologies énergétiques alternatives ne se traduit pas par une création nette d’emplois, mais cela pourrait changer si elles deviennent la norme. Un rapport récent du Copenhagen Consensus Center suggère qu’un tel scénario est envisageable si un certain nombre de conditions sont remplies : rythme rapide des innovations, progression rapide des économies d’échelle, mise en œuvre de politiques « vertes » de nature similaire à l’échelle internationale, à quoi il faut peut-être ajouter l’adoption de dispositifs protectionnistes reposant sur des taxes d’importation ou d’autres mesures favorisant la production locale. On pourrait aussi encourager la création d’emplois à travers la politique fiscale. Si on taxe le flux total des ressources non renouvelables au lieu d’imposer le capital ou le travail en général, comme c’est le cas actuellement, cela constituera une incitation à l’embauche. La prochaine vague de destruction créatrice pourrait reposer sur les technologies alternatives, et nul doute que l’industrie des combustibles fossiles serait la première victime de ce processus de destruction.

Mais ce n’est pas seulement le capitalisme qu’il faut brider. Il faut aussi combattre l’obsession de la croissance qui caractérise l’État-nation. Tous les États mesurent leur succès à l’aune de la croissance du PIB, alors même que celle-ci augmente la dégradation de l’environnement. Cela implique de réduire le pouvoir des élites politiques qui estiment n’être à même de préserver leur position qu’en promouvant la croissance à court terme entre deux élections. Un régime à faible émission aurait certainement pour effet à court terme une diminution de la croissance, tout en la stimulant en fait à long terme dans la mesure où le changement vaut mieux que la routine et l’inaction, qui auront des effets catastrophiques pour la planète et ses habitants. Le problème, c’est que le long terme n’intéresse guère ni les politiciens ni l’électorat. En outre, ces derniers vivent encore à l’époque de l’État-nation souverain et expriment une grande résistance à toute remise en question de cette souveraineté. Pourtant, toute forme de réglementation environnementale efficace aura nécessairement un caractère supranational et passera par des accords intergouvernementaux qui limiteront fortement la marge de manœuvre autonome des États-nations isolés.

Peut-être que le mouvement écologiste finira par convaincre les capitalistes, les élites politiques et les électeurs de s’engager sérieusement sur la voie des réductions d’émission. Peut-être que l’Union européenne pourra aider le reste du monde à franchir l’obstacle souverainiste, étant donné qu’elle l’a déjà fait dans d’autres domaines.

Mais, pour en arriver là, il nous faudra d’abord maîtriser la logique inexorable de la « citoyenneté consumériste », qui fait que les gens estiment qu’ils ont le droit d’exiger toujours plus de croissance économique afin de consommer plus. Les citoyens ordinaires ne pourront pas éviter la catastrophe sans changer leur mode de vie, mais la catastrophe paraît aujourd’hui abstraite et lointaine – jusqu’au jour où elle aura lieu.

Les trois grandes inventions de la modernité – le capitalisme, l’État-nation, et les droits des citoyens – sont coresponsables de la crise de l’environnement. Les chaînes causales qui l’alimentent ont des racines essentiellement économiques, même si elles passent par la médiation des rapports de pouvoir politique, ce qui fait que le problème ne relève pas simplement du fonctionnement du système capitaliste. Il est bien entendu fort difficile de contester ces trois grandes réussites au nom d’un avenir plutôt abstrait. Si toutefois l’on y parvenait, cela renforcerait la tendance à l’instauration d’un capitalisme à croissance faible. Tout cela impliquerait un renforcement des contrôles politiques, mais par le biais d’accords internationaux entre États intervenant de manière collective. On aurait moins de marché et plus d’État, même si pas nécessairement dans un sens socialiste, mais plutôt dans celui d’une nouvelle forme de collectivisme supra-étatique promouvant la régulation du marché. Pour l’instant, c’est un scénario assez peu vraisemblable. Non seulement les États-Unis ne sont pas disposés à prendre la moindre initiative sur ces trois fronts, mais ils n’acceptent même pas de mettre en place des programmes minimaux de réduction des émissions. Pour sa part, la Chine est plus ouverte à de tels programmes et les dirigeants du Parti ont le pouvoir de les appliquer, mais tous leurs efforts sont rendus vains par le rythme frénétique de l’industrialisation chinoise. La même chose vaut pour l’Inde et d’autres pays émergents. Mon pronostic est qu’on n’assistera pas à un effort substantiel de réduction des émissions tant que l’impact du changement climatique ne se fera pas sentir avec force, quelque part vers le milieu du xxie siècle.

Ça chauffe donc vraiment du côté du climat. Faut-il mettre nos espoirs dans une percée technologique ? Pour l’instant, ni le solaire ni l’énergie éolienne ne sont à la hauteur du défi, mais les expériences en cours autour de la fusion froide, ou bien l’invention de batteries solaires radicalement différentes, ou encore les centrales solaires utilisant du sel fondu, pourraient éventuellement donner des résultats significatifs. Ce n’est pas le cas du « charbon propre », qui n’est qu’une manœuvre de diversion promue par l’industrie extractive. Peut-être les écologistes arriveront-ils à susciter une agitation de masse susceptible de convaincre les politiciens d’adopter des politiques environnementales plus radicales. Peut-être que les entrepreneurs des secteurs à faibles émissions offriront un puissant contrepoids aux industries polluantes. Peut-être qu’on assistera à une coopération entre la science et le monde des affaires pour promouvoir une nouvelle phase de destruction créatrice centrée sur les nouvelles technologies vertes. Mais, pour l’instant, on ne voit aucune de ces possibilités se profiler à l’horizon. Bien entendu, en cas de crise durable du capitalisme, le déclin mondial de la production entraînera le ralentissement et même le déclin des émissions (après une phase d’hystérésis où leur croissance se poursuivrait). Inversement, si l’on arrive à maîtriser la logique du capitalisme, des États-nations et du consumérisme, on obtiendra une décélération du PIB fondée sur un consensus international et tout le monde se satisfera d’une croissance quasi nulle. À quelque chose malheur est bon !

Mais si on n’agit pas à temps et que le climat commence à se dégrader sérieusement, le scénario « optimiste » serait que les différents pays du monde prennent des mesures coordonnées pour imposer des restrictions sévères au capitalisme, aux États et aux citoyens. Dans le cas contraire, on peut s’attendre à divers scénarios catastrophes. Les États les moins affectés, ceux des pays riches du Nord, pourraient ériger des barrières contre le reste du monde et se retrancher dans une forme de « capitalisme forteresse », de « socialisme forteresse » ou de régime « écofasciste ». On pourrait avoir des masses de réfugiés victimes de la famine. On pourrait voir se déclencher des guerres pour les ressources naturelles (mais pas nécessairement entre puissances nucléaires). Quel que soit le nom que nos descendants donneront à ces futurs régimes, « capitalistes », « socialistes » ou « fascistes », ils se caractériseront certainement par leur nocivité. Et il est bien entendu impossible de prédire comment les êtres humains réagiront à une telle menace.

La fin est proche… ou peut-être pas
La gamme de scénarios alternatifs que j’ai présentés ici est je crois le mieux que nous puissions faire en matière de prédiction. J’espère d’abord avoir montré que la société moderne et le capitalisme contemporain ne peuvent pas être définis comme des « systèmes ». Ils dépendent de multiples réseaux de pouvoir entrelacés, chacun lié à ses propres chaînes causales. Les formes les plus importantes en sont le pouvoir idéologique, le pouvoir économique, le pouvoir militaire et le pouvoir politique. Certaines dimensions de leurs possibles futures interactions sont plus faciles à prévoir que d’autres. En premier lieu, les États-Unis sont en train de perdre leur position hégémonique dans le monde – même leur énorme puissance militaire ne semble plus en mesure de leur permettre d’atteindre les objectifs que leur dicte leur intérêt national. Cela semble presque inévitable : la fin de l’hégémonie est proche. Le déclin américain pourrait même être encore plus sévère si Washington ne remédie pas aux nombreux déficits qui s’accumulent au niveau politique, économique, idéologique et militaire. En second lieu, la position de l’Union européenne est elle aussi menacée, même si ses difficultés économiques actuelles ne sont aggravées que par une seule faiblesse exogène, la fragilité politique de l’euro. Presque toutes les difficultés européennes dépendent de la solution de ce problème, qui est essentiellement d’ordre politique et idéologique plutôt qu’économique. En troisième lieu, le pouvoir économique mondial va continuer à se déplacer de l’Occident vers les régions les plus dynamiques du reste du monde et, en moyenne, cela signifiera plus de régulation politique du capitalisme. Tout cela est assez clair.

Ce qui l’est moins, c’est ce que nous réservent les autres scénarios. Si, à l’instar de Schumpeter, nous considérons la « destruction créatrice » comme l’essence du capitalisme, la création pourrait devenir le privilège des pays émergents et la destruction le sort de l’Occident. Il s’agit pourtant là d’un avenir moins probable qu’un retour aux réseaux de pouvoir multipolaires des époques précédentes, cette fois organisés à l’échelle mondiale. Mais il est peu probable que les mécanismes endogènes de l’économie débouchent sur une crise mondiale du capitalisme. Ce qui est plus plausible, c’est qu’une fois que se sera instaurée une répartition plus équitable du pouvoir à l’échelle de la planète, la croissance économique mondiale commencera à ralentir, annonçant peut-être une nouvelle ère où prévaudrait une économie capitaliste stable, prospère, mais à faible croissance. Une perspective globalement positive, même si cela peut s’accompagner de l’existence d’une minorité d’« exclus » rassemblant entre 10 % et 20 % de la population.

Mais tout cela pourrait être remis en question par l’éclatement d’une des deux crises incontrôlables que nous avons mentionnées : un conflit nucléaire ou une brusque accélération du changement climatique. Le premier serait lié à une chaîne causale exogène au capitalisme, la seconde dépendrait d’enchaînements macro qui outrepassent le cadre du capitalisme. Dans les deux cas, ce pourrait être la fin non seulement du capitalisme, mais aussi de la civilisation humaine. Seuls les insectes hériteraient de la planète. Mais, en fin de compte, rien n’est définitif et le poids des décisions politiques est considérable.

En principe, l’humanité est libre d’opter pour l’un ou l’autre de ces divers scénarios, pour le meilleur et pour le pire, ce qui rend l’avenir imprévisible en dernière instance.

Nous agissons parfois de façon rationnelle, mais le plus souvent avec un horizon à court terme, et nos actions obéissent au contraire parfois aux émotions, à l’idéologie ou à d’autres motifs irrationnels.

C’est la raison essentielle pour laquelle nous ne pouvons pas plus prédire l’avenir du capitalisme que celui du monde. »

– Mann, M. (2016). Chapitre 3. La fin est sans doute proche, mais pour qui ?. Dans : Immanuel Wallerstein éd., Le capitalisme a-t-il un avenir (pp. 117-163). La Découverte.

Lectures supplémentaires / complémentaires :

  • « Chapitre 2. Tendances, contretendances et mutation du capitalisme », dans : , Au-delà du capitalisme ? sous la direction de Duménil Gérard, Lévy Dominique. Presses Universitaires de France, « Actuel Marx Confrontations », 1998, p. 25-34
  • Wallerstein, I., Collins, R., Mann, M., Derluguian, G. & Calhoun, C. (2016). Le capitalisme a-t-il un avenir ?. (Saint-Upéry, M.) La Découverte.
  • Duménil, G., Lévy, D. (1998). Au-delà du capitalisme ?. Presses Universitaires de France.
  • Larrère, C. & Larrère, R. (2015). Peut-on échapper au catastrophisme ?. Dans : , C. Larrère & R. Larrère (Dir), Penser et agir avec la nature: Une enquête philosophique (pp. 239-262). La Découverte.
  • Printz, A. (2020). L’inclusion : clarification d’un champ notionnel. Mots. Les langages du politique, 122(1), 75-92.
  • Fiala, P. (2020). Marie-France Piguet, Individualisme : une enquête sur les sources du mot: Paris, CNRS Éditions, 2018, 193 p.. Mots. Les langages du politique, 122(1), 125-129.
  • Fairclough, N. & Scholz, R. (2020). “Critical discourse analysis as ‘dialectical reasoning’: from normative critique towards action, by way of explanation”: Interview with Norman Fairclough conducted by Ronny Scholz. Mots. Les langages du politique, 122(1), 113-123.
  • Carraud, V. (2020). La foi n’est pas une croyance : sur la définition de la foi dans la lettre aux hébreux. Philosophie, 145(2), 13-29.
  • Büttgen, P. (2020). Formules de croyance et d’attestation. Philosophie, 145(2), 30-46.
  • Feneuil, A. (2020). Le plus certain en soi. La foi comme affaiblissement de la croyance, d’après Tomas d’Aquin. Philosophie, 145(2), 47-60.
  • Riquier, C. (2020). Croire et savoir. Philosophie, 145(2), 61-77.
  • Jeong, E. (2020). Les vicissitudes du « roman-fleuve » en Corée. Littérature, 197(1), 21-35.
  • Bouznah, S. (2020). La médiation transculturelle: Pratiques et fondements théoriques. L’Autre, volume 21(1), 20-29.
  • Larchanché, S. & Bouznah, S. (2020). La médiation transculturelle : un nouvel outil. L’Autre, volume 21(1), 4-7.
  • Giacobi, C., Bouznah, S. & Moro, M. (2020). Savoirs, pouvoir et imagination: Le paradigme de la médiation transculturelle. L’Autre, volume 21(1), 52-62.
  • Alary, P. & Lafaye de Micheaux, E. (2014). Capitalismes asiatiques et puissance chinoise: Diversité et recomposition des trajectoires nationales.Presses de Sciences Po.

Les commentaires sont fermés.

Un site Web propulsé par WordPress.com.