La Prévision : sciences de la nature – sciences morales et politiques

Séance du lundi 16 juin 2014

par M. Thierry de Montbrial,
Membre de l’Académie des Sciences Morales et Politiques

 

 

Une réflexion sur la notion de prévision s’impose en raison de malentendus dont la racine commune est la naïveté qui caractérise la plupart des discours sur l’avenir. On l’a bien vu, typiquement, à la suite des événements de l’hiver 2010-2011, curieusement qualifiés de “printemps arabe”, qui – à partir d’un incident quelque part en Tunisie – ont provoqué la chute de Ben Ali puis celle de Hosni Moubarak en Egypte, et mis en mouvement d’autres forces, comme en Libye ou en Syrie. Que n’a-t-on entendu, alors, sur “l’incompétence des diplomates” ou sur la cécité des prévisionnistes ! Ces polémiques ont l’intérêt de faire ressortir la nécessité d’une réflexion comme celle de la communication d’aujourd’hui.

J’aborderai le sujet très en amont, en invoquant les quatre préceptes de la méthode selon Descartes – qui fondent “l’esprit de géométrie”- et surtout le texte de Pascal sur l’esprit de géométrie et l’esprit de finesse.

Permettez-moi de vous lire ce dernier : « Ce qui fait donc que de certains esprits fins ne sont pas géomètres, c’est qu’ils ne peuvent du tout se tourner vers les principes de géométrie ; mais ce qui fait que des géomètres ne sont pas fins, c’est qu’ils ne voient pas ce qui est devant eux, et qu’étant accoutumés aux principes nets et grossiers de géométrie, et à ne raisonner qu’après avoir bien vu et manié leurs principes, ils se perdent dans les choses de la finesse, où les principes ne se laissent pas ainsi manier. On les voit à peine, on les sent plutôt qu’on ne les voit ; on a des peines infinies à les faire sentir à ceux qui ne les sentent pas d’eux-mêmes : ce sont choses tellement délicates et si nombreuses, qu’il faut un sens bien délicat et bien net pour les sentir, et juger droit et juste selon ce sentiment, sans pouvoir le plus souvent les démontrer par ordre comme en géométrie, parce qu’on n’en possède pas ainsi les principes, et que ce serait une chose infinie de l’entreprendre. Il faut tout d’un coup voir la chose d’un seul regard, et non pas par progrès de raisonnement, au moins jusqu’à un certain degré. Et ainsi il est rare que les géomètres soient fins et que les fins soient géomètres, à cause que les géomètres veulent traiter géométriquement les choses fines, et se rendent ridicules, voulant commencer par les définitions et ensuite par les principes, ce qui n’est pas la manière d’agir en cette sorte de raisonnement. Ce n’est pas que l’esprit ne le fasse ; mais il le fait tacitement, naturellement et sans art, car l’expression en passe tous les hommes, et le sentiment n’en appartient qu’à peu d’hommes.

Et les esprits fins, au contraire, ayant ainsi accoutumé à juger d’une seule vue, sont si étonnés – quand on leur présente des propositions où ils ne comprennent rien, et où pour entrer il faut passer par des définitions et des principes si stériles, qu’ils n’ont point accoutumé de voir ainsi en détail – qu’ils s’en rebutent et s’en dégoûtent ».

Pascal poursuit : « les esprits faux ne sont jamais ni fins ni géomètres », c’est-à-dire qu’ils se perdent dans la logique autant qu’ils ne voient rien. Ainsi, d’ailleurs, peut-on définir l’esprit faux. Et s’ « il est rare que les géomètres soient fins et que les fins soient géomètres », cela arrive – l’auteur de l’Essai sur les coniques (à 16 ans !) et des Pensées, cet « effrayant génie », disait Chateaubriand, en est un prodigieux exemple – et les heureux esprits ainsi coiffés de la double casquette peuvent être qualifiés de “justes”. Dans les meilleurs des cas, on peut même dire qu’ils sont “sages”, ce qui n’implique pas qu’ils soient écoutés.

J’ajouterai que l’expérience des plus grands découvreurs scientifiques montre que l’intuition précède généralement la raison, laquelle joue plutôt le rôle de vérificateur . En ce sens nul ne peut être un grand géomètre s’il ne possède une certaine finesse, c’est-à-dire une qualité de vision exceptionnelle au moins dans certaines directions. Tout cela étant dit, il arrive aux plus grands géomètres de commettre des erreurs de raisonnement, et même les plus fins d’entre les fins n’ont pas la vue parfaite dans toutes les directions. Autrement dit, les esprits les plus justes peuvent se tromper quelquefois.

Dans la vie “mondaine”, que méprisait Pascal, les fins sont à l’évidence mieux placés pour réussir que les géomètres et, s’ils pratiquent en maîtres la voie « basse, indigne et étrangère » de « l’art d’agréer », cela donne des personnages comme son contemporain Mazarin, ou plus tard Talleyrand ou Mitterrand. L’art d’agréer, c’est celui de plaire et de convaincre, fort éloigné de la démonstration . Or, nul ne peut prétendre gouverner des hommes s’il ne possède cet art.

J’en viens maintenant à la thèse que je développerai dans la suite: l’analyse et la prévision, prises comme un tout, est un art dont la pratique suppose toujours une combinaison d’esprit de géométrie et d’esprit de finesse, dans des proportions variables en fonction de la nature du problème traité. Je suppose qu’il a fallu des deux à ceux de nos ancêtres qui ont identifié nettement les régularités comme la succession des jours et des nuits, leur inégalité en fonction des saisons, les rapports entre climat, saison, faune et flore, les vertus médicinales ou au contraire le danger des plantes etc.

Avec la révolution scientifique, le regard des observateurs a dû se faire plus acéré, entraînant une montée en importance de l’esprit de géométrie sans doute aux dépens de l’esprit de finesse, même si un homme comme Kepler (1571-1630) était astrologue plus encore qu’astronome. Les trois lois, remarquables de précision géométrique, auxquelles son nom reste attaché, ont été formulées comme des faits d’expérience, établis à partir de ce qu’on appelle aujourd’hui une base de données, comme les astrologues et les astronomes en ont constitué depuis les temps les plus reculés.

Quelques décennies plus tard, dans son ouvrage « Des principes mathématiques de la philosophie naturelle », Isaac Newton, un titan dans l’ordre de l’esprit de géométrie, énonça la loi de la gravitation universelle. Cette loi permet de démontrer les lois de Kepler et de prévoir (au sens le plus fort de ce terme) d’innombrables phénomènes précédemment inenvisagés, comme les orbites paraboliques ou hyperboliques de certaines comètes. Tel est le point de départ de la mécanique céleste. Une démarche proprement cartésienne permet ainsi d’aboutir à des prévisions époustouflantes. Pour autant, ces prévisions ne sont pas parfaites. Les lois de Kepler ne sont exactes que dans le cas de l’attraction mutuelle de deux corps (le Soleil et la Terre par exemple), en les supposant rigoureusement seuls dans le vide . Or, à s’en tenir au seul système solaire, c’est-à-dire en ignorant le reste de notre Galaxie ou a fortiori les autres galaxies, il y a plusieurs planètes qui s’attirent mutuellement, et certaines ont un ou plusieurs satellites (la Lune dans le cas de la Terre). Le triomphe de la mécanique céleste, entre les mains de génies comme Pierre-Simon de Laplace, a été d’introduire des méthodes mathématiques permettant de calculer les “perturbations” apportées par ces interactions accessoires.

Grâce à ces méthodes (et de nos jours à la puissance de calcul des ordinateurs), on peut prévoir avec une remarquable précision – des centaines d’années à l’avance – les trajectoires des planètes, les phénomènes comme les éclipses etc. Mieux encore, l’étude attentive des anomalies dans les perturbations du mouvement de la planète Uranus (découverte par Herschel en 1781) a conduit l’astronome français Le Verrier à prévoir l’existence de Neptune, effectivement confirmée en 1846. On remarquera que, dans ce qui précède, nous avons utilisé le concept de prévision tantôt dans un sens faible (par exemple, date des éclipses), tantôt dans un autre beaucoup plus fort (trajectoires hyperboliques des comètes, découverte d’une nouvelle planète). Du point de vue qui nous intéresse ici, le premier est manifestement le plus important. Mais le second est fascinant, et établit un pont entre pré – vision et découverte.

Pour autant, même en mécanique céleste, il existe des limites à la capacité de prévoir. A la fin du XIXe siècle, Henri Poincaré a démontré que le problème des trois corps (par exemple, le Soleil, la Terre et la Lune) était structurellement instable . En termes simples, une modification même infime des coordonnées planétaires (positions, vitesses) à une date quelconque est susceptible d’entraîner, à une date ultérieure incalculable à l’avance – puisque tout calcul est approché, c’est-à-dire équivalent à une petite modification des données – une véritable bifurcation de la trajectoire, dont la morphologie peut brusquement devenir radicalement différente. Telle est l’origine de la théorie du chaos, dont la raison profonde est la non-linéarité des phénomènes, c’est-à-dire la non-proportionnalité des causes et des effets .

Nous pouvons être rassurés sur le devenir du système solaire à l’horizon de quelques millénaires, mais pas à l’échelle des millions d’années, très inférieure pourtant à l’espérance de vie du Soleil. Parmi les phénomènes courants marqués par les non-linéarités, je citerai les mouvements atmosphériques. Il est par exemple encore impossible de prévoir des incidents comme certaines tornades locales très violentes, alors même que l’on est capable d’écrire rigoureusement les équations de la mécanique des fluides. C’est d’ailleurs un météorologue, Edward Lorenz, qui a popularisé l’idée de chaos (1963) avec la métaphore de “l’effet papillon” (1972). A mesure que s’approfondissait l’étude du chaos, une nouvelle discipline s’est constituée, sous le nom de complexité. La non-linéarité, les bifurcations brusques et imprévisibles, le chaos, en constituent l’essence. Bien qu’il soit sage de ne manier les analogies qu’avec prudence, je soulignerai dès maintenant que la plupart des interactions à l’intérieur des sociétés humaines doivent être considérées comme complexes, et l’on comprend intuitivement pourquoi nous nous trouvons si souvent surpris par des bifurcations dont on pouvait à la rigueur imaginer la possibilité, mais qu’il était radicalement vain de chercher à dater. Et en effet comment pourrait-on espérer faire mieux pour anticiper le moment d’une révolution que pour prévoir le jour et l’heure du prochain tremblement de terre majeur à Tokyo, ou de la prochaine tornade dans une certaine commune de la Belgique ? Remarquons cependant que la tragédie du chaos est atténuée dans certaines classes de phénomènes par les mécanismes de rétroaction (ou de défense, comme on dit en biologie) et, le cas échéant, la possibilité d’exercer des actions dites de contrôle. La théorie du contrôle est une discipline mathématique qui est née et s’est considérablement développée au XXe siècle. Ses applications sont multiples. Pour rester dans l’ordre de la mécanique céleste, je citerai la navigation spatiale. Toujours par analogie, on peut interpréter le problème général de la gouvernance des sociétés humaines comme un problème de contrôle.

Après cette brève discussion de la non linéarité, je citerai encore plus succinctement une autre cause tout aussi essentielle de limitation à la capacité de prévoir. Du point de vue de l’esprit de géométrie, toute prévision est en effet attachée à une théorie . Nous venons de mentionner l’immense succès de la mécanique céleste fondée sur la théorie newtonienne de la gravitation, et l’on comprend que certains penseurs, parmi les plus éminents, aient pu se laisser griser par d’aussi admirables prouesses. Avec les lois établissant l’identité de l’électromagnétisme et de la lumière, synthétisés en 1864 par James C. Maxwell dans les quatre équations d’une esthétique sublime, qui portent son nom, on avait pu croire le temple de la physique achevé . Mais la science est une tour de Babel. Le sommet n’en est jamais atteint et l’orgueil qu’elle suscite est passible de punition. L’histoire de la théorie de la relativité et celle de la mécanique quantique illustre ces deux aspects.

Passons maintenant plus explicitement aux sciences morales et politiques avec l’exemple de l’économie. En pratique, cette discipline se laisse couramment diviser en deux grandes branches bien que ce soit contestable au niveau le plus fondamental de la réflexion : la microéconomie et la macroéconomie.

La première, dont l’un des sommets les plus élevés est la théorie des jeux, élabore des modèles abstraits d’interactions entre des agents considérés comme des décideurs individuels, représentés par des sortes de robots (producteurs identifiés à leur “fonction de production”, consommateurs à leur “fonction d’utilité”). On en déduit des enseignements pertinents pour le fonctionnement des économies réelles, par exemple pour comprendre la loi de l’offre et de la demande ou pour “démontrer” la supériorité des économies de marché sur les économies à planification centralisée, une question fort sensible à l’époque de la guerre froide ; ou encore pour analyser les avantages de l’ouverture des frontières et du commerce international et à l’inverse, les inconvénients du protectionnisme.

La macroéconomie raisonne sur des catégories agrégées d’agents (par exemple, ménages, entreprises, institutions financières, administrations) et se concentre sur un petit nombre de questions importantes pour la politique économique des Etats et des institutions interétatiques, comme la croissance et donc le progrès technique, l’emploi, la distribution des revenus, l’inflation ou l’équilibre de la balance des paiements. En théorie économique, la robotisation s’étend jusqu’à la manière dont on représente – fort géométriquement et souvent fort élégamment – la notion de prévision, typiquement dans le modèle des “anticipations rationnelles”. La comptabilité nationale s’est développée pendant le second XXe siècle pour permettre à l’économie de se rapprocher des sciences expérimentales.

L’économétrie est la branche de la statistique mathématique adaptée à la confrontation des modèles avec des bases de données. Un aspect particulier de l’économétrie est dévolu à la question de la prévision dans ce contexte. Je me bornerai à ce sujet à remarquer que l’on ne doit pas confondre deux sources d’incertitude. L’une revient à la notion proprement statistique d’intervalle de confiance, dans le cadre d’un modèle supposé exact et utilisant des données supposées parfaitement fiables, ou entachées d’erreurs probabilisables. L’autre, beaucoup plus fondamentale et trop généralement ignorée, est le degré de pertinence du modèle lui-même, et ne se laisse pas cerner en termes de probabilités. L’analyse et la prévision dans le cadre d’un modèle donné est affaire de géométrie. Le choix d’un “bon” modèle est affaire de finesse. Et tant il est vrai, comme on l’a vu, qu’ « il est rare que les géomètres soient fins et que les fins soient géomètres », l’économétrie n’a pas porté les fruits qu’en attendaient même de grands esprits comme Paul Samuelson (1915 – 2009), le plus célèbre des économistes du XXe siècle après Keynes. Comme bien d’autres en effet, Samuelson avait pendant un temps cédé à l’illusion de croire que grâce aux progrès de la macroéconomie et de l’économétrie, la précision de la prévision en économie approcherait celle de la mécanique céleste et que l’on pourrait ainsi élaborer et mettre en œuvre des politiques économiques quasi-parfaites (croissance et plein emploi sans inflation ni déséquilibre des paiements etc.). Je peux témoigner d’une conversation avec lui sur ce sujet dans les années 80. Et s’il n’y avait eu cette croyance dans le troisième quart du XXe siècle, il est peu probable que le prix Nobel d’économie eut jamais été créé. Plus récemment, après les succès initiaux de la mondialisation et la chute du système soviétique, et donc l’échec du socialisme prétendument scientifique, le monde a été temporairement submergé par une variante opposée de la même idéologie, celle de la fin de l’Histoire. Tout cela s’est effondré avec la crise de 2008 et le retour du spectre des années 30 du siècle passé.

Dans sa monumentale History of Economic Analysis, publiée en 1954 après sa mort, Joseph A. Schumpeter (1883-1950), dont la gloire a été injustement supplantée par celle de son contemporain John Maynard Keynes, classe les méthodes de sa discipline en trois catégories principales : l’histoire, la statistique et la théorie (il en a, ultérieurement, rajouté une quatrième : la sociologie économique). L’histoire économique est, pour Schumpeter, la catégorie essentielle, pour trois raisons. Premièrement, la matière de l’économie est un processus historique unique. Il faut à la fois connaître les faits relatifs au passé et posséder ce que l’auteur appelle un « sens de l’histoire ». Deuxièmement, la connaissance de l’histoire économique est la meilleure approche pour saisir l’interaction des phénomènes économiques avec les autres phénomènes sociaux. Enfin, notre auteur attribue la plupart des erreurs importantes commises par les économistes au manque d’ « expérience historique ». Plus généralement, toute connaissance procède essentiellement de comparaisons dans le temps (analyse diachronique) et dans l’espace (analyse synchronique). Dans un important ouvrage publié en 2009 , Carmen Reinhart et Kenneth Rogoff étudient systématiquement des centaines de crises financières ayant affecté 66 pays à travers cinq continents, au cours de huit siècles. Malgré les controverses statistiques que leur étude a suscitées, leur conclusion paraît sans appel : « L’accumulation excessive de dettes, que ce soit par les gouvernements, les banques, les entreprises ou les consommateurs, créé souvent un risque systémique plus grand qu’il ne paraît pendant une phase d’expansion […] De telles accumulations à grande échelle engendrent des risques parce qu’elles rendent l’économie vulnérable aux crises de confiance, en particulier quand la dette est à court terme et doit être constamment refinancée. » Il y a dans ce propos un point essentiel pour la notion de prévision. Reinhart et Rogoff dénoncent les dangers d’un endettement excessif, mais il faut se garder de définir des seuils précis. Ils disent en substance qu’une crise de confiance a toutes les chances de se produire, à partir d’un incident quelconque sans qu’on puisse relier cette prévision à un niveau précis de l’endettement en question.

On retrouve ainsi la notion de non-linéarité. Mais, de même que l’on connaît les failles le long desquelles peuvent se produire des tremblements de terre, de même on sait que les pays lourdement endettés sont menacés par des crises de confiance. Contrairement à l’exemple géologique, nous sommes ici dans une situation que l’on pourrait prévenir. En l’occurrence, avant 2008, les économistes n’ont globalement pas joué leur rôle, les plus audibles étant restés enfermés dans des doctrines (monétarisme ou keynésianisme) insuffisamment sensibles à l’expérience historique. Et les voix qui ont pu tirer la sonnette d’alarme n’étaient pas suffisamment libres ou influentes pour l’emporter sur la préférence générale des politiques pour la facilité et le court termisme. La crise de 2008, amplifiée en raison de la généralité du phénomène de l’endettement, illustre à la perfection le premier point de Schumpeter, où il est clair qu’il s’agit bien davantage d’esprit de finesse que d’esprit de géométrie.

En seconde position, Schumpeter cite “la statistique”, c’est-à-dire la constitution de bases de données relatives aux principaux phénomènes économiques. Je n’insiste pas sur ce sujet. La plupart des pays, en particulier les plus grands, ont créé divers instituts à cet effet.

En troisième lieu, la théorie. En économie, comme dans d’autres domaines, le mot “théorie” a deux acceptations pertinentes. Pour l’une, il s’agit des « hypothèses explicatives » familières aux historiens (Pirenne, Braudel etc.). Comme le remarque Schumpeter, l’historien le plus attaché aux faits n’évite pas de formuler de telles hypothèses, de même que le statisticien structure généralement ses données à partir d’une base conceptuelle plus ou moins explicitée . La deuxième acceptation est plus riche : la théorie économique est conçue comme un ensemble de modèles, logiquement cohérents et suggérés par des « faits » plus ou moins stylisés, quoique – avec ou sans appel à l’économétrie – le lien entre le modèle et les faits soit en règle générale infiniment plus lâche que dans le cas des sciences de la nature. Ainsi, naguère encore, tous les étudiants en économie étaient-ils principalement exposés au “modèle classique”, au “modèle keynésien” ou encore à la “synthèse néo-classique” . Aucun de ces modèles, qui visent à comparer les mérites respectifs ou conjoints des politiques monétaires et budgétaires , n’incluait l’endettement dans ses équations. Ils restent encore fort utiles pour réfléchir à la politique économique, toute la difficulté pour l’utilisateur étant de manier finement ces êtres géométriques. Schumpeter dénonçait vigoureusement les dangers des applications “irresponsables” de la théorie aux problèmes pratiques. On en revient à l’importance de l’histoire et de l’expérience – comme celle des Banques Centrales ou d’une institution comme le Fonds Monétaire International – et à la nécessité de débats structurés. Ce dernier point est capital car, dans un pays comme la France où l’idéologie prime sur la culture dans le domaine économique, l’opinion publique a tendance à percevoir les économistes ayant pignon sur rue comme les médecins de Molière qui dissimulent leur ignorance derrière un vocabulaire abscons et s’acharnent à se contredire les uns les autres, alors qu’ils devraient s’imposer de mettre en lumière les zones d’accord et de relativiser les points de divergence.

J’en arrive enfin à un domaine où je serais tenté de transposer une formule célèbre et d’afficher : « Que nul n’y entre s’il n’a l’esprit de finesse ». Il s’agit du politique, la res publica, c’est-à-dire la chose publique, ce qui concerne les unités actives en tant que telles – particulièrement celles qui se considèrent souveraines, c’est-à-dire les unités politiques – ainsi que les systèmes d’unités actives (en particulier les “relations internationales”).

Comme dans tous les domaines, l’analyse et la prévision [ou prédiction] s’effectuent ici à différentes échelles. A l’échelle macroscopique, on considère des unités actives, voire des systèmes d’unités actives, comme des touts, que l’on peut caractériser au moyen d’un petit nombre de critères. Pour un Etat, il s’agira par exemple des données géographiques et démographiques de base (y compris ethniques), ou plus généralement des facteurs de puissance ou de faiblesse , ou encore de la nature du régime politique. Pour une alliance militaire (ex. : le traité de sécurité mutuelle entre les Etats-Unis et le Japon) ou pour un cartel (ex. : l’OPEP), il s’agira de son objet, de son histoire et de son environnement, de sa composition et de son organisation. Avec un bon choix de critères (c’est là que la finesse commence à intervenir), on peut déjà formuler des prévisions/prédictions sérieuses. Ainsi sait-on que tout régime autoritaire ou a fortiori totalitaire finit par disparaitre, que “tout empire périra” (titre d’un livre de J.B. Duroselle ), ou que tout cartel est instable et donc susceptible de se désintégrer. La théorie élémentaire des jeux éclaire bien ce genre des questions. Encore faut-il pousser l’analyse un cran plus loin, ce qui requiert un surcroit de finesse. Comment caractériser le régime algérien sous le quatrième mandat du président Bouteflika ? Qu’est-ce qu’un empire ? Faut-il considérer l’Union soviétique d’autrefois ou la République Populaire de Chine d’aujourd’hui comme des empires ? Comment préciser les fragilités de la Russie postsoviétique ? Quel est le rapport des forces au sein de l’OPEP, et comment juger les influences extérieures qui s’exercent sur cette organisation ? La réponse à ce genre de questions ne saurait résulter directement d’une collecte de données, comme pour un expérimentateur ou un ingénieur face à une réaction chimique.

C’est tout l’art du jugement, ou de l’intuition, qui n’a à mon avis qu’un lointain rapport avec la distinction « Thinking, fast and slow » du psychologue et prix Nobel (d’économie !) Daniel Kahneman, ou avec le point de vue de notre défunt confrère Raymond Boudon selon lequel l’intuition n’est que de la rationalité compressée. Je ne crois pas que l’on puisse comparer l’analyste s’interrogeant en 1980 sur la survie de l’Union soviétique et le capitaine de pompiers ordonnant à ses hommes d’évacuer le plancher d’une maison en flammes quelques secondes avant qu’il ne s’écroule. Dans le premier cas, il s’agit d’une situation historique particulière et donc unique. Le fait est qu’aucun analyste de renom, pas même Raymond Aron (cf. son livre « Les dernières années du siècle »), n’avait osé formuler l’hypothèse d’un écroulement rapide de l’URSS. Dans le second cas, on a affaire à une situation répétitive, où donc les reflexes peuvent s’éduquer, certes avec plus ou moins de bonheur selon les sujets. Ces deux cas sont entre eux comme la stratégie et la tactique.

Le point essentiel derrière cette discussion est le facteur temps. Une chose est de prévoir ou de prédire l’écroulement d’une dictature (Ben Ali, Assad…) ou d’un empire (avec la chute de l’URSS, il y a en fait deux phénomènes, la décomposition d’un régime et, effectivement, celle d’un empire). Sous couvert d’une affirmation particulière, on ne fait en réalité que formuler un syllogisme : tout empire finit par s’écrouler ; or l’URSS est un empire ; donc l’URSS finira par s’écrouler. Pour que la prévision/prédiction soit bonne, il suffit d’avoir correctement qualifié le sujet (l’URSS dans cet exemple). Toute autre chose est la datation de l’événement ou des événements ainsi annoncés. Nous sommes ici dans une situation très différente de la physique, même si la décomposition des éléments radioactifs, par exemple, ne peut individuellement s’analyser qu’en termes probabilistes, au sens précis de la théorie mathématique des probabilités. Dans ce type de situations la loi des grands nombres, l’un des résultats les plus fondamentaux de la théorie des probabilités, permet de convertir des probabilités à l’échelle microscopique en certitudes à l’échelle macroscopique. Affirmer en 1980 que l’Union soviétique était condamnée à périr n’avait aucune portée pratique, si l’on était incapable de préciser, au moins en termes subjectifs, la probabilité (et les modalités !) de cette mort à un horizon rapproché (par exemple, avant la fin du siècle). C’est pourquoi les événements de 1989-1991 (de la “chute du mur” à la dissolution de l’URSS) sont un parfait exemple de ce que, dans son livre sympathiquement provoquant sur “la puissance de l’imprévisibilité”, Nassim Nicholas Taleb appelle un “cygne noir”, c’est-à-dire un événement de grande portée que l’on n’avait pas imaginé ou que l’on avait considéré comme pratiquement impossible.

Cela dit, même s’agissant d’événements comme la chute d’un régime dictatorial ou totalitaire, il peut être possible dans certaines conditions, en changeant légèrement d’échelle, de réduire le degré d’incertitude. Au moins depuis Paul Valéry, on sait combien il faut se méfier des “leçons de l’histoire”. Le moindre des charmes de cette discipline n’est pourtant pas qu’en offrant une multitude d’études de cas, elle rend possible, entre des mains habiles, la formulation de “lois”, qu’il ne faut certes pas confondre avec celles de la nature, mais qui peuvent utilement guider des analystes suffisamment fins.

On peut en formuler de nombreuses et j’en ai déjà donné des exemples. J’en ajouterai trois autres. J’appelle le premier “paradoxe de Tocqueville”. D’un côté, on peut affirmer que tout régime sclérosé ne peut éviter la mort brutale que par des réformes ; de l’autre, il n’est jamais aussi vulnérable qu’au moment où il les entreprend. Tocqueville a formulé cette loi dans le contexte des révolutions européennes de 1848, mais son caractère a une portée universelle. Son corollaire est qu’il faut réformer en position de force et non de faiblesse, ce qu’avaient compris Bismarck ou Deng Xiaoping. Certainement pas Gorbatchev. Reste, pour l’analyste ou le prévisioniste, à bien appréhender la situation d’un régime face aux réformes (quid, par exemple, de l’avenir de la Birmanie ou a fortiori de la Corée du Nord ?). On n’échappe d’autant moins à l’impératif catégorique de la finesse que l’esprit renâcle à faire évoluer ses propres structures (mind set) et à saisir en temps réel le changement de son environnement, ce qui évidemment biaise le jugement ou même le paralyse. Un esprit qui serait suffisamment souple pour s’adapter immédiatement aux méandres de son environnement utile, en captant et en interprétant correctement un minimum de “signaux faibles”, serait moins démuni devant les cygnes noirs. Comme – sans doute pour des raisons psychologiques et même vraisemblablement biologiques profondes – rares sont les personnes suffisamment flexibles et sensibles, celles qui le sont courent le risque de l’isolement.

La deuxième “loi”, également due à Tocqueville (dans le cadre de son étude sur “l’ancien régime et la révolution”), stipule qu’après une révolution, les nouvelles élites tendent à imiter celles qui ont été chassées.

La troisième pourrait s’énoncer : ce sont toujours les mêmes qui sont du bon côté. L’histoire de la révolution française par exemple montre que les plus habiles, comme Talleyrand ou Fouché, se retrouvent toujours du côté du pouvoir, même à travers les circonstances les plus dramatiques. La barre de survie, si l’on peut dire, est beaucoup moins haute quand un régime ne sombre pas dans la décomposition violente, mais sous l’effet de révolutions pacifiques, ce qui fut le cas de la plupart des pays communistes dans ce qu’on appelait autrefois “l’Europe de l’Est”, et naturellement des Etats issus du démembrement de l’Union soviétique. De ce point de vue, seuls les naïfs peuvent s’étonner du rôle que les anciens communistes jouent encore dans des pays devenus membres de l’Union européenne comme la Bulgarie ou la Roumanie, ou naturellement la Russie et même l’Ukraine, sans parler des républiques de l’Asie centrale.

La deuxième et la troisième “lois” conduisent à rappeler que l’on a toujours tendance à surestimer les changements à court terme, et donc l’incidence d’événements d’autant plus considérés sur le moment comme des ruptures que l’on en a été surpris, alors qu’avec un peu de recul ils ne sont que des fluctuations. En ce sens beaucoup de cygnes noirs sont peut être plus gris qu’on ne le pense. A l’inverse, on a non moins tendance à sous-estimer les changements à long terme, alors même qu’ils s’effectuent en douceur et sans rupture apparente (mutation lente). Ces biais s’expliquent sans doute par des épisodes de stress ou d’affolement qui, dans un cas, accompagnent la mise en lumière de situations non viables ou, dans un autre, par la dédramatisation des adaptations bien engagées.

En commençant ce développement sur l’analyse et la prévision dans le domaine du politique, j’ai souligné l’importance de la notion d’échelle. Partant d’un point de vue macroscopique, nous avons subrepticement glissé de la vision télescopique vers la vision microscopique. Quand on dit que tout empire périra – ou d’ailleurs quand on énonce d’autres vérités basiques comme la tendance pour les populations des pays pauvres à émigrer vers les pays voisins plus riches – point n’est besoin typiquement d’invoquer le rôle de personnalités individuelles. Mais quand il s’agit de dater, les détails comptent. On en revient toujours à l’histoire du nez de Cléopâtre. Ainsi, les circonstances particulières de la chute de l’Union soviétique mettent en scène des personnes en chair et en os, mais aussi en esprit, comme Gorbatchev ou Eltsine et bien d’autres moins célèbres. L’analyse sur le vif des circonstances susceptibles de provoquer à court terme de vraies ou fausses bifurcations et les prévisions qui en découlent, supposent un degré de finesse beaucoup plus élevé que les syllogismes du plan macroscopique. Or le niveau d’analyse n’est jamais suffisamment petit. Il faut toujours aller voir de plus près, et chaque niveau a son potentiel de cygnes noirs, comme la tentative avortée de coup d’Etat contre Gorbatchev en août 1991. Nous sommes là très proches de l’idée de non linéarité. Mais plus on travaille à l’échelle microscopique, moins les renseignements nécessaires à l’analyse concrète sont aisément disponibles. Dans l’Egypte immédiatement post-Moubarak, par exemple, il était facile de pronostiquer d’emblée que le nouvel équilibre dépendrait principalement du rapport entre l’armée et les frères musulmans, les manifestants initiaux de la place Tahrir ne jouant qu’un rôle transitoire. Un observateur non biaisé par l’idéologie (et par conséquent dont l’esprit n’était pas encombré par un “modèle” erroné) ne prenait pas grand risque en prévoyant que l’armée avait davantage de chances de sortir gagnante. Mais interpréter en temps réel, en août 2012, l’annonce par le président Morsi de la mise à l’écart du vieux maréchal Tantaoui et de quelques autres haut-gradés au profit d’un certain général El Sissi plutôt bien vu des islamistes, n’avait rien d’évident, même pour un esprit très fin, mais extérieur à la sphère d’El Sissi. Avec les échecs du régime dans les mois qui ont suivi, la prévision est devenue plus aisée. On en arrive ainsi à une conclusion essentielle : dans le domaine du politique (res publica, chose publique), les prévisions macroscopiques sont relativement faciles mais peu opératoires en raison de la difficulté voire l’impossibilité de leur donner une forme précise et surtout de les dater ; les prévisions microscopiques, susceptibles d’avoir un caractère opératoire, sont difficiles car elles requièrent à la fois de l’information non triviale et un haut degré de finesse. Et il faut répéter que l’information n’a de sens que par rapport à un modèle implicite ou explicite.

On remarquera que, du point de vue des principes fondamentaux, l’activité d’analyse et de prévision dans les sciences morales et politiques s’apparente au travail scientifique. Je pense par exemple à l’économie où, comme je l’ai déjà dit, la tendance n’est plus – comme chez le Keynes de la théorie générale de l’emploi, de l’intérêt et de la monnaie ou chez les théoriciens de l’équilibre et de l’optimum – à la recherche d’une grande théorie unificatrice, mais à la constitution et l’utilisation de petits modèles où l’intuition et le “jugement”, donc la finesse, jouent le rôle prépondérant. Beaucoup d’erreurs de prévision sont la conséquence de cadres analytiques, ou de modèles, mal conçus (et insuffisamment imaginatifs), décalés par rapport à l’évolution de l’environnement (syndrome de la ligne Maginot) et insuffisamment documentés. Et dans tout modèle bien conçu (explicitement ou implicitement), il devrait y avoir place pour les cygnes noirs ! A cet égard, il est vraisemblable que l’évolution des technologies de l’information fera émerger des méthodes nouvelles susceptibles dans certains cas de suppléer l’intuition. La capacité technique de traiter rapidement d’immenses quantités de données (Big Data) ouvre d’ores et déjà la possibilité d’identifier à l’avance des événements possibles sinon probables (une manifestation “spontanée” contre telle ou telle cible par exemple), auxquels personne n’aurait eu de raison de songer, événements qui n’auraient aucune place dans un banal modèle probabiliste. Ce qui est en cause en effet, c’est la conception du modèle, et non pas, comme le prétend l’auteur du “Cygne noir”, la loi de Gauss en tant que telle. Or l’imagination des gens “normaux” et leur capacité de remettre en question leurs schémas mentaux (mindsets) sont d’autant plus bornées qu’ils doivent résister en permanence contre le bruit de fond des informations erratiques plus ou moins intentionnées qui circulent notamment à travers les médias (y compris sociaux !), en particulier les rumeurs dont les effets peuvent être désastreux. On peut penser par exemple au stress des marchés financiers dans certains épisodes de la saga de la crise de l’euro, ou plus exactement de la crise de la gouvernance de l’euro. Aucune prévision sérieuse ne peut résulter de pareille soupe, sauf peut être pour les rares esprits suffisamment fins pour filtrer instinctivement ce qui va corroborer ou au contraire infirmer un modèle pertinent et non moins intuitif.

Insistons aussi sur le fait que, dans tous les cas où elles sont conçues pour être utiles, l’analyse et la prévision sont organisées comme des outils praxéologiques, donc en vue de la prescription, ceci dans le cadre d’objectifs tactiques ou stratégiques. En remontant la chaîne, on voit qu’il faut partir de ces objectifs (ceux d’un Etat ou plutôt de telle ou telle partie d’un Etat, d’une entreprise, d’un think tank et plus généralement d’une unité active) pour cadrer toute activité d’analyse et de prévision : à qui s’adresse-t-on, à quelle fin etc.…

Je reviens pour terminer sur le concept le plus large du politique, de chose publique, qui concerne au sens large toutes les unités actives. Ici encore, l’échelle d’observation importe.

La plupart des unités actives peuvent s’analyser comme des systèmes de sous-unités actives et ainsi de suite, un peu comme en physique un atome se résout en électrons et nucléons (protons et neutrons), ces derniers se composant de quarks, toutes ces particules interagissant grâce à la médiation d’autres particules appelées bosons. A un premier niveau, l’analyse peut et à vrai dire doit s’effectuer avec l’esprit de géométrie. Ainsi, dans tout Etat, peut-on distinguer le système des trois branches de gouvernement (exécutif, législatif et judiciaire), chacune de ces branches constituant un sous-système d’unités actives et ainsi de suite. La “science politique” se fixe parmi ses tâches d’identifier, de décrire et d’analyser ces enchevêtrements de systèmes, pour les unités politiques, et d’élaborer des concepts et des modèles platoniciens pour tenter d’en saisir la structure, c’est-à-dire l’essence ou les invariants. La “science du management” procède de même pour le monde des entreprises, la “criminologie” pour celui des unités actives criminelles etc. Ainsi parvient-on à construire intellectuellement une géométrie du politique dont l’utilité pratique est trop évidente pour qu’il soit nécessaire de s’y attarder.

Mais à s’en tenir à ce type d’analyses, on s’interdirait d’expliquer ou même de voir comment le cardinal de Richelieu a survécu à la “journée des dupes” le 11 novembre 1630, ce qui a eu une importance déterminante sur le cours de l’Histoire de la France, comment Robespierre est tombé ou au contraire le coup d’Etat du 18 Brumaire a réussi, et tant d’autres grandes ou petites histoires décisives des Etats mais aussi du monde des entreprises ou de la pègre, qui furent ou sont autant de cygnes noirs ou de bifurcations dans la chaîne des événements. Si d’ailleurs, après la mode du marxisme ou l’époque de l’Ecole des Annales, en France, on a retrouvé le goût de la biographie, c’est peut être en raison du besoin de comprendre les singularités et pourquoi l’Histoire (au sens large) n’est pas déterministe, alors que l’illusion du déterminisme rétrospectif est l’un des biais les plus naturels de l’esprit. A la limite, certains phénomènes microscopiques même les plus marquants de l’Histoire ou plus généralement de toute histoire ne pourraient avoir été anticipés qu’en ayant été capable de “modéliser” par un labeur guidé par l’intuition le fonctionnement cérébral de telle ou telle personne physique, ou, plus difficile encore, l’interaction entre quelques cerveaux exceptionnels. Pareil fonctionnement, ou pareilles interactions, sont éminemment inscrits dans une durée bergsonienne concrète, certes parfois très courte, et ne se laissent donc pas saisir à travers des représentations “cinématographiques” toujours pour parler comme Bergson. Celles-ci travestissent la notion de durée, dont elles effacent l’essentiel, c’est-à-dire la création. Tout juste peut-on tenter de reconstituer ces événements uniques a posteriori, comme peuvent le faire des historiens ou parfois des romanciers pourvus d’une intuition hors normes. Je m’appuierai à cet égard sur Stefan Zweig, qui fut toujours fasciné par les performances extrêmes des forces de l’esprit. Ce n’est pas sans raison que cet auteur, frappé par des remarques de Balzac, avait choisi d’écrire une biographie de Joseph Fouché, présentée « comme utile et très actuelle [son ouvrage date de 1929] contribution à la psychologie de l’homme politique », ou encore « comme une contribution à une étude biologique encore inexistante et pourtant très nécessaire, du diplomate, de cette race d’esprit qui n’a pas encore été complètement examinée et qui est la plus redoutable de notre univers ». Zweig va même jusqu’à écrire de ce grand criminel (je me réfère bien sûr à Chateaubriand, décrivant Talleyrand appuyé sur le bras de Fouché : “le vice appuyé sur le crime”) qu’il fut « le plus remarquable de tous les hommes politiques ».

Voilà le grand mot lâché : homme politique. Quand on regarde “la politique” avec un grossissement de plus en plus fort (comme on parle du grossissement d’une loupe ou d’un microscope), on constate que l’approche “géométrique” échoue à représenter les phénomènes – humains pour ce qui nous concerne ici – à la racine des bifurcations et autres cygnes noirs. Voir par exemple le cas des attentats du 11 septembre 2001. Il faut affronter ce fait, et compléter la définition générale du politique (au masculin) comme domaine de la chose publique par une autre, d’un autre ordre, et qui vise à capter l’essence de l’homo politicus : la politique (au féminin) et, à travers la réalité vécue dans la durée bergsonienne de la chose publique, tout ce qui n’est pas d’ordre géométrique. Cela vaut au niveau d’un Etat ou de toute subdivision d’un Etat, d’une entreprise etc. Pour toute unité active, les circonstances permettent à certaines personnes physiques d’exercer une influence ou un pouvoir critique à certains moments, au-delà de toute réalité juridique ou fonctionnelle. On trouve dans cette catégorie les personnages les plus remarquables de l’Histoire, mais aussi du monde de l’entreprise ou de la finance, de la religion, de la criminalité (car ce dont nous parlons ne relève pas du bien ou du mal)… Tous ces personnages ont en commun une capacité unique de voir et d’anticiper des situations complexes, c’est-à-dire échappant à l’esprit de géométrie. Ils ont la capacité de “changer le monde”. Balzac écrivait à propos de Fouché : « Cet homme au pâle visage élevé dans les dissimulations monastiques […] avait lentement et silencieusement étudié les hommes, les choses, les intérêts de la scène politique ». Il nous est présenté comme un animal au sang froid, pourvu en toute circonstance d’un masque impénétrable, dépourvu de tout sens de culpabilité, d’une amoralité absolue, doté d’une intuition extraordinaire des situations et de leur devenir, et qui en conséquence ménage ses positions pour toujours finir par tomber du bon côté, c’est-à-dire de la majorité, quelle qu’elle soit.

Au niveau de grossissement le plus fort qui nous soit accessible au sein d’une unité active particulière, on peut reconnaître de rares hommes ou femmes politiques qui sont avec les autres dans des relations profondément asymétriques, dont l’art est tout en finesse, et dont la compréhension par les “géomètres” peut être difficile sinon impossible en temps réel. Balzac célébrait en Fouché « l’un de ces personnages qui ont tant de faces et tant de profondeur sous chaque face, qu’ils sont impénétrables au moment où ils jouent et qu’ils ne peuvent être expliqués que longtemps après la partie ». En ce sens, les grands hommes politiques – bénéfiques ou maléfiques – sont comme les grands artistes ou les grands découvreurs : ils sont uniques, et donc imprévisibles, sauf peut être pour des observateurs dont la finesse confinerait à la voyance, en leur donnant accès à des niveaux de “réalité” au-delà de ce que nous appelons ordinairement le “réel”. Il n’y a pas que le nez de Cléopâtre qui puisse changer la face du monde. Voilà pourquoi on doit toujours se préparer psychologiquement et donc pratiquement à l’émergence possible de cygnes noirs – mais aussi des cygnes blancs – et s’il faut se garder de tout attendre de l’esprit de finesse, il est encore moins sage de s’en remettre exclusivement à l’esprit de géométrie, ce qui n’empêche nullement d’admirer ses œuvres, jusques et y compris dans les sciences morales et politiques.