mercredi 15 mai 2013

Illusions mathématiques et budget de défense-par Raphaël Storez


Alors que les commentaires sur l’apocalypse budgétaire qui menace la Défense française fleurissaient sur la Toile et dans la presse, la quasi-unanimité des groupes politiques du Sénat lançait le 14 mars un appel au Président de la République, chef des Armées, pour qu’il maintienne l’effort de Défense de notre pays à son niveau actuel. Ils ont fait en quelque sorte écho au sondage IPSOS effectué les 25 et 26 janvier 2013 qui révélait que deux Français sur trois estiment que le budget de la Défense devrait être maintenu voire augmenté.

Pourtant, certains doutes subsistent dans l’esprit du public : les forces armées sont certes engagées en permanence pour garantir les intérêts de la France sur son territoire et dans le monde, mais ces engagements ne paraissent pas excéder les capacités maintenues au sein de la Défense.

D’autres secteurs que la Défense sont concernés par la problématique d’optimisation des ressources par rapport aux risques encourus : il en va ainsi de la finance, ou des assurances. Les conclusions tirées des expériences dans ces secteurs pourraient, dans une logique de « benchmarking », nous aider à lever le doute sur l’opportunité de réduire le financement de nos capacités.

Or, si l’on en croit les leçons durement apprises dans le secteur financier, il s’avère que la modélisation des risques est un problème clé, et que les illusions mathématiques opérées par la moyenne arithmétique sont sources de cataclysmes. De fait, les événements extrêmes ont une telle importance qu’ils sont des éléments incontournables à prendre en compte dans l’évaluation des efforts à consentir. On aurait donc tort d’imaginer qu’une baisse des budgets à la Défense ne soit pas en définitive plus lourde à payer que son maintien au juste niveau.

Comme l’explique parfaitement Philippe Herlin dans ses ouvrages sur le sujet, la loi normale ou loi de Gauss fut jusqu’à la crise financière de 2008 la base des modèles établis par des théoriciens de l’économie tels que Markovitz, Fama, Black et Scholes pour représenter les fluctuations de phénomènes financiers. Cette loi est très connue pour la forme caractéristique de sa courbe en forme de cloche, son sommet matérialisant la moyenne arithmétique. Ainsi les tailles d’une population, la dispersion des projectiles balistiques suivent une telle loi.

Mais des hypothèses doivent être établies pour que cette loi soit valide : d’abord que les occurrences soient indépendantes entre elles, ensuite qu’elles soient identiquement distribuées, comme les lancers d’un dé, ou le choix aléatoire d’un individu dans une population. Dès 1962, Benoît Mandelbrot montrait que la loi normale sous-estimait l’importance des phénomènes extrêmes par rapport à la moyenne. L’arrivée de l’informatique a permis de confirmer cette déficience, qui a été corrigée aux limites par l’ajout d’un coefficient multiplicateur empirique censé pallier le problème. Pourtant, LTCM, le hedge fund géant conçu par Merton et Scholes selon le modèle de la loi de Gauss « modifiée », sombrait dans une faillite retentissante de 10 milliards de dollars en 1998 et forçait la communauté financière à conjurer un risque systémique estimé à 100 milliards de dollars. Merton et Scholes avait pourtant reçu un an auparavant le prix dit « Nobel d’économie » pour leur modèle innovant.

Ce n’était que le prélude des secousses à répétition d’un séisme financier dont nous supportons les conséquences aujourd’hui, étant donné la généralisation du modèle à l’ensemble des acteurs financiers, régulateurs compris. Les financiers américains se disaient en 2008 victimes « d’événements jamais vus qui ne pouvaient pas arriver » (Stiglitz). Ils ne le pouvaient pas, d’après le modèle. En réalité, celui-ci souffrait de la déficience de ses hypothèses. Non seulement les marchés n’étaient pas efficients ni les acteurs économiques rationnels, mais les occurrences n’étaient pas indépendantes : « aujourd’hui influence effectivement demain » selon le mot de Mandelbrot.

Pour illustrer les découvertes de Mandelbrot et comprendre le problème tel qu’il est, il faut se détourner de la loi normale de Gauss pour adopter les lois de puissance (ou lois de Zipf), plus complexes, mais beaucoup plus à même de modéliser la réalité. Ces lois sont représentées par des hyperboles, et gouvernent la distribution de nombre de phénomènes comme la distribution des revenus dans la population, la fréquence des mots dans un texte. Une des vulgarisations les plus connues est le principe de Pareto ou « loi des 80/20 », que les managers connaissent tous : 20 % de leurs problèmes consomment 80 % de leur attention, 20 % de leurs produits fournissent 80 % de leur chiffre d’affaire, etc.

Les conséquences sont multiples : non seulement la moyenne perd toute signification mais surtout les événements extrêmes revêtent bien plus d’importance, modifiant ainsi la perception des risques. Ainsi, fort logiquement les services publics préparent tous les ans l’application du plan Neptune en région parisienne en cas de crue centennale de la Seine, afin de limiter les dégâts et protéger les populations. Le coût de l’inondation moyenne, la plus probable, est incomparablement plus faible que celui d’un événement extrême comme celui de 1910. On voit que le paradigme est différent : on prépare le plus dangereux, qui n’est que plausible, et non le plus probable.

Toute la difficulté des phénomènes régis par des lois de Mandelbrot, dont les lois de Zipf ne sont que des cas particuliers, consiste à déterminer les paramètres de la courbe. Une infime variation de ceux-ci amène des écarts considérables, ce qui oblige le plus souvent à recourir à l’empirisme, en étudiant avec attention les conditions aux limites. Autrement dit, il suffirait d’étudier le cas le plus probable et celui le plus coûteux pour déduire un risque optimum, qui permette de maximiser le gain (ou minimiser le coût). Les assurances ne procèdent pas autrement, et se fondent sur l’historique annuellement actualisé des sinistres extrêmes qu’elles ont dû couvrir pour calculer les primes annuelles que leur verseront leurs clients, et ainsi, rester solvable.

Pour ce qui concerne la Défense, ces expériences ne sont pas sans intérêt. Les armées couvrent un risque : celui de conflit portant atteinte aux intérêts du pays. Même si le caractère probabiliste de la distribution des conflits dans le temps n’est pas démontré, il existe trop de facteurs internes et externes aux nations et organisations internationales pour que le caractère déterministe des situations de conflit d’intérêt soit établi. Au vu de la distribution des bilans humains et financiers des conflits de l’ère contemporaine, un modèle de Zipf paraît beaucoup plus adapté pour caractériser le phénomène de la conflictualité. Lorsque que l’on constate que les surcoûts moyens liés aux opérations extérieures sont de près d’un milliard d’euros annuels depuis 2000 et que 12 000 hommes en moyenne sont déployés à l’étranger chaque année, il vient immédiatement que se contenter d’un modèle d’armée adapté à ce besoin est dangereusement insuffisant.

La Défense n’étant rien d’autre que l’assurance du pays en charge de couvrir les risques sécuritaires, il paraît opportun de s’inspirer des heurs et malheurs de la finance pour garantir à la France que son assurance restera solvable. En particulier, il semble indispensable d’admettre que le plausible ne doit pas être écarté, surtout si ses conséquences sont redoutables, et qu’il doit constituer un paramètre déterminant de l’effort à consentir pour notre défense. Déterminer le plausible le plus dangereux reste toutefois très délicat : faut-il se fonder sur l’historique de notre pays et préparer une guerre de Cent Ans ou la 2ème Guerre mondiale ? Pas forcément, et c’est tout le caractère épineux des travaux de la Commission du Livre Blanc.

Il reste que l’aujourd’hui influence là encore fortement le lendemain : qu’arrivera-t-il lorsque la France ne sera plus capable de déployer annuellement en posture opérationnelle, sur le territoire national et surtout outre-mer et à l’étranger vingt à trente mille de ses hommes, comme elle le pouvait encore ces dix dernières années ? Végèce en avait une idée, lorsqu’il écrivait « qui veut la paix, prépare la guerre ». En l’occurrence, la guerre n’est pas le plus probable, mais l’événement extrême qui reste plausible, ce fameux « cygne noir », décrit par Nassim Taleb. Et son occurrence se fait à la fois plus probable et plus catastrophique dès leur que notre modèle le néglige.

En définitive, les illusions des moyennes arithmétiques et des modèles gaussiens ont gravement ruiné le secteur financier lorsque le risque s’est matérialisé. La pertinence des modèles de Mandelbrot a finalement été établie, bien tard, pour que les risques seulement plausibles soient mieux gérés.

Le demi-siècle de déclin des budgets de la Défense qui vient de s’écouler a vu les armées s’adapter au double défi des réformes internes structurelles et des rendez-vous opérationnels que l’actualité leur a fixés. Aujourd’hui, les armées gagnent les « petites » guerres que le chef des armées leur confie, tout en conduisant une restructuration d’une ampleur inégalée dans le secteur public,  et ce dans le contexte d’une diminution drastique de son budget. Quoique conscientes des contraintes pesant sur le budget de l’Etat, les armées se doivent cependant de ne pas cacher aux Français qu’elles ne sont aujourd’hui taillées que pour faire face à la conflictualité moyenne, la plus probable. Et qu’à moins de réévaluer la prime à verser par les Français, elles pourraient être dans la situation des entreprises avant la tourmente financière qui a emporté nombre d’entre elles, et conduit les contribuables à des sauvetages ruineux.

Le chef de bataillon Raphaël Storez est actuellement stagiaire à l’Ecole de guerre

Bibliographie :
Philippe Herlin, Finances, le nouveau paradigme, Eyrolles avril 2010 et Repenser l’économie, Eyrolles février 2012.
Benoît Mandelbrot, Une approche fractale des marchés, Odile Jacob 2005.