La Chronique Agora

Après les banques, les algorithmes : qui déclenchera la prochaine crise ? (1/2)

Alors que les banques centrales semblent avoir rendu impossibles les crises financières durables, une menace plus insidieuse grandit : celle de modèles mathématiques devenus trop complexes, de corrélations illusoires et d’algorithmes capables de provoquer des krachs sans cause économique.

On se demande de plus en plus si les crises durables sur les marchés financiers ne sont pas devenues impossibles.

D’une part, les krachs traditionnels ne durent jamais très longtemps, car les banques centrales et les budgets apportent des réponses rapides et relativement efficaces (même si souvent cela s’apparente plutôt à un simple achat de temps). D’autre part, le risque de crise systémique bancaire tel que nous l’avons connu entre 2008 et 2012 a considérablement reculé sous l’effet du renforcement des règles prudentielles (relatives à la solvabilité et à la liquidité des banques).

Mais ne faut-il pas craindre une crise incontrôlable avec l’utilisation de mathématiques devenues trop complexes pour les cerveaux humains ? L’intelligence biologique sera-t-elle alors en mesure de réguler l’intelligence artificielle ?

Il y a une cinquantaine d’années, la modélisation mathématique a fait irruption dans le monde de la finance, déclenchant une véritable révolution sur les marchés. Plus récemment, au cours de la décennie 2010, les mathématiques financières ont été au cœur d’une seconde mutation majeure : l’essor des transactions « à la vitesse de la lumière », réalisées par des robots nourris d’algorithmes sophistiqués — ce que l’on appelle aujourd’hui le trading algorithmique.

Revenons maintenant en détail sur ces deux révolutions.

La modélisation mathématique se généralise dans les années 1970

Il s’agissait alors de répondre au contexte des « 3 D » : désintermédiation, dérégulation et décloisonnement, ainsi qu’à l’apparition d’un phénomène nouveau, la volatilité.

Les taux de change deviennent en effet volatils depuis la fin de Bretton Woods, un certain 15 août 1971 – sans doute la date la plus déterminante de l’histoire monétaire contemporaine – lorsque le président américain Richard Nixon annonce la suppression totale de la convertibilité du dollar en or.

Les taux d’intérêt, eux aussi, sont devenus volatils avec la mise en place de politiques monétaires axées sur le contrôle strict de la masse monétaire (sous l’impulsion de Paul Volcker, à la tête de la Fed de 1979 à 1987) et avec la remise en cause de l’économie administrée en Europe continentale dans les années 1980 – on pense naturellement, en France, à la fin de l’encadrement du crédit en 1985.

Tout cela va rendre nécessaire la création de nouvelles techniques et de nouveaux produits financiers dits « dérivés », conçus pour couvrir les variations des taux de change et des taux d’intérêt. Les mathématiques vont alors permettre de mesurer les risques et d’évaluer le prix d’actifs financiers plus ou moins complexes, notamment des options, dont le caractère conditionnel exige un recours intensif au probabilisme.

Mais, au fil des années, la modélisation mathématique a révélé trois types d’insuffisances : premièrement, une limite conceptuelle ; deuxièmement, une illusion ; troisièmement, une utilisation déraisonnable.

Première limite : une modélisation qui sous-estime généralement les risques

En effet, les facteurs de risque – et notamment les mesures de pertes – sont encore trop souvent supposés suivre une loi statistique log-normale.

Or, cette hypothèse n’est jamais réellement vérifiée. Non seulement cette méthodologie ne permet pas de bien appréhender les actifs financiers dont le prix n’évolue pas de manière linéaire avec les facteurs de risque (notamment les produits optionnels), mais elle ignore également les risques extrêmes : par exemple, les pertes extrêmes censées prévoir des scénarios catastrophes dans 1 % des cas sont régulièrement sous-estimées.

Certes, les apports de Benoît Mandelbrot sur des sujets tels que la modélisation de la volatilité des actifs ont permis d’appréhender sous un angle nouveau les phénomènes de crises et de contagion.

En 1997, le mathématicien polono-franco-américain propose de nouvelles modélisations intégrant les phénomènes de mémoire dans les variations de prix d’actifs. Il introduit la notion de temps multifractal afin de mieux cerner la coexistence de périodes calmes et agitées sur les marchés financiers. En effet, l’amplitude des variations peut rester indépendante d’une séance à l’autre mais aussi – et c’est très souvent le cas – être corrélée sur de très longues périodes, ce que ne prend absolument pas en compte la modélisation de type Black & Scholes (à la base du pricing traditionnel des options). De nombreux événements de marché ont d’ailleurs confirmé les constats de Mandelbrot selon lesquels les risques extrêmes étaient largement sous-évalués.

Oui, mais voilà : la modélisation fondée sur la normalité de la distribution des rendements et des risques reste la norme. Cet environnement est idéal dans la mesure où les mathématiques – du moins leur usage courant – permettent de s’auto-persuader que les grandes catastrophes sont presque impossibles.

Seconde limite : l’illusion de la diversification et de la décorrélation entre actifs financiers

On enseigne à tout investisseur que l’alpha et l’oméga de la gestion d’actifs reposent sur un certain nombre de principes : être suffisamment diversifié, faire preuve de sélectivité dans le choix des titres, adopter une posture souvent défensive en identifiant de véritables valeurs refuges non surévaluées et, surtout, rechercher autant que possible une décorrélation vis-à-vis des grandes classes d’actifs traditionnelles.

Et l’on suppose, avant tout, que les corrélations entre actifs sont stables dans le temps. Or, c’est faux : une relation entre deux actifs ne peut jamais être capturée par un coefficient unique. L’histoire des marchés financiers montre d’ailleurs que des actifs apparemment décorrélés en période de stabilité ne le sont plus du tout lors d’épisodes de stress financier.

D’où la prudence nécessaire envers les portefeuilles diversifiés (et statistiquement décorrélés), qui ne sont pas réellement protégés contre l’irrationalité des marchés ni contre les effets de ventes forcées sur la valeur de certains actifs.

La modélisation mathématique – aussi utile soit-elle – montre ses limites lorsqu’il s’agit de représenter, et encore plus de quantifier, la peur des investisseurs, le mimétisme ou l’aversion au risque. Les hypothèses d’absence de corrélation forte entre les types de créances adossées dans un portefeuille prétendument diversifié ont d’ailleurs été à l’origine de nombreuses pertes lors de la crise financière.

C’est ce qui a permis à Nassim Nicholas Taleb d’affirmer : « Les gens étaient très enthousiastes à propos de la copule gaussienne* en raison de son élégance mathématique, mais la chose n’a jamais fonctionné. La co-association entre titres n’est pas mesurable à l’aide de la corrélation. » Ou encore : « Tout ce qui repose sur la corrélation est du charlatanisme. » Peut-être un peu excessif, mais fondamentalement juste.

*Copule gaussienne : la copule est un concept mathématique utilisé en théorie des probabilités. Une copule gaussienne constitue une mesure de dépendance entre deux variables, introduite en finance par David X. Li en 2000. Cette dépendance y est décrite de la même manière que dans la distribution normale (d’où l’appellation « gaussienne »). Les copules gaussiennes ont été très largement utilisées pour modéliser la corrélation des défauts entre plusieurs obligations, et donc estimer les pertes potentielles d’un panier d’obligations. On se souvient que, dès 2007, les premières secousses sont apparues lorsque les marchés financiers ont adopté un comportement radicalement différent de celui anticipé par Li. La suite est connue : en 2008, à la faveur des faillites – dont la plus emblématique fut celle de Lehman Brothers – ces secousses se sont muées en une crise financière systémique, entraînant une déstabilisation majeure du système financier mondial. Li avait tout simplement oublié que les corrélations entre variables financières sont notoirement instables – et il était loin d’être le seul.

Dans notre prochain article, nous verrons que la complexité excessive et le trading algorithmique exposent désormais les marchés à des risques systémiques inédits, liés à une volatilité artificielle échappant au contrôle humain.

Recevez la Chronique Agora directement dans votre boîte mail

Quitter la version mobile