ÉTUDE DE DOSSIER ______ Adjoint de direction 2012 Concours externe et interne La finance est devenue ultra mathématisée à partir des années 70. La récente crise financière a suscité des interrogations sur le rôle des mathématiques et en particulier des modèles mathématiques en finance. À partir des documents joints, dans le contexte de la crise financière, vous rédigerez une note sur l’utilisation des modèles mathématiques et ses conséquences. LISTE DES DOCUMENTS JOINTS 1. « Où se trouve le risque ? » Christian WALTER - Banque Stratégie n° 297 - Novembre 2011 - 2 pages 2. « De la théorie à la pratique - Est-il vraiment important que les marchés soient efficients ? » Alfred GALICHON et Philippe TIBI - Revue Banque hors série - Mai 2011 - 7 pages 3. « Les dix péchés capitaux de la Value at Risk » Philippe FOULQUIER et Alexandre LE MAISTRE - Banque Stratégie n° 303 - Mai 2012 5 pages 4. « The Case Against The modern Theory of Finance » Benoît MANDELBROT - The (mis) Behaviour of markets – 2008 - Chapitre V - 4 pages 5. « Les modèles contribuent-ils à l’efficacité des marchés financiers ? » Nizar TOUZI et Philippe DURAND - Revue Banque hors série - Mai 2011- 5 pages 6. « Est-ce la faute des « petits génies » en mathématiques ? » Nicole CRESPELLE - La crise en questions - Éditions Eyrolles - 2009 - 1 page 7. « Une dangereuse sous-estimation de l’incertitude » Philippe HERLIN - Alternatives Économiques hors série n° 87 - 1er trimestre 2011 - 3 pages 8. « Mathématiques et risques financiers » Nicolas BOULEAU - Éditions Odile Jacob - 2009 - 1 page 9. « Les mathématiques financières et la crise financière » Nicole EL KAROUI et Monique JEANBLANC- Matapli - Bulletin de liaison - Vol. 87 2008 - 6 pages 10. « Benoît Mandelbrot et la modélisation mathématique des risques financiers » Rama CONT - http://hal.inria.fr - 19/01/2012 - 6 pages 1 MODÈLES MATHÉMATIQUES OÙ SE TROUVE LE RISQUE ? La gestion alternative est-elle plus ou moins risquée que la gestion traditionnelle ? Tout dépend des modèles mathématiques utilisés... […] COMMENT MESURER LE RISQUE ? Nous avons montré dans un article publié en 2005 1 comment l'idée de l'indexation et des benchmarks a représenté dans la finance du XXe siècle la résurgence de la théorie de l'homme moyen du statisticien et astronome belge Adolphe Quetelet. La résistance à l'indexation et au bornage systématique des gestions représente la forme contemporaine des débats qui ont agité les statisticiens à la suite de la domination de la théorie des moyennes dans les années 1860. La gestion « autre » que la gestion bornée retrouve les arguments utilisés par les adversaires de la quételéisation massive de la statistique au XIXe siècle : la moyenne (la performance du benchmark) ne peut représenter un critère qui résume suffisamment le comportement réel des portefeuilles. Et la volatilité -qui n'est qu'un écart moyen à la moyenne- relève du même dogme quételésien. La Value-at-Risk, lorsqu'elle se contente de transformer une volatilité en quantiles, ne répond en rien au problème de la gestion du risque. Loin des moyennes. L'idée sous-jacente à la catégorisation en classe spécifique de la gestion « autre » est celle de la protection de l'épargnant (de l'investisseur) contre des risques mal cernés. Mais les risques sont-ils moindres dans le cas de gestions bornées ? La diversification représente-t-elle une forme de gestion moins risquée que celles que l'on trouve dans les gestions qualifiées d'« alternatives » ? Il est couramment admis aujourd'hui qu'une gestion bien diversifiée et bornée est davantage protectrice pour l'épargne qu'une gestion « alternative ». Or rien n'est moins sûr : ce raisonnement nécessite la validation d'une hypothèse mathématique relative aux probabilités. Et il est connu aujourd'hui que cette hypothèse est mise en défaut dans beaucoup de situations de marchés. Dans ces contextes, la gestion non diversifiée (donc « autre » que la gestion classique) est plus protectrice et les portefeuilles concentrés traversent mieux les crises que les portefeuilles diversifiés. En fait, croire que la diversification protège bien revient à croire que les fluctuations boursières sont très régulières et bien homogènes, que la performance des portefeuilles se répartit équitablement sur tous les titres du portefeuille, toutes les journées de Bourse. Mais tous les professionnels observent bien que la performance (et les pertes) se concentre sur quelques titres bien ou mal choisis, sur quelques journées particulières de Bourse, que le marché est souvent calme (sauf quand il est très agité), et que la vraie loi des portefeuilles gérés et bien plutôt une loi des 80/20 : très peu de titres (de jours) contribuent à beaucoup de gains ou de pertes. L'IMPACT DE LA DIVERSIFICATION Dans un travail récent 2 réalisé avec Olivier Le Courtois, nous avons montré comment une gestion peu diversifiée, qui suivrait des règles qualifiées d'« alternatives » au sens franglais, pourrait être plus protectrice qu'une gestion « classique » bien diversifiée. En remplaçant les modèles mathématiques à base de mouvements browniens par d'autres modèles utilisant des processus aléatoires non browniens, c'est-à-dire en changeant les hypothèses probabilistes sur les fluctuations boursières, l'indexation et la 1 « La gestion indicielle et la théorie des moyennes », Revue d'économie financière, n° 79, pp. 113-136. 2 « La concentration des portefeuilles ». Perspective générale et illustration, Cahiers de recherche de l'EM Lyon, 2008/03. AD 2012 1/2 Banque stratégie n° 297 Novembre 2011 1 gestion bornée apparaissent tout à coup bien plus dangereuses que la gestion « alternative ». Derrière ces débats, ce qui est en jeu est une compréhension de l'incertitude financière. L'objectif est simple : le régulateur cherche à protéger l'investisseur. Pour cela, il lui faut indiquer des catégories de risque, et donc apprécier l'incertitude financière représentée par les produits vendus. Pour cela, il est nécessaire de disposer de mesures et donc de modèles de cette incertitude financière. Le choix est alors le suivant : soit on considère que l'incertitude est modélisable par un aléa régulier (par exemple un modèle probabiliste qui utilise le mouvement brownien 3 ) et, dans ce cas, les mesures usuelles du risque suffisent et permettent d’isoler une pseudo-catégorie appelée en franglais « gestion alternative », décrite comme plus risquée en regard de l’hypothèse de régularité aléatoire ; soit on considère que la représentation brownienne est trompeuse, et il devient alors nécessaire de repenser les manières d’apprécier le risque des produits financiers, qui peuvent remettre en cause la partition risqué/non risqué qui repose sur la vision brownienne lisse du risque. Dans ce cas, il est bien possible que les gestions dites « alternatives » se révèlent moins risquées que les gestions benchmarkées. Par analogie avec la manière dont une maladie se répand, en employant le modèle de la contagion des idées, nous avons appelé en 2009 « virus B » (pour « virus brownien »), l’épidémie intellectuelle qui a fait penser l’incertitude au moyen d’une représentation brownienne des fluctuations (Le virus B. Crise financière et mathématique, éditions du Seuil). Dans la gestion d’actifs, il semble bien que le virus brownien ait muté et soit devenu le virus des benchmarks. Un autre B… Christian WALTER Christian WALTER est actuaire agrégé (Institut des actuaires), professeur associé (IAE, Université Paris I) et titulaire de la chaire Éthique et Finance (Institut catholique de Paris). 3 En 1827, le botaniste écossais Robert Brown observe au microscope les grains de pollen de la plante Clarckia pulchella. Il constate que ces grains contiennent des particules et que ces particules, dans l'eau, sont animées de mouvements continuels (dus à l'agitation thermique). Les particules se déplacent dans tous les sens, apparemment au gré du hasard. Ce hasard obéit à des règles précises qui décrivent le mouvement désordonné de ces particules : c'est le mouvement de Brown, ou mouvement brownien. Les règles de ce mouvement seront définies mathématiquement au début du XXe siècle par Louis Bachelier (1900), Albert Einstein (1905), et Norbert Wiener (1923). La « loi en racine carrée du temps » qui fait transformer la volatilité mensuelle en volatilité annuelle (12 mois) en multipliant la première par la racine carrée de 12, et que l'on trouve dans les réglementations prudentielles internationales (comme Bâle III pour les banques ou Solvabilité 2 pour les compagnies d'assurance) est une application de l'hypothèse brownienne. AD 2012 2/2 Banque stratégie n° 297 Novembre 2011 2 DE LA THÉORIE À LA PRATIQUE EST-IL VRAIMENT IMPORTANT QUE LES MARCHÉS SOIENT EFFICIENTS ? L'efficience des marchés, qui n'était au début qu'une hypothèse émise par Eugene Fama, s'est affirmée au fil des années comme une théorie sur laquelle se fonde la finance moderne. La crise de 2008 l'a profondément remise en cause... ce qui n'a pas empêché les marchés, durant la crise, de remplir leurs fonctions essentielles : financer l'économie et assurer l'épargne des investisseurs finaux. Quelle importance, alors, accorder à cette théorie ? L individus. Si l'EMH n'est pas valide, la science économique ne doit-elle pas, comme elle l'a fait dans les précédentes crises majeures, remettre en cause ses fondements théoriques et explorer de nouvelles voies ? D'un point de vue politique, l'EMH fait partie du faisceau d'arguments qui justifient le laissezfaire économique: si les prix des actifs sont de « bons » prix, si la « main invisible » fait son office et alloue les ressources de façon optimale, alors la vocation de l'État n'est pas de jouer un rôle par construction inutile, voire nuisible, d'encadrement de l'économie, par les règles, les incitations et les prix. Ceci suppose que les marchés « efficients » sont « efficaces » pour allouer les ressources. Pour prendre une analogie osée avec la physique, une théorie « juste » est en général « efficace ». La relativité générale, qui n'a pas été invalidée durant près d'un siècle et peut donc être considérée comme « juste » jusqu'à preuve du contraire, est « efficace » car elle permet d'écrire justement les équations qui assurent le bon fonctionnement de certains systèmes, pour lesquels la mécanique newtonienne ne suffit pas, comme les GPS, par exemple. Les deux notions ne se superposent pourtant pas tout à fait. Pour continuer l'analogie avec la physique, une théorie imparfaite, voire inexacte, peut donner des résultats parfaitement acceptables pour l'utilisation qu'on en fait : c'est le cas de la mécanique newtonienne, dépassée par la physique quantique, mais qui suffit parfaitement à de nombreuses applications pratiques, pour lesquelles elle est « efficace ». Ainsi, sans être forcément « efficients », les marchés pourraient être « efficaces » au regard de leur fonction sociétale. L'objectif de cet article est d'éclairer ces deux notions et de poser les termes objectifs d'un débat miné par ses 'efficience des marchés est une question théorique majeure dont la validité a été questionnée par la crise de 2007. On peut traduire l'expression anglaise « efficient markets » par « marchés efficients » ou « marchés efficaces ». Or, la distinction entre ces deux traductions ne relève pas uniquement de la nuance sémantique ou de la chasse aux anglicismes. Le terme « efficient » employé au plus près du sens de l'expression anglaise suppose un marché : rationnel ; incorporant toute l'information disponible ; impossible à battre. « Efficient » ne signifie pas la même chose qu'« efficace », qui évoque un marché en état de marche, apportant des solutions, résolvant rapidement des problèmes -et dont la traduction anglaise serait « operational »-). Aussi dogmatique que certains puissent la considérer aujourd'hui, la théorie de l'efficience des marchés fut initialement formulée comme une hypothèse : 1'« efficient market hypothesis » (EMH). Celle-ci est particulièrement importante dans la construction de la finance moderne car, d'une part, elle a joué un rôle structurant dans le développement du secteur financier des trente dernières années et, d'autre part, tous les acteurs des marchés financiers l'intègrent dans leurs outils de prise de décision. Si les marchés ne sont pas efficients, faut-il remettre en question les conséquences scientifiques et politico-économiques tirées de la théorie ? D'un point de vue scientifique d'abord, L'EMH est en effet l'une des pierres de touche d'une industrie financière dont l'utilité économique et sociale est de financer l’économie et de gérer l'épargne (et donc d'assurer certains risques sociaux) des AD 2012 1/7 Revue Banque hors série Mai 2011 2 connotations idéologiques, et dont la crise née en 2007 souligne encore l'actualité. Théoriquement tout d'abord, car accepter que l'EMH était invalide revenait à supposer les investisseurs non rationnels, ce que les économistes en général répugnent à faire, sauf pour une minorité d'entre eux qui pratiquent l'économie dite « comportementale ». Et empiriquement, car de nombreux travaux économétriques la valident. Ainsi, Michael Jensen écrivait en 1978 dans une introduction à un numéro du Joumal of Financial Economics 3 entièrement consacré à la validation empirique de cette hypothèse, que « peu de propositions en économie ont des fondements empiriques plus solides que l’hypothèse de l’efficience des marchés ». Les circonstances de la dernière crise de marché allaient cependant remettre en question les prémisses de la théorie. I. LE DÉBAT UNE ÉTAPE CLEF DANS LA GÉNÉALOGIE DE LA FINANCE MODERNE La théorie des marchés efficients a été formulée, sous forme d'une « hypothèse », pour la première fois en 1970 par Eugene Fama de l'Université de Chicago. Selon cette théorie, toute information est reflétée dans le prix d'un actif, qui n'est autre que la somme actualisée des cash flows attendus. La meilleure prédiction qu'on puisse faire à propos du prix futur d'un actif est son prix de marché présent : il n'y a pas d'« opportunités d'arbitrage ». Toutefois, les interprétations de la notion fluctuent. Dans une conférence datant de 1984, James Tobin 1 distingue quatre formes possibles d'efficience des marchés : d'une notion purement technique (arbitrage efficiency : il n'y a pas d'opportunités d'arbitrage) à une notion d'économie politique (functional efficiency : les marchés remplissent efficacement certains rôles pour les individus, c'est cette notion que nous traduisons ici par « efficacité »), en passant par deux notions intermédiaires : fundamental valuation efficiency, qui signifie que les prix de marché sont justes, et full valuation efficiency, qui signifie que les marchés sont complets (c'est-à-dire qu'il est possible de s'assurer contre tous les risques). L'EMH joue un rôle très particulier dans la généalogie de la finance moderne. La boîte à outils des financiers contemporains (directeurs financiers, analystes, investisseurs) a été constituée à partir de ses fondements intellectuels, qui, pour citer John Cochrane 2 , ont transformé la finance « d'une collection d'anecdotes en science ». On peut ainsi citer parmi la descendance de l'EMH et du modèle CAPM la gestion indicielle, la valorisation des options, la théorie des stock-options, etc. APRÈS LA CRISE DE 2008, UN DÉBAT VIGOUREUX… Dans un article célèbre 4 , Krugman impute à la finance « moderne » une responsabilité dans la crise de 2008. Selon lui -la popularité de ce point de vue ayant cru fortement au cours des deux dernières années-, les économistes « mainstream » majoritaires n'ont rien vu venir car ils ont été désarmés par leur croyance dans l'EMH, les théories mathématiques élégantes qu'elle a permis de formuler, et aussi par un confort intellectuel et matériel qui les a fait épouser les intérêts des puissances financières. La confiance excessive des économistes en leurs outils et en leurs modèles les a conduits à penser que les chocs macroéconomiques et financiers (et les récessions au premier chef) pouvaient être maîtrisés. Ainsi, la croyance en l'avènement d'une ère de la « grande modération » qui serait marquée par la maîtrise durable de la volatilité est caractéristique de cette attitude, et comparable à certains égards à la croyance en la « fin de l'histoire ». Mais le camp adverse n'est pas excessivement troublé par la crise. Ainsi, pour Eugene Fama, la crise provient au contraire de ce que l'EMH n'a pas été prise suffisamment au sérieux : « If banks and investment banks took market efficiency more seriously, they might have avoided lots of their recent problems 5 ». UNE HYPOTHÈSE DEVENUE DOMINANTE Jusqu'à ces dernières années, l'EMH semblait d'une robustesse considérable, tant théoriquement qu'empiriquement. 3 1 2 4 James Tobin, « On the Efficiency of the Financial System », Lloyds Bank Review, 1984. John Cochrane, « Efficient market today », Conference on Chicago Economics, 10 novembre 2007. AD 2012 5 2/7 Michael Jensen, « Some Anomalous Evidence Regarding Market Efficiency », Journal of Financial Economics, Vol.6, n° 2/3, 1978. Paul Krugman, « How Did Economists Get It So Wrong ? », New York Times, 6 septembre 2009. Q & A, « Is Market Efficiency the Culprit ? », Fama/French Forum, 4 novembre 2009. Revue Banque hors série Mai 2011 2 Cochrane a, de son côté, vigoureusement répondu aux assertions les plus « politiques » de Krugman 6 : « The case for free markets never was that markets are perfect. The case for free markets is that government control of markets, especially asset markets, has always been much worse. Free markets are the worst system ever devised -except for all of the others ». Mais il concède 7 que l'EMH demeure inachevée. Il reste ferme sur l'aspect informationnel de la théorie, mais admet qu'il faut expliquer pourquoi les cours varient en l'absence d'information nouvelle. Il reconnaît que la notion de prime de risque n'a pas été l'objet d'une attention suffisante, alors qu'elle a pourtant été implicitement présente dans le calcul d'actualisation nécessaire pour déterminer la valeur théorique d'un actif (la somme actualisée des cash flows attendus) et qu'un nouveau champ de recherche doit s'ouvrir sur cet aspect et sur une meilleure compréhension des relations entre volumes de trading et prix. Il faut dire qu'expliquer les anomalies observées dans la vie réelle par une variable d'ajustement mal connue ne constitue pas nécessairement une avancée majeure... forme « arbitrage », pas plus qu'elle ne le fait dans sa forme « juste prix » : en effet, les prix peuvent osciller fortement autour de leur valeur fondamentale. Comme le dit John Cochrane : « Rien dans la notion d'efficience ne suppose la stabilité ». En revanche, si on prend l'EMH sous sa forme la plus forte (efficacité), trop de volatilité enlève aux marchés une partie de leur efficacité comme vecteur de l'épargne pour les ménages, ou comme source de financement pour les entreprises car un marché trop volatil n'est pas une solution pratique, ni crédible, pour épargner ou pour se financer. Il convient donc de s'entendre sur les termes du débat. Nous nous intéresserons donc, d'une part, à la « fundamental valuation efficiency » qui postule que les prix du marché sont égaux à leur valeur fondamentale -que nous traduisons par « efficience des marchés »- et, d'autre part, à la « functional efficiency », qui suppose que les marchés remplissent efficacement un certain nombre de fonctions sociétales, que nous traduisons par « efficacité des marchés ». …MAIS SOUVENT CONFUS UNE DOUBLE FAILLE Le débat sur les marchés efficients est souvent rendu confus par le fait que l'EMH recouvre des formes plus ou moins fortes, comme les quatre sous-variétés dégagées par Tobin évoquées plus haut. Les mêmes faits empiriques peuvent apparaître en violation de formes fortes de l'EMH, mais ne pas en contredire des formes plus faibles. Ainsi, l'existence de bulles, en soi, ne contredit pas l'EMH dans sa forme « Absence d'opportunités d'arbitrage ». Les bulles ont toujours existé, avant même que la question de l'efficience des marchés ne soit posée ; et comme, par définition, elles éclatent un jour, les bulles ne sont pas incompatibles avec l'absence d'opportunité d'arbitrage. En revanche, elles contredisent l'EMH dans sa forme « juste prix » ; en effet, elles donnent lieu à des prix aberrants et déconnectés de leur valeur fondamentale (estimée comme la somme des flux actualisés attendus de l'actif échangé). La forte volatilité observée ces dernières années ne contredit pas non plus l'EMH dans sa Nous souhaitons montrer ici que l'efficience des marchés, c'est-à-dire l’EMH sous sa forme la « fundamental valuation efficiency », souffre d'une double faille en postulant que les prix du marché sont égaux à la valeur fondamentale. Faiblesse face aux faits car elle est contredite par l'existence des crises ; faiblesse théorique car elle est intrinsèquement paradoxale, puisqu'elle suppose l'existence de l'industrie financière tout en en prédisant la disparition. 6 7 II. L'EFFICIENCE DES MARCHÉS : UNE HYPOTHÈSE À ENTERRER ? ▪ Première faille : la théorie face aux faits L'observation des trois dernières crises de marché démontre les limites de la théorie de l'efficience des marchés. La chute du fond spéculatif LTCM en 1998 à la suite de la crise des emprunts d'État russes a mis en évidence trois facteurs perturbant la stratégie de ce fonds, qui visait précisément à parier sur le retour à l'équilibre de prix relatifs ayant divergé à la suite d'inefficiences temporaires de marché (stratégies de relative value) : la liquidité, le nombre restreint des participants, et les interactions stratégiques John Cochrane, « How Did Paul Krugman Get It So Wrong ? », 16 septembre 2009. John Cochrane, « Efficient market today », conference on Chicago economics, 10 novembre 2007. AD 2012 3/7 Revue Banque hors série Mai 2011 2 entre ces participants, les uns prenant des positions contre les autres. La bulle des valeurs liées à Internet a donné lieu à des évaluations aberrantes, relevant du comportement mimétique des investisseurs et de l'effet de mode. Enfin, la crise des subprimes a mis en avant le rôle de l'information et des modèles, car de nombreux actifs ont été durablement évalués par le marché à des prix aberrants reflétant des informations fausses, des hypothèses infondées sur l'évolution et la corrélation des prix de l'immobilier. Cette crise a été aggravée par la concentration « systémique » de ces actifs dans des banques tenues de respecter en permanence des ratios réglementaires. La notion de fair value n'a ainsi pas de sens lorsque des ventes forcées d'actifs bradés par certaines institutions en ont contraint d'autres à déprécier leur bilan, les conduisant à leur tour à d'autres ventes forcées, dans un enchaînement systémique néfaste. Notons cependant que, dans ces trois crises, le paradigme d'absence d'opportunité d'arbitrage, « no free lunch », a été respecté. Mais au-delà, on touche à la limite de la théorie. Celle-ci permet de bâtir des modèles : tout étudiant sait que la qualité d'un modèle ne peut être meilleure que celle des données qui l'alimentent, et qu'une théorie est souvent bâtie sur des conditions implicites ou explicites dont la non-existence ruine sa mise en œuvre pratique. LTCM démontre que la condition de liquidité est essentielle, de même que celle de diversité et d'indépendance, ou au moins de noncoalition des acteurs. Internet et les bulles dues à la croyance en des ruptures technologiques et commerciales (chemin de fer, électricité...) témoignent de l'imperfection d'une théorie ignorant la propension à sous-estimer le délai d'adoption généralisée des innovations, le mimétisme des acteurs financiers et sociaux et leur instinct grégaire. La crise des subprimes reflète l'échec de modèles alimentés par des informations fausses et une hypothèse explicite selon laquelle les comportements immobiliers passés fournissaient une base statistique fiable pour « probabiliser » des scénarios futurs. les marchés efficients, il faut une industrie financière), en prédit la disparition (si les marchés sont efficients, la rente associée à un avantage comparatif sur les marchés disparaît, de même que les emplois de ceux qui travaillent à créer ces avantages comparatifs). Le développement de l'industrie de gestion d'actifs s'est en effet conjugué avec celui des théories financières modernes. Il a certes bénéficié d'une coïncidence historique (1a reconstruction consécutive à la Seconde Guerre mondiale, l'adaptation aux besoins des baby boomers) mais il a aussi profité de la mise à disposition d'outils crédibles permettant de proposer une chaîne d'instruments financiers et d'outils de transformation et d'échange du risque destinés à des agents économiques, entreprises et ménages ayant des objectifs précis. Ce très important développement -l'industrie de la gestion d'actifs gère environ 50 000 milliards de dollars dans le monde, soit un montant très proche de celui du PIB mondial ; les montants investis par les fonds de pension sont supérieurs à 30 000 milliards USD- est cependant paradoxal. La théorie énonce qu'un investisseur ne peut pas « battre le marché » et que la meilleure stratégie d'investissement est d'acheter le portefeuille de marché (le portefeuille pondéré des actifs). Un observateur candide en déduirait que l'investissement dans des portefeuilles de fonds indiciels est la stratégie la plus rationnelle. Un professionnel de la finance en déduirait qu'il est vain de vouloir créer des produits financiers ayant pour objectif de battre le marché. Or, l'industrie existe et elle est forte de ses encours, de la très importante qualification académique de ses professionnels et des stratégies multiples développées par les sociétés de gestion : il s'agit d'une démonstration par l'absurde que la quasi-totalité des professionnels, dont le niveau d'éducation n'a cessé de s'élever depuis trente ans, et normalement formés par les théories dominantes, estiment que ce cadre théorique n'a en réalité pas de valeur pratique, puisque les plus intelligents d'entre eux « battront le marché ». Cela doit donner à penser, même si des biais sérieux vicient, en pratique, la pure application de la théorie à la réalité : fiscalité et autres biais politiques, réalité de l'asymétrie d'information, biais nationaux et comportementaux, limitation des univers d'investissement par les indices, ▪ Deuxième faille : les paradoxes de la théorie La deuxième faiblesse de l'efficience des marchés est théorique : la théorie, qui suppose l'existence de l'industrie financière (pour rendre AD 2012 4/7 Revue Banque hors série Mai 2011 2 supposée être une mesure de qualité supérieure à celle de la valeur comptable. Enfin, le prisme de l'EMH a permis de détecter des tendances et des biais d'investisseurs : les travaux de Fama et French ont permis d'identifier un biais des investisseurs lié à la taille des entreprises 8 ; d'autres travaux ont mis en évidence l'existence d'une prime anormale de risque sur les marchés action (equity premium puzzle) 9 ou le biais des investisseurs en faveur des actions de leur propre pays (home bias puzzle) 10 . règles prudentielles, liberté d'accès à l'ensemble des actifs théoriques, coûts de transaction. DEUX FAILLES ÉTROITEMENT LIÉES En conclusion, les deux faiblesses du paradigme de l'efficience des marchés semblent en fait étroitement liées. L'existence de bulles vient de ce que les professionnels de marché accordent parfois aux prix de marché une confiance supérieure à celle dont ils créditent leurs propres convictions : d'où une certaine déconnexion entre la valeur et le prix en raison de phénomènes mimétiques observés lors des bulles. Cela est lié à la résolution du paradoxe de la gestion d'actifs : elle existe, mais à la marge, pour corriger des imperfections de marché minimes -en effet, personne n'a raison contre le marché. La gestion d'actifs n'est donc pas structurée pour résister à des écarts systématiques de prix par rapport aux valeurs fondamentales. DES MARCHÉS TOUJOURS EFFICACES MALGRÉ LA CRISE La crise actuelle a suscité un renouveau des critiques traditionnelles émises à l'encontre des marchés. Recentrons-nous donc sur une question pratique : durant la crise, les marchés ont-ils rempli leurs fonctions essentielles, c'est-à-dire financer l'économie et assurer l'épargne des investisseurs finaux, c'est-à-dire des ménages ? La réponse à la première question est évidente : les marchés de financement des entreprises ont fonctionné correctement pendant la crise. Ceux-ci ont en effet financé les grandes entreprises (avec un doublement des émissions de titres en France en 2009 par rapport à 2008, par exemple) alors que le système bancaire éprouvait la difficulté de devoir simultanément honorer ses engagements passés à leur égard et régler ses problèmes de fonds propres, parfois au prix de nationalisations partielles. La question de l'épargne est plus difficile à analyser, car l'analyse de la performance d'un actif ressort du temps long, et non de la détermination de bornes temporelles choisies en fonction du résultat souhaité. Durant la crise, l'économie, les institutions financières et les salariés victimes du chômage ont plus souffert que l'épargne des ménages, dont les actifs ont varié dans des directions inverses au fur et à mesure du développement de la crise : les actions ont fortement baissé, comme l'immobilier (aux États-Unis, beaucoup moins III. DES MARCHÉS EFFICACES L'EMH A STRUCTURÉ LE SYSTÈME FINANCIER ACTUEL Avec le CAPM et la formule de Black and Scholes, l'EMH est le fondement théorique de développements ultérieurs qui ont également contribué significativement au développement de l'industrie de la gestion de portefeuilles et celle des produits dérivés. Elle a conduit, en soi, à l'essor de l'industrie de la gestion indicielle (soit 10 à 15 % des encours mondiaux), sans même évoquer plus en détail le rôle prépondérant de la gestion « benchmarkée » autour des indices. Mais l'EMH a également donné un langage à la finance moderne : des notions issues de l'EMH -telles que, par exemple, le « beta » d'un actif, le « delta » d'une stratégie- forment un langage de communication entre les entreprises et les gérants de fonds, de même qu'entre les gérants et les investisseurs finaux. Elle sert également au régulateur, puisque la définition même du délit d'initié est déduite des concepts de l'EMH, tandis que sa répression vise, entre autres, à la garantir. Elle est également intégrée à l'élaboration des comptes de l'entreprise, puisque les normes comptables américaines et internationales imposent la comptabilisation d'éléments du bilan des entreprises à la valeur de marché, AD 2012 8 9 10 5/7 E.F. Fama et K.R. French, « Size and Book to Market Factors in Earnings and Returns », Journal of finance, 50, 1995, pp.131-135. Rajnish Mehra et E.C. Prescott, « The Equity Premium : A Puzzle », Journal of monetary economics, 15 (2), 1985, pp.145-161. Kenneth French et James Poterba, « Investor Diversification and International Equity Market », American economic review, 81 (2), 1991, pp. 222-226. Revue Banque hors série Mai 2011 2 en Europe continentale), avant de remonter dans de bien moindres proportions ; au contraire, les actifs obligataires ont été en général réévalués. L'étude de la question des retraites montre la difficulté et la relativité de l'analyse. Les futurs retraités des pays de capitalisme anglo-saxon ont particulièrement souffert de la crise financière, perdant à peu près un cinquième de leur pouvoir d'achat 11 . Au-delà, c'est toute la population des individus épargnant pour leur retraite qui est affectée par la perception d'un risque individuel accru. En regard, les cotisants dans les pays dotés d'un système de retraite par répartition ont à première vue moins pâti de la crise financière, notamment grâce à l'intervention de l'État. Leurs pensions futures ne sont pas menacées par une baisse automatique de la valeur d'actif de l'épargne qui aurait été leur sort dans un système par capitalisation. Le système hors-marché, avec ses stabilisateurs automatiques et ses mécanismes de solidarité, semble avoir joué un rôle positif. À y regarder de plus près, il n'est pas du tout évident que tous les cotisants de ces pays aient lieu de se réjouir. En effet, leur avoir réel a été impacté par la crise financière, par la baisse des recettes fiscales et l'endettement public accru. Que les gouvernements dans les pays par répartition maintiennent le niveau des retraites signifie tout simplement qu'ils opèrent tacitement pour un temps déterminé un transfert de valeur vers les générations les plus âgées, au détriment des plus jeunes. Faut-il alors allouer les ressources par la négociation ou par le marché ? En matière de retraites, la situation démographique en Europe impose la recherche de solutions opérationnelles pour réviser certaines règles du partage de la valeur entre actifs et retraités, entre secteur public et secteur privé, entre hommes et femmes, etc. Dans une société où les intérêts catégoriels sont clairement définis et représentés, on peut arguer que le processus de négociation crée en lui-même du consensus et qu'il renforce l'acceptabilité de la solution retenue. Mais lorsque les intérêts en présence sont incomplètement représentés, de surcroît par des agents rétifs à la culture du compromis, le processus de négociation peut faire l'objet de frictions coûteuses. L'exemple de la Grèce montre que le succès de la négociation ne va pas de soi, dans un cadre européen rigide et sous l'emprise de la récession, car les adjuvants habituels (croissance, inflation, dévaluation et autres illusions chères à Robert Shiller) ne sont pas disponibles. L'investissement des contributions des futurs retraités dans les marchés ne donne in fine pas d'autre garantie que celle de voir ses revenus futurs gagés sur les développements de l'économie mondiale (le portefeuille de marché). En définitive, elle n'est donc pas différente de la promesse faite par les systèmes de répartition, dans lequel la retraite des uns est gagée sur le volume et la qualité du travail des autres. Avec une différence de taille : la répartition s'effectue dans un cadre national. À chacun d'apprécier la valeur relative des notions de solidarité entre générations, de diversification géographique et démographique des actifs, et de négociation implicite ou explicite entre partenaires sociaux. L'EMH EST UN PARADIGME INSUFFISANT, MAIS IL N’Y EN A PAS D’AUTRE, DANS UNE ÉCONOMIE DE MARCHÉ Eugene Fama admet que des investisseurs mal informés pouvaient faire dériver le marché, que des prix mal formés peuvent pousser les corporates à « jouer » avec l'information et effectuer des mauvais choix guidés par les évaluations. Il admet également que demeure ouverte la question du pourquoi tant de volumes sur les marchés alors qu'une fraction suffirait à ajuster les prix 12 ? Nous savons que l'EMH est combattue par l'école comportementale. Les behavioristes expliquent les échecs de l'EMH lorsque des accidents surviennent, mais ont-ils établi une œuvre utilisable par les praticiens ? Certes la finance comportementale bénéficie d'une reconnaissance croissante, mais celle-ci concerne plutôt les frontières de l'économie et la psychologie (noter, par exemple, le prix Nobel décerné à Kahneman en 2002) que celles avec la macroéconomie. En effet, même si des biais comportementaux peuvent être mis en évidence au niveau individuel, il est très difficile d'écrire des modèles plausibles d'agrégation de ces biais, pour expliquer le passage du biais comportemental au niveau micro aux marchés inefficients au niveau macro. 12 11 E. Whitehouse, « Pensions at a glace », OCDE, 2009. AD 2012 6/7 J. Hilsenrath, Wall Street Journal, 18 octobre 2004, University of Chicago conference, mai 2004. Revue Banque hors série Mai 2011 2 L'efficience des marchés n'est donc ni une loi de la nature, ni un théorème au sens mathématique. Elle demeure une « hypothèse », ainsi que l'avaient d'ailleurs prudemment dénommée ses concepteurs. Une simple hypothèse, mais une hypothèse forte, car elle est valide « en général ». Elle constitue le fondement d'une industrie financière opératoire, malgré ses imperfections, dans la mesure où elle finance l'économie et est l'interlocuteur, parfois invisible, des ménages soucieux de préserver leur épargne ou de s'assurer envers les aléas de la vie. L'efficience des marchés n'est donc pas, en soi, une question qui mérite de très amples débats. Il s'agit d'un concept puissant mais imparfait, la clameur qui l'entoure obéissant à des motivations qui le dépassent totalement. D'un côté, les intégristes de l'efficience étirent la notion jusqu'à lui prêter des vertus d'équilibre général et d'autorégulation de la société de son ensemble. De l'autre, les nostalgiques d'une économie administrée par les « mieuxsachants » dénoncent la tyrannie des « esprits animaux », et peut-être aussi le basculement, illégitime à leurs yeux, du pouvoir vers la masse anonyme et stupide des détenteurs de capitaux. Nous estimons pour notre part que les marchés jouent un rôle irremplaçable, d'ailleurs démontré par leur adoption croissante dans le monde, en particulier par les nouvelles puissances. Ce rôle est supporté par l'EMH, mais celle-ci ne doit pas être considérée comme un dogme universel. Les marchés sont de bons serviteurs mais de mauvais maîtres ; ils doivent en effet être le reflet de l'intelligence des hommes et leur ouvrir des options plus nombreuses, afin de procéder à des décisions qui, in fine, demeurent de leur responsabilité. L'économie comportementale ne propose pas une théorie d'équilibre général et de valorisation des actifs permettant à des praticiens de procéder à des choix cohérents au fil du temps. En ayant le goût du paradoxe, on pourrait même dire que la finance comportementale favorise l'efficacité pratique de l'EMH, puisque ses adeptes opérationnels, gérants de fonds, construisent des stratégies qui parient sur un retour à la valeur fondamentale des actifs en tirant profit des mauvais prix formés par des acteurs prisonniers de leurs biais comportementaux. D'un point de vue plus politique, en refusant l'EMH et en l'absence de tout autre matériel conceptuel « de marché », faudrait-il se résoudre à prôner le retour de la main très visible de l'état et de sa technostructure ? LE VRAI DÉBAT DE LA CRISE NE PORTE PAS SUR L’EFFICIENCE DES MARCHÉS L'efficience des marchés n'existe pas en tout lieu et à toute heure. Pour être observable, elle demande la mise en œuvre de conditions qui sont valides en général, mais en général seulement. Elle est mise en défaut : - lorsque les investisseurs agissent sous l'emprise de pulsions non rationnelles (se comportent en « esprits animaux » et ignorent donc toute l'information disponible) ; - lorsqu'ils limitent volontairement leur capacité à raisonner et à agir (asservissement à des indices ou à des programmes automatiques d'assurance ou d'arbitrage) ; - lorsque les attitudes mimétiques et autoréférentielles décrites par Keynes constituent l'essentiel des anticipations rationnelles des acteurs du marché, dans un secteur donné ou à un moment donné (formation de bulles) ; - lorsque les marchés ne rassemblent pas un nombre suffisant de participants et voient les prix déterminés par des stratégies de squeeze ou des contraintes de liquidité. Alfred GALICHON Philippe TIBI Alfred GALICHON est Professeur à l’École polytechnique. Philippe TIBI est Président de l’AMAFI, Professeur à l’École polytechnique et Président d’UBS en France. AD 2012 7/7 Revue Banque hors série Mai 2011 3 OUTIL DE MESURE LES DIX PÉCHÉS CAPITAUX DE LA VALUE AT RISK Très présente dans les banques, la Value at Risk (VaR) est également utilisée dans l'univers de l'assurance, pour mesurer le risque. La directive Solvabilité 2 en fait même un outil central pour les compagnies, mais ce choix soulève de nombreuses critiques. L a VaR est la mesure de risque que le régulateur européen a choisi pour élaborer la nouvelle norme prudentielle Solvabilité 2. Au regard de ses objectifs et des caractéristiques du secteur de l'assurance, cette mesure peut-elle être considérée comme pertinente et quelles sont les limites qu'elle présente ? Nous rappelons tout d'abord que la VaR représente la perte potentielle maximale, au regard d'un horizon temporel et d'une probabilité donnés. Ainsi, la VaR à 99,5 % sur un an retenue par le régulateur européen, signifie qu'il exige que tout assureur ait suffisamment de ressources, pour couvrir tous les risques qui ont une fréquence d'occurrence supérieure à une fois tous les deux cents ans. La VaR correspond au fractile de niveau 0,5 % de la distribution 1 de pertes et profits, associée à un risque étudié sur une période d'un an. Cette VaR dépend donc de cette distribution de probabilités, d'un niveau de confiance (99,5 %) et de la durée analysée (1 an). Pour apprécier les limites de la mesure VaR, il est important de comprendre comment peut être estimée la distribution des pertes et profits. Trois approches sont généralement disponibles : - La méthode paramétrique, retenue principalement par le régulateur européen. Elle consiste à identifier différents facteurs de risque (choc action, évolution des spreads, rachats massifs de contrats, catastrophes naturelles...), puis à estimer leur distribution de probabilité. Le principal avantage de cette approche paramétrique est qu'elle offre une expression explicite de la VaR. Toutefois, comme nous le verrons plus en détail, elle présente certaines limites notamment relatives à l'agrégation des risques, qui requiert généralement une hypothèse de normalité des facteurs de risque. Cette hypothèse est peu réaliste, notamment lorsqu'on considère, comme le régulateur prudentiel européen, des événements rares tels que le risque de faillite. - La méthode de Monte-Carlo, technique de simulation qui génère des données ex ante. Son principal inconvénient est que la spécificité de ces dernières engendre des problèmes de sensibilité des résultats à la calibration du modèle, dont l'élaboration et la correction peuvent s'avérer coûteuses et complexes. - La méthode historique. Il s'agit de définir une distribution empirique à partir d'une série historique et d'en estimer le quantile, c'est-à-dire d'en quantifier la perte maximale pour un niveau de confiance donné. La principale limite de cette approche est que la méthode renseigne sur la VaR passée et suppose un profil de risque constant dans le temps. 1 UNE VAR TRÈS CONTESTÉE À partir de ces définitions, nous nous proposons d'étudier la pertinence de la mesure de risque VaR dans le cadre prudentiel Solvabilité 2. En effet, si la VaR offre l'avantage d'obliger l'ensemble des sociétés du secteur de l'assurance à réfléchir à leur réelle exposition aux risques (identification, mesure et gestion), elle présente toutefois de nombreuses limites. Nous en avons recensé dix. La fonction de distribution est la fonction qui associe à tous les événements possibles leur probabilité d’occurrence. AD 2012 1/5 Banque Stratégie n° 303 Mai 2012 3 LA DIVERSIFICATION OUBLIÉE LA SÉVÉRITÉ ÉLUDÉE Première limite : la VaR n'est pas sousadditive. La VaR globale d'une société n'est pas nécessairement inférieure ou égale à la somme des VaR de chacune de ses composantes (VaR(XI, ..., Xn) > VaR(XI) +...+ VaR(Xn)). Ceci signifie que les bénéfices de diversification ne sont pas toujours considérés. Aussi, pour intégrer ces derniers lors de l'agrégation des facteurs de risque (vie, nonvie, marché, etc.) mesurés initialement de façon indépendante, le régulateur européen a été contraint de définir des matrices de corrélation. Au-delà de la calibration de ces matrices, qui a été très souvent perçue comme peu pertinente, se pose la problématique de la stabilité de la corrélation entre les différents facteurs de risque, notamment lorsque le seuil de confiance est élevé (événements rares). La VaR, c'est là sa deuxième limite, ne tient pas compte de la sévérité de la ruine. Elle réduit la vision du profil de risque de la société à un nombre (par exemple un montant de perte dans une devise) sans donner d'informations sur l'épaisseur de la queue de distribution (cf. graphique). Ainsi, deux sociétés peuvent avoir la même VaR et pourtant générer un profil de pertes extrêmes très différent. Ceci peut paraître très insuffisamment informatif lorsque l'on étudie des événements rares et le risque de faillite. AD 2012 LA DANGEREUSE HYPOTHÈSE DE NORMALITÉ Pour estimer la VaR, le régulateur européen retient une approche paramétrique. Il calibre les facteurs de risque à partir de distributions empiriques. Toutefois, l'agrégation des risques est réalisée selon une hypothèse de normalité 2/5 Banque Stratégie n° 303 Mai 2012 3 des facteurs, ce qui peut sous ou surestimer les grandes déviations. Si cette hypothèse peut être acceptable autour de la moyenne des distributions, elle ne l'est pas lorsque sont étudiés le risque de faillite et les risques extrêmes. D'importants risques de modèle peuvent alors être engendrés. UNE VISION STATIQUE Comme nous l'avons mentionné plus haut, déterminer une VaR à 99,5 % à un an revient à estimer les pertes engendrées par un événement se produisant une fois tous les deux siècles (pertes extrêmes). Retenir une approche historique comme celle du régulateur suppose non seulement de disposer d'un échantillon suffisamment long et représentatif (les observations dans les queues de distribution sont par définition moins fréquentes), mais surtout repose sur une hypothèse de stationnarité 2 des comportements et des risques. Or, dans le secteur de l'assurance, ces dernières décennies montrent que cette hypothèse ne peut être acceptable. La modélisation des risques de faillite requiert des modèles spécifiques. À titre d'illustration, un modèle de risque de contagion pour le risque obligataire serait plus pertinent que la méthode paramétrique retenue par le régulateur sur les risques de taux et de spreads. UN HORIZON TROP COURT La quatrième limite que l'on peut mentionner est l'horizon de la VaR à un an. Cela va à l'encontre des stratégies pertinentes de gestion actif/passif élaborées sur des portefeuilles de longue maturité. En effet, cet horizon imposé par le régulateur requiert de choquer à un an une stratégie financièrement optimisée pour une échéance qui peut dépasser une décennie. Ce choix d'horizon à un an n'est pas systématiquement pertinent, par exemple dans le cas d'une couverture d'une garantie de passif avec une obligation. L'Autorité de contrôle pourrait ainsi aller à l'encontre de ses objectifs, comme cela a été le cas parfois avec les IFRS. En effet, des sociétés d'assurance ont renoncé à certaines stratégies optimales de gestion actif/passif de long terme pour réduire la volatilité artificielle comptable de court terme engendrée par les traitements IFRS de telles stratégies. TROP SENSIBLE AUX SEUILS La septième limite réside dans la sensibilité de la VaR aux seuils de confiance. En effet, du fait que la VaR étudie les risques extrêmes et n'indique qu'un unique montant de perte pour chaque intervalle de confiance, sa sensibilité à l'intervalle de confiance est très importante. Ainsi, une VaR à 99,5 % peut indiquer un montant de perte très supérieur à une VaR à 99,4 %. Cette absence de proportionnalité est de nature à fragiliser l'interprétation du résultat de l'estimation de la VaR. UN HORIZON UNIQUE La cinquième limite tient au choix d'un unique horizon à un an. Au-delà de l'existence de différentes maturités des actifs et des passifs que nous venons de mentionner, cette unicité d'horizon n'est pas cohérente avec l'endogénéité de l'horizon. En effet, l'horizon est parfois choisi et non pas subi par l'assureur : par exemple, s'il adopte pour réduire ses risques une stratégie dynamique, alors l'horizon de rebalancement est endogène. Cet horizon doit dépendre de la liquidité des actifs et des passifs, pour notamment mesurer les risques intrinsèques de ce type de gestion. L'unicité d'horizon nuit donc à la reconnaissance de certaines stratégies de gestion de réduction des risques, telles que la gestion dynamique des risques avec rebalancements (périodiques ou non) inférieurs à un an, ou encore les systèmes de gestion « automatique » de coupure des positions au fur et à mesure que les pertes s'accumulent. LES PRODUITS DÉRIVÉS MAL TRAITÉS Huitième limite : l'approche paramétrique de la VaR retenue par le régulateur prudentiel n'est pas très adaptée aux produits dérivés lorsque le prix de ces derniers ne varie pas linéairement avec celui de leur sous-jacent (par exemple une option, un swap avec un cap et un floor). La non-linéarité -par exemple la convexité des options- peut être résolue par un développement à l'ordre deux selon l'approche delta gamma, mais elle engendre la perte de la normalité, généralement retenue pour agréger les facteurs de risque. 2 AD 2012 3/5 Leur indépendance au temps. Banque Stratégie n° 303 Mai 2012 3 s'interprète comme l'espérance conditionnelle de la variable aléatoire du montant supérieur à la VaR de seuil α. Elle a l'avantage donc de considérer les queues de distribution et d'être une mesure de risque cohérente au sens d'Artzner et al. (1999). Parallèlement, la procédure de stress-testing rencontre également une forte adhésion : elle présente l'avantage de contourner le recours à des lois de distribution à queues épaisses, en offrant l'opportunité de choisir la magnitude souhaitée de l'événement, et cela indépendamment de sa probabilité d'occurrence. Les détracteurs de cette approche mentionnent toutefois que toutes les éventualités ne peuvent pas être imaginées et que les scénarios peuvent ainsi être insuffisamment conservateurs. Il est en outre difficile d'attacher une probabilité aux scénarios. DES VAR PEU COMPARABLES ENTRE ELLES La neuvième limite repose sur le manque de comparabilité de la VaR entre différentes sociétés. Au-delà des trois approches de calcul de la VaR mentionnées en introduction, la complexité de la calibration des facteurs de risque offre une grande flexibilité et est de nature à produire des résultats peu comparables. UNE MESURE INCOMPLÈTE DU RISQUE Enfin, la dixième limite est que la VaR est une mesure incomplète du risque. Deux distributions de risque peuvent avoir la même VaR, mais des volatilités très différentes. Il suffit, à titre illustratif, de comparer deux stratégies investies dans des actions différentes qui limitent les pertes à un même seuil, via une option par exemple. Dès lors, cela peut engendrer des conflits dans les choix stratégiques entre la gestion de la volatilité qui traite une problématique autour de la moyenne de la distribution et la gestion de la VaR, qui relève généralement des risques extrêmes. En outre, la VaR est une fonction non convexe, alors que la volatilité est une fonction convexe ; cela rend difficile, voire inaccessible, l'optimisation des stratégies sous contrainte de risques. Face à toutes ces limites, de nombreux travaux académiques cherchent de nouvelles mesures de risque plus pertinentes pour le cadre prudentiel de l'assurance Solvabilité 2. Une mesure de risque définie à partir de la VaR suscite un intérêt grandissant dans le monde professionnel, du fait de sa simplicité et de sa propriété de sous-additivité. Il s'agit de la TailVaR, également appelée Expected Shortfall, Conditional Tail Expected ou encore Conditional VaR. La TailVaR de seuil α LE STRESS-TEST À LA RESCOUSSE Combiner approche TailVaR et stress-testing pourrait déjà être une piste d'amélioration de la mesure des risques dans le cadre prudentiel Solvabilité 2. En effet, la TailVaR n'intégrant que des risques endogènes, la compléter par des stress-tests permettrait d'appréhender également des risques exogènes, dont les risques systémiques. En conclusion, la VaR pour le secteur de l'assurance reste une mesure très perfectible et doit faire l'objet de toutes les attentions, pour notamment éviter les risques de modèle et les risques systémiques. Toutefois, au-delà du montant de perte qu'elle produit et de sa fiabilité, elle permet à l'ensemble des acteurs de l'assurance de réfléchir aux enjeux de la gestion des risques et de les intégrer dans les fondamentaux de leurs stratégies. Philippe FOULQUIER Alexandre LE MAISTRE Philippe FOULQUIER est Professeur, Directeur du centre de recherche analyse financière et comptabilité, Edhec Business School. Alexandre LE MAISTRE est ingénieur de recherche associé, Edhec Business School. AD 2012 4/5 Banque Stratégie n° 303 Mai 2012 3 GLOSSAIRE ▪ Facteurs de risques. Ensemble des éléments dont l'évolution est non prévisible et influe la valorisation des engagements de passifs ou d'actifs. ▪ Liquidité. Mesure permettant d’évaluer la facilité à acheter ou à vendre un volume significatif d’un actif ou passif. ▪ Normalité des facteurs de risque. Hypothèse qui suppose que les évolutions des facteurs de risque sont des phénomènes gaussiens. ▪ Modèle de risque de contagion. crédit dont l’objectif est d’intégrer d’une contrepartie sur le risque de modélisation des interactions entre rendre ces modèles complexes. ▪ Stratégie dynamique. Stratégie qui vise à ajuster l'allocation d'actifs en fonction de variables évoluant dans le temps. ▪ Horizon de rebalancement. Délai nécessaire aux ajustements de l'allocation dynamique d'actifs. Il peut aller de la milliseconde à quelques mois. Il dépend essentiellement de la liquidité des instruments. AD 2012 Modèle de risque de l’impact de la faillite faillite des autres. La les contreparties peut ▪ Approche delta gamma. Approche qui consiste à intégrer une sensibilité non linéaire à certains facteurs de risque. ▪ Fonction convexe. La courbe d’une fonction convexe est située en dessous de ses cordes. Les fonctions possèdent des propriétés de continuité et de dérivabilité qui facilitent la recherche d’extrema. 5/5 Banque Stratégie n° 303 Mai 2012 4 CHAPTER V The Case Against the Modern Theory of Finance IF MONEY IS AN IDOL, then one of the largest temple compounds of this modern faith sits on a tight bend of the River Thames, a few miles downstream from central London. There, in the Canary Wharf business district, rise eighteen steel and glass towers to which, each working day, 55,000 people commute to play their part in the international money market. These are the inheritors of Bachelier, Markowitz, Sharpe, Black, Scholes, and others: fund managers who balance risk and reward, bankers who calculate default risks, currency traders who place elaborate bets on options. Their collective brainpower, both carbon- and silicon-based, is astounding. As an industry, finance buys more computers than almost any other. It hires a huge proportion of the world's newly minted math and economics graduates. It is a vast calculating machine, a robot to hang an electronic price tag on every product, service, company, and country that deals in global commerce. This is where financial theory, from Bachelier to Black, meets financial reality. All the academic models are here, in the computers and workbooks of the pros-but almost invariably updated, altered, or mixed with other models. Indeed, the result is something like a traditional medicine or over-the-counter nostrum: many different chemicals and no clear "active ingredient." But in the world of finance, the purity or elegance of the theory does not matter. Only one question counts, what makes money? And there are no easy answers. Indeed, in the eyes of the academic purists, you would find lots of things that look plain wrong on a typical, real-world trading floor so many that, when visiting one, you can play the old childhood game of "spot the mistakes" in an intricate picture. Citigroup runs one of the biggest foreign-exchange operations at Canary Wharf. On a typical day in 2003, it is crowded, busy and self-absorbed. The Citigroup trading room is vast, with hundreds of computers, ceilings, track lighting, and 130 currency traders and salespeople arrayed along rows of desks, six to a side. Above the desks, small flags-the Union Jack, the Stars and Stripes, the Rising Sun-mark the currencies in which each cluster of traders specializes. Their language is colorful and arcane: "NokieStokie" for trades between Norwegian and Swedish kronor (Nokie for the currency's computer code, NOK; Stokie for the Swedish capital, Stockholm); "cables" for the dollar-pound market whose rates were once cabled across the Atlantic; "plain vanilla" for the most common, standardized currency options. Each day, the multinational bank moves about one-ninth of all the world's internationally traded dollars, yen, euros, pounds, zlotys, and pesos; and about a third of its global "PX" business happens on the second floor of the London office. But consider the "mistakes" on this floor. Seated at one row of desks, a pair of analysts spend their days studying the orders of the bank's own customers. They are looking for broad patterns they can report back to the clients in regular newsletters. Theirs is the sort of market-insider information that, one form of the Efficient Market Hypothesis says, should not be useful; any profitable insights into trading data should already be reflected in the prices. But they do not buy that notion: "The biggest edge you can have is the private information of who's buying what," says one of the analysts. "We do not believe the market is efficient." Second mistake: A few desks down is a math Ph.D. from Cambridge. He spends much of each day studying the fast-changing "volatility surface" of the options market-an imaginary 3-D graph of how price fluctuations widen and narrow as the terms of each option contract vary. By the Black-Scholes formula, there should be nothing of interest in such a surface; it should be flat as a pancake. In fact it is a wild, complex shape. Tracking it and predicting its next changes are fundamental ways in which Citigroup's options traders make money. About 10 percent of the world FX options market is of a class called exotic. It has mind-numbing combinations of precise options terms tailor-made to pay off only under certain circumstances. These combinations are obscure to most people, but perhaps just what the CFO of GM AD 2012 1/4 The (mis) Behaviour of markets 2008 4 needs to guard against one particular risk that worries him in his company's yen-based cash-flow. None of this would exist if the original Black-Scholes formula were accurate. Of course, the formula remains important; it is the benchmark to which everyone in the market refers, much the way, say, people talk about the temperature in winter even though whether they actually feel cold also depends on the wind, the snow, the clouds, their clothing, and their health. Citigroup's options analysts have the Black-Scholes formula in front of them all the time, in spreadsheets. But it is just a starting point. Third mistake: the research department. Now, by orthodox theory, there should be no research department. You cannot beat the market, so all you need are a few traders and computers to stay even with it. But Jessica James, a Citigroup research vice president, punches up on her computer screen a simple chart, a graph of the dollar-yen exchange rate over the past decade. It wiggles across the screen, a seeming random walk reflecting the world's mercurial views on the relative merits of the American and Japanese economies: up, down, or sideways in what the eye sees as an irregular pattern, but which standard financial theory calls random fluctuation. Then she performs an elementary task, of the sort chartists have been doing for a century. She calculates a moving average for each day, the average of the exchange rate over the prior sixty-nine days. This calculation traces a smoother, gentler line than the raw price data, averaging out all the peaks and troughs. Now, she suggests, here is a simple way to make some money in the currency market: Every time the actual exchange rate climbs above the average line, you buy. Every time it falls below the average line, you sell. Simple. The result? If you had followed this strategy over the past decade, she calculates, you could have pocketed an average annual return of 7.97 percent. Heresy. Impossible. According to the Efficient Market Hypothesis, there should be no such predictable trends. Certainly, skepticism is warranted. As James notes, there is a big difference between spotting veins of gold in old price charts and minting real gold in live markets. Those 7.97 percent average returns included some periods of hair-raising loss, when sticking to the strategy would have required steel nerves and deep pockets. Still, a by-now substantial body of economics research suggests that there is, indeed, money to be made in such a "trend-following" strategy; how much, and whether it is worth the risk and expense, is a matter of debate. But clearly, the market pros have already voted: More than half of currency speculators play some form of trend-following game, market analysts estimate. So how to explain so stark a discrepancy between theory and reality? Start by looking at the assumptions underpinning the theory. SHAKY ASSUMPTIONS All models by necessity distort reality in one way or another. A sculptor, when modeling in stone or clay, does not try to clone Nature; he highlights some things, ignores others, idealizes or abstracts some more, to achieve an effect. Different sculptors will seek different effects. Likewise, a scientist must necessarily pick and choose among various aspects of reality to incorporate into a model. An economist makes assumptions about how markets work, how businesses operate, how people make financial decisions. Any one of these assumptions, considered alone, is absurd. There is a rich vein of jokes about economists and their assumptions. Take the old one about the engineer, the physicist, and the economist. They find themselves shipwrecked on a desert island with nothing to eat but a sealed can of beans. How to get at them? The engineer proposes breaking the can open with a rock. The physicist suggests heating the can in the sun, until it bursts. The economist's approach: "First, assume we have a can opener. ..." The assumptions of orthodox financial theory are at least as absurd, if viewed in isolation. Consider a few: 1) Assumption: People are rational and aim only to get rich. Theory: When presented with all the relevant information about a stock or a bond, individual investors can and will make the obvious rational choice that leads to the greatest possible wealth and happiness. They will not ignore important information, or pay a lot for a stock they expect to fall. They will not become AD 2012 2/4 The (mis) Behaviour of markets 2008 4 philanthropists. They will behave as rational, clear-thinking, self-interested individuals, each one a latterday Adam Smith. They will make the market work efficiently, with their well-reasoned actions driving prices quickly to the "correct" level. And their preferences can be expressed in straightforward formulae, economic "utility functions" that, for a given input, always yield the same output. In the language of economics: The greatest wealth and happiness maximize utility. In short, rational investors make a rational model of the market. Reality: People simply do not think in terms of some theoretical utility measurable in dollars and cents, and are not always rational and self-interested. The refutation of this one assumption of modern financial theory has in the past twenty-five years created a fertile new field of inquiry, called behavioral economics. It studies how people misinterpret information, how their emotions distort their decisions, and how they miscalculate probabilities. For instance, suppose you offer somebody a choice: They can flip a coin to win $200 for heads and nothing for tails, or they can skip the toss and collect $100 immediately. Most people, researchers have found, will take the sure thing. Now alter the game: They can flip a coin to lose $200 for heads and nothing for tails, or they can skip the toss and pay $100 immediately. Most people will take the gamble. To the imagined rational man, the two games are mirror images; the choice to gamble or not should be the same in both. But to a real, irrational man, who feels differently about loss than gain, the two games are very different. The outcomes are different, and sublimely irrational. 2) Assumption: All investors are alike. Theory: People have the same investment goals and the same time-horizon; they all aim to measure their returns and fold their cards after the same holding period, whether days or years. Given the same information, they would make the same decisions. While their wealth may vary, none of them is rich or powerful enough to influence prices on their own. They have, in the terminology of economics, homogeneous expectations. They are price-takers, not makers. They are like the molecules in the perfect, idealized gas of a physicist: identical and individually negligible. An equation that describes one such investor can be recycled to describe all. Reality: Patently, people are not alike -even if differences in wealth are disregarded. Some buy and hold stocks for twenty years, for a pension fund; others flip stocks daily, speculating on the Internet. Some are "value" investors who look for stocks in good companies temporarily out of fashion; others are "growth" investors who try to catch a ride on rising rockets. Once you drop the assumption of homogeneity, new and complicated things happen in your mathematical models of the market. For instance, assume just two types of investors, instead of one: fundamentalists who believe that each stock or currency has its own, intrinsic value and will eventually sell for that value, and chartists who ignore the fundamentals and only watch the price trends so they can jump on and off bandwagons. In computer simulations by economists Paul De Grauwe and Marianna Grimaldi at the Catholic University of Leuven, in Belgium, the two groups start interacting in unexpected ways, and price bubbles and crashes arise, spontaneously. The market switches from a well-behaved "linear" system in which one factor adds predictably to the next, to a chaotic "non-linear" system in which factors interact and yield the unanticipated. And that is with just two classes of investors. How much more complicated and volatile is the real market, with almost as many classes as individuals? 3) Assumption: Price change is practically continuous. Theory: Stock quotes or exchange rates do not jump up or down by several points at a time; they move smoothly from one value to the next. Continuity of this sort characterizes all physical systems subjected to inertia; it is, for instance, the way temperature rises and falls during the day. And it jumped long ago into economics AD 2012 3/4 The (mis) Behaviour of markets 2008 4 theory: Natura non facit saltum or, Nature does not make leaps, was the motto of one of the discipline's first reference texts, the 1890 Principles of Economies by Alfred Marshall. If you assume continuity, you can open the well-stocked mathematical toolkit of continuous functions and differential equations, the saws and hammers of engineering and physics for the past two centuries (and the foreseeable future). You can also draw important, useful inferences. For instance, as discussed in the preceding chapter, Markowitz's central idea was to reduce all investment decisions to two simple numbers, the mean and variance of expected prices, mathematical proxies for return and risk. In 1970 MIT's Samuelson offered a proof for Markowitz's simplification predicated on the assumption that prices change continuously. Reality: Clearly, prices do jump, both trivially and significantly. The trivial: Brokers often quote prices in round numbers, skipping intermediate values. Thus in the currency market, professional traders observe, about 80 percent of quotes end in a 0 or a 5, skipping the intermediate digits. The usual odds would suggest those values, being just two of the ten possible final digits in a number, should occur only about 20 percent of the time. Then there is the significant: Almost every day on the New York Stock Exchange, "order imbalances" occur in one stock or another. On one typical day, January 8, 2004, Reuters News Service reported imbalances happening eight times. Here, major news-approval of a medicine by the Food and Drug Administration, an unexpected takeover offer, or a windfall legal victory-caused market indigestion; sell and buy orders did not match, and market-makers had to raise or lower their price quotes until they did. To cope, some exchanges license "specialist" broker-dealers to step into the breach and trade when others will not. These specialists, while risking much, also profit greatly. Discontinuity, far from being an anomaly best ignored, is an essential ingredient of markets that helps set finance apart from the natural sciences. 4) Assumption: Price changes follow a Brownian motion. Theory: Brownian motion, again, is a term borrowed from physics for the motion of a molecule in a uniformly warm medium. Bachelier had suggested that this process can also describe price variation. Several critical assumptions come together in this idea. First, independence: Each change in price -whether a five-cent uptick or a $26 collapse- appears independently from the last, and price changes last week or last year do not influence those today. That means any information that could be used to predict tomorrow's price is contained in today's price, so there is no need to study the historical charts. A second assumption: statistical stationarity of the price changes. That means the process generating price changes, whatever it may be, stays the same over time. If you assume coin tosses decide prices, the coin does not get switched or weighted in the middle of the game. All that changes are the number of heads or tails as the coin is tossed; not the coin itself. And a third assumption: the normal distribution. Price changes follow the proportions of the bell curve -most changes are small, an extremely few are large, in predictable and rapidly declining frequency. Reality: Life is more complex. This third set of assumptions is the one most clearly contradicted by the facts. Because it underpins almost every tool of modern finance, it gets special attention in the following chapter-in-a-chapter. Benoît MANDELBROT AD 2012 4/4 The (mis) Behaviour of markets 2008 5 MATHÉMATIQUES FINANCIÈRES LES MODÈLES CONTRIBUENT-ILS À L’EFFICACITÉ DES MARCHÉS FINANCIERS ? […] ▪ L'EXEMPLE DES PRÊTS IMMOBILIERS À LES APPORTS DES MODÈLES MATHÉMATIQUES AUX MARCHÉS FINANCIERS TAUX FIXE En France, comme dans certains autres pays, la majeure partie des prêts accordés aux particuliers en vue de l'achat d'un bien immobilier sont des prêts à taux fixes. Ce type de prêt est très souvent considéré comme protégeant au mieux l'emprunteur, celui-ci étant certain du montant des mensualités à venir jusqu'à l'échéance de son prêt 2 . Pourtant, pour les établissements se refinançant en partie à court terme ou à taux variable, proposer ce type de prêts n'est pas naturel, et ne peut se faire que grâce à l'utilisation de modèles mathématiques. Tout d'abord, pour être en mesure de contrôler leur risque de refinancement lié aux prêts accordés à leurs clients, les établissements ont dû mettre en place des modèles statistiques d'écoulement de leurs ressources (les dépôts, les placements à terme) et de leurs emplois (les prêts) de liquidités : • l'horizon et le renouvellement à venir des ressources n'est pas certain ; • les remboursements anticipés, voire les défauts des contreparties, ainsi que la production de nouveaux prêts sont également aléatoires. Pour gérer le risque de taux résultant des prêts à taux fixe, les départements de gestions ALM 3 des établissements de crédit ont recours à des produits dérivés, le plus souvent des swaps de taux d'intérêt. La liquidité de ces instruments, et donc le coût 4 , découle de l'utilisation de modèles mathématiques. Plus généralement, les processus d'octroi, puis de gestion, de l'ensemble des prêts -par exemple, les prêts accordés aux entreprises ou Nous n'allons pas ici refaire une histoire des mathématiques financières, ou de l'apport des mathématiques appliquées (probabilités, équations aux dérivées partielles et statistiques) à la finance. Le lecteur cherchant à approfondir cette question pourra par exemple se référer à Bouleau 1 . Nous allons plutôt donner quelques exemples des apports des modèles mathématiques pour les clients des établissements de crédit. ▪ LES PRODUITS DÉRIVÉS : DES INSTRUMENTS DE COUVERTURE POUR LES ENTREPRISES Les options constituent les premiers exemples de produits proposés par une banque à ses clients, découlant de l'utilisation de modèles mathématiques. Aujourd'hui, un industriel, qui veut se protéger contre une hausse du prix d'une matière première, d'une hausse de ses coûts de production ou d'une baisse de son prix de vente en raison de la fluctuation des taux de change, peut acheter une option sur matières premières ou une option de change. Grâce aux modèles de valorisation et de couverture des options, un établissement peut, en effet, faire l'intermédiaire entre différents acteurs, entre différentes catégories de clients, dont les intérêts divergent sans pour autant s'opposer parfaitement. La sophistication croissante des modèles de valorisation utilisés a permis la distribution de nouveaux profils d'options, permettant, selon leurs vendeurs, de mieux répondre aux besoins des clients, ou de diminuer le coût d'une protection recherchée. 2 3 1 4 N. Bouleau, Martingales et marchés financiers, Paris, Éditions Odile Jacob, 1998. AD 2012 1/5 Il n’est en effet pas nécessaire de rappeler l’impact des prêts à taux variables lors de la crise des subprimes. Asset and Liability Management. Plus précisément l’écart entre le prix à l’achat et le prix à la vente. Revue Banque hors série Mai 2011 5 les prêts à la consommation- bénéficient de l'utilisation de modèles mathématiques. Les statisticiens ont développé des méthodes de scoring, pour une meilleure appréciation de la qualité des emprunteurs, et des modèles avancés d'analyse des remboursements anticipés. Ces outils combinés avec les probabilités, les équations aux dérivées partielles et l'analyse numérique ont soutenu le développement du marché des titres adossés à des pools de créances hypothécaires. Le marché du crédit a depuis connu un développement vertigineux, exploitant l'idée formidable d'un mécanisme de refinancement du crédit par les investisseurs financiers, jusqu'à l'explosion du système lors de la dernière crise... N et les volumes de titres échangés sur les marchés. La valeur du portefeuille ainsi calculée ne peut donc être assimilée à une valeur de liquidation que si l'on suppose que la liquidité des marchés est très grande par rapport à la taille du portefeuille. Elle est donc le résultat d'un modèle. Les acteurs de marché ont bien évidemment conscience de l'importance de ce phénomène de liquidité. Ainsi, les services d'exécution d'ordre utilisent des modèles dits « d'impact » pour fractionner leurs accès au marché, les gestionnaires de portefeuille ont mis en place des fonds dits « fermés », bien conscients que leurs stratégies de portefeuille sont relatives à la taille du capital géré. Il en va également pour les calculs de fonds propres réglementaires des établissements de crédit selon les méthodes dites « standard ». Par exemple, les établissements financiers ont le choix entre l'utilisation d'une méthode dite « standard » pour le calcul de l'exigence de fonds propres au titre du risque de marché de son portefeuille de négociation et une méthode dite « modèle interne » 6 . La méthode standard repose, grosso modo, sur l'utilisation de scénarios définis par le régulateur. Les facteurs de risques pris en compte par cette méthode sont également fixés par le régulateur, ainsi que l'ampleur des chocs 7 . Cette méthode doit donc être considérée comme un modèle dont une des hypothèses est que les principaux risques du portefeuille sont portés par les facteurs de risque retenus. En fait, dès lors que l'on cherche à quantifier la valeur ou le risque d'un portefeuille, il est nécessaire de recourir à un modèle, lequel peut paraître très simple, mais dont les hypothèses peuvent être alors très fortes. ▪ FONDS PROPRES POUR LES INSTITUTIONS DE CRÉDIT Des modèles statistiques sont également largement utilisés pour le calcul de l'exigence en fonds propres réglementaires liés aux risques de défauts encourus par les établissements de crédit qui proposent ces produits (modèles communément appelés « modèle Bâle II », en référence aux recommandations du Comité de Bâle sur la supervision bancaire 5 ). Grâce à l'utilisation de modélisation statistique des défauts, les établissements de crédit peuvent allouer au mieux leurs fonds propres réglementaires, en particulier optimiser le volume des prêts accordés à leurs clients compte tenu des fonds propres dont ils disposent. • DES MODÈLES QUI N'EN PORTENT PAS LE NOM Pour terminer cette liste, il nous semble indispensable de rappeler que certains calculs qui nous semblent simples, résultent en fait d'hypothèses fortes, et doivent également être considérés comme des modèles. Il en va ainsi en premier lieu du calcul de la valorisation d'un portefeuille. Le fait de considérer que la valeur d'un portefeuille constitué d'une quantité N d'un titre de prix unitaire S est égale à NxS repose sur une hypothèse forte : la valeur de ce portefeuille est considérée comme ne devant pas tenir compte du rapport entre la taille du portefeuille 5 • DES MODÈLES QUI PEUVENT AUGMENTER LA LIQUIDITÉ DES MARCHÉS Grâce à des modèles mathématiques de calcul de risque ou de valorisation, de nouveaux instruments financiers ont pu être créés, qui ont contribué à rendre liquides des instruments qui ne l'étaient pas. On peut ainsi citer en premier l'exemple de la titrisation dont le principe est de fabriquer des instruments associés à des niveaux de risque différents (les 6 7 Comité de Bâle sur le contrôle bancaire, « Convergence internationale de la mesure et des normes de fonds propres », juin 2004. AD 2012 2/5 L’utilisation d’un modèle interne nécessite l’autorisation préalable du superviseur. L’amplitude des chocs est considérée suffisamment conservatrice pour compenser le nombre limité de sources de risque retenu. Revue Banque hors série Mai 2011 5 différentes tranches d'une titrisation) à partir de prêts (à des particuliers, à des entreprises) qui sont par essence illiquides. On peut également citer les Credit Default Swaps (CDS), ces produits dérivés, qui n'auraient pu exister sans modèle de valorisation associé, ont contribué à rendre les marchés obligataires plus transparents, et donc plus liquides 8 . RISQUE DE LIQUIDITÉ ENDOGÈNE La non-prise en compte de la liquidité endogène 9 est une des principales carences des modèles de valorisation ou de suivi des risques qu'a mis en évidence la crise des subprimes. Celle-ci correspond à l'impact sur les prix de la liquidation d'une position dans un marché trop étroit et s'appliquant donc aux ordres dont la taille est suffisante pour faire décaler le prix de marché. La liquidité endogène tient compte de la taille de la position d'un intervenant par rapport aux volumes habituellement traités sur les marchés, mais également des positions des autres intervenants sur le marché. La crise des subprimes a éclaté lorsque tous les intervenants ont pris conscience du fait que tous les emprunteurs n'allaient pouvoir faire face à leurs charges d'emprunt qu'en revendant leurs biens immobiliers à de nouveaux emprunteurs. Jusqu'à présent, la liquidité endogène n'est que très peu prise en compte dans la valorisation comptable des instruments financiers. Alors que la réglementation prudentielle incite les établissements de crédit à tenir compte de la concentration ou de la taille des positions dans l'appréciation des coûts de liquidité 10 , ces pratiques ne sont pas toujours jugées compatibles avec les exigences comptables 11 . • UNE UTILISATION QUI DÉPASSE LA DEMANDE DES « SPÉCULATEURS » De cette liste, même succincte, d'application des mathématiques financières, deux conclusions peuvent être énoncées. La première est qu'il n'est pas possible de faire de la finance sans modèles mathématiques. La seconde est que les modèles mathématiques utilisés sur les marchés financiers ont des intérêts qui dépassent très largement la demande des « spéculateurs », mais bénéficient au plus grand nombre. Pire encore, tous les modèles de mathématiques financières sont fondés sur le postulat d'absence d'arbitrage, c'est-à-dire l'impossibilité de dégager un bénéfice non risqué sans apport de fonds et de risque de pertes possibles. Ce postulat est la seule loi fondamentale des marchés financiers sans laquelle les opérateurs afficheraient des prix qui pourraient être immédiatement exploités par des arbitrageurs. La prise en compte de l'absence d'arbitrage est à l'origine de toutes les techniques de calibration qui conditionnent souvent la nature de la modélisation choisie. • RISQUE SYSTÉMIQUE Les acteurs vont souvent dans le même sens, que ce soit pour des raisons structurelles ou par mimétisme. On peut citer l'exemple de la bulle Internet de 2000, ou, plus récemment, le fait qu'à la fin des années 2000, les établissements de crédit ont vendu massivement des produits d'investissement ou des emprunts structurés indexés sur des différentiels de taux d'intérêt, construits sous l'hypothèse que la structure croissante de la courbe des taux d'intérêts en EUR allait persister. LES LIMITES DES MODÈLES La crise récente a eu des conséquences très lourdes pour beaucoup : perte d'un emploi, d'un logement, d'une épargne, hausse des déficits publics... Elle a aussi mis en évidence auprès du grand nombre certaines limites des modèles de valorisation ou de calcul des risques utilisés sur les marchés financiers, dont nous commentons quelques lacunes principales. 9 10 8 11 A. B. Ashcraft et J. A. C. Santos, “Has the CDS Market Lowered the Cost of Corporate Debt ?”, NY Fed Staff Report, n° 290, juillet 2007. AD 2012 3/5 Distinction introduite dans A Bangia, F.X. Diebold, T. Schuermann et J.O. Stroughair, “Modeling liquidity risk, with implication for traditional market risk measurement and management”, Wharton working paper, 1999. Voir l’arrêté du 20 février 2007 relatif aux exigences de fonds propres applicables aux établissements de crédit et aux entreprises d'investissement, article 307-3, ou le document publié par le Comité de Bâle sur le contrôle bancaire, « Supervisory guidance for assessing banks'financial instrument fair value practices - final paper », avril 2009, articles 700 et 701. Issue 9 of IASB, Discussion paper, novembre 2006 : “The quoted price shall not be adjusted because of the size of the positions relative to trading volume”. Revue Banque hors série Mai 2011 5 de crédit ne doivent pas non plus être considérés comme infaillibles. Ainsi, dans leurs rapports annuels, certains établissements de crédit n'ont pas hésité à communiquer sur les imperfections de leurs modèles utilisés pour les calculs de fonds propres réglementaires. De son côté, le Comité de Bâle sur le contrôle bancaire cherche constamment à combler les carences des modèles de mesure de risque. C'est dans cet esprit qu'a par exemple été publiée une revue de la littérature académique relative à la mesure des risques du portefeuille de négociation des banques 12 . Les modèles utilisés communément excluent toute interaction entre les différents agents, ou entre les actions de ceux-ci et les prix de marchés : prendre en compte ces interactions nécessiterait la résolution de problèmes techniques relativement lourds. Pourtant, cette simplification peut avoir des conséquences non négligeables. Ainsi, lors des mouvements brusques de la pente de la courbe des taux en 2008, un grand nombre de banques ayant cherché simultanément et de manière similaire à ajuster leurs couvertures, les coûts de ces réajustements ont augmenté. Même si les opérateurs de marché sont souvent conscients du risque systémique, la prise en compte de celui-ci -intimement lié à la problématique de la liquidité endogène déjà citée- dans les modèles de valorisation, dans les modèles de mesures de risque, et même plus simplement dans le suivi des risques de marché est constamment à améliorer. • LE CAS PARTICULIER DU TRADING À HAUTE FRÉQUENCE Depuis une dizaine d'années, des automates (ou algorithmes) de trading à haute fréquence sont utilisés par des gérants de fonds spéculatifs (hedge funds), ou même par des opérateurs de marchés au sein même des portefeuilles de négociation des établissements de crédit. Ces automates fonctionnent selon les grandes lignes suivantes. Des modèles statistiques sophistiqués sont développés pour l'estimation dynamique des carnets d'ordre. Afin de prendre en compte l'impact d'une transaction sur le carnet d'ordre, les ordres d'achat et de vente sont fractionnés en utilisant des méthodes d'optimisation dynamique. Enfin, ce domaine est dopé par l'importance des progrès technologiques de pointe. Ainsi, les acteurs de ces marchés utilisent des méthodes sophistiquées de traitement du signal et de l'image, et ne reculent pas devant les investissements massifs dans les moyens de communication de haute performance. Dans un article du Guardian 13 , Sean Dodson alerte sur le danger des automates de trading qui représenteraient 40 % des transactions sur le London Stock Exchange et jusqu'à 80 % sur certaines actions américaines. II est vrai que ces systèmes contribuent à accroître la liquidité sur le marché et à réduire les coûts de transactions. Mais le mini krach du 6 mai 2010 illustre bien le danger que peut représenter le recours croissant à des logiciels de trading hors du contrôle humain. • RISQUE DE CONTREPARTIE SUR LES PRODUITS DÉRIVÉS Parmi les lacunes des modèles de valorisation mis en place dans les établissements de crédit figure la prise en compte du risque de contrepartie dans la valorisation des produits dérivés. En lien avec l'absence de prise en compte du risque de liquidité endogène, la sous-estimation du risque de contrepartie des produits dérivés a contribué à la crise des monolines : pendant les années 2000, les établissements de crédit ont empilé des achats de protection sous forme de credit difault swaps (CDS) sans nécessairement prendre en compte correctement les risques, et donc en en surestimant la valeur. Cette carence est, elle, progressivement corrigée : les établissements de crédit, soit par eux-mêmes, soit sous l'impulsion des superviseurs et des normalisateurs comptables, intègrent de mieux en mieux, via des ajustements de valorisation (Credit Valuation Adjustment - CVA), l'impact de la qualité de la contrepartie sur la valorisation des produits dérivés. Simultanément, afin de réduire ce risque, de nombreux accords de collatéralisation (Credit Support Annex - CSA) ont été mis en place. • MODÈLES DE MESURE DE RISQUE 12 Les modèles mathématiques utilisés pour la quantification des risques des établissements 13 AD 2012 4/5 Basel Committee on Banking Supervision Working Paper n° 19, “Messages from the academic literature on risk measurement for the trading book”. Sean Dodson, “Was software responsible for the financial crisis ?”, The Guardian, 16 octobre 2008. Revue Banque hors série Mai 2011 5 Si les conséquences de certaines approximations des modèles sont maintenant mieux mesurées et prises en compte, comme le risque de contrepartie via les CVA, d'autres doivent encore être mieux considérées. On pense en particulier aux phénomènes de liquidité endogène, amplifiés encore par l'utilisation croissante d'automates de trading à haute fréquence, qui devraient être mieux mesurés, afin de prendre en compte leur impact sur la valorisation et la quantification des risques des portefeuilles d'instruments financiers. Les exemples précédents montrent la nécessité d'un investissement plus grand dans la modélisation en finance de marché. Un tel effort est nécessaire pour une meilleure appréhension des risques encourus, pour une meilleure conception des réserves de capital et pour la mise en place de mesures de précaution minimales permettant d'amortir les violentes secousses des crises financières qui apparaissent indéniablement de manière cyclique. Compte tenu de l'impact que peuvent avoir ces erreurs sur la société, et comme les événements de ces dernières années le montrent, il est nécessaire de renforcer à nouveau le contrôle indépendant des modèles de mathématiques financières utilisés. Un contrôle indépendant de premier niveau doit être réalisé en interne au sein des établissements de crédit qui les utilisent. Les modèles et leur processus de revue interne doivent ensuite être soumis à des contrôles externes : les modèles de valorisation seront examinés par les autorités comptables et de supervision, tout comme les modèles de calcul de risque par les superviseurs bancaires. Le même raisonnement s'applique aux modèles mathématiques utilisés par les autres acteurs de la vie économique que sont les compagnies d'assurances. S'il n'est pas aisé d'encadrer l'utilisation des automates de trading chez tous les acteurs financiers, il est devenu nécessaire de s'interroger sur l'impact qu'auraient potentiellement les modèles sous-jacents sur la valorisation et sur les mesures de risques des portefeuilles d'instruments financiers de l'ensemble des intervenants. • AUTRES EXEMPLES D'autres points sont souvent négligés dans la valorisation des produits dérivés. On peut mentionner les coûts de refinancement, les coûts administratifs futurs... Même si des progrès ont été faits, notamment sur le suivi du risque de liquidité (au sens du refinancement), des améliorations devraient encore être apportées. UNE REPRÉSENTATION APPROCHÉE DE LA RÉALITÉ L'utilisation de modèles mathématiques est inhérente aux marchés financiers, et malgré ce que l'on peut parfois penser, elle se révèle utile au plus grand nombre. Il n'est en effet pas possible d'envisager des marchés financiers sans modèles mathématiques, au moins extrêmement basiques. Et ces modèles les plus simples ont prouvé leurs limites et doivent être perfectionnés. En effet, tout modèle -et ceux propres aux mathématiques financières n'échappent pas à cette règle- n'est qu'une représentation approchée de la réalité. Tout utilisateur d'un modèle doit être conscient de ses limites et devrait avoir pour objectif de quantifier l'impact des approximations faites. L'utilisateur d'un modèle de valorisation ou de calcul de risque doit donc disposer d'une information suffisante sur celui-ci. Nizar TOUZI Philippe DURAND Nizar TOUZI : Centre de mathématiques appliqués, École Polytechnique. Philippe DURAND : Cellule de contrôle des risques modélisés, Délégation au contrôle sur place des établissements de crédit, Autorité de contrôle prudentiel, Banque de France. NB : Les opinions présentées ici sont celles des auteurs, et ne reflètent pas nécessairement celles de l’Autorité de contrôle prudentiel, de la Banque de France ou de l’École Polytechnique. AD 2012 5/5 Revue Banque hors série Mai 2011 6 EST-CE LA FAUTE DES « PETITS GÉNIES » EN MATHÉMATIQUES ? Non… et oui ! La créativité, appliquée à la finance, des « petits génies en mathématiques » a permis de transformer du plomb en or. On peut même dire que l’industrie financière est née avec eux à partir des années 1970. À partir de flux financiers générés par des emprunteurs basiques, payant des intérêts normaux de moins de 10 %, ils ont su créer des produits financiers sophistiqués délivrant des retours sur investissement quelquefois supérieurs à 50 %. De plus, et peut-être surtout, leur contribution a été et est toujours largement positive en ce que les outils qu’ils ont imaginés, même s’ils sont difficiles à comprendre pour les non-initiés, permettent à l’économie de tourner en lui fournissant les capitaux dont elle a besoin, où et quand elle en a besoin. L’essor de la finance, qui a permis la mondialisation, le décollage de pays émergents, plus de dix ans d’une exceptionnelle croissance au niveau mondial, n’aurait pas pu advenir sans les résultats de leurs travaux. Ces derniers trouvent des applications partout, contribuent à tous les processus de décision de cette industrie. Les mathématiques sont au cœur de la finance moderne. Si son apport principal se situe dans la modélisation du risque, il apparaît cependant que les modèles utilisés sont extrapolés des théories et des travaux d’une série de prix Nobel américains, comme Robert Merton ou Paul Samuelson, qui datent des années 1960. Et ces travaux découlent eux-mêmes de l’étude des mouvements browniens (mouvements pas si aléatoires que cela, puisque l’on chauffe autour d’un point des particules d’un gaz ou d’un fluide) dont l’introduction dans la finance remonte à 1900. Or, il est apparu depuis, en particulier au moment de la crise boursière de 1987, que ce modèle brownien tel qu’exploité par le programme « VaR », Value at Risk, ne peut prendre en compte les situations extrêmes, et qu’il a donc tendance à minimiser fortement les risques quand ces situations surviennent. C’est le reproche principal que l’on peut adresser aux agences de notation : leur échec à noter convenablement les risques, leur propension à donner des AAA à des produits qui se sont révélés très risqués, ne tiendrait pas tant à leur manque de régulation ou au conflit d’intérêt dans lequel elles se trouvent, comme procès leur en a été fait, mais simplement à l’archaïsme de leurs modèles de notation. D’autres modèles, qui prennent en compte les situations extrêmes, ont été développés depuis lors. Ils n’ont toujours pas été adoptés par l’industrie financière, car ils l’auraient obligée à changer l’ensemble de ses procédures, de ses programmes informatiques, à former à nouveau la totalité de ses personnels, bref à se restructurer complètement… Elle ne l’a pas fait puisque dans une situation « normale », en l’absence de crise, les modèles « browniens » fonctionnaient très bien et suffisaient, jusqu’à il y a encore quelques mois, à assurer le fonctionnement des marchés… Une des leçons qui sera tirée de la crise actuelle sera donc certainement d’obliger l’industrie financière à moderniser ses modèles mathématiques, et à favoriser encore plus la recherche sur ces sujets. Quelles que soient les réglementations qui seront adoptées à la suite de cette crise, l’imagination et la créativité des « petits génies des maths » seront alors encore plus mobilisées. Nicole CRESPELLE AD 2012 1/1 La crise en questions Éditions Eyrolles - 2009 7 UNE DANGEREUSE SOUS-ESTIMATION DE L’INCERTITUDE Pour l'école de Chicago, fondatrice de la théorie moderne de la finance, les marchés sont efficients et prévisibles. Une approche contestée par Benoît Mandelbrot et Nassim Nicholas Taleb. L moment les revendre au mieux. Hormis l’accès à des informations privilégiées (mais c'est un délit d'initié !), les investisseurs utilisent deux techniques : soit ils se penchent sur les graphiques des cours en tentant d'y détecter des signes d'achat ou de vente (c'est l'analyse graphique ou technique), soit ils étudient les données économiques et comptables de l'entreprise de façon à estimer si son bénéfice va augmenter (l'analyse fondamentale). Des approches empiriques, « au doigt mouillé », mais qui demeurent encore utilisées aujourd'hui. a disparition du mathématicien français Benoît Mandelbrot, le 14 octobre 2010, a donné lieu à de nombreux hommages dans la presse scientifique. Mais curieusement, très peu parmi la presse économique et financière. Le laconisme, ou carrément l’oubli, était plutôt de mise. Pourquoi les économistes auraient-ils dû se sentir concernés, et peinés, par cette disparition ? Après tout, Mandelbrot restera dans l'histoire comme l’inventeur des « fractales » des formes « invariantes d’échelle », c’est-à-dire qu’en zoomant sur une partie ou en regardant le tout, on retrouve la même structure. Par exemple, un arbre est composé de branches, qui se subdivisent en branches plus petites, celles-ci en branches encore plus fines, etc. Or, rien ne ressemble autant aux variations du cours d’une action sur un mois que celles sur une semaine, un jour… C’est également un objet fractal et cela a des implications profondes pour la compréhension de marchés financiers et des risques qui y sont liés. Mandelbrot a ainsi beaucoup écrit sur la finance, mais comme un trublion, un hétérodoxe que les économistes préfèrent oublier tant il remet en cause l'approche financière dominante. Pour le comprendre, il faut revenir à la base de ce que représente un investissement dans la finance. Un actif financier, une action, par exemple, offre un certain rendement lorsqu'il apporte un dividende et/ou que son cours monte, ce qui procure un bénéfice à son détenteur. Mais il comporte également un risque, celui de perdre une partie de son investissement, si le cours baisse. Plus une action est risquée, plus elle offre une rentabilité importante : le rendement et le risque évoluent de concert, c'est le « salaire de la peur », en quelque sorte. Pour les investisseurs, la question est donc de savoir quelles actions acheter et à quel AD 2012 L’ÉCOLE DE EFFICIENTS CHICAGO ET LES MARCHÉS Une innovation fondamentale se produit dans les années 1960 aux États-Unis, autour de l'université de Chicago, avec la naissance de ce qui deviendra la « théorie moderne de la finance ». De jeunes chercheurs s'attachent à formaliser de façon mathématique le comportement des actions. Harry Markowitz et William Sharpe fondent ainsi la « théorie du portefeuille » : mesurant le couple rendement/risque pour chaque action, leur modèle détermine lesquelles acheter en fonction de la rentabilité que l'investisseur veut atteindre, ou du niveau de risque maximal qu'il est prêt à supporter. De son côté, Eugene Fama explique que les marchés sont efficients, donnant ainsi l'assise conceptuelle déterminante à cette nouvelle approche. Un marché efficient signifie que les cours reflètent à chaque instant l'intégralité de l'information disponible et que, d’un instant à l'autre, le marché « attend » la nouvelle information qui les fera varier. Les cours sont donc indépendants les uns des autres : celui d'hier n'influence pas celui d’aujourd’hui, seul un changement dans les informations disponibles peut les faire varier. En 1/3 Alternatives Économiques hors série 1er trimestre 2011 7 conséquence, on ne peut jamais battre le marché, car il « sait » tout avant vous, puisqu'il intègre toutes les informations. Plutôt que de rechercher un improbable « scoop », le plus sûr consiste à s'en remettre à l'analyse rendement/risque de chaque action. À partir des années 1970, la réussite de cette école est foudroyante. La finance passe alors de l'ère du flair des boursicoteurs à celle d'une véritable industrie, basée sur des modèles mathématiques et sur l'informatique. Et les économistes de Chicago semblent apporter une réponse à la question essentielle de savoir comment mesurer l'incertitude qui règne sur les marchés. Markowitz, Sharpe et consorts retiennent la courbe de Gauss, aussi appelée loi normale, représentée par la fameuse courbe en cloche, découverte par Carl Friedrich Gauss (17771855). Elle constitue l'outil de base dans les sciences pour mesurer l'incertitude. Ces économistes y sont même incités -c'est une ruse de l'Histoire-, par un Français tombé dans l'oubli, Louis Bachelier. Celui-ci soutient une thèse à Paris, en 1900, intitulée Théorie de la spéculation dans laquelle il applique pour la première fois la théorie des probabilités et la courbe de Gauss à la finance. Cette approche novatrice ne suscitera pourtant aucun intérêt à l'époque. Bachelier disparaîtra, dans l'anonymat en 1946, jusqu'à ce que sa thèse soit traduite en anglais dans les années 1960 et lue attentivement par quelques étudiants de l'université de Chicago... La courbe de Gauss s'applique à de nombreux domaines en physique, aux jeux de hasard, à la taille des individus, etc., à tous les phénomènes indépendants les uns des autres, et donc, selon la théorie de l'efficience, aux cours de Bourse. La forme de cloche signale que, autour de la moyenne figurée par l'axe central, se regroupe la plupart des valeurs, les bords évasés figurant celles s'en écartant le plus. Les valeurs extrêmes sont donc plutôt rares et, effectivement, les personnes mesurant plus de deux mètres trente ne courent pas les rues ! Pour les actions, le risque est ainsi évalué par la dispersion des valeurs autour de la moyenne (on parle AD 2012 2/3 d'écart-type ou de variance qui en est le carré). Ainsi pour tel cours moyen (le rendement), la courbe de Gauss détermine un écart-type (le risque). En fonction du couple rendement/risque recherché, pour lequel les économistes de Chicago ont proposé une mesure, un investisseur choisira ce qu'il veut acheter et vendre. Simple. LA CONTRE-ATTAQUE DE MANDELBROT Benoît Mandelbrot, qui suit pas à pas le développement de cette école, se pose une question : la courbe de Gauss correspond-elle vraiment aux variations de cours des actions, telles que constatées sur les marchés ? L’interrogation semble triviale, mais en 1962, année où il publie sa première étude sur le sujet, les données sont peu fournies et les ordinateurs pour les traiter plus rares encore. Il trouve une série sur le cours du coton pendant presqu'un siècle, fait tourner un ordinateur à cartes perforées, et répond... par la négative. De courbe en cloche, point. Comment expliquer cela ? Toutes les formes d'incertitude ne se réduisent pas à la courbe de Gauss, répond Mandelbrot. C'est notamment le cas lorsqu'apparaissent des « effets de mémoire » et des « effets d'interaction ». Prenons l'exemple de l'édition. Les ventes de livres dépendent en grande partie de la notoriété des auteurs (qui s'inscrit dans la mémoire des acheteurs) et du bouche à oreille (les interactions) : un diagramme des ventes montre une dispersion extrême entre quelques best-sellers et une multitude de titres aux tirages confidentiels. Nous ne sommes plus du tout dans un univers gaussien, bien sagement regroupé autour d'une moyenne, mais dans celui des extrêmes. La moyenne, si elle peut être calculée, perd sa signification tant la dispersion des données est importante (l'écart-type est infini dans le jargon des statisticiens). On parle alors de « loi de puissance » ou de « loi de Pareto », habituellement connue par la règle des 20/80 : 20 % des livres font 80 % des ventes, 20 % des entreprises représentent 80 % du chiffre d'affaires dans un secteur donné, 20 % des ménages possèdent 80 % du patrimoine, etc. Et c'est précisément en étudiant la répartition des terres agricoles en Alternatives Économiques hors série 1er trimestre 2011 7 ème Italie à la fin du XIX siècle que Vilfredo Pareto (1848-1923) a fait cette découverte. Ces lois de puissance se retrouvent dans toute l'économie, et notamment sur les marchés financiers. Avec son article sur le coton, Benoît Mandelbrot le révèle pour la première fois, et l'économiste Paul Cootner, qui fera publier ce fameux article, déclare alors : « Si Mandelbrot a raison, la quasi-totalité de nos outils de statistiques sont obsolètes ». C'est notamment la sacro-sainte efficience des marchés, c'est-à-dire l'idée que les prix reflètent à chaque instant toute l'information disponible, qui est battue en brèche : dans le monde des 20/80, les intervenants n'ont évidemment pas un accès égal à l'information. Les phénomènes de mémoire génèrent une dynamique intrinsèque aux marchés financiers (la hausse suit la hausse, la baisse suit la baisse) qui n'est pas réductible à l'arrivée ou non de nouvelles informations extérieures au marché. Les interactions entre les différents acteurs créent des tendances autonomes, du mimétisme, qui entraînent des bulles. LE HASARD SAUVAGE Dans le cadre gaussien, la moyenne imprime sa « force » à l'ensemble, les écarts entre les valeurs sont limités, l'équilibre est la norme, l'instabilité l'exception. Il en va tout autrement avec les lois de puissance où les situations d'équilibre sont ponctuelles, l'instabilité chronique et les valeurs extrêmes courantes. Cela ressemble bien aux marchés financiers ! La théorie moderne de la finance va user, au cours de son développement ultérieur, de différents « rafistolages », mais elle refusera toujours de se remettre en cause. La courbe de Gauss sera élargie à la base, de façon à mieux tenir compte des écarts importants et des modèles intégreront des effets de mémoire. Mais tout cela reste dans le cadre gaussien, de même que les réflexions utilisées par David X. Li, un mathématicien de JPMorgan, pour créer les produits financiers qui ont servi à élaborer les subprimes et qui se sont désintégrés lorsque les prix de l'immobilier américain ont baissé fortement de façon inattendue. Ne se limitant pas à nous rendre aveugles aux événements extrêmes, la vision gaussienne provoque donc des crises en construisant des modèles et des produits financiers qui explosent en plein vol lors de chocs majeurs qu'elle ne prévoit pas ! Ceci dit, le modèle gaussien ça marche... tant qu'il n'y a pas de crise ! Et puisque l'État renfloue les banques en faillite, on peut recommencer comme avant. À l'inverse, intégrer une incertitude d'une échelle supérieure obligerait à être beaucoup plus prudent, y compris dans un contexte économique porteur, ce qui obligerait à constituer de plus amples provisions et diminuerait alors nettement les bonus et les dividendes versés. Voici peut-être un début d'explication au refus d'écouter Mandelbrot... Prolongeant les analyses du mathématicien français, le libano-américain Nassim Nicholas Taleb popularise le concept de « cygne noir », à travers un livre éponyme qui connaîtra un succès international. Les cygnes noirs sont justement ces événements extrêmes quasi impossibles à prévoir, mais qui se produisent bien plus souvent qu'on ne le croit. Ils ne sont pas forcément négatifs d'ailleurs, mais plutôt que faire la politique de l'autruche comme les « gaussiens », il faut apprendre à vivre avec, et cela implique de modifier notre façon de penser la finance et l'économie. Des mises en garde doivent se graver dans notre esprit : le risque de ruine est élevé, le retour des marchés à l'équilibre n'a absolument rien d'automatique, les bulles sont inévitables... Abandonner le cadre gaussien pour des approches intégrant mieux l'incertitude permettrait de construire un système financier plus résistant, absorbant les chocs au lieu de les amplifier et qui ne deviendrait pas lui-même un facteur de risque pour l'économie tout entière. Il est plus que temps d'entendre le message de Benoît Mandelbrot. Philippe HERLIN Philippe HERLIN est chercheur en finance, chargé de cours au Conservatoire national des arts et métiers. AD 2012 3/3 Alternatives Économiques hors série 1er trimestre 2011 8 LE MOUVEMENT BROWNIEN Mis en évidence par le botaniste Brown, l'agitation d'une particule de pollen dans l'air a été modélisée par Einstein et Smoluchovski 1 en supposant que le déplacement de la particule entre deux instants t1 et t2 est indépendant de ses positions antérieures et que sa loi de probabilité ne dépend que de t2 – t1. Par un raisonnement infinitésimal analogue à celui de Bachelier, ils établissent les formules de bases qui régissent le phénomène 2 . Jean Perrin et Léon Brillouin les soumettront au verdict d'une expérimentation minutieuse 3 . Après les travaux des physiciens, c'est principalement Norbert Wiener 4 dans les années 1920 qui développe la théorie du mouvement brownien. Une nouvelle aventure intellectuelle commence. L’objet se trouve être intimement lié à des parties centrales de l'analyse fonctionnelle, notamment la théorie des fonctions harmoniques, l'opérateur laplacien, etc., et, surtout, à la théorie de l'intégration qui depuis l'Antiquité avait fait les délices des théoriciens et qu'on pouvait croire définitivement couronnée par l'intégrale de Lebesgue. Wiener parvint à y ajouter un nouveau chapitre en montrant que le mouvement brownien permet de définir une intégrale nouvelle, avec laquelle on peut faire une transformation de Fourier des signaux aléatoires, comme on le fait ordinairement pour analyser les fréquences, mais avec des propriétés spécifiques débouchant à la fois sur des applications simples et commodes -la suppression des parasites dans les transmissions par le filtrage de Wiener- et sur des questions mathématiques très profondes. Nicolas BOULEAU 1 A. Einstein, Annalen der Physik, 17, 1905 et 19, 1906. M. Smoluchovski, Bulletin de l'Académie des sciences de Cracovie, 1906 et Annalen der Physik 21, 1906. Pour l'histoire du mouvement brownien on pourra consulter : J.-P. Kahane, « Le mouvement brownien », Actes du colloque J. Dieudonné, Nice, 1996. 2 Ils font la même erreur que Bachelier en ce qui concerne les hypothèses gaussiennes, mais il se trouve a posteriori que cette faute de raisonnement n'en est plus une si la particule ne saute pas (trajectoire continue), ce qui est raisonnable ici en physique, mais ne va plus de soi en finance. 3 Cette vérification est relatée dans le livre de Jean Perrin, Les Atomes (Félix Alcan, 1913), où il écrit: « On ne peut non plus fixer une tangente, même de façon approchée, à aucun point de la trajectoire, et c'est un cas où il est vraiment naturel de penser à ces fonctions continues sans dérivées que les mathématiciens ont imaginées et que l'on regarde à tort comme de simples curiosités mathématiques, puisque la nature les suggère aussi bien que des fonctions à dérivées. » Une telle fonction continue sans dérivée nulle part avait été explicitement décrite par le mathématicien tchèque Bolzano un siècle auparavant. 4 N. Wienel, « DifferentiaI space », Journal of Mathematical Physics, 1923. AD 2012 1/1 Mathématiques et risques financiers 2009 9 LES MATHÉMATIQUES FINANCIÈRES ET LA CRISE FINANCIÈRE L’ampleur de la crise financière à laquelle on assiste depuis un an donne le vertige, et son impact social et « sociétal » est sans précédent depuis la dépression de 1929. À l’origine, on trouve l’éclatement de la bulle spéculative aux États-Unis sur l’immobilier, qui révèle l’ampleur des prêts de type « subprimes » négociés aux États-Unis, et dont les détenteurs se trouvent dans une situation dramatique. Comment fonctionne le mécanisme des « subprimes » Ces prêts, accordés sur la totalité du bien immobilier, étaient renégociés en fonction de la hausse du prix de ce bien et donnaient souvent lieu à d’autres prêts, accordés sans étude approfondie des ressources de l’emprunteur, le prêt étant garanti par la valeur du bien. Afin de financer un plus grand nombre de prêts, les banques titrisent ces créances par l’intermédiaire d’une société, dite véhicule de titrisation, qui les revend sous forme d’obligations à des épargnants. Les agences de notation interviennent alors pour « noter » ces nouveaux produits, en termes de risques, de très risqués à non risqués. Ces agences dépendaient directement des banques qu’elles notaient puisqu’elles étaient rémunérées par celles-ci. En certifiant certains de ces produits sans risque, elles ont clairement failli à leur mission. Qu’est-ce que la titrisation? Le principe sous-jacent à ces opérations de titrisation, qui existent depuis très longtemps dans les marchés, est celui de la diversification. Par exemple, au lieu de concentrer tous les risques de prêts dans une banque de détail, on les repartit par petites parts entre divers investisseurs. En général, cela réduit l’ampleur du risque final, sauf dans le cas qui nous intéresse, où par suite du krach les effets de contagion ont joué en priorité. Il n’y a pratiquement pas d’étape quantitative dans ce processus. Une bulle spéculative Une question légitime, qui reste sans réponse pour nous, est de savoir comment les autorités ont pu laisser le système s’emballer à ce point et sur des bases si fragiles. Cette question a déjà été posée après l’éclatement des bulles spéculatives (crise asiatique en 1998, crise des valeurs internet en 2000, etc.). Mais cette nouvelle crise a un impact social plus important tant à cause du nombre de gens durement touchés par les prêts de type « subprimes » que par ses retombées économiques notamment en termes de récession dues à l’ampleur du désastre. Et les mathématiques Les formations en mathématiques financières Depuis plusieurs années, les marchés financiers ont absorbé un grand nombre de jeunes étudiants et ingénieurs « mathématiciens quantitatifs », à des salaires élevés, créant ainsi un attrait manifeste vers ce domaine. Les masters de mathématiques financières recrutent des AD 2012 1/6 Matapli – Bulletin de liaison – Vol. 87 2008 9 centaines d’étudiants, les formations se multiplient, au détriment d’autres formations. Dans le même temps, cela a contribué à attirer plus d’étudiants vers des études scientifiques, dans le domaine des probabilités en particulier. Les « Mathématiques financières », qui, au même titre que le bon vin, sont apparues comme une « success story » française, ont été très médiatisées, et mais aussi vite chargées de tous les maux, certains allant jusqu’à dire que la crise était une conséquence de l’utilisation de mauvais modèles. C’est à juste titre que la communauté mathématique se pose la question de la responsabilité des mathématiques et des mathématiciens dans cette crise financière. Nous nous proposons d’apporter quelques précisions dans le débat pour permettre aux uns et aux autres d’avoir plus d’éléments pour en juger. Notons pour commencer qu’on utilise assez peu de mathématiques dans le monde de la finance en général, en dehors des statistiques élémentaires. Toutefois, deux secteurs en font un usage beaucoup plus intensif : les marchés des produits dérivés et, plus récemment, les « hedge-funds », ou fonds d’arbitrage. Les formations de mathématiques financières concernent surtout le premier marché, que nous présentons ci-dessous. Les marchés de produits dérivés Les mathématiques jouent un rôle déterminant dans les marchés financiers qui permettent de prendre des positions dans le futur, sur des monnaies, des actions, du change, des matières premières, soit dans un but de couverture, soit dans une optique spéculative. Garantir des flux dans le futur permet de transférer les risques de l’investisseur vers le vendeur, la banque en général. C’est dans cette activité qu’on trouve la part la plus importante et la plus utilisée de mathématiques. Cette mathématisation est intervenue au début des années 1970 aux ÉtatsUnis après la création à Chicago du premier marché organisé de produits dérivés. La couverture dynamique des risques est indissociable de cette activité, les modèles servant plus à mettre en place les stratégies de couverture qu’à donner le prix de marché des produits. L’idée très innovante, proposée par Black, Scholes et Merton en 1973, est de décomposer un « risque long terme » en une addition de petits risques court terme (la journée) plus aisés à gérer. Le problème est celui d’une cible aléatoire, que l’on cherche à approcher au mieux à l’aide d’une stratégie dynamique d’achats et de vente de titres. Les modèles interviennent très précisément pour quantifier cette stratégie. Dans le cas où le titre sous-jacent est modélisé par un brownien géométrique, et où la garantie porte sur le prix maximum auquel le titre peut être acheté, il existe une formule explicite pour le prix du contrat appelée formule de Black et Scholes, et pour sa couverture qui est donnée par la dérivée du prix. Mais la stratégie est adaptative et se corrige au jour le jour, ce qui permet de minimiser « l’erreur de modèle ». La détermination des paramètres se fait en s’ajustant aux prix de marché des produits disponibles les plus liquides. Absence d’arbitrage et couverture dynamique Le principe qui maintient une certaine cohérence dans tout ce mécanisme est celui du fonctionnement idéal du marché sans arbitrage, c’est-à-dire suffisamment liquide et sans coûts de frottement, pour que : II n’y a pas d’arbitrage dans le marché, c’est-à-dire que deux produits financiers qui garantissent les mêmes flux dans tous les états du monde ont la même valeur à toute date dans le futur. AD 2012 2/6 Matapli – Bulletin de liaison – Vol. 87 2008 9 La méthodologie de type Black et Scholes est établie dans des conditions de liquidité parfaite à l’achat et à la vente, ce qui n’est pas le cas en période de crise où les intervenants n’effectuent pas de ventes à découvert. Les modèles mathématiques sont efficaces en période de stabilité financière, lorsque les volatilités ne sont pas trop élevées. Cette méthodologie est néanmoins assez robuste pour être utilisée lorsque ses conditions d’application ne sont pas parfaitement vérifiées, parce que les praticiens ont besoin de quantifier leur stratégie de couverture. Jon Danielson (London School of Economies) cite l’anecdote suivante : « A well-known American economist, drafted during World War II to work in the US Army meteorological service in England, got a phone call from a general in May 1944 asking for the weather forecast for Normandy in early June. The economist replied that it was impossible to forecast weather that far into the future. The general wholeheartedly agreed but nevertheless needed the number now for planning purposes. » Il conclut en notant qu’une logique similaire s’applique dans la crise présente. Les modèles sont efficaces dans des situations de calme relatif, où les techniques de backtesting permettent de calibrer les paramètres de modèle. Le monde réel est par nature « imparfait », notamment de nombreux risques ne sont pas couvrables (on dit que le marché est incomplet). Le rôle des mathématiques et des « quants » est d’aider à décider lorsqu’on peut rester malgré tout dans le monde à la Black-Scholes, en quantifiant le « risque résiduel » associé aux stratégies mises en place. Calibration des modèles Dans une classe de modèles dynamiques, la question de trouver le niveau adéquat des paramètres est évidemment l’étape cruciale. Pour comprendre les techniques mises en place dans ces marchés, il n’est pas inutile de rappeler deux points essentiels : - le premier est un point de bon sens : les lois de la finance ne sont pas des lois physiques et l’on ne peut pas répéter une expérience ; - le deuxième concerne la nature de l’activité en jeu. Le problème n’est pas d’estimer des rendements et des volatilités, mais de capter la variation quotidienne d’un cours et du produit dérivé associé. Les paramètres des modèles mathématiques décrivant la dynamique des prix des sous-jacents sont ajustés (calibrés) aux prix des produits dérivés liquides cotés par le marché. On parle alors de paramètres implicites. Par exemple, il va de soi qu’un modèle basé sur des processus de Lévy permettra, dû au plus grand nombre de paramètres, une meilleure adéquation aux données observées qu’un modèle basé sur un mouvement Brownien. Mais ensuite le modèle sera utilisé par les intervenants pour déterminer les couvertures de produits dérivés. Dans un modèle où le sous-jacent suit une diffusion markovienne, cela revient à calculer la dérivée du prix du produit dérivé par rapport au sous-jacent. En marché incomplet, notamment dans les modèles avec sauts, la question de la couverture dynamique reste largement à définir. Les travaux académiques sont très nombreux dans ce domaine, mais considérés comme difficilement implémentables dans AD 2012 3/6 Matapli – Bulletin de liaison – Vol. 87 2008 9 les marchés. La pratique actuelle est de s’insensibiliser contre des variations des paramètres du modèle calibré, sans vérifier si l’erreur résiduelle est acceptable. Une des conséquences de cette pratique est le peu d’importance accordée de fait aux données passées (aussi appelées données historiques). Cette remarque est à nuancer puisque depuis quelques années on voit des hedge-funds qui tirent profit du décalage entre les paramètres estimés statistiquement sur les données historiques et les paramètres implicites. Comment le marché procède-t-il avec de nouveaux types de produits, puisque dans ce cas il n’y a pas de marché liquide ? Par exemple, depuis 2000, une nouvelle activité a vu le jour dans les organismes financiers : les dérivés de crédit, qui sont des options sur les pertes générées par les faillites pendant une période donnée d’un ensemble d’une centaine d’entreprises. Les facteurs conduisant à la faillite peuvent être des facteurs spécifiques de chaque entreprise, mais aussi des facteurs communs à toutes, comme le taux d’inflation, les niveaux des taux d’intérêt, etc. Intégrer toutes ces informations est opérationnellement très coûteux en temps de calcul. Devant cette complexité, les méthodes employées ont d’abord été très rudimentaires : les dépendances sont modélisées de manière statique, la valeur de chaque entreprise à l’horizon étant représentée par une variable gaussienne, corrélée à un facteur commun supposé lui aussi gaussien. Le défaut apparaît si la valeur de l’entreprise passe en dessous d’un niveau (connu). Ce modèle basique a permis de faire des transactions autour d’une représentation consensuelle. Une couverture en sensibilité était mise en place. Ce qui était présenté comme une première étape, en fait n’a été amélioré qu’à la marge. Comme historiquement, les faillites d’entreprises étaient très rares, la couverture analysait plus les risques de variation des probabilités de défaut cotées par le marché que les montants des pertes en cas de défaut effectif. Parallèlement, une recherche académique active a été développée autour de ces problèmes; mais aucun modèle dynamique n’a réussi à s’imposer comme le standard du marché car toujours considéré comme trop complexe à implémenter. Il faut dire qu’obtenir un prix « calibré » en moins d’une seconde oblige à des simplifications. Ces dernières années, l’intérêt porté à la recherche dans ce domaine s’était nettement relâché, notamment parce que ce secteur générait de grands profits. Dans un tel contexte, la maîtrise des risques n’était pas la préoccupation première. Peut-être les dérivés de crédit sont-ils un bon exemple d’application de la remarque de John Seo, gérant de hedge-funds, dans laquelle il faudrait remplacer Black-Scholes par « copule gaussienne » : « The model created markets, markets follow models. So these markets spring up, and the people in them figure out that, at least for some of it, Black-Scholes doesn’t work. For certain kinds of risk -the risk of rare, extreme events-the model is not just wrong. It’s very wrong. But the only reason these markets sprang up in the first place was the supposition that BlackScholes could price these things fairly. » AD 2012 4/6 Matapli – Bulletin de liaison – Vol. 87 2008 9 Questions de responsabilité Une responsabilité technique La couverture dynamique des produits dérivés a été un élément essentiel de leur développement, et les mathématiques ont été un élément décisif dans le développement de cette technologie du risque. - L’une des premières conséquences en a été la création de produits dérivés permettant de couvrir des risques « dits de seconde génération », plus difficiles à appréhender par les investisseurs. Les produits de première génération couvraient contre le risque de hausse ou de baisse des marchés. Ceux de deuxième génération vont couvrir contre les risques de variation quotidienne : un exemple typique est le risque de volatilité, pour lequel il existe maintenant un marché assez liquide. C’est un phénomène bien connu des assureurs automobiles, qui observent que la plus grande sécurité des véhicules pousse de nombreux conducteurs à prendre d’autres risques. - L’innovation financière que ces techniques ont permis de développer n’est pas à remettre en cause en soi, mais, comme pour les autres secteurs de la crise, cette activité doit être moins débridée et se recentrer autour des produits dont la finalité est plus claire. - Mais cela ne veut pas dire disparition des risques : la couverture au jour le jour minimise le rôle des effets macroéconomiques de long terme, la croissance de la taille des positions peut conduire à risques résiduels qui ne sont plus acceptables. - Les dérivés de crédit montrent plutôt les difficultés de couverture dans les marchés en train de se créer, et la nécessité d’une vigilance (réglementation) accrue quand le marché s’emballe. Par ailleurs, il faut former des ingénieurs quantitatifs, dominant très bien la technicité des modèles, pour être capables de résister à la pression du « business » et signaler quand le modèle « consensus » paraît notoirement insuffisant. - Un point de méthodologie qui n’a jamais été remis en cause est la calibration aux prix de marché des dérivés liquides. Cette pratique a eu comme conséquence de minimiser la vision dynamique de la couverture. Par ailleurs, elle donne une importance sans doute excessive dans les modèles aux prix observés, qui peuvent être entachés d’imperfections. D’autre part, en ne confrontant pas ces prix avec les données historiques, on peut entériner une vision très spéculative des prix La crise n’est pas due aux modèles, elle ne sera pas résolue en introduisant des nouveaux modèles et la crise prochaine (dans 10 ans?) ne sera pas évitée par une plus grande utilisation de mathématiques, ni par une abolition de toute forme de mathématiques dans les institutions. Par contre, une meilleure surveillance (par analogie à celle mise en place pour la surveillance des tempêtes et autres catastrophes météorologiques) et une meilleure régulation sont des outils déterminants pour un fonctionnement plus raisonnable de ces marchés. Notre rôle, en tant que mathématiciens, se réduit à faire de notre mieux pour expliquer la limitation de ces modèles, leurs conditions d’utilisation et la signification des structures aléatoires, et, de façon plus positive, plus dynamique, d’introduire de nouvelles réflexions sur leur utilisation. AD 2012 5/6 Matapli – Bulletin de liaison – Vol. 87 2008 9 Une responsabilité sociale Les marchés financiers sont des éléments déterminants d’une organisation économique et politique du monde, le capitalisme libéral. En formant des ingénieurs quantitatifs pour les marchés, en faisant de la recherche en mathématiques financières, nous avons été un des éléments de la chaîne qui a conduit aux débordements que l’on observe, et qu’honnêtement nous n’aurions jamais cru possibles. La technicité peut faire écran. La question de la responsabilité est de même nature que celle du scientifique fasse au monde réel : doit-on en être ou pas ? La position du mathématicien dans le domaine de la finance estelle différente de celle du physicien ou du biologiste face à des grands enjeux de société, le nucléaire, les OGM, par exemple ? Le fait que le support de l’activité soit l’argent ne doit pas apparaître comme un élément discriminant, même si cela rajoute une complexité supplémentaire, celle des individus face à l’argent. Le nouvel équilibre politique et économique qui résultera de cette crise sans précédent n’évacuera pas cette question, car deux éléments fondamentaux persisteront : l’ampleur de la masse monétaire qui circule sur les marchés (pensez aux retraites), et les moyens de calculs actuellement disponibles qui ont été plus que les mathématiques des éléments déterminants de l’évolution des transactions dans les marchés. La finance quantitative ne disparaîtra pas, mais peut devenir uniquement « informatique ». Il vaudrait mieux que les mathématiques financières ne disparaissent pas, car elles restent un ferment du débat et du questionnement. Nicole El Karoui Professeur Université de Paris VI et Ecole Polytechnique Monique Jeanblanc Professeur Université d’Évry AD 2012 6/6 Matapli – Bulletin de liaison – Vol. 87 2008 10 BENOÎT MANDELBROT ET LA MODÉLISATION MATHÉMATIQUE DES RISQUES FINANCIERS Benoît Mandelbrot, savant multidisciplinaire et inclassable, est surtout connu pour ses travaux sur la géométrie fractale et l’analyse multifractale, cadres conceptuels pour décrire et modéliser de nombreux objets mathématiques irréguliers, comme l’ensemble du plan complexe qui porte son nom. Certains seront donc surpris d’apprendre que Mandelbrot portait également un vif intérêt à la modélisation mathématique en finance : il s’intéressa très tôt dans sa carrière à l’étude statistique des données économiques et financières et fut à l’origine de nombreuses idées importantes et fécondes dans la modélisation statistique des risques financiers, sujet qui le passionna tout au long de sa vie. C’est que Benoît Mandelbrot était avant tout un penseur de la rugosité et un chasseur de la régularité dans l’irrégularité, ce qui le conduisit à s’intéresser aux phénomènes irréguliers de toute sorte, qu’ils fussent mathématiques, physiques, biologiques ou économiques. Il était donc inévitable que, tôt ou tard, il porte son intérêt à la modélisation des fluctuations boursières, dont l’irrégularité occupe bien souvent la une de nos journaux... Ce sujet avait déjà suscité la curiosité des mathématiciens, à commencer par le français Louis Bachelier qui, dans sa thèse en 1900, proposa de modéliser les cours boursiers par un processus « purement » aléatoire qui prit quelques années plus tard le nom de mouvement Brownien sous la plume d’Einstein. Dans ce modèle, les variations successives du prix d’une action sont représentées par des variables aléatoires indépendantes avec une distribution gaussienne : l’évolution des cours boursiers y est modélisée comme un mouvement imprévisible mais continu, dont l’amplitude peut être caractérisée par l’écart-type, ou volatilité, des rendements journaliers, qui mesure l’ordre de grandeur des fluctuations typiques du prix sur une journée. Le modèle de Bachelier, repris par les économistes américains Markowitz et Samuelson dans les années 1950, fut le point de départ de la modélisation probabiliste des risques financiers. A la recherche d’invariances d’échelle Dès 1962, Benoît Mandelbrot, qui avait à sa disposition les ordinateurs d’IBM, son employeur à l’époque, se mit à analyser les propriétés statistiques de données financières, notamment les cours de matières premières comme le coton. Alors que l’économétrie de son temps se contentait d’étudier et de modéliser des variations hebdomadaires ou mensuelles de grandeurs économiques, Mandelbrot recherchait dans ces mêmes données des d’invariances d’échelle -des propriétés statistiques qui ne dépendent pas de la fréquence d’échantillonnage-. La distribution des rendements journaliers est-elle semblable à la distribution des rendements hebdomadaires ou mensuels ? Si on en croit le modèle de Bachelier, la réponse est oui : par la propriété d’invariance d’échelle du mouvement Brownien, la variation d’un cours sur t jours a la même loi statistique, à un facteur √t près, que sa variation sur 1 jour : on dit aussi que le mouvement Brownien est autosimilaire avec un exposant d’autosimilarité 2. En s’appuyant de nouveau sur une étude statistique des prix du coton, Mandelbrot montre que cette « loi en √t » ne décrit pas correctement l’évolution des queues de distribution à travers les échelles de temps, et c’est en essayant de rendre compte de cette variation des propriétés des données financières avec l’échelle d’observation que Mandelbrot décerna deux phénomènes importants mais absents du modèle de Bachelier et ignorés jusque-là dans la modélisation économétrique : AD 2012 1/6 http://hal.inria.fr 19/01/2012 10 - la présence de discontinuités, correspondant à une chute brutale des cours boursiers, et son pendant statistique, une queue de distribution épaisse et non-gaussienne des rendements : c’est ce qu’il appela syndrome de Noé par allusion au mythique déluge ; - la persistance des variations boursières et leur concentration dans le temps, qu’il appela syndrome de Joseph : « Sept années d’abondance, sept années de vaches maigres ». Ces « syndromes » devinrent les deux piliers de sa représentation des aléas boursiers. Du hasard sage au hasard sauvage : le syndrome de Noé Dans une série d’articles publiés à partir de 1962 (M 1962c, M 1963c M 1963e, 1967) Mandelbrot remarque que les prix boursiers présentent des variations extrêmes beaucoup plus fréquentes que ne le prédit une distribution gaussienne. Mandelbrot qualifia ce comportement de « hasard sauvage » par opposition au comportement aléatoire continu et assez « sage » du mouvement Brownien. Dans sa célèbre étude sur les prix du coton (M 1963) qui parut dans le même recueil (Cootner 1964) que la traduction par Savage de la thèse de Bachelier, Mandelbrot nota que si le but est de quantifier le risque d’un portefeuille, ce ne sont pas les variations « typiques » qui comptent mais bien ces gains ou pertes spectaculaires, que l’écart-type ne mesure pas et qui sont représentées par la queue de la distribution de probabilité des rendements. En voici une illustration. Si l’on suppose une distribution gaussienne pour les rendements journaliers, la probabilité qu’un rendement observé dévie de 4 écarts-types de sa moyenne est inferieur à 0,01 %, soit un événement observé en moyenne une fois tous les 63 ans. En revanche, pour une distribution de Student avec 3 degrés de liberté (pour laquelle la probabilité d’observer une perte > x décroit en 1/x3), de même écart-type, la probabilité d’observer des événements 4 fois l’écart-type passe à 0,62 % soit, en moyenne, un événement observé deux fois par an. Les rendements journaliers de l’indice Dow Jones (Figure 1) sur les deux années 2007-2009 exhibent 16 observations dont l’amplitude dépasse 4 écarts-types : cela donne une proportion de 0,.78 %, un peu plus que la loi de Student avec 3 degrés de liberté et 100 fois plus que dans le cas gaussien ! Figure 1 : Gauche : rendements journaliers de l’indice Dow Jones 2007-2008 (points). Droite : Distribution normale (rouge) comparée avec la loi de Student de paramètre 3 (bleu) et la distribution (normalisée) des rendements journaliers de l’indice Dow Jones (points). Les trois distributions ont le même écart-type et la même moyenne. L’unité sur l’axe horizontal correspond au nombre d’écart-types. AD 2012 2/6 http://hal.inria.fr 19/01/2012 10 Figure 2. Gauche : Rendements journaliers de l’indice S&P500 de la bourse de New York, de janvier 1950 à septembre 2009. La flèche indique le krach du lundi 19 octobre 1987, lorsque l’indice boursier SP500 perd 20 % en une journée, ce qui correspond à 20 fois l’écart-type. Droite : Simulation d’un « aléa sage », une série aléatoire gaussienne de même moyenne et même écart-type. La plus grande perte dans cette série de 14 000 observations est de 4 %, soit 4 fois l’écart-type. Mandelbrot propose alors de remplacer le mouvement Brownien de Bachelier par une classe de processus aléatoires reflétant le caractère sauvage et discontinu des mouvements boursiers : les processus de Lévy, dont l’étude fut initiée dans les années 1930 par Paul Lévy, et qui, à l’opposé du mouvement Brownien, modélisent une évolution aléatoire discontinue, faite de sauts de toutes les tailles. Mandelbrot considéra initialement la classe des processus de Lévy stables, qui, comme le mouvement Brownien, sont autosimilaires mais avec un exposant d’autosimilarité 0<α<2 : la diffusion « en √t » du mouvement Brownien est alors remplacé par un comportement en t1/α. Mandelbrot estima que la valeur α est proche de 1.7-1.8 pour de nombreuses séries financières (M 1963). La modélisation des prix avec des processus stables, dont la variance est infinie, fit l’objet de débats interminables chez les économètres dans les années 1960 mais eut du mal à percer dans les applications en finance qui reposait à l’époque sur la variance comme mesure du risque. Mais il existe bien d’autres constructions de processus de Lévy qui sont discontinus mais de variance finie et, après avoir été négligée pendant 30 ans, cette piste de recherche connut un renouveau dans les années 1990 et continue à stimuler de nouvelles recherches sur les processus de Lévy. Persistance et concentration du risque : le syndrome de Joseph Une autre contribution importante de Mandelbrot fut la mise en évidence -et la modélisation mathématique- des dépendances temporelles ou persistances dans les mouvements boursiers, qui se manifeste dans leur concentration dans le temps : « les petites variations sont le plus souvent suivi de petites variations, et les grandes mouvements sont le plus souvent suivi de grand mouvements» (M 1963). Cette propriété, qui se retrouve dans toutes les séries boursières, indique l’insuffisance de modèles à accroissements indépendants. Une autre idée est celle de dépendance à longue portée : les rendements d’une action sur des jours différents, même éloignés dans le temps, peuvent présenter une dépendance significative (1971a, 1971b, 1972) : c’est le syndrome de Joseph. Ces deux observations vont à l’encontre de l’hypothèse d’indépendance des variations boursières, sous-jacente au modèle de Bachelier. À partir de ses travaux antérieurs avec Van Ness sur la dépendance à longue portée en hydrologie (1968a, 1968b), Mandelbrot proposa de modéliser ce phénomène en remplaçant AD 2012 3/6 http://hal.inria.fr 19/01/2012 10 cette fois le mouvement Brownien de Bachelier par un autre processus aléatoire, le mouvement Brownien fractionnaire, dont les accroissements sont gaussiens mais fortement dépendants même sur des périodes éloignées. Cette idée a généré des travaux de recherche considérables sur les processus aléatoires fractionnaires, notamment par Murad Taqqu qui fut élève de Mandelbrot, ainsi que des applications en économétrie et finance. Ainsi, les différents modèles que proposait Mandelbrot prédisent que la fréquence des grands risques est beaucoup plus grande que ne le suggère le modèle Brownien, soit à cause de la discontinuité des prix dans le temps (syndrome de Noé), soit à cause de la concentration des pertes dans le temps (syndrome de Joseph). Évidemment, les deux effets peuvent coexister, ce qui fut confirmé par les centaines d’études économétriques qui suivirent les travaux de Mandelbrot. Dans ses travaux ultérieurs avec Laurent Calvet et Adlai Fisher (1997a, 1997b), Mandelbrot proposa de combiner ces deux effets au sein d’un modèle multifractal, revenant ainsi à un amour de jeunesse, les cascades aléatoires multifractales qu’il proposa en 1974 pour modéliser la turbulence des fluides (M 1974). Mesurer l’irrégularité financière : l’analyse multifractale Une idée importante chez Mandelbrot est l’existence d’une échelle de la rugosité dans les phénomènes irréguliers : il faut, pensait-il, « bien mesurer l’irrégularité » d’un phénomène pour choisir un modèle mathématique adéquat. On peut mesurer la régularité locale d’un signal f(.) à un instant t par son exposant de Hölder local H(f,t) au voisinage de t. Pour des signaux irréguliers, cet exposant de Hölder peut varier d’un instant à l’autre et, lorsque le signal est aléatoire, chaque échantillon peut donner une fonction H(t) différente. Une façon plus « stable » de caractériser l’irrégularité d’un signal est via son spectre de Hölder, défini comme la dimension de Hausdorff de l’ensemble des points ou l’exposant de Hölder atteint une valeur donnée : D(f,h)= dim( {t> 0, H(f,t)= h}) (avec la convention que dim(Ø )= -∞). Lorsque le signal est la trajectoire d’un processus aléatoire X(t), D(X,h) dépend a priori de la trajectoire observée mais pour de grandes classes de processus stochastiques – processus de diffusion, processus de Lévy et solutions d’équations différentielles stochastiques à coefficients réguliers- ce spectre ne dépend en fait que du support de la loi de X et permet donc de caractériser la « texture » du processus. Par exemple, pour un signal « monofractal » comme un mouvement Brownien : D(X, 1/2)=1 et D(X, h)= -∞ pour h ≠ 1/2 alors que pour des signaux « multifractals », plus complexes, D(X,.) peut avoir un domaine non-trivial. Une idée clé, due à Parisi et Frisch (1985) et développée ensuite dans différentes directions par Mandelbrot (1974), Arneodo et al (1993), Jaffard (1997) et d’autres, est qu’on peut, pour une grande classe de fonctions, estimer le spectre de Hölder à partir des moments empiriques des accroissements du signal à différentes échelles du temps. Mandelbrot comprit très tôt l’intérêt de ce formalisme multifractal dès les années 1970 dans le contexte de la modélisation statistique de la turbulence. Avec la disponibilité de données haute-fréquence de taux de change dans les années 1990, ces techniques permirent à Fisher, Calvet et Mandelbrot (1997c) de mettre en évidence un spectre de Hölder concave des signaux boursiers qui ressemble peu à celui des processus stochastiques -processus de diffusion, semimartingaleshabituellement utilisés pour les représenter... et qui signale l’existence d’aléas de rugosité différentes à de multiples échelles de temps. AD 2012 4/6 http://hal.inria.fr 19/01/2012 10 Reprenant l’idée, qu’il avait explorée dès 1967 (Mandelbrot & Taylor 1967), de représenter l’évolution d’un prix non pas en fonction du temps chronologique mais d’un temps « intrinsèque » de marché, dont l’évolution est elle-même aléatoire et saccadée, Mandelbrot, Calvet et Fisher (1997a) modélisent ce temps intrinsèque par l’intégrale d’une mesure multifractale, ce qui aboutit à une représentation de la dynamique des prix par un mouvement Brownien avec un changement de temps multifractal. Observer avant de modéliser Ceux qui ont connu Benoît Mandelbrot savent l’importance qu’il attribuait au fait d’observer avant de modéliser. La simulation, la visualisation et l’analyse des données ont joué un rôle important, dans ses travaux sur la finance, comme dans ses travaux sur les fractales. Cet aspect de sa méthodologie est indissociable de ce qui fut son lieu de travail pendant de nombreuses années : le centre de recherche IBM à Yorktown Heights (New York), où il disposait des ordinateurs les plus puissants de son époque, et dont il fit manifestement bon usage. Mandelbrot passait une grande partie de son temps à visualiser les données, les observer sur l’écran d’ordinateur et les soumettre à de multiples cribles statistiques. Son regard perçant faisait le reste. Il n’hésitait pas à réexaminer les modèles proposés dans ses anciens articles à la lumière de nouvelles données, pour les réévaluer voire les rejeter. Rien de surprenant, diraient certains lecteurs, mais si cette précieuse habitude mérite d’être mentionnée, c’est qu’elle contraste avec une littérature foisonnante de « modèles mathématiques », notamment en économie et finance, qui prétendent modéliser une réalité qu’elles ne daignent pas d’examiner... Mandelbrot, qui était pourtant sensible à l’élégance mathématique, restait sceptique sur les « mathématiques financières » qu’il voyait, à la différence d’une véritable modélisation, se développer comme une nouvelle scolastique où l’engouement pour certains outils mathématiques semblait primer sur l’observation et les questions de fond sur la nature du risque… Accueil et postérité des travaux de Mandelbrot sur les risques financiers Dire que les travaux de Benoît Mandelbrot sur les risques financiers n’ont pas laissé indifférents les spécialistes du sujet est un euphémisme. Accueillis au départ avec hostilité par les uns -notamment nombre d’économistes et représentants de la « finance académique »- et avec enthousiasme par les autres, notamment des praticiens de la finance et ceux qui comme lui étudiaient de près les données empiriques, les travaux de Benoît Mandelbrot sur la modélisation mathématique en finance continuent à inspirer les uns et les autres plus de 40 ans après leur publication. L’hostilité de la réaction -notamment des représentants de la finance académique- à Mandelbrot était en partie due au fait qu’il avait choisi de s’attaquer aux paradigmes de la théorie financière d’alors : utilisation de la variance comme mesure de risque, représentation des aléas boursiers par des modèles gaussiens ou des modèles à accroissements indépendants, pertinence du mouvement Brownien comme représentation de l’aléa boursier… Benoît Mandelbrot, qui a toujours eu un côté abrasif, aimait la polémique, exprimait ses critiques avec une franchise extrême et avait une certaine idée de sa personne, ce qui ne plaisait pas toujours. Dans les conférences d’économie des années 60 aux États-Unis, jouant sur le nom de son employeur de l’époque, IBM, on parlait d’« ABM» (Anything But Mandelbrot)… Mais cette hostilité était aussi liée à sa position d’« outsider » à la fois chez les mathématiciens et les économistes, dans un monde académique qui aime bien filiations et références. AD 2012 5/6 http://hal.inria.fr 19/01/2012 10 Que reste-t-il aujourd’hui des idées de Mandelbrot sur la modélisation des risques financiers ? Les modèles que Mandelbrot proposa initialement -processus alpha-stables, Brownien fractionnaires, cascade aléatoire multifractale- n’ont pas vraiment été retenus dans les applications économétriques et financières sous leur forme initiale. Dans ce domaine comme dans les autres, Mandelbrot s’intéressait plus au cadre conceptuel et laissait à d’autres le soin d’adapter ce cadre aux applications. Ce travail nécessita un effort considérable, l’élégance mathématique devant céder parfois devant la complexité des données financières. La modélisation initiale du « hasard sauvage » par les processus de Lévy alpha-stables céda progressivement la place dans les années 1990 à des processus de Lévy « stables tempérés », discontinus et encore quelque peu sauvages mais tout de même de variance finie… Les idées de Mandelbrot sur la longue dépendance et le syndrome de Noé donnèrent naissance à une foisonnante littérature sur les modèles de volatilité à longue dépendance (voir par exemple Comte & Renault 1998, Cont 2005 et l’article de Murad Taqqu dans ce numéro). Quant aux processus multifractals de Mandelbrot, ils furent raffinés et développés dans les travaux de Calvet & Fisher (2001) et Bacry & Muzy (2010) dans la modélisation des données haute fréquence. Mais, force est de constater que les idées directrices de Mandelbrot -importance des fluctuations extrêmes, discontinuité et concentration des risque financiers, dépendances temporelles dans la volatilité, l’importance d’examiner les données à de multiples échelles de temps- qui rencontrèrent une grande résistance de la part des économistes de son temps, sont aujourd’hui reconnues comme des faits incontestables, confirmés par plus de 40 ans de recherche en économétrie financière. Les objets mathématiques qu’il fit entrer avec tant de fracas dans l’univers de la théorie financière font désormais partie de la boîte à outils de la modélisation en économétrie et finance. Dans la quête d’un modèle adéquat pour représenter l’aléa financier, Benoît Mandelbrot posa de nombreuses bonnes questions, dont certaines restent ouvertes. Ses idées, qui ont connu des extensions et ramifications multiples, continuent d’inspirer les chercheurs, dans ce domaine comme dans bien d’autres. Ce qui ne signifie pas nécessairement qu’elles soient appliquées dans la pratique quotidienne de la gestion des risques financiers... où beaucoup utilisent encore des modèles gaussiens, pourtant mis en défaut à la fois par les études statistiques et par l’expérience des crises financières répétées de ces dernières décennies. Mais ceci est une autre histoire... Faudra-t-il attendre encore 30 ans pour que les gestionnaires de risque (et les formations de Master !) intègrent ces concepts ? Espérons que non. Rama CONT AD 2012 6/6 http://hal.inria.fr 19/01/2012