Etude de dossier

publicité
ÉTUDE DE DOSSIER
______
Adjoint de direction 2012
Concours externe et interne
La finance est devenue ultra mathématisée à partir des années 70. La récente crise financière a
suscité des interrogations sur le rôle des mathématiques et en particulier des modèles
mathématiques en finance.
À partir des documents joints, dans le contexte de la crise financière, vous rédigerez une note sur
l’utilisation des modèles mathématiques et ses conséquences.
LISTE DES DOCUMENTS JOINTS
1.
« Où se trouve le risque ? »
Christian WALTER - Banque Stratégie n° 297 - Novembre 2011 - 2 pages
2.
« De la théorie à la pratique - Est-il vraiment important que les marchés soient efficients ? »
Alfred GALICHON et Philippe TIBI - Revue Banque hors série - Mai 2011 - 7 pages
3.
« Les dix péchés capitaux de la Value at Risk »
Philippe FOULQUIER et Alexandre LE MAISTRE - Banque Stratégie n° 303 - Mai 2012
5 pages
4.
« The Case Against The modern Theory of Finance »
Benoît MANDELBROT - The (mis) Behaviour of markets – 2008 - Chapitre V - 4 pages
5.
« Les modèles contribuent-ils à l’efficacité des marchés financiers ? »
Nizar TOUZI et Philippe DURAND - Revue Banque hors série - Mai 2011- 5 pages
6.
« Est-ce la faute des « petits génies » en mathématiques ? »
Nicole CRESPELLE - La crise en questions - Éditions Eyrolles - 2009 - 1 page
7.
« Une dangereuse sous-estimation de l’incertitude »
Philippe HERLIN - Alternatives Économiques hors série n° 87 - 1er trimestre 2011 - 3 pages
8.
« Mathématiques et risques financiers »
Nicolas BOULEAU - Éditions Odile Jacob - 2009 - 1 page
9.
« Les mathématiques financières et la crise financière »
Nicole EL KAROUI et Monique JEANBLANC- Matapli - Bulletin de liaison - Vol. 87
2008 - 6 pages
10. « Benoît Mandelbrot et la modélisation mathématique des risques financiers »
Rama CONT - http://hal.inria.fr - 19/01/2012 - 6 pages
1
MODÈLES MATHÉMATIQUES
OÙ SE TROUVE LE RISQUE ?
La gestion alternative est-elle plus ou moins risquée que la gestion traditionnelle ?
Tout dépend des modèles mathématiques utilisés...
[…]
COMMENT MESURER LE RISQUE ?
Nous avons montré dans un article publié en 2005 1 comment l'idée de l'indexation et des benchmarks a
représenté dans la finance du XXe siècle la résurgence de la théorie de l'homme moyen du statisticien
et astronome belge Adolphe Quetelet. La résistance à l'indexation et au bornage systématique des
gestions représente la forme contemporaine des débats qui ont agité les statisticiens à la suite de la
domination de la théorie des moyennes dans les années 1860. La gestion « autre » que la gestion
bornée retrouve les arguments utilisés par les adversaires de la quételéisation massive de la statistique
au XIXe siècle : la moyenne (la performance du benchmark) ne peut représenter un critère qui résume
suffisamment le comportement réel des portefeuilles. Et la volatilité -qui n'est qu'un écart moyen à la
moyenne- relève du même dogme quételésien. La Value-at-Risk, lorsqu'elle se contente de transformer
une volatilité en quantiles, ne répond en rien au problème de la gestion du risque. Loin des moyennes.
L'idée sous-jacente à la catégorisation en classe spécifique de la gestion « autre » est celle de la
protection de l'épargnant (de l'investisseur) contre des risques mal cernés. Mais les risques sont-ils
moindres dans le cas de gestions bornées ? La diversification représente-t-elle une forme de gestion
moins risquée que celles que l'on trouve dans les gestions qualifiées d'« alternatives » ? Il est
couramment admis aujourd'hui qu'une gestion bien diversifiée et bornée est davantage protectrice pour
l'épargne qu'une gestion « alternative ». Or rien n'est moins sûr : ce raisonnement nécessite la
validation d'une hypothèse mathématique relative aux probabilités. Et il est connu aujourd'hui que
cette hypothèse est mise en défaut dans beaucoup de situations de marchés. Dans ces contextes, la
gestion non diversifiée (donc « autre » que la gestion classique) est plus protectrice et les portefeuilles
concentrés traversent mieux les crises que les portefeuilles diversifiés. En fait, croire que la
diversification protège bien revient à croire que les fluctuations boursières sont très régulières et bien
homogènes, que la performance des portefeuilles se répartit équitablement sur tous les titres du
portefeuille, toutes les journées de Bourse. Mais tous les professionnels observent bien que la
performance (et les pertes) se concentre sur quelques titres bien ou mal choisis, sur quelques journées
particulières de Bourse, que le marché est souvent calme (sauf quand il est très agité), et que la vraie
loi des portefeuilles gérés et bien plutôt une loi des 80/20 : très peu de titres (de jours) contribuent à
beaucoup de gains ou de pertes.
L'IMPACT DE LA DIVERSIFICATION
Dans un travail récent 2 réalisé avec Olivier Le Courtois, nous avons montré comment une gestion peu
diversifiée, qui suivrait des règles qualifiées d'« alternatives » au sens franglais, pourrait être plus
protectrice qu'une gestion « classique » bien diversifiée. En remplaçant les modèles mathématiques à
base de mouvements browniens par d'autres modèles utilisant des processus aléatoires non browniens,
c'est-à-dire en changeant les hypothèses probabilistes sur les fluctuations boursières, l'indexation et la
1
« La gestion indicielle et la théorie des moyennes », Revue d'économie financière, n° 79, pp. 113-136.
2
« La concentration des portefeuilles ». Perspective générale et illustration, Cahiers de recherche de l'EM Lyon, 2008/03.
AD 2012
1/2
Banque stratégie n° 297
Novembre 2011
1
gestion bornée apparaissent tout à coup bien plus dangereuses que la gestion « alternative ». Derrière
ces débats, ce qui est en jeu est une compréhension de l'incertitude financière.
L'objectif est simple : le régulateur cherche à protéger l'investisseur. Pour cela, il lui faut indiquer des
catégories de risque, et donc apprécier l'incertitude financière représentée par les produits vendus.
Pour cela, il est nécessaire de disposer de mesures et donc de modèles de cette incertitude financière.
Le choix est alors le suivant : soit on considère que l'incertitude est modélisable par un aléa régulier
(par exemple un modèle probabiliste qui utilise le mouvement brownien 3 ) et, dans ce cas, les mesures
usuelles du risque suffisent et permettent d’isoler une pseudo-catégorie appelée en franglais « gestion
alternative », décrite comme plus risquée en regard de l’hypothèse de régularité aléatoire ; soit on
considère que la représentation brownienne est trompeuse, et il devient alors nécessaire de repenser les
manières d’apprécier le risque des produits financiers, qui peuvent remettre en cause la partition
risqué/non risqué qui repose sur la vision brownienne lisse du risque. Dans ce cas, il est bien possible
que les gestions dites « alternatives » se révèlent moins risquées que les gestions benchmarkées.
Par analogie avec la manière dont une maladie se répand, en employant le modèle de la contagion des
idées, nous avons appelé en 2009 « virus B » (pour « virus brownien »), l’épidémie intellectuelle qui a
fait penser l’incertitude au moyen d’une représentation brownienne des fluctuations (Le virus B. Crise
financière et mathématique, éditions du Seuil). Dans la gestion d’actifs, il semble bien que le virus
brownien ait muté et soit devenu le virus des benchmarks. Un autre B…
Christian WALTER
Christian WALTER est actuaire agrégé (Institut des actuaires), professeur associé (IAE, Université Paris I) et titulaire de la
chaire Éthique et Finance (Institut catholique de Paris).
3
En 1827, le botaniste écossais Robert Brown observe au microscope les grains de pollen de la plante Clarckia pulchella. Il constate que ces
grains contiennent des particules et que ces particules, dans l'eau, sont animées de mouvements continuels (dus à l'agitation thermique).
Les particules se déplacent dans tous les sens, apparemment au gré du hasard. Ce hasard obéit à des règles précises qui décrivent le
mouvement désordonné de ces particules : c'est le mouvement de Brown, ou mouvement brownien. Les règles de ce mouvement seront
définies mathématiquement au début du XXe siècle par Louis Bachelier (1900), Albert Einstein (1905), et Norbert Wiener (1923). La « loi
en racine carrée du temps » qui fait transformer la volatilité mensuelle en volatilité annuelle (12 mois) en multipliant la première par la
racine carrée de 12, et que l'on trouve dans les réglementations prudentielles internationales (comme Bâle III pour les banques ou
Solvabilité 2 pour les compagnies d'assurance) est une application de l'hypothèse brownienne.
AD 2012
2/2
Banque stratégie n° 297
Novembre 2011
2
DE LA THÉORIE À LA PRATIQUE
EST-IL VRAIMENT IMPORTANT QUE LES
MARCHÉS SOIENT EFFICIENTS ?
L'efficience des marchés, qui n'était au début qu'une hypothèse émise par Eugene Fama, s'est
affirmée au fil des années comme une théorie sur laquelle se fonde la finance moderne. La crise
de 2008 l'a profondément remise en cause... ce qui n'a pas empêché les marchés, durant la crise,
de remplir leurs fonctions essentielles : financer l'économie et assurer l'épargne des investisseurs
finaux. Quelle importance, alors, accorder à cette théorie ?
L
individus. Si l'EMH n'est pas valide, la science
économique ne doit-elle pas, comme elle l'a fait
dans les précédentes crises majeures, remettre
en cause ses fondements théoriques et explorer
de nouvelles voies ?
D'un point de vue politique, l'EMH fait partie
du faisceau d'arguments qui justifient le laissezfaire économique: si les prix des actifs sont de
« bons » prix, si la « main invisible » fait son
office et alloue les ressources de façon
optimale, alors la vocation de l'État n'est pas de
jouer un rôle par construction inutile, voire
nuisible, d'encadrement de l'économie, par les
règles, les incitations et les prix. Ceci suppose
que les marchés « efficients » sont « efficaces »
pour allouer les ressources. Pour prendre une
analogie osée avec la physique, une théorie
« juste » est en général « efficace ». La relativité générale, qui n'a pas été invalidée durant
près d'un siècle et peut donc être considérée
comme « juste » jusqu'à preuve du contraire, est
« efficace » car elle permet d'écrire justement
les
équations
qui
assurent
le
bon
fonctionnement de certains systèmes, pour
lesquels la mécanique newtonienne ne suffit
pas, comme les GPS, par exemple. Les deux
notions ne se superposent pourtant pas tout à
fait. Pour continuer l'analogie avec la physique,
une théorie imparfaite, voire inexacte, peut
donner des résultats parfaitement acceptables
pour l'utilisation qu'on en fait : c'est le cas de la
mécanique newtonienne, dépassée par la
physique quantique, mais qui suffit parfaitement à de nombreuses applications pratiques,
pour lesquelles elle est « efficace ». Ainsi, sans
être forcément « efficients », les marchés
pourraient être « efficaces » au regard de leur
fonction sociétale. L'objectif de cet article est
d'éclairer ces deux notions et de poser les
termes objectifs d'un débat miné par ses
'efficience des marchés est une question
théorique majeure dont la validité a été
questionnée par la crise de 2007. On
peut traduire l'expression anglaise « efficient
markets » par « marchés efficients » ou
« marchés efficaces ». Or, la distinction entre
ces deux traductions ne relève pas uniquement
de la nuance sémantique ou de la chasse aux
anglicismes. Le terme « efficient » employé au
plus près du sens de l'expression anglaise
suppose un marché :
rationnel ;
incorporant toute l'information disponible ;
impossible à battre.
« Efficient » ne signifie pas la même chose
qu'« efficace », qui évoque un marché en état
de marche, apportant des solutions, résolvant
rapidement des problèmes -et dont la traduction
anglaise serait « operational »-).
Aussi dogmatique que certains puissent
la considérer
aujourd'hui,
la
théorie
de l'efficience des marchés fut initialement
formulée comme une hypothèse : 1'« efficient
market hypothesis » (EMH). Celle-ci est
particulièrement
importante
dans
la
construction de la finance moderne car, d'une
part, elle a joué un rôle structurant dans le
développement du secteur financier des trente
dernières années et, d'autre part, tous les acteurs
des marchés financiers l'intègrent dans leurs
outils de prise de décision. Si les marchés ne
sont pas efficients, faut-il remettre en
question les conséquences scientifiques et
politico-économiques tirées de la théorie ?
D'un point de vue scientifique d'abord,
L'EMH est en effet l'une des pierres de touche
d'une industrie financière dont l'utilité
économique et sociale est de financer
l’économie et de gérer l'épargne (et donc
d'assurer certains risques sociaux) des
AD 2012
1/7
Revue Banque hors série
Mai 2011
2
connotations idéologiques, et dont la crise née
en 2007 souligne encore l'actualité.
Théoriquement tout d'abord, car accepter que
l'EMH était invalide revenait à supposer les
investisseurs non rationnels, ce que les
économistes en général répugnent à faire, sauf
pour une minorité d'entre eux qui pratiquent
l'économie dite « comportementale ». Et empiriquement, car de nombreux travaux économétriques la valident. Ainsi, Michael Jensen
écrivait en 1978 dans une introduction à un
numéro du Joumal of Financial Economics 3
entièrement consacré à la validation empirique
de cette hypothèse, que « peu de propositions
en économie ont des fondements empiriques
plus solides que l’hypothèse de l’efficience des
marchés ». Les circonstances de la dernière
crise de marché allaient cependant remettre en
question les prémisses de la théorie.
I. LE DÉBAT
UNE ÉTAPE CLEF DANS LA GÉNÉALOGIE DE
LA FINANCE MODERNE
La théorie des marchés efficients a été
formulée, sous forme d'une « hypothèse », pour
la première fois en 1970 par Eugene Fama de
l'Université de Chicago. Selon cette théorie,
toute information est reflétée dans le prix d'un
actif, qui n'est autre que la somme actualisée
des cash flows attendus. La meilleure prédiction
qu'on puisse faire à propos du prix futur d'un
actif est son prix de marché présent : il n'y a
pas d'« opportunités d'arbitrage ». Toutefois, les
interprétations de la notion fluctuent. Dans
une conférence datant de 1984, James Tobin 1
distingue quatre formes possibles d'efficience
des marchés : d'une notion purement technique
(arbitrage efficiency : il n'y a pas d'opportunités
d'arbitrage) à une notion d'économie politique
(functional efficiency : les marchés remplissent
efficacement certains rôles pour les individus,
c'est cette notion que nous traduisons ici
par « efficacité »), en passant par deux notions
intermédiaires : fundamental valuation efficiency, qui signifie que les prix de marché sont
justes, et full valuation efficiency, qui signifie
que les marchés sont complets (c'est-à-dire qu'il
est possible de s'assurer contre tous les risques).
L'EMH joue un rôle très particulier dans la
généalogie de la finance moderne. La boîte à
outils des financiers contemporains (directeurs
financiers, analystes, investisseurs) a été constituée à partir de ses fondements intellectuels,
qui, pour citer John Cochrane 2 , ont transformé
la finance « d'une collection d'anecdotes en
science ». On peut ainsi citer parmi la
descendance de l'EMH et du modèle CAPM la
gestion indicielle, la valorisation des options, la
théorie des stock-options, etc.
APRÈS LA CRISE DE 2008, UN DÉBAT
VIGOUREUX…
Dans un article célèbre 4 , Krugman impute à la
finance « moderne » une responsabilité dans la
crise de 2008. Selon lui -la popularité de ce
point de vue ayant cru fortement au cours
des deux dernières années-, les économistes
« mainstream » majoritaires n'ont rien vu venir
car ils ont été désarmés par leur croyance dans
l'EMH, les théories mathématiques élégantes
qu'elle a permis de formuler, et aussi par un
confort intellectuel et matériel qui les a fait
épouser les intérêts des puissances financières.
La confiance excessive des économistes en
leurs outils et en leurs modèles les a conduits à
penser que les chocs macroéconomiques et
financiers (et les récessions au premier chef)
pouvaient être maîtrisés. Ainsi, la croyance en
l'avènement d'une ère de la « grande modération » qui serait marquée par la maîtrise
durable de la volatilité est caractéristique de
cette attitude, et comparable à certains égards à
la croyance en la « fin de l'histoire ».
Mais le camp adverse n'est pas excessivement
troublé par la crise. Ainsi, pour Eugene Fama,
la crise provient au contraire de ce que l'EMH
n'a pas été prise suffisamment au sérieux : « If
banks and investment banks took market
efficiency more seriously, they might have
avoided lots of their recent problems 5 ».
UNE HYPOTHÈSE DEVENUE DOMINANTE
Jusqu'à ces dernières années, l'EMH semblait
d'une robustesse considérable, tant théoriquement qu'empiriquement.
3
1
2
4
James Tobin, « On the Efficiency of the Financial System »,
Lloyds Bank Review, 1984.
John Cochrane, « Efficient market today », Conference on
Chicago Economics, 10 novembre 2007.
AD 2012
5
2/7
Michael Jensen, « Some Anomalous Evidence Regarding
Market Efficiency », Journal of Financial Economics, Vol.6,
n° 2/3, 1978.
Paul Krugman, « How Did Economists Get It So Wrong ? »,
New York Times, 6 septembre 2009.
Q & A, « Is Market Efficiency the Culprit ? », Fama/French
Forum, 4 novembre 2009.
Revue Banque hors série
Mai 2011
2
Cochrane a, de son côté, vigoureusement
répondu aux assertions les plus « politiques »
de Krugman 6 : « The case for free markets
never was that markets are perfect. The case
for free markets is that government control of
markets, especially asset markets, has always
been much worse. Free markets are the worst
system ever devised -except for all of the
others ». Mais il concède 7 que l'EMH demeure
inachevée. Il reste ferme sur l'aspect
informationnel de la théorie, mais admet qu'il
faut expliquer pourquoi les cours varient en
l'absence d'information nouvelle. Il reconnaît
que la notion de prime de risque n'a pas été
l'objet d'une attention suffisante, alors qu'elle a
pourtant été implicitement présente dans le
calcul
d'actualisation
nécessaire
pour
déterminer la valeur théorique d'un actif (la
somme actualisée des cash flows attendus) et
qu'un nouveau champ de recherche doit s'ouvrir
sur cet aspect et sur une meilleure
compréhension des relations entre volumes de
trading et prix. Il faut dire qu'expliquer les
anomalies observées dans la vie réelle par une
variable d'ajustement mal connue ne constitue
pas nécessairement une avancée majeure...
forme « arbitrage », pas plus qu'elle ne le fait
dans sa forme « juste prix » : en effet, les prix
peuvent osciller fortement autour de leur valeur
fondamentale. Comme le dit John Cochrane :
« Rien dans la notion d'efficience ne suppose la
stabilité ». En revanche, si on prend l'EMH
sous sa forme la plus forte (efficacité), trop de
volatilité enlève aux marchés une partie de leur
efficacité comme vecteur de l'épargne pour les
ménages, ou comme source de financement
pour les entreprises car un marché trop volatil
n'est pas une solution pratique, ni crédible, pour
épargner ou pour se financer. Il convient donc
de s'entendre sur les termes du débat. Nous
nous intéresserons donc, d'une part, à la
« fundamental valuation efficiency » qui
postule que les prix du marché sont égaux
à leur valeur fondamentale -que nous traduisons
par « efficience des marchés »- et, d'autre
part, à la « functional efficiency », qui suppose
que les marchés remplissent efficacement un
certain nombre de fonctions sociétales, que
nous traduisons par « efficacité des marchés ».
…MAIS SOUVENT CONFUS
UNE DOUBLE FAILLE
Le débat sur les marchés efficients est souvent
rendu confus par le fait que l'EMH recouvre des
formes plus ou moins fortes, comme les quatre
sous-variétés dégagées par Tobin évoquées plus
haut. Les mêmes faits empiriques peuvent
apparaître en violation de formes fortes de
l'EMH, mais ne pas en contredire des formes
plus faibles. Ainsi, l'existence de bulles, en
soi, ne contredit pas l'EMH dans sa
forme « Absence d'opportunités d'arbitrage ».
Les bulles ont toujours existé, avant même que
la question de l'efficience des marchés ne soit
posée ; et comme, par définition, elles éclatent
un jour, les bulles ne sont pas incompatibles
avec l'absence d'opportunité d'arbitrage. En
revanche, elles contredisent l'EMH dans sa
forme « juste prix » ; en effet, elles donnent lieu
à des prix aberrants et déconnectés de leur
valeur fondamentale (estimée comme la somme
des flux actualisés attendus de l'actif échangé).
La forte volatilité observée ces dernières
années ne contredit pas non plus l'EMH dans sa
Nous souhaitons montrer ici que l'efficience
des marchés, c'est-à-dire l’EMH sous sa forme
la « fundamental valuation efficiency », souffre
d'une double faille en postulant que les prix du
marché sont égaux à la valeur fondamentale.
Faiblesse face aux faits car elle est contredite
par l'existence des crises ; faiblesse théorique car elle est intrinsèquement paradoxale,
puisqu'elle suppose l'existence de l'industrie
financière tout en en prédisant la disparition.
6
7
II. L'EFFICIENCE DES MARCHÉS : UNE
HYPOTHÈSE À ENTERRER ?
▪ Première faille : la théorie face aux faits
L'observation des trois dernières crises de
marché démontre les limites de la théorie de
l'efficience des marchés.
La chute du fond spéculatif LTCM en 1998 à
la suite de la crise des emprunts d'État russes a
mis en évidence trois facteurs perturbant la
stratégie de ce fonds, qui visait précisément à
parier sur le retour à l'équilibre de prix relatifs
ayant divergé à la suite d'inefficiences
temporaires de marché (stratégies de relative
value) : la liquidité, le nombre restreint des
participants, et les interactions stratégiques
John Cochrane, « How Did Paul Krugman Get It So
Wrong ? », 16 septembre 2009.
John Cochrane, « Efficient market today », conference on
Chicago economics, 10 novembre 2007.
AD 2012
3/7
Revue Banque hors série
Mai 2011
2
entre ces participants, les uns prenant des
positions contre les autres.
La bulle des valeurs liées à Internet a donné
lieu à des évaluations aberrantes, relevant du
comportement mimétique des investisseurs et
de l'effet de mode.
Enfin, la crise des subprimes a mis en avant le
rôle de l'information et des modèles, car de
nombreux actifs ont été durablement évalués
par le marché à des prix aberrants reflétant des
informations fausses, des hypothèses infondées
sur l'évolution et la corrélation des prix de
l'immobilier. Cette crise a été aggravée par la
concentration « systémique » de ces actifs dans
des banques tenues de respecter en permanence
des ratios réglementaires. La notion de fair
value n'a ainsi pas de sens lorsque des ventes
forcées d'actifs bradés par certaines institutions
en ont contraint d'autres à déprécier leur bilan,
les conduisant à leur tour à d'autres ventes
forcées, dans un enchaînement systémique
néfaste.
Notons cependant que, dans ces trois crises, le
paradigme d'absence d'opportunité d'arbitrage,
« no free lunch », a été respecté. Mais au-delà,
on touche à la limite de la théorie. Celle-ci
permet de bâtir des modèles : tout étudiant sait
que la qualité d'un modèle ne peut être
meilleure que celle des données qui
l'alimentent, et qu'une théorie est souvent bâtie
sur des conditions implicites ou explicites dont
la non-existence ruine sa mise en œuvre
pratique.
LTCM démontre que la condition de liquidité
est essentielle, de même que celle de diversité
et d'indépendance, ou au moins de noncoalition des acteurs. Internet et les bulles dues
à la croyance en des ruptures technologiques et
commerciales (chemin de fer, électricité...)
témoignent de l'imperfection d'une théorie
ignorant la propension à sous-estimer le délai
d'adoption généralisée des innovations, le
mimétisme des acteurs financiers et sociaux et
leur instinct grégaire. La crise des subprimes
reflète l'échec de modèles alimentés par des
informations fausses et une hypothèse explicite
selon laquelle les comportements immobiliers
passés fournissaient une base statistique fiable
pour « probabiliser » des scénarios futurs.
les marchés efficients, il faut une industrie
financière), en prédit la disparition (si les
marchés sont efficients, la rente associée à un
avantage comparatif sur les marchés disparaît,
de même que les emplois de ceux qui
travaillent à créer ces avantages comparatifs).
Le développement de l'industrie de gestion
d'actifs s'est en effet conjugué avec celui des
théories financières modernes. Il a certes
bénéficié d'une coïncidence historique (1a reconstruction consécutive à la Seconde Guerre
mondiale, l'adaptation aux besoins des baby
boomers) mais il a aussi profité de la mise à
disposition d'outils crédibles permettant de
proposer une chaîne d'instruments financiers et
d'outils de transformation et d'échange du
risque destinés à des agents économiques,
entreprises et ménages ayant des objectifs
précis.
Ce très important développement -l'industrie de la gestion d'actifs gère environ
50 000 milliards de dollars dans le monde, soit
un montant très proche de celui du PIB
mondial ; les montants investis par les fonds de
pension sont supérieurs à 30 000 milliards
USD- est cependant paradoxal. La théorie
énonce qu'un investisseur ne peut pas « battre le
marché » et que la meilleure stratégie
d'investissement est d'acheter le portefeuille de
marché (le portefeuille pondéré des actifs).
Un observateur candide en déduirait que
l'investissement dans des portefeuilles de fonds
indiciels est la stratégie la plus rationnelle.
Un professionnel de la finance en déduirait qu'il
est vain de vouloir créer des produits financiers
ayant pour objectif de battre le marché. Or,
l'industrie existe et elle est forte de ses encours,
de la très importante qualification académique
de ses professionnels et des stratégies multiples
développées par les sociétés de gestion : il s'agit
d'une démonstration par l'absurde que la
quasi-totalité des professionnels, dont le niveau
d'éducation n'a cessé de s'élever depuis trente
ans, et normalement formés par les théories
dominantes, estiment que ce cadre théorique n'a
en réalité pas de valeur pratique, puisque les
plus intelligents d'entre eux « battront le
marché ».
Cela doit donner à penser, même si des biais
sérieux vicient, en pratique, la pure application
de la théorie à la réalité : fiscalité et autres biais
politiques, réalité de l'asymétrie d'information,
biais nationaux et comportementaux, limitation
des univers d'investissement par les indices,
▪ Deuxième faille : les paradoxes de la théorie
La deuxième faiblesse de l'efficience des
marchés est théorique : la théorie, qui suppose
l'existence de l'industrie financière (pour rendre
AD 2012
4/7
Revue Banque hors série
Mai 2011
2
supposée être une mesure de qualité supérieure
à celle de la valeur comptable.
Enfin, le prisme de l'EMH a permis de
détecter des tendances et des biais
d'investisseurs : les travaux de Fama et French
ont permis d'identifier un biais des investisseurs
lié à la taille des entreprises 8 ; d'autres travaux
ont mis en évidence l'existence d'une prime
anormale de risque sur les marchés action
(equity premium puzzle) 9 ou le biais des
investisseurs en faveur des actions de leur
propre pays (home bias puzzle) 10 .
règles prudentielles, liberté d'accès à l'ensemble
des actifs théoriques, coûts de transaction.
DEUX FAILLES ÉTROITEMENT LIÉES
En conclusion, les deux faiblesses du
paradigme de l'efficience des marchés semblent
en fait étroitement liées. L'existence de bulles
vient de ce que les professionnels de marché
accordent parfois aux prix de marché une
confiance supérieure à celle dont ils créditent
leurs propres convictions : d'où une certaine
déconnexion entre la valeur et le prix en raison
de phénomènes mimétiques observés lors des
bulles. Cela est lié à la résolution du paradoxe
de la gestion d'actifs : elle existe, mais à la
marge, pour corriger des imperfections de
marché minimes -en effet, personne n'a raison
contre le marché. La gestion d'actifs n'est donc
pas structurée pour résister à des écarts
systématiques de prix par rapport aux valeurs
fondamentales.
DES MARCHÉS TOUJOURS EFFICACES
MALGRÉ LA CRISE
La crise actuelle a suscité un renouveau des
critiques traditionnelles émises à l'encontre des
marchés. Recentrons-nous donc sur une
question pratique : durant la crise, les marchés
ont-ils rempli leurs fonctions essentielles,
c'est-à-dire financer l'économie et assurer
l'épargne des investisseurs finaux, c'est-à-dire
des ménages ?
La réponse à la première question est évidente : les marchés de financement des entreprises ont fonctionné correctement pendant la
crise. Ceux-ci ont en effet financé les grandes
entreprises (avec un doublement des émissions
de titres en France en 2009 par rapport à 2008,
par exemple) alors que le système bancaire
éprouvait la difficulté de devoir simultanément
honorer ses engagements passés à leur égard et
régler ses problèmes de fonds propres, parfois
au prix de nationalisations partielles.
La question de l'épargne est plus difficile à
analyser, car l'analyse de la performance d'un
actif ressort du temps long, et non de la
détermination de bornes temporelles choisies en
fonction du résultat souhaité. Durant la crise,
l'économie, les institutions financières et les
salariés victimes du chômage ont plus souffert
que l'épargne des ménages, dont les actifs ont
varié dans des directions inverses au fur et à
mesure du développement de la crise : les
actions ont fortement baissé, comme
l'immobilier (aux États-Unis, beaucoup moins
III. DES MARCHÉS EFFICACES
L'EMH A STRUCTURÉ LE SYSTÈME FINANCIER
ACTUEL
Avec le CAPM et la formule de Black and
Scholes, l'EMH est le fondement théorique de
développements ultérieurs qui ont également
contribué significativement au développement
de l'industrie de la gestion de portefeuilles et
celle des produits dérivés. Elle a conduit, en
soi, à l'essor de l'industrie de la gestion
indicielle (soit 10 à 15 % des encours
mondiaux), sans même évoquer plus en détail
le rôle prépondérant de la gestion
« benchmarkée » autour des indices.
Mais l'EMH a également donné un langage à
la finance moderne : des notions issues de
l'EMH -telles que, par exemple, le « beta » d'un
actif, le « delta » d'une stratégie- forment un
langage de communication entre les entreprises
et les gérants de fonds, de même qu'entre les
gérants et les investisseurs finaux. Elle sert
également au régulateur, puisque la définition
même du délit d'initié est déduite des concepts
de l'EMH, tandis que sa répression vise, entre
autres, à la garantir.
Elle est également intégrée à l'élaboration des
comptes de l'entreprise, puisque les normes
comptables américaines et internationales
imposent la comptabilisation d'éléments du
bilan des entreprises à la valeur de marché,
AD 2012
8
9
10
5/7
E.F. Fama et K.R. French, « Size and Book to Market Factors
in Earnings and Returns », Journal of finance, 50, 1995,
pp.131-135.
Rajnish Mehra et E.C. Prescott, « The Equity Premium :
A Puzzle », Journal of monetary economics, 15 (2), 1985,
pp.145-161.
Kenneth French et James Poterba, « Investor Diversification
and International Equity Market », American economic review,
81 (2), 1991, pp. 222-226.
Revue Banque hors série
Mai 2011
2
en Europe continentale), avant de remonter
dans de bien moindres proportions ; au
contraire, les actifs obligataires ont été en
général réévalués.
L'étude de la question des retraites montre la
difficulté et la relativité de l'analyse. Les futurs
retraités des pays de capitalisme anglo-saxon
ont particulièrement souffert de la crise
financière, perdant à peu près un cinquième de
leur pouvoir d'achat 11 . Au-delà, c'est toute la
population des individus épargnant pour leur
retraite qui est affectée par la perception d'un
risque individuel accru. En regard, les cotisants
dans les pays dotés d'un système de retraite par
répartition ont à première vue moins pâti de
la crise financière, notamment grâce à
l'intervention de l'État. Leurs pensions futures
ne sont pas menacées par une baisse
automatique de la valeur d'actif de l'épargne qui
aurait été leur sort dans un système par
capitalisation. Le système hors-marché, avec
ses stabilisateurs automatiques et ses mécanismes de solidarité, semble avoir joué un rôle
positif. À y regarder de plus près, il n'est pas du
tout évident que tous les cotisants de ces pays
aient lieu de se réjouir. En effet, leur avoir réel
a été impacté par la crise financière, par la
baisse des recettes fiscales et l'endettement
public accru. Que les gouvernements dans les
pays par répartition maintiennent le niveau des
retraites signifie tout simplement qu'ils opèrent
tacitement pour un temps déterminé un transfert
de valeur vers les générations les plus âgées, au
détriment des plus jeunes.
Faut-il alors allouer les ressources par la
négociation ou par le marché ? En matière de
retraites, la situation démographique en Europe
impose la recherche de solutions opérationnelles pour réviser certaines règles du
partage de la valeur entre actifs et retraités,
entre secteur public et secteur privé, entre
hommes et femmes, etc. Dans une société où
les intérêts catégoriels sont clairement définis et
représentés, on peut arguer que le processus de
négociation crée en lui-même du consensus et
qu'il renforce l'acceptabilité de la solution
retenue. Mais lorsque les intérêts en présence
sont incomplètement représentés, de surcroît
par des agents rétifs à la culture du compromis,
le processus de négociation peut faire l'objet de
frictions coûteuses. L'exemple de la Grèce
montre que le succès de la négociation ne va
pas de soi, dans un cadre européen rigide et
sous l'emprise de la récession, car les adjuvants
habituels (croissance, inflation, dévaluation et
autres illusions chères à Robert Shiller) ne sont
pas disponibles.
L'investissement des contributions des futurs
retraités dans les marchés ne donne in fine pas
d'autre garantie que celle de voir ses revenus
futurs gagés sur les développements de
l'économie mondiale (le portefeuille de
marché). En définitive, elle n'est donc pas
différente de la promesse faite par les systèmes
de répartition, dans lequel la retraite des uns est
gagée sur le volume et la qualité du travail
des autres. Avec une différence de taille : la
répartition s'effectue dans un cadre national.
À chacun d'apprécier la valeur relative des
notions de solidarité entre générations, de
diversification géographique et démographique
des actifs, et de négociation implicite ou
explicite entre partenaires sociaux.
L'EMH EST UN PARADIGME INSUFFISANT,
MAIS IL N’Y EN A PAS D’AUTRE, DANS UNE
ÉCONOMIE DE MARCHÉ
Eugene Fama admet que des investisseurs mal
informés pouvaient faire dériver le marché, que
des prix mal formés peuvent pousser les
corporates à « jouer » avec l'information et
effectuer des mauvais choix guidés par les
évaluations. Il admet également que demeure
ouverte la question du pourquoi tant de
volumes sur les marchés alors qu'une fraction
suffirait à ajuster les prix 12 ?
Nous savons que l'EMH est combattue par
l'école comportementale. Les behavioristes
expliquent les échecs de l'EMH lorsque des
accidents surviennent, mais ont-ils établi une
œuvre utilisable par les praticiens ? Certes la
finance comportementale bénéficie d'une
reconnaissance croissante, mais celle-ci
concerne plutôt les frontières de l'économie et
la psychologie (noter, par exemple, le prix
Nobel décerné à Kahneman en 2002) que celles
avec la macroéconomie. En effet, même si des
biais comportementaux peuvent être mis en
évidence au niveau individuel, il est très
difficile d'écrire des modèles plausibles
d'agrégation de ces biais, pour expliquer le
passage du biais comportemental au niveau
micro aux marchés inefficients au niveau
macro.
12
11
E. Whitehouse, « Pensions at a glace », OCDE, 2009.
AD 2012
6/7
J. Hilsenrath, Wall Street Journal, 18 octobre 2004,
University of Chicago conference, mai 2004.
Revue Banque hors série
Mai 2011
2
L'efficience des marchés n'est donc ni une loi
de la nature, ni un théorème au sens
mathématique. Elle demeure une « hypothèse »,
ainsi que l'avaient d'ailleurs prudemment
dénommée ses concepteurs. Une simple
hypothèse, mais une hypothèse forte, car elle
est valide « en général ». Elle constitue le
fondement d'une industrie financière opératoire,
malgré ses imperfections, dans la mesure où
elle finance l'économie et est l'interlocuteur,
parfois invisible, des ménages soucieux de
préserver leur épargne ou de s'assurer envers les
aléas de la vie.
L'efficience des marchés n'est donc pas, en
soi, une question qui mérite de très amples
débats. Il s'agit d'un concept puissant mais
imparfait, la clameur qui l'entoure obéissant à
des motivations qui le dépassent totalement.
D'un côté, les intégristes de l'efficience étirent
la notion jusqu'à lui prêter des vertus d'équilibre
général et d'autorégulation de la société de
son ensemble. De l'autre, les nostalgiques
d'une économie administrée par les « mieuxsachants » dénoncent la tyrannie des « esprits
animaux », et peut-être aussi le basculement,
illégitime à leurs yeux, du pouvoir vers la
masse anonyme et stupide des détenteurs de
capitaux.
Nous estimons pour notre part que les
marchés jouent un rôle irremplaçable, d'ailleurs
démontré par leur adoption croissante dans le
monde, en particulier par les nouvelles
puissances. Ce rôle est supporté par l'EMH,
mais celle-ci ne doit pas être considérée comme
un dogme universel. Les marchés sont de bons
serviteurs mais de mauvais maîtres ; ils doivent
en effet être le reflet de l'intelligence des
hommes et leur ouvrir des options plus
nombreuses, afin de procéder à des décisions
qui, in fine, demeurent de leur responsabilité.
L'économie comportementale ne propose pas
une théorie d'équilibre général et de
valorisation des actifs permettant à des
praticiens de procéder à des choix cohérents au
fil du temps. En ayant le goût du paradoxe, on
pourrait même dire que la finance
comportementale favorise l'efficacité pratique
de l'EMH, puisque ses adeptes opérationnels,
gérants de fonds, construisent des stratégies qui
parient sur un retour à la valeur fondamentale
des actifs en tirant profit des mauvais prix
formés par des acteurs prisonniers de leurs biais
comportementaux.
D'un point de vue plus politique, en refusant
l'EMH et en l'absence de tout autre matériel
conceptuel « de marché », faudrait-il se
résoudre à prôner le retour de la main très
visible de l'état et de sa technostructure ?
LE VRAI DÉBAT DE LA CRISE NE PORTE PAS
SUR L’EFFICIENCE DES MARCHÉS
L'efficience des marchés n'existe pas en tout
lieu et à toute heure. Pour être observable, elle
demande la mise en œuvre de conditions qui
sont valides en général, mais en général
seulement. Elle est mise en défaut :
- lorsque les investisseurs agissent sous
l'emprise de pulsions non rationnelles (se
comportent en « esprits animaux » et
ignorent
donc
toute
l'information
disponible) ;
- lorsqu'ils limitent volontairement leur
capacité à raisonner et à agir
(asservissement à des indices ou à des
programmes automatiques d'assurance ou
d'arbitrage) ;
- lorsque les attitudes mimétiques et
autoréférentielles décrites par Keynes
constituent l'essentiel des anticipations
rationnelles des acteurs du marché, dans
un secteur donné ou à un moment donné
(formation de bulles) ;
- lorsque les marchés ne rassemblent pas un
nombre suffisant de participants et voient
les prix déterminés par des stratégies de
squeeze ou des contraintes de liquidité.
Alfred GALICHON
Philippe TIBI
Alfred GALICHON est Professeur à l’École polytechnique.
Philippe TIBI est Président de l’AMAFI, Professeur à l’École polytechnique et Président d’UBS en France.
AD 2012
7/7
Revue Banque hors série
Mai 2011
3
OUTIL DE MESURE
LES DIX PÉCHÉS CAPITAUX
DE LA VALUE AT RISK
Très présente dans les banques, la Value at Risk (VaR) est également utilisée dans
l'univers de l'assurance, pour mesurer le risque. La directive Solvabilité 2 en fait même
un outil central pour les compagnies, mais ce choix soulève de nombreuses critiques.
L
a VaR est la mesure de risque que le
régulateur européen a choisi pour
élaborer la nouvelle norme prudentielle
Solvabilité 2. Au regard de ses objectifs et des
caractéristiques du secteur de l'assurance, cette
mesure peut-elle être considérée comme
pertinente et quelles sont les limites qu'elle
présente ?
Nous rappelons tout d'abord que la VaR
représente la perte potentielle maximale, au
regard d'un horizon temporel et d'une
probabilité donnés. Ainsi, la VaR à 99,5 % sur
un an retenue par le régulateur européen,
signifie qu'il exige que tout assureur ait
suffisamment de ressources, pour couvrir tous
les risques qui ont une fréquence d'occurrence
supérieure à une fois tous les deux cents ans.
La VaR correspond au fractile de niveau 0,5 %
de la distribution 1 de pertes et profits, associée
à un risque étudié sur une période d'un an.
Cette VaR dépend donc de cette distribution de
probabilités, d'un niveau de confiance (99,5 %)
et de la durée analysée (1 an).
Pour apprécier les limites de la mesure VaR,
il est important de comprendre comment peut
être estimée la distribution des pertes et
profits. Trois approches sont généralement disponibles :
- La méthode paramétrique, retenue
principalement par le régulateur européen.
Elle consiste à identifier différents facteurs
de risque (choc action, évolution des
spreads, rachats massifs de contrats,
catastrophes naturelles...), puis à estimer
leur distribution de probabilité. Le principal
avantage de cette approche paramétrique est
qu'elle offre une expression explicite de la
VaR. Toutefois, comme nous le verrons
plus en détail, elle présente certaines limites
notamment relatives à l'agrégation des
risques, qui requiert généralement une
hypothèse de normalité des facteurs de
risque. Cette hypothèse est peu réaliste,
notamment lorsqu'on considère, comme le
régulateur prudentiel européen, des
événements rares tels que le risque de
faillite.
- La méthode de Monte-Carlo, technique
de simulation qui génère des données
ex ante. Son principal inconvénient est que
la spécificité de ces dernières engendre des
problèmes de sensibilité des résultats à la
calibration du modèle, dont l'élaboration et
la correction peuvent s'avérer coûteuses et
complexes.
- La méthode historique. Il s'agit de définir
une distribution empirique à partir d'une
série historique et d'en estimer le quantile,
c'est-à-dire d'en quantifier la perte
maximale pour un niveau de confiance
donné. La principale limite de cette
approche est que la méthode renseigne sur
la VaR passée et suppose un profil de
risque constant dans le temps.
1
UNE VAR TRÈS CONTESTÉE
À partir de ces définitions, nous nous
proposons d'étudier la pertinence de la mesure
de risque VaR dans le cadre prudentiel
Solvabilité 2. En effet, si la VaR offre
l'avantage d'obliger l'ensemble des sociétés du
secteur de l'assurance à réfléchir à leur réelle
exposition aux risques (identification, mesure
et gestion), elle présente toutefois de
nombreuses limites. Nous en avons recensé
dix.
La fonction de distribution est la fonction qui associe à tous les
événements possibles leur probabilité d’occurrence.
AD 2012
1/5
Banque Stratégie n° 303
Mai 2012
3
LA DIVERSIFICATION OUBLIÉE
LA SÉVÉRITÉ ÉLUDÉE
Première limite : la VaR n'est pas sousadditive. La VaR globale d'une société n'est
pas nécessairement inférieure ou égale à la
somme des VaR de chacune de ses
composantes (VaR(XI, ..., Xn) > VaR(XI) +...+
VaR(Xn)). Ceci signifie que les bénéfices de
diversification ne sont pas toujours considérés.
Aussi, pour intégrer ces derniers lors de
l'agrégation des facteurs de risque (vie, nonvie, marché, etc.) mesurés initialement de
façon indépendante, le régulateur européen a
été contraint de définir des matrices de
corrélation. Au-delà de la calibration de ces
matrices, qui a été très souvent perçue comme
peu pertinente, se pose la problématique de la
stabilité de la corrélation entre les différents
facteurs de risque, notamment lorsque le seuil
de confiance est élevé (événements rares).
La VaR, c'est là sa deuxième limite, ne tient
pas compte de la sévérité de la ruine. Elle
réduit la vision du profil de risque de la société
à un nombre (par exemple un montant de perte
dans une devise) sans donner d'informations
sur l'épaisseur de la queue de distribution
(cf. graphique). Ainsi, deux sociétés peuvent
avoir la même VaR et pourtant générer un
profil de pertes extrêmes très différent. Ceci
peut paraître très insuffisamment informatif
lorsque l'on étudie des événements rares et le
risque de faillite.
AD 2012
LA DANGEREUSE HYPOTHÈSE DE
NORMALITÉ
Pour estimer la VaR, le régulateur européen
retient une approche paramétrique. Il calibre
les facteurs de risque à partir de distributions
empiriques. Toutefois, l'agrégation des risques
est réalisée selon une hypothèse de normalité
2/5
Banque Stratégie n° 303
Mai 2012
3
des facteurs, ce qui peut sous ou surestimer les
grandes déviations. Si cette hypothèse peut être
acceptable autour de la moyenne des
distributions, elle ne l'est pas lorsque sont
étudiés le risque de faillite et les risques
extrêmes. D'importants risques de modèle
peuvent alors être engendrés.
UNE VISION STATIQUE
Comme nous l'avons mentionné plus haut,
déterminer une VaR à 99,5 % à un an revient à
estimer les pertes engendrées par un
événement se produisant une fois tous les deux
siècles (pertes extrêmes). Retenir une approche
historique comme celle du régulateur suppose
non seulement de disposer d'un échantillon
suffisamment long et représentatif (les
observations dans les queues de distribution
sont par définition moins fréquentes), mais
surtout repose sur une hypothèse de
stationnarité 2 des comportements et des
risques. Or, dans le secteur de l'assurance, ces
dernières décennies montrent que cette
hypothèse ne peut être acceptable. La modélisation des risques de faillite requiert des
modèles spécifiques. À titre d'illustration, un
modèle de risque de contagion pour le risque
obligataire serait plus pertinent que la méthode
paramétrique retenue par le régulateur sur les
risques de taux et de spreads.
UN HORIZON TROP COURT
La quatrième limite que l'on peut mentionner
est l'horizon de la VaR à un an. Cela va à
l'encontre des stratégies pertinentes de gestion
actif/passif élaborées sur des portefeuilles de
longue maturité. En effet, cet horizon imposé
par le régulateur requiert de choquer à un an
une stratégie financièrement optimisée pour
une échéance qui peut dépasser une décennie.
Ce choix d'horizon à un an n'est pas
systématiquement pertinent, par exemple dans
le cas d'une couverture d'une garantie de passif
avec une obligation. L'Autorité de contrôle
pourrait ainsi aller à l'encontre de ses objectifs,
comme cela a été le cas parfois avec les IFRS.
En effet, des sociétés d'assurance ont renoncé
à certaines stratégies optimales de gestion
actif/passif de long terme pour réduire la
volatilité artificielle comptable de court terme
engendrée par les traitements IFRS de telles
stratégies.
TROP SENSIBLE AUX SEUILS
La septième limite réside dans la sensibilité
de la VaR aux seuils de confiance. En effet, du
fait que la VaR étudie les risques extrêmes et
n'indique qu'un unique montant de perte pour
chaque intervalle de confiance, sa sensibilité à
l'intervalle de confiance est très importante.
Ainsi, une VaR à 99,5 % peut indiquer un
montant de perte très supérieur à une VaR à
99,4 %. Cette absence de proportionnalité est
de nature à fragiliser l'interprétation du résultat
de l'estimation de la VaR.
UN HORIZON UNIQUE
La cinquième limite tient au choix d'un
unique horizon à un an. Au-delà de l'existence
de différentes maturités des actifs et des passifs
que nous venons de mentionner, cette unicité
d'horizon n'est pas cohérente avec l'endogénéité de l'horizon. En effet, l'horizon est
parfois choisi et non pas subi par l'assureur :
par exemple, s'il adopte pour réduire ses
risques une stratégie dynamique, alors
l'horizon de rebalancement est endogène. Cet
horizon doit dépendre de la liquidité des actifs
et des passifs, pour notamment mesurer les
risques intrinsèques de ce type de gestion.
L'unicité d'horizon nuit donc à la
reconnaissance de certaines stratégies de
gestion de réduction des risques, telles que la
gestion dynamique des risques avec
rebalancements (périodiques ou non) inférieurs
à un an, ou encore les systèmes de gestion
« automatique » de coupure des positions au
fur et à mesure que les pertes s'accumulent.
LES PRODUITS DÉRIVÉS MAL TRAITÉS
Huitième limite : l'approche paramétrique de
la VaR retenue par le régulateur prudentiel
n'est pas très adaptée aux produits dérivés
lorsque le prix de ces derniers ne varie pas
linéairement avec celui de leur sous-jacent (par
exemple une option, un swap avec un cap et un
floor). La non-linéarité -par exemple la
convexité des options- peut être résolue par un
développement à l'ordre deux selon l'approche
delta gamma, mais elle engendre la perte de la
normalité, généralement retenue pour agréger
les facteurs de risque.
2
AD 2012
3/5
Leur indépendance au temps.
Banque Stratégie n° 303
Mai 2012
3
s'interprète comme l'espérance conditionnelle
de la variable aléatoire du montant supérieur à
la VaR de seuil α. Elle a l'avantage donc de
considérer les queues de distribution et d'être
une mesure de risque cohérente au sens
d'Artzner et al. (1999).
Parallèlement, la procédure de stress-testing
rencontre également une forte adhésion : elle
présente l'avantage de contourner le recours à
des lois de distribution à queues épaisses, en
offrant l'opportunité de choisir la magnitude
souhaitée
de
l'événement,
et
cela
indépendamment de sa probabilité d'occurrence. Les détracteurs de cette approche
mentionnent toutefois que toutes les
éventualités ne peuvent pas être imaginées et
que les scénarios peuvent ainsi être
insuffisamment conservateurs. Il est en outre
difficile d'attacher une probabilité aux
scénarios.
DES VAR PEU COMPARABLES ENTRE ELLES
La neuvième limite repose sur le manque de
comparabilité de la VaR entre différentes
sociétés. Au-delà des trois approches de calcul
de la VaR mentionnées en introduction, la
complexité de la calibration des facteurs de
risque offre une grande flexibilité et est de
nature à produire des résultats peu
comparables.
UNE MESURE INCOMPLÈTE DU RISQUE
Enfin, la dixième limite est que la VaR est
une mesure incomplète du risque. Deux
distributions de risque peuvent avoir la même
VaR, mais des volatilités très différentes. Il
suffit, à titre illustratif, de comparer deux
stratégies investies dans des actions différentes
qui limitent les pertes à un même seuil, via une
option par exemple. Dès lors, cela peut
engendrer des conflits dans les choix
stratégiques entre la gestion de la volatilité qui
traite une problématique autour de la moyenne
de la distribution et la gestion de la VaR, qui
relève généralement des risques extrêmes.
En outre, la VaR est une fonction non convexe,
alors que la volatilité est une fonction
convexe ;
cela
rend
difficile,
voire
inaccessible, l'optimisation des stratégies sous
contrainte de risques.
Face à toutes ces limites, de nombreux
travaux académiques cherchent de nouvelles
mesures de risque plus pertinentes pour le
cadre prudentiel de l'assurance Solvabilité 2.
Une mesure de risque définie à partir de la
VaR suscite un intérêt grandissant dans le
monde professionnel, du fait de sa simplicité et
de sa propriété de sous-additivité. Il s'agit de la
TailVaR,
également
appelée
Expected
Shortfall, Conditional Tail Expected ou encore
Conditional VaR. La TailVaR de seuil α
LE STRESS-TEST À LA RESCOUSSE
Combiner approche TailVaR et stress-testing
pourrait déjà être une piste d'amélioration de la
mesure des risques dans le cadre prudentiel
Solvabilité 2. En effet, la TailVaR n'intégrant
que des risques endogènes, la compléter par
des stress-tests permettrait d'appréhender
également des risques exogènes, dont les
risques systémiques.
En conclusion, la VaR pour le secteur de
l'assurance reste une mesure très perfectible et
doit faire l'objet de toutes les attentions, pour
notamment éviter les risques de modèle et les
risques systémiques. Toutefois, au-delà du
montant de perte qu'elle produit et de sa
fiabilité, elle permet à l'ensemble des acteurs
de l'assurance de réfléchir aux enjeux de la
gestion des risques et de les intégrer dans les
fondamentaux de leurs stratégies.
Philippe FOULQUIER
Alexandre LE MAISTRE
Philippe FOULQUIER est Professeur, Directeur du centre de recherche analyse financière et comptabilité, Edhec Business
School.
Alexandre LE MAISTRE est ingénieur de recherche associé, Edhec Business School.
AD 2012
4/5
Banque Stratégie n° 303
Mai 2012
3
GLOSSAIRE
▪ Facteurs de risques. Ensemble des éléments dont
l'évolution est non prévisible et influe la valorisation
des engagements de passifs ou d'actifs.
▪ Liquidité. Mesure permettant d’évaluer la facilité à
acheter ou à vendre un volume significatif d’un actif ou
passif.
▪ Normalité des facteurs de risque. Hypothèse qui
suppose que les évolutions des facteurs de risque
sont des phénomènes gaussiens.
▪ Modèle de risque de contagion.
crédit dont l’objectif est d’intégrer
d’une contrepartie sur le risque de
modélisation des interactions entre
rendre ces modèles complexes.
▪ Stratégie dynamique. Stratégie qui vise à ajuster
l'allocation d'actifs en fonction de variables évoluant
dans le temps.
▪ Horizon de rebalancement. Délai nécessaire aux
ajustements de l'allocation dynamique d'actifs.
Il peut aller de la milliseconde à quelques mois. Il
dépend essentiellement de la liquidité des
instruments.
AD 2012
Modèle de risque de
l’impact de la faillite
faillite des autres. La
les contreparties peut
▪ Approche delta gamma. Approche qui consiste à intégrer
une sensibilité non linéaire à certains facteurs de risque.
▪ Fonction convexe. La courbe d’une fonction convexe est
située en dessous de ses cordes. Les fonctions possèdent
des propriétés de continuité et de dérivabilité qui facilitent
la recherche d’extrema.
5/5
Banque Stratégie n° 303
Mai 2012
4
CHAPTER V
The Case Against the Modern Theory of Finance
IF MONEY IS AN IDOL, then one of the largest temple compounds of this modern faith sits on a tight
bend of the River Thames, a few miles downstream from central London. There, in the Canary Wharf
business district, rise eighteen steel and glass towers to which, each working day, 55,000 people commute
to play their part in the international money market. These are the inheritors of Bachelier, Markowitz,
Sharpe, Black, Scholes, and others: fund managers who balance risk and reward, bankers who calculate
default risks, currency traders who place elaborate bets on options. Their collective brainpower, both
carbon- and silicon-based, is astounding. As an industry, finance buys more computers than almost any
other. It hires a huge proportion of the world's newly minted math and economics graduates. It is a vast
calculating machine, a robot to hang an electronic price tag on every product, service, company, and
country that deals in global commerce.
This is where financial theory, from Bachelier to Black, meets financial reality. All the academic models
are here, in the computers and workbooks of the pros-but almost invariably updated, altered, or mixed
with other models. Indeed, the result is something like a traditional medicine or over-the-counter nostrum:
many different chemicals and no clear "active ingredient." But in the world of finance, the purity or
elegance of the theory does not matter. Only one question counts, what makes money? And there are no
easy answers.
Indeed, in the eyes of the academic purists, you would find lots of things that look plain wrong on a
typical, real-world trading floor so many that, when visiting one, you can play the old childhood game of
"spot the mistakes" in an intricate picture.
Citigroup runs one of the biggest foreign-exchange operations at Canary Wharf. On a typical day in 2003,
it is crowded, busy and self-absorbed. The Citigroup trading room is vast, with hundreds of computers,
ceilings, track lighting, and 130 currency traders and salespeople arrayed along rows of desks, six to a
side. Above the desks, small flags-the Union Jack, the Stars and Stripes, the Rising Sun-mark the
currencies in which each cluster of traders specializes. Their language is colorful and arcane: "NokieStokie" for trades between Norwegian and Swedish kronor (Nokie for the currency's computer code,
NOK; Stokie for the Swedish capital, Stockholm); "cables" for the dollar-pound market whose rates were
once cabled across the Atlantic; "plain vanilla" for the most common, standardized currency options. Each
day, the multinational bank moves about one-ninth of all the world's internationally traded dollars, yen,
euros, pounds, zlotys, and pesos; and about a third of its global "PX" business happens on the second floor
of the London office.
But consider the "mistakes" on this floor. Seated at one row of desks, a pair of analysts spend their days
studying the orders of the bank's own customers. They are looking for broad patterns they can report back
to the clients in regular newsletters. Theirs is the sort of market-insider information that, one form of the
Efficient Market Hypothesis says, should not be useful; any profitable insights into trading data should
already be reflected in the prices. But they do not buy that notion: "The biggest edge you can have is the
private information of who's buying what," says one of the analysts. "We do not believe the market is
efficient."
Second mistake: A few desks down is a math Ph.D. from Cambridge. He spends much of each day
studying the fast-changing "volatility surface" of the options market-an imaginary 3-D graph of how price
fluctuations widen and narrow as the terms of each option contract vary. By the Black-Scholes formula,
there should be nothing of interest in such a surface; it should be flat as a pancake. In fact it is a wild,
complex shape. Tracking it and predicting its next changes are fundamental ways in which Citigroup's
options traders make money. About 10 percent of the world FX options market is of a class called exotic.
It has mind-numbing combinations of precise options terms tailor-made to pay off only under certain
circumstances. These combinations are obscure to most people, but perhaps just what the CFO of GM
AD 2012
1/4
The (mis) Behaviour of markets
2008
4
needs to guard against one particular risk that worries him in his company's yen-based cash-flow. None of
this would exist if the original Black-Scholes formula were accurate. Of course, the formula remains
important; it is the benchmark to which everyone in the market refers, much the way, say, people talk
about the temperature in winter even though whether they actually feel cold also depends on the wind, the
snow, the clouds, their clothing, and their health. Citigroup's options analysts have the Black-Scholes
formula in front of them all the time, in spreadsheets. But it is just a starting point.
Third mistake: the research department. Now, by orthodox theory, there should be no research department.
You cannot beat the market, so all you need are a few traders and computers to stay even with it. But
Jessica James, a Citigroup research vice president, punches up on her computer screen a simple chart, a
graph of the dollar-yen exchange rate over the past decade. It wiggles across the screen, a seeming random
walk reflecting the world's mercurial views on the relative merits of the American and Japanese
economies: up, down, or sideways in what the eye sees as an irregular pattern, but which standard
financial theory calls random fluctuation. Then she performs an elementary task, of the sort chartists have
been doing for a century. She calculates a moving average for each day, the average of the exchange rate
over the prior sixty-nine days. This calculation traces a smoother, gentler line than the raw price data,
averaging out all the peaks and troughs. Now, she suggests, here is a simple way to make some money in
the currency market: Every time the actual exchange rate climbs above the average line, you buy. Every
time it falls below the average line, you sell. Simple.
The result? If you had followed this strategy over the past decade, she calculates, you could have pocketed
an average annual return of 7.97 percent. Heresy. Impossible. According to the Efficient Market
Hypothesis, there should be no such predictable trends. Certainly, skepticism is warranted. As James
notes, there is a big difference between spotting veins of gold in old price charts and minting real gold in
live markets. Those 7.97 percent average returns included some periods of hair-raising loss, when sticking
to the strategy would have required steel nerves and deep pockets. Still, a by-now substantial body of
economics research suggests that there is, indeed, money to be made in such a "trend-following" strategy;
how much, and whether it is worth the risk and expense, is a matter of debate. But clearly, the market pros
have already voted: More than half of currency speculators play some form of trend-following game,
market analysts estimate.
So how to explain so stark a discrepancy between theory and reality? Start by looking at the assumptions
underpinning the theory.
SHAKY ASSUMPTIONS
All models by necessity distort reality in one way or another. A sculptor, when modeling in stone or clay,
does not try to clone Nature; he highlights some things, ignores others, idealizes or abstracts some more,
to achieve an effect. Different sculptors will seek different effects. Likewise, a scientist must necessarily
pick and choose among various aspects of reality to incorporate into a model. An economist makes
assumptions about how markets work, how businesses operate, how people make financial decisions. Any
one of these assumptions, considered alone, is absurd. There is a rich vein of jokes about economists and
their assumptions. Take the old one about the engineer, the physicist, and the economist. They find
themselves shipwrecked on a desert island with nothing to eat but a sealed can of beans. How to get at
them? The engineer proposes breaking the can open with a rock. The physicist suggests heating the can in
the sun, until it bursts. The economist's approach: "First, assume we have a can opener. ..."
The assumptions of orthodox financial theory are at least as absurd, if viewed in isolation. Consider a few:
1) Assumption: People are rational and aim only to get rich.
Theory:
When presented with all the relevant information about a stock or a bond, individual investors can and will
make the obvious rational choice that leads to the greatest possible wealth and happiness. They will not
ignore important information, or pay a lot for a stock they expect to fall. They will not become
AD 2012
2/4
The (mis) Behaviour of markets
2008
4
philanthropists. They will behave as rational, clear-thinking, self-interested individuals, each one a latterday Adam Smith. They will make the market work efficiently, with their well-reasoned actions driving
prices quickly to the "correct" level. And their preferences can be expressed in straightforward formulae,
economic "utility functions" that, for a given input, always yield the same output. In the language of
economics: The greatest wealth and happiness maximize utility. In short, rational investors make a rational
model of the market.
Reality:
People simply do not think in terms of some theoretical utility measurable in dollars and cents, and are not
always rational and self-interested. The refutation of this one assumption of modern financial theory has in
the past twenty-five years created a fertile new field of inquiry, called behavioral economics. It studies
how people misinterpret information, how their emotions distort their decisions, and how they
miscalculate probabilities. For instance, suppose you offer somebody a choice: They can flip a coin to win
$200 for heads and nothing for tails, or they can skip the toss and collect $100 immediately. Most people,
researchers have found, will take the sure thing. Now alter the game: They can flip a coin to lose $200 for
heads and nothing for tails, or they can skip the toss and pay $100 immediately. Most people will take the
gamble. To the imagined rational man, the two games are mirror images; the choice to gamble or not
should be the same in both. But to a real, irrational man, who feels differently about loss than gain, the two
games are very different. The outcomes are different, and sublimely irrational.
2) Assumption: All investors are alike.
Theory:
People have the same investment goals and the same time-horizon; they all aim to measure their returns
and fold their cards after the same holding period, whether days or years. Given the same information,
they would make the same decisions. While their wealth may vary, none of them is rich or powerful
enough to influence prices on their own. They have, in the terminology of economics, homogeneous
expectations. They are price-takers, not makers. They are like the molecules in the perfect, idealized gas of
a physicist: identical and individually negligible. An equation that describes one such investor can be
recycled to describe all.
Reality:
Patently, people are not alike -even if differences in wealth are disregarded. Some buy and hold stocks for
twenty years, for a pension fund; others flip stocks daily, speculating on the Internet. Some are "value"
investors who look for stocks in good companies temporarily out of fashion; others are "growth" investors
who try to catch a ride on rising rockets. Once you drop the assumption of homogeneity, new and
complicated things happen in your mathematical models of the market. For instance, assume just two
types of investors, instead of one: fundamentalists who believe that each stock or currency has its own,
intrinsic value and will eventually sell for that value, and chartists who ignore the fundamentals and only
watch the price trends so they can jump on and off bandwagons. In computer simulations by economists
Paul De Grauwe and Marianna Grimaldi at the Catholic University of Leuven, in Belgium, the two groups
start interacting in unexpected ways, and price bubbles and crashes arise, spontaneously. The market
switches from a well-behaved "linear" system in which one factor adds predictably to the next, to a chaotic
"non-linear" system in which factors interact and yield the unanticipated. And that is with just two classes
of investors. How much more complicated and volatile is the real market, with almost as many classes as
individuals?
3) Assumption: Price change is practically continuous.
Theory:
Stock quotes or exchange rates do not jump up or down by several points at a time; they move smoothly
from one value to the next. Continuity of this sort characterizes all physical systems subjected to inertia; it
is, for instance, the way temperature rises and falls during the day. And it jumped long ago into economics
AD 2012
3/4
The (mis) Behaviour of markets
2008
4
theory: Natura non facit saltum or, Nature does not make leaps, was the motto of one of the discipline's
first reference texts, the 1890 Principles of Economies by Alfred Marshall. If you assume continuity, you
can open the well-stocked mathematical toolkit of continuous functions and differential equations, the
saws and hammers of engineering and physics for the past two centuries (and the foreseeable future). You
can also draw important, useful inferences. For instance, as discussed in the preceding chapter,
Markowitz's central idea was to reduce all investment decisions to two simple numbers, the mean and
variance of expected prices, mathematical proxies for return and risk. In 1970 MIT's Samuelson offered a
proof for Markowitz's simplification predicated on the assumption that prices change continuously.
Reality:
Clearly, prices do jump, both trivially and significantly. The trivial: Brokers often quote prices in round
numbers, skipping intermediate values. Thus in the currency market, professional traders observe, about
80 percent of quotes end in a 0 or a 5, skipping the intermediate digits. The usual odds would suggest
those values, being just two of the ten possible final digits in a number, should occur only about
20 percent of the time. Then there is the significant: Almost every day on the New York Stock Exchange,
"order imbalances" occur in one stock or another. On one typical day, January 8, 2004, Reuters News
Service reported imbalances happening eight times. Here, major news-approval of a medicine by the Food
and Drug Administration, an unexpected takeover offer, or a windfall legal victory-caused market
indigestion; sell and buy orders did not match, and market-makers had to raise or lower their price quotes
until they did. To cope, some exchanges license "specialist" broker-dealers to step into the breach and
trade when others will not. These specialists, while risking much, also profit greatly. Discontinuity, far
from being an anomaly best ignored, is an essential ingredient of markets that helps set finance apart from
the natural sciences.
4) Assumption: Price changes follow a Brownian motion.
Theory:
Brownian motion, again, is a term borrowed from physics for the motion of a molecule in a uniformly
warm medium. Bachelier had suggested that this process can also describe price variation. Several critical
assumptions come together in this idea.
First, independence: Each change in price -whether a five-cent uptick or a $26 collapse- appears
independently from the last, and price changes last week or last year do not influence those today. That
means any information that could be used to predict tomorrow's price is contained in today's price, so
there is no need to study the historical charts.
A second assumption: statistical stationarity of the price changes. That means the process generating price
changes, whatever it may be, stays the same over time. If you assume coin tosses decide prices, the coin
does not get switched or weighted in the middle of the game. All that changes are the number of heads or
tails as the coin is tossed; not the coin itself.
And a third assumption: the normal distribution. Price changes follow the proportions of the bell curve
-most changes are small, an extremely few are large, in predictable and rapidly declining frequency.
Reality:
Life is more complex. This third set of assumptions is the one most clearly contradicted by the facts.
Because it underpins almost every tool of modern finance, it gets special attention in the following
chapter-in-a-chapter.
Benoît MANDELBROT
AD 2012
4/4
The (mis) Behaviour of markets
2008
5
MATHÉMATIQUES FINANCIÈRES
LES MODÈLES CONTRIBUENT-ILS À
L’EFFICACITÉ DES MARCHÉS FINANCIERS ?
[…]
▪ L'EXEMPLE DES PRÊTS IMMOBILIERS À
LES APPORTS DES MODÈLES
MATHÉMATIQUES AUX MARCHÉS
FINANCIERS
TAUX FIXE
En France, comme dans certains autres pays,
la majeure partie des prêts accordés aux
particuliers en vue de l'achat d'un bien
immobilier sont des prêts à taux fixes. Ce type
de prêt est très souvent considéré comme
protégeant au mieux l'emprunteur, celui-ci
étant certain du montant des mensualités à
venir jusqu'à l'échéance de son prêt 2 . Pourtant,
pour les établissements se refinançant en partie
à court terme ou à taux variable, proposer ce
type de prêts n'est pas naturel, et ne peut se
faire que grâce à l'utilisation de modèles
mathématiques. Tout d'abord, pour être en
mesure de contrôler leur risque de
refinancement lié aux prêts accordés à leurs
clients, les établissements ont dû mettre en
place des modèles statistiques d'écoulement de
leurs ressources (les dépôts, les placements à
terme) et de leurs emplois (les prêts) de
liquidités :
• l'horizon et le renouvellement à venir
des ressources n'est pas certain ;
• les remboursements anticipés, voire les
défauts des contreparties, ainsi que la
production de nouveaux prêts sont
également aléatoires.
Pour gérer le risque de taux résultant des
prêts à taux fixe, les départements de gestions
ALM 3 des établissements de crédit ont recours
à des produits dérivés, le plus souvent des
swaps de taux d'intérêt. La liquidité de ces
instruments, et donc le coût 4 , découle de
l'utilisation de modèles mathématiques.
Plus généralement, les processus d'octroi,
puis de gestion, de l'ensemble des prêts -par
exemple, les prêts accordés aux entreprises ou
Nous n'allons pas ici refaire une histoire des
mathématiques financières, ou de l'apport des
mathématiques appliquées (probabilités, équations aux dérivées partielles et statistiques) à la
finance. Le lecteur cherchant à approfondir
cette question pourra par exemple se référer à
Bouleau 1 . Nous allons plutôt donner quelques
exemples
des
apports
des
modèles
mathématiques
pour
les
clients
des
établissements de crédit.
▪ LES PRODUITS DÉRIVÉS : DES
INSTRUMENTS DE COUVERTURE POUR LES
ENTREPRISES
Les options constituent les premiers
exemples de produits proposés par une banque
à ses clients, découlant de l'utilisation de
modèles mathématiques. Aujourd'hui, un
industriel, qui veut se protéger contre une
hausse du prix d'une matière première, d'une
hausse de ses coûts de production ou d'une
baisse de son prix de vente en raison de la
fluctuation des taux de change, peut acheter
une option sur matières premières ou une
option de change. Grâce aux modèles de
valorisation et de couverture des options, un
établissement peut, en effet, faire l'intermédiaire entre différents acteurs, entre différentes catégories de clients, dont les intérêts
divergent sans pour autant s'opposer
parfaitement.
La sophistication croissante des modèles de
valorisation utilisés a permis la distribution de
nouveaux profils d'options, permettant, selon
leurs vendeurs, de mieux répondre aux besoins
des clients, ou de diminuer le coût d'une
protection recherchée.
2
3
1
4
N. Bouleau, Martingales et marchés financiers, Paris, Éditions
Odile Jacob, 1998.
AD 2012
1/5
Il n’est en effet pas nécessaire de rappeler l’impact des prêts à
taux variables lors de la crise des subprimes.
Asset and Liability Management.
Plus précisément l’écart entre le prix à l’achat et le prix à la
vente.
Revue Banque hors série
Mai 2011
5
les prêts à la consommation- bénéficient de
l'utilisation de modèles mathématiques. Les
statisticiens ont développé des méthodes de
scoring, pour une meilleure appréciation de la
qualité des emprunteurs, et des modèles
avancés d'analyse des remboursements
anticipés. Ces outils combinés avec les
probabilités, les équations aux dérivées
partielles et l'analyse numérique ont soutenu le
développement du marché des titres adossés
à des pools de créances hypothécaires. Le
marché du crédit a depuis connu un
développement vertigineux, exploitant l'idée
formidable d'un mécanisme de refinancement
du crédit par les investisseurs financiers,
jusqu'à l'explosion du système lors de la
dernière crise...
N et les volumes de titres échangés sur les
marchés. La valeur du portefeuille ainsi
calculée ne peut donc être assimilée à une
valeur de liquidation que si l'on suppose que la
liquidité des marchés est très grande par
rapport à la taille du portefeuille. Elle est donc
le résultat d'un modèle. Les acteurs de marché
ont bien évidemment conscience de l'importance de ce phénomène de liquidité. Ainsi,
les services d'exécution d'ordre utilisent des
modèles dits « d'impact » pour fractionner
leurs accès au marché, les gestionnaires de
portefeuille ont mis en place des fonds dits
« fermés », bien conscients que leurs stratégies
de portefeuille sont relatives à la taille du
capital géré.
Il en va également pour les calculs de fonds
propres réglementaires des établissements de
crédit selon les méthodes dites « standard ».
Par exemple, les établissements financiers ont
le choix entre l'utilisation d'une méthode dite
« standard » pour le calcul de l'exigence de
fonds propres au titre du risque de marché de
son portefeuille de négociation et une méthode
dite « modèle interne » 6 . La méthode standard
repose, grosso modo, sur l'utilisation de
scénarios définis par le régulateur. Les facteurs
de risques pris en compte par cette méthode
sont également fixés par le régulateur, ainsi
que l'ampleur des chocs 7 . Cette méthode doit
donc être considérée comme un modèle dont
une des hypothèses est que les principaux
risques du portefeuille sont portés par les
facteurs de risque retenus.
En fait, dès lors que l'on cherche à quantifier
la valeur ou le risque d'un portefeuille, il est
nécessaire de recourir à un modèle, lequel peut
paraître très simple, mais dont les hypothèses
peuvent être alors très fortes.
▪ FONDS PROPRES POUR LES INSTITUTIONS
DE CRÉDIT
Des modèles statistiques sont également
largement utilisés pour le calcul de l'exigence
en fonds propres réglementaires liés aux
risques de défauts encourus par les
établissements de crédit qui proposent ces
produits (modèles communément appelés
« modèle Bâle II », en référence aux recommandations du Comité de Bâle sur la
supervision bancaire 5 ). Grâce à l'utilisation de
modélisation statistique des défauts, les
établissements de crédit peuvent allouer au
mieux leurs fonds propres réglementaires, en
particulier optimiser le volume des prêts
accordés à leurs clients compte tenu des fonds
propres dont ils disposent.
• DES MODÈLES QUI N'EN PORTENT PAS LE
NOM
Pour terminer cette liste, il nous semble
indispensable de rappeler que certains calculs
qui nous semblent simples, résultent en fait
d'hypothèses fortes, et doivent également être
considérés comme des modèles.
Il en va ainsi en premier lieu du calcul de la
valorisation d'un portefeuille. Le fait de
considérer que la valeur d'un portefeuille
constitué d'une quantité N d'un titre de prix
unitaire S est égale à NxS repose sur une
hypothèse forte : la valeur de ce portefeuille
est considérée comme ne devant pas tenir
compte du rapport entre la taille du portefeuille
5
• DES MODÈLES QUI PEUVENT AUGMENTER
LA LIQUIDITÉ DES MARCHÉS
Grâce à des modèles mathématiques de
calcul de risque ou de valorisation, de
nouveaux instruments financiers ont pu être
créés, qui ont contribué à rendre liquides des
instruments qui ne l'étaient pas. On peut ainsi
citer en premier l'exemple de la titrisation dont
le principe est de fabriquer des instruments
associés à des niveaux de risque différents (les
6
7
Comité de Bâle sur le contrôle bancaire, « Convergence
internationale de la mesure et des normes de fonds propres »,
juin 2004.
AD 2012
2/5
L’utilisation d’un modèle interne nécessite l’autorisation
préalable du superviseur.
L’amplitude des chocs est considérée suffisamment
conservatrice pour compenser le nombre limité de sources de
risque retenu.
Revue Banque hors série
Mai 2011
5
différentes tranches d'une titrisation) à partir de
prêts (à des particuliers, à des entreprises) qui
sont par essence illiquides.
On peut également citer les Credit Default
Swaps (CDS), ces produits dérivés, qui
n'auraient pu exister sans modèle de
valorisation associé, ont contribué à rendre les
marchés obligataires plus transparents, et donc
plus liquides 8 .
RISQUE DE LIQUIDITÉ ENDOGÈNE
La non-prise en compte de la liquidité
endogène 9 est une des principales carences des
modèles de valorisation ou de suivi des risques
qu'a mis en évidence la crise des subprimes.
Celle-ci correspond à l'impact sur les prix de la
liquidation d'une position dans un marché trop
étroit et s'appliquant donc aux ordres dont la
taille est suffisante pour faire décaler le prix de
marché. La liquidité endogène tient compte de
la taille de la position d'un intervenant par
rapport aux volumes habituellement traités sur
les marchés, mais également des positions des
autres intervenants sur le marché. La crise des
subprimes a éclaté lorsque tous les intervenants ont pris conscience du fait que tous les
emprunteurs n'allaient pouvoir faire face à
leurs charges d'emprunt qu'en revendant leurs
biens immobiliers à de nouveaux emprunteurs.
Jusqu'à présent, la liquidité endogène n'est
que très peu prise en compte dans la
valorisation comptable des instruments
financiers. Alors que la réglementation
prudentielle incite les établissements de crédit
à tenir compte de la concentration ou de la
taille des positions dans l'appréciation des
coûts de liquidité 10 , ces pratiques ne sont pas
toujours jugées compatibles avec les exigences
comptables 11 .
• UNE UTILISATION QUI DÉPASSE LA
DEMANDE DES « SPÉCULATEURS »
De cette liste, même succincte, d'application
des
mathématiques
financières,
deux
conclusions
peuvent
être
énoncées.
La première est qu'il n'est pas possible de faire
de la finance sans modèles mathématiques.
La seconde est que les modèles mathématiques
utilisés sur les marchés financiers ont des
intérêts qui dépassent très largement la
demande des « spéculateurs », mais bénéficient
au plus grand nombre. Pire encore, tous les
modèles de mathématiques financières sont
fondés sur le postulat d'absence d'arbitrage,
c'est-à-dire l'impossibilité de dégager un
bénéfice non risqué sans apport de fonds et de
risque de pertes possibles. Ce postulat est la
seule loi fondamentale des marchés financiers
sans laquelle les opérateurs afficheraient des
prix qui pourraient être immédiatement
exploités par des arbitrageurs. La prise en
compte de l'absence d'arbitrage est à l'origine
de toutes les techniques de calibration qui
conditionnent souvent la nature de la
modélisation choisie.
• RISQUE SYSTÉMIQUE
Les acteurs vont souvent dans le même sens,
que ce soit pour des raisons structurelles ou par
mimétisme. On peut citer l'exemple de la bulle
Internet de 2000, ou, plus récemment, le fait
qu'à la fin des années 2000, les établissements
de crédit ont vendu massivement des produits
d'investissement ou des emprunts structurés
indexés sur des différentiels de taux d'intérêt,
construits sous l'hypothèse que la structure
croissante de la courbe des taux d'intérêts en
EUR allait persister.
LES LIMITES DES MODÈLES
La crise récente a eu des conséquences très
lourdes pour beaucoup : perte d'un emploi,
d'un logement, d'une épargne, hausse des
déficits publics... Elle a aussi mis en évidence
auprès du grand nombre certaines limites des
modèles de valorisation ou de calcul des
risques utilisés sur les marchés financiers,
dont nous commentons quelques lacunes
principales.
9
10
8
11
A. B. Ashcraft et J. A. C. Santos, “Has the CDS Market Lowered
the Cost of Corporate Debt ?”, NY Fed Staff Report, n° 290,
juillet 2007.
AD 2012
3/5
Distinction introduite dans A Bangia, F.X. Diebold, T.
Schuermann et J.O. Stroughair, “Modeling liquidity risk, with
implication for traditional market risk measurement and
management”, Wharton working paper, 1999.
Voir l’arrêté du 20 février 2007 relatif aux exigences de fonds
propres applicables aux établissements de crédit et aux
entreprises d'investissement, article 307-3, ou le document
publié par le Comité de Bâle sur le contrôle bancaire,
« Supervisory guidance for assessing banks'financial
instrument fair value practices - final paper », avril 2009,
articles 700 et 701.
Issue 9 of IASB, Discussion paper, novembre 2006 : “The
quoted price shall not be adjusted because of the size of the
positions relative to trading volume”.
Revue Banque hors série
Mai 2011
5
de crédit ne doivent pas non plus être
considérés comme infaillibles. Ainsi, dans
leurs rapports annuels, certains établissements
de crédit n'ont pas hésité à communiquer sur
les imperfections de leurs modèles utilisés
pour les calculs de fonds propres
réglementaires.
De son côté, le Comité de Bâle sur le
contrôle bancaire cherche constamment à
combler les carences des modèles de mesure
de risque. C'est dans cet esprit qu'a par
exemple été publiée une revue de la littérature
académique relative à la mesure des risques du
portefeuille de négociation des banques 12 .
Les modèles utilisés communément excluent
toute interaction entre les différents agents, ou
entre les actions de ceux-ci et les prix de
marchés : prendre en compte ces interactions
nécessiterait la résolution de problèmes
techniques relativement lourds. Pourtant, cette
simplification peut avoir des conséquences non
négligeables. Ainsi, lors des mouvements
brusques de la pente de la courbe des taux en
2008, un grand nombre de banques ayant
cherché simultanément et de manière similaire
à ajuster leurs couvertures, les coûts de ces
réajustements ont augmenté.
Même si les opérateurs de marché sont
souvent conscients du risque systémique, la
prise en compte de celui-ci -intimement lié à la
problématique de la liquidité endogène déjà
citée- dans les modèles de valorisation, dans
les modèles de mesures de risque, et même
plus simplement dans le suivi des risques de
marché est constamment à améliorer.
• LE CAS PARTICULIER DU TRADING À
HAUTE FRÉQUENCE
Depuis une dizaine d'années, des automates
(ou algorithmes) de trading à haute fréquence
sont utilisés par des gérants de fonds
spéculatifs (hedge funds), ou même par des
opérateurs de marchés au sein même des
portefeuilles de négociation des établissements
de crédit.
Ces automates fonctionnent selon les grandes
lignes suivantes. Des modèles statistiques
sophistiqués sont développés pour l'estimation
dynamique des carnets d'ordre. Afin de prendre
en compte l'impact d'une transaction sur le
carnet d'ordre, les ordres d'achat et de vente
sont fractionnés en utilisant des méthodes
d'optimisation dynamique. Enfin, ce domaine
est dopé par l'importance des progrès
technologiques de pointe. Ainsi, les acteurs de
ces marchés utilisent des méthodes sophistiquées de traitement du signal et de l'image, et
ne reculent pas devant les investissements
massifs dans les moyens de communication de
haute performance. Dans un article du
Guardian 13 , Sean Dodson alerte sur le danger
des automates de trading qui représenteraient
40 % des transactions sur le London Stock
Exchange et jusqu'à 80 % sur certaines actions
américaines. II est vrai que ces systèmes
contribuent à accroître la liquidité sur le
marché et à réduire les coûts de transactions.
Mais le mini krach du 6 mai 2010 illustre bien
le danger que peut représenter le recours
croissant à des logiciels de trading hors du
contrôle humain.
• RISQUE DE CONTREPARTIE SUR LES
PRODUITS DÉRIVÉS
Parmi les lacunes des modèles de valorisation
mis en place dans les établissements de crédit
figure la prise en compte du risque de
contrepartie dans la valorisation des produits
dérivés. En lien avec l'absence de prise en
compte du risque de liquidité endogène, la
sous-estimation du risque de contrepartie des
produits dérivés a contribué à la crise des
monolines : pendant les années 2000, les
établissements de crédit ont empilé des achats
de protection sous forme de credit difault
swaps (CDS) sans nécessairement prendre en
compte correctement les risques, et donc en en
surestimant la valeur.
Cette carence est, elle, progressivement
corrigée : les établissements de crédit, soit par
eux-mêmes, soit sous l'impulsion des superviseurs et des normalisateurs comptables,
intègrent de mieux en mieux, via des
ajustements de valorisation (Credit Valuation
Adjustment - CVA), l'impact de la qualité de la
contrepartie sur la valorisation des produits
dérivés. Simultanément, afin de réduire ce
risque, de nombreux accords de collatéralisation (Credit Support Annex - CSA) ont
été mis en place.
• MODÈLES DE MESURE DE RISQUE
12
Les modèles mathématiques utilisés pour la
quantification des risques des établissements
13
AD 2012
4/5
Basel Committee on Banking Supervision Working Paper
n° 19, “Messages from the academic literature on risk
measurement for the trading book”.
Sean Dodson, “Was software responsible for the financial
crisis ?”, The Guardian, 16 octobre 2008.
Revue Banque hors série
Mai 2011
5
Si les conséquences de certaines approximations des modèles sont maintenant mieux
mesurées et prises en compte, comme le risque
de contrepartie via les CVA, d'autres doivent
encore être mieux considérées. On pense en
particulier aux phénomènes de liquidité
endogène, amplifiés encore par l'utilisation
croissante d'automates de trading à haute
fréquence, qui devraient être mieux mesurés,
afin de prendre en compte leur impact sur la
valorisation et la quantification des risques des
portefeuilles d'instruments financiers.
Les exemples précédents montrent la
nécessité d'un investissement plus grand dans
la modélisation en finance de marché. Un tel
effort est nécessaire pour une meilleure
appréhension des risques encourus, pour une
meilleure conception des réserves de capital et
pour la mise en place de mesures de précaution
minimales permettant d'amortir les violentes
secousses des crises financières qui apparaissent indéniablement de manière cyclique.
Compte tenu de l'impact que peuvent avoir ces
erreurs sur la société, et comme les
événements de ces dernières années le
montrent, il est nécessaire de renforcer à
nouveau le contrôle indépendant des modèles
de mathématiques financières utilisés. Un
contrôle indépendant de premier niveau doit
être réalisé en interne au sein des
établissements de crédit qui les utilisent.
Les modèles et leur processus de revue interne
doivent ensuite être soumis à des contrôles
externes : les modèles de valorisation seront
examinés par les autorités comptables et de
supervision, tout comme les modèles de calcul
de risque par les superviseurs bancaires.
Le même raisonnement s'applique aux modèles
mathématiques utilisés par les autres acteurs de
la vie économique que sont les compagnies
d'assurances.
S'il n'est pas aisé d'encadrer l'utilisation
des automates de trading chez tous les
acteurs financiers, il est devenu nécessaire
de s'interroger sur l'impact qu'auraient
potentiellement les modèles sous-jacents sur la
valorisation et sur les mesures de risques des
portefeuilles d'instruments financiers de
l'ensemble des intervenants.
• AUTRES EXEMPLES
D'autres points sont souvent négligés dans la
valorisation des produits dérivés. On peut
mentionner les coûts de refinancement, les
coûts administratifs futurs... Même si des
progrès ont été faits, notamment sur le suivi du
risque de liquidité (au sens du refinancement),
des améliorations devraient encore être
apportées.
UNE REPRÉSENTATION APPROCHÉE
DE LA RÉALITÉ
L'utilisation de modèles mathématiques est
inhérente aux marchés financiers, et malgré ce
que l'on peut parfois penser, elle se révèle utile
au plus grand nombre. Il n'est en effet pas
possible d'envisager des marchés financiers
sans modèles mathématiques, au moins
extrêmement basiques. Et ces modèles les plus
simples ont prouvé leurs limites et doivent être
perfectionnés.
En effet, tout modèle -et ceux propres aux
mathématiques financières n'échappent pas à
cette règle- n'est qu'une représentation
approchée de la réalité. Tout utilisateur d'un
modèle doit être conscient de ses limites et
devrait avoir pour objectif de quantifier
l'impact des approximations faites. L'utilisateur
d'un modèle de valorisation ou de calcul de
risque doit donc disposer d'une information
suffisante sur celui-ci.
Nizar TOUZI
Philippe DURAND
Nizar TOUZI : Centre de mathématiques appliqués, École Polytechnique.
Philippe DURAND : Cellule de contrôle des risques modélisés, Délégation au contrôle sur place des établissements de
crédit, Autorité de contrôle prudentiel, Banque de France.
NB : Les opinions présentées ici sont celles des auteurs, et ne reflètent pas nécessairement celles de l’Autorité de
contrôle prudentiel, de la Banque de France ou de l’École Polytechnique.
AD 2012
5/5
Revue Banque hors série
Mai 2011
6
EST-CE LA FAUTE DES « PETITS GÉNIES »
EN MATHÉMATIQUES ?
Non… et oui ! La créativité, appliquée à la finance, des « petits génies en mathématiques » a
permis de transformer du plomb en or. On peut même dire que l’industrie financière est née
avec eux à partir des années 1970. À partir de flux financiers générés par des emprunteurs
basiques, payant des intérêts normaux de moins de 10 %, ils ont su créer des produits
financiers sophistiqués délivrant des retours sur investissement quelquefois supérieurs à 50 %.
De plus, et peut-être surtout, leur contribution a été et est toujours largement positive en ce
que les outils qu’ils ont imaginés, même s’ils sont difficiles à comprendre pour les non-initiés,
permettent à l’économie de tourner en lui fournissant les capitaux dont elle a besoin, où et
quand elle en a besoin.
L’essor de la finance, qui a permis la mondialisation, le décollage de pays émergents, plus de
dix ans d’une exceptionnelle croissance au niveau mondial, n’aurait pas pu advenir sans les
résultats de leurs travaux. Ces derniers trouvent des applications partout, contribuent à tous
les processus de décision de cette industrie. Les mathématiques sont au cœur de la finance
moderne.
Si son apport principal se situe dans la modélisation du risque, il apparaît cependant que les
modèles utilisés sont extrapolés des théories et des travaux d’une série de prix Nobel
américains, comme Robert Merton ou Paul Samuelson, qui datent des années 1960. Et ces
travaux découlent eux-mêmes de l’étude des mouvements browniens (mouvements pas si
aléatoires que cela, puisque l’on chauffe autour d’un point des particules d’un gaz ou d’un
fluide) dont l’introduction dans la finance remonte à 1900. Or, il est apparu depuis, en
particulier au moment de la crise boursière de 1987, que ce modèle brownien tel qu’exploité
par le programme « VaR », Value at Risk, ne peut prendre en compte les situations extrêmes,
et qu’il a donc tendance à minimiser fortement les risques quand ces situations surviennent.
C’est le reproche principal que l’on peut adresser aux agences de notation : leur échec à noter
convenablement les risques, leur propension à donner des AAA à des produits qui se sont
révélés très risqués, ne tiendrait pas tant à leur manque de régulation ou au conflit d’intérêt
dans lequel elles se trouvent, comme procès leur en a été fait, mais simplement à l’archaïsme
de leurs modèles de notation.
D’autres modèles, qui prennent en compte les situations extrêmes, ont été développés depuis
lors. Ils n’ont toujours pas été adoptés par l’industrie financière, car ils l’auraient obligée à
changer l’ensemble de ses procédures, de ses programmes informatiques, à former à nouveau
la totalité de ses personnels, bref à se restructurer complètement… Elle ne l’a pas fait puisque
dans une situation « normale », en l’absence de crise, les modèles « browniens »
fonctionnaient très bien et suffisaient, jusqu’à il y a encore quelques mois, à assurer le
fonctionnement des marchés…
Une des leçons qui sera tirée de la crise actuelle sera donc certainement d’obliger l’industrie
financière à moderniser ses modèles mathématiques, et à favoriser encore plus la recherche
sur ces sujets. Quelles que soient les réglementations qui seront adoptées à la suite de cette
crise, l’imagination et la créativité des « petits génies des maths » seront alors encore plus
mobilisées.
Nicole CRESPELLE
AD 2012
1/1
La crise en questions
Éditions Eyrolles - 2009
7
UNE DANGEREUSE SOUS-ESTIMATION
DE L’INCERTITUDE
Pour l'école de Chicago, fondatrice de la théorie moderne de la finance, les marchés sont
efficients et prévisibles. Une approche contestée par Benoît Mandelbrot et Nassim Nicholas
Taleb.
L
moment les revendre au mieux. Hormis
l’accès à des informations privilégiées (mais
c'est un délit d'initié !), les investisseurs
utilisent deux techniques : soit ils se penchent
sur les graphiques des cours en tentant d'y
détecter des signes d'achat ou de vente (c'est
l'analyse graphique ou technique), soit ils
étudient les données économiques et
comptables de l'entreprise de façon à estimer
si son bénéfice va augmenter (l'analyse
fondamentale). Des approches empiriques,
« au doigt mouillé », mais qui demeurent
encore utilisées aujourd'hui.
a disparition du mathématicien français
Benoît Mandelbrot, le 14 octobre 2010,
a donné lieu à de nombreux hommages
dans
la
presse
scientifique.
Mais
curieusement, très peu parmi la presse
économique et financière. Le laconisme, ou
carrément l’oubli, était plutôt de mise.
Pourquoi les économistes auraient-ils dû se
sentir concernés, et peinés, par cette
disparition ? Après tout, Mandelbrot restera
dans
l'histoire
comme
l’inventeur
des « fractales » des formes « invariantes
d’échelle », c’est-à-dire qu’en zoomant sur
une partie ou en regardant le tout, on retrouve
la même structure. Par exemple, un arbre est
composé de branches, qui se subdivisent en
branches plus petites, celles-ci en branches
encore plus fines, etc. Or, rien ne ressemble
autant aux variations du cours d’une action
sur un mois que celles sur une semaine, un
jour… C’est également un objet fractal et cela
a des implications profondes pour la
compréhension de marchés financiers et des
risques qui y sont liés. Mandelbrot a ainsi
beaucoup écrit sur la finance, mais comme un
trublion, un hétérodoxe que les économistes
préfèrent oublier tant il remet en cause
l'approche financière dominante.
Pour le comprendre, il faut revenir à la base
de ce que représente un investissement dans
la finance. Un actif financier, une action, par
exemple, offre un certain rendement lorsqu'il
apporte un dividende et/ou que son cours
monte, ce qui procure un bénéfice à son
détenteur. Mais il comporte également un
risque, celui de perdre une partie de son
investissement, si le cours baisse. Plus une
action est risquée, plus elle offre une
rentabilité importante : le rendement et le
risque évoluent de concert, c'est le « salaire de
la peur », en quelque sorte.
Pour les investisseurs, la question est donc
de savoir quelles actions acheter et à quel
AD 2012
L’ÉCOLE
DE
EFFICIENTS
CHICAGO
ET LES MARCHÉS
Une innovation fondamentale se produit
dans les années 1960 aux États-Unis, autour
de l'université de Chicago, avec la naissance
de ce qui deviendra la « théorie moderne de la
finance ». De jeunes chercheurs s'attachent à
formaliser de façon mathématique le
comportement des actions. Harry Markowitz
et William Sharpe fondent ainsi la « théorie
du portefeuille » : mesurant le couple
rendement/risque pour chaque action, leur
modèle détermine lesquelles acheter en
fonction de la rentabilité que l'investisseur
veut atteindre, ou du niveau de risque
maximal qu'il est prêt à supporter.
De son côté, Eugene Fama explique que les
marchés sont efficients, donnant ainsi l'assise
conceptuelle déterminante à cette nouvelle
approche. Un marché efficient signifie que les
cours reflètent à chaque instant l'intégralité de
l'information disponible et que, d’un instant à
l'autre, le marché « attend » la nouvelle
information qui les fera varier. Les cours sont
donc indépendants les uns des autres : celui
d'hier n'influence pas celui d’aujourd’hui, seul
un changement dans les informations
disponibles peut les faire varier. En
1/3
Alternatives Économiques hors série
1er trimestre 2011
7
conséquence, on ne peut jamais battre le
marché, car il « sait » tout avant vous,
puisqu'il intègre toutes les informations.
Plutôt que de rechercher un improbable
« scoop », le plus sûr consiste à s'en remettre
à l'analyse rendement/risque de chaque
action.
À partir des années 1970, la réussite de cette
école est foudroyante. La finance passe alors
de l'ère du flair des boursicoteurs à celle d'une
véritable industrie, basée sur des modèles
mathématiques et sur l'informatique. Et les
économistes de Chicago semblent apporter
une réponse à la question essentielle de savoir
comment mesurer l'incertitude qui règne sur
les marchés.
Markowitz, Sharpe et consorts retiennent la
courbe de Gauss, aussi appelée loi normale,
représentée par la fameuse courbe en cloche,
découverte par Carl Friedrich Gauss (17771855). Elle constitue l'outil de base dans les
sciences pour mesurer l'incertitude. Ces
économistes y sont même incités -c'est une
ruse de l'Histoire-, par un Français tombé
dans l'oubli, Louis Bachelier. Celui-ci
soutient une thèse à Paris, en 1900, intitulée
Théorie de la spéculation dans laquelle il
applique pour la première fois la théorie des
probabilités et la courbe de Gauss à la
finance. Cette approche novatrice ne suscitera
pourtant aucun intérêt à l'époque. Bachelier
disparaîtra, dans l'anonymat en 1946, jusqu'à
ce que sa thèse soit traduite en anglais dans
les années 1960 et lue attentivement par
quelques étudiants de l'université de
Chicago...
La courbe de Gauss s'applique à de
nombreux domaines en physique, aux jeux de
hasard, à la taille des individus, etc., à tous les
phénomènes indépendants les uns des autres,
et donc, selon la théorie de l'efficience, aux
cours de Bourse. La forme de cloche signale
que, autour de la moyenne figurée par l'axe
central, se regroupe la plupart des valeurs, les
bords évasés figurant celles s'en écartant le
plus. Les valeurs extrêmes sont donc plutôt
rares et, effectivement, les personnes
mesurant plus de deux mètres trente ne
courent pas les rues ! Pour les actions, le
risque est ainsi évalué par la dispersion des
valeurs autour de la moyenne (on parle
AD 2012
2/3
d'écart-type ou de variance qui en est
le carré). Ainsi pour tel cours moyen (le
rendement), la courbe de Gauss détermine un
écart-type (le risque). En fonction du couple
rendement/risque recherché, pour lequel les
économistes de Chicago ont proposé une
mesure, un investisseur choisira ce qu'il veut
acheter et vendre. Simple.
LA CONTRE-ATTAQUE DE MANDELBROT
Benoît Mandelbrot, qui suit pas à pas le
développement de cette école, se pose une
question : la courbe de Gauss correspond-elle
vraiment aux variations de cours des actions,
telles que constatées sur les marchés ?
L’interrogation semble triviale, mais en 1962,
année où il publie sa première étude sur le
sujet, les données sont peu fournies et les
ordinateurs pour les traiter plus rares encore.
Il trouve une série sur le cours du coton
pendant presqu'un siècle, fait tourner un
ordinateur à cartes perforées, et répond... par
la négative. De courbe en cloche, point.
Comment expliquer cela ? Toutes les formes
d'incertitude ne se réduisent pas à la courbe
de Gauss, répond Mandelbrot. C'est
notamment le cas lorsqu'apparaissent des
« effets de mémoire » et des « effets
d'interaction ». Prenons l'exemple de l'édition.
Les ventes de livres dépendent en grande
partie de la notoriété des auteurs (qui s'inscrit
dans la mémoire des acheteurs) et du bouche
à oreille (les interactions) : un diagramme des
ventes montre une dispersion extrême entre
quelques best-sellers et une multitude de
titres aux tirages confidentiels. Nous ne
sommes plus du tout dans un univers
gaussien, bien sagement regroupé autour
d'une moyenne, mais dans celui des extrêmes.
La moyenne, si elle peut être calculée, perd sa
signification tant la dispersion des données
est importante (l'écart-type est infini dans le
jargon des statisticiens).
On parle alors de « loi de puissance » ou de
« loi de Pareto », habituellement connue par
la règle des 20/80 : 20 % des livres font 80 %
des ventes, 20 % des entreprises représentent
80 % du chiffre d'affaires dans un secteur
donné, 20 % des ménages possèdent 80 % du
patrimoine, etc. Et c'est précisément en
étudiant la répartition des terres agricoles en
Alternatives Économiques hors série
1er trimestre 2011
7
ème
Italie à la fin du XIX
siècle que Vilfredo
Pareto (1848-1923) a fait cette découverte.
Ces lois de puissance se retrouvent dans toute
l'économie, et notamment sur les marchés
financiers. Avec son article sur le coton,
Benoît Mandelbrot le révèle pour la première
fois, et l'économiste Paul Cootner, qui fera
publier ce fameux article, déclare alors : « Si
Mandelbrot a raison, la quasi-totalité de nos
outils de statistiques sont obsolètes ». C'est
notamment la sacro-sainte efficience des
marchés, c'est-à-dire l'idée que les prix
reflètent à chaque instant toute l'information
disponible, qui est battue en brèche : dans le
monde des 20/80, les intervenants n'ont
évidemment pas un accès égal à l'information.
Les phénomènes de mémoire génèrent une
dynamique
intrinsèque
aux
marchés
financiers (la hausse suit la hausse, la baisse
suit la baisse) qui n'est pas réductible à
l'arrivée ou non de nouvelles informations
extérieures au marché. Les interactions entre
les différents acteurs créent des tendances
autonomes, du mimétisme, qui entraînent des
bulles.
LE HASARD SAUVAGE
Dans le cadre gaussien, la moyenne imprime
sa « force » à l'ensemble, les écarts entre les
valeurs sont limités, l'équilibre est la norme,
l'instabilité l'exception. Il en va tout
autrement avec les lois de puissance où les
situations d'équilibre sont ponctuelles,
l'instabilité chronique et les valeurs extrêmes
courantes. Cela ressemble bien aux marchés
financiers !
La théorie moderne de la finance va user, au
cours de son développement ultérieur, de
différents « rafistolages », mais elle refusera
toujours de se remettre en cause. La courbe de
Gauss sera élargie à la base, de façon à mieux
tenir compte des écarts importants et des
modèles intégreront des effets de mémoire.
Mais tout cela reste dans le cadre gaussien, de
même que les réflexions utilisées par
David X. Li, un mathématicien de JPMorgan,
pour créer les produits financiers qui ont servi
à élaborer les subprimes et qui se sont
désintégrés lorsque les prix de l'immobilier
américain ont baissé fortement de façon
inattendue. Ne se limitant pas à nous rendre
aveugles aux événements extrêmes, la vision
gaussienne provoque donc des crises en
construisant des modèles et des produits
financiers qui explosent en plein vol lors de
chocs majeurs qu'elle ne prévoit pas !
Ceci dit, le modèle gaussien ça marche...
tant qu'il n'y a pas de crise ! Et puisque l'État
renfloue les banques en faillite, on peut
recommencer comme avant. À l'inverse,
intégrer une incertitude d'une échelle
supérieure obligerait à être beaucoup plus
prudent, y compris dans un contexte
économique porteur, ce qui obligerait à
constituer de plus amples provisions et
diminuerait alors nettement les bonus et les
dividendes versés. Voici peut-être un début
d'explication au refus d'écouter Mandelbrot...
Prolongeant les analyses du mathématicien
français, le libano-américain Nassim Nicholas
Taleb popularise le concept de « cygne noir »,
à travers un livre éponyme qui connaîtra un
succès international. Les cygnes noirs sont
justement ces événements extrêmes quasi
impossibles à prévoir, mais qui se produisent
bien plus souvent qu'on ne le croit. Ils ne sont
pas forcément négatifs d'ailleurs, mais plutôt
que faire la politique de l'autruche comme les
« gaussiens », il faut apprendre à vivre avec,
et cela implique de modifier notre façon de
penser la finance et l'économie. Des mises en
garde doivent se graver dans notre esprit : le
risque de ruine est élevé, le retour des
marchés à l'équilibre n'a absolument rien
d'automatique, les bulles sont inévitables...
Abandonner le cadre gaussien pour des
approches intégrant mieux l'incertitude
permettrait de construire un système financier
plus résistant, absorbant les chocs au lieu de
les amplifier et qui ne deviendrait pas
lui-même un facteur de risque pour
l'économie tout entière. Il est plus que temps
d'entendre le message de Benoît Mandelbrot.
Philippe HERLIN
Philippe HERLIN est chercheur en finance, chargé de cours au Conservatoire national des arts et métiers.
AD 2012
3/3
Alternatives Économiques hors série
1er trimestre 2011
8
LE MOUVEMENT BROWNIEN
Mis en évidence par le botaniste Brown, l'agitation d'une particule de pollen dans l'air
a été modélisée par Einstein et Smoluchovski 1 en supposant que le déplacement de la
particule entre deux instants t1 et t2 est indépendant de ses positions antérieures et que sa loi
de probabilité ne dépend que de t2 – t1. Par un raisonnement infinitésimal analogue à celui de
Bachelier, ils établissent les formules de bases qui régissent le phénomène 2 . Jean Perrin et
Léon Brillouin les soumettront au verdict d'une expérimentation minutieuse 3 .
Après les travaux des physiciens, c'est principalement Norbert Wiener 4 dans les
années 1920 qui développe la théorie du mouvement brownien. Une nouvelle aventure
intellectuelle commence. L’objet se trouve être intimement lié à des parties centrales de
l'analyse fonctionnelle, notamment la théorie des fonctions harmoniques, l'opérateur laplacien,
etc., et, surtout, à la théorie de l'intégration qui depuis l'Antiquité avait fait les délices des
théoriciens et qu'on pouvait croire définitivement couronnée par l'intégrale de Lebesgue.
Wiener parvint à y ajouter un nouveau chapitre en montrant que le mouvement brownien
permet de définir une intégrale nouvelle, avec laquelle on peut faire une transformation de
Fourier des signaux aléatoires, comme on le fait ordinairement pour analyser les fréquences,
mais avec des propriétés spécifiques débouchant à la fois sur des applications simples et
commodes -la suppression des parasites dans les transmissions par le filtrage de Wiener- et
sur des questions mathématiques très profondes.
Nicolas BOULEAU
1 A. Einstein, Annalen der Physik, 17, 1905 et 19, 1906. M. Smoluchovski, Bulletin de l'Académie des sciences de Cracovie,
1906 et Annalen der Physik 21, 1906. Pour l'histoire du mouvement brownien on pourra consulter : J.-P. Kahane,
« Le mouvement brownien », Actes du colloque J. Dieudonné, Nice, 1996.
2 Ils font la même erreur que Bachelier en ce qui concerne les hypothèses gaussiennes, mais il se trouve a posteriori que
cette faute de raisonnement n'en est plus une si la particule ne saute pas (trajectoire continue), ce qui est raisonnable ici en
physique, mais ne va plus de soi en finance.
3 Cette vérification est relatée dans le livre de Jean Perrin, Les Atomes (Félix Alcan, 1913), où il écrit: « On ne peut non plus
fixer une tangente, même de façon approchée, à aucun point de la trajectoire, et c'est un cas où il est vraiment naturel de
penser à ces fonctions continues sans dérivées que les mathématiciens ont imaginées et que l'on regarde à tort comme de
simples curiosités mathématiques, puisque la nature les suggère aussi bien que des fonctions à dérivées. » Une telle
fonction continue sans dérivée nulle part avait été explicitement décrite par le mathématicien tchèque Bolzano un siècle
auparavant.
4 N. Wienel, « DifferentiaI space », Journal of Mathematical Physics, 1923.
AD 2012
1/1
Mathématiques et risques financiers
2009
9
LES MATHÉMATIQUES FINANCIÈRES ET
LA CRISE FINANCIÈRE
L’ampleur de la crise financière à laquelle on assiste depuis un an donne le vertige, et son
impact social et « sociétal » est sans précédent depuis la dépression de 1929. À l’origine, on
trouve l’éclatement de la bulle spéculative aux États-Unis sur l’immobilier, qui révèle
l’ampleur des prêts de type « subprimes » négociés aux États-Unis, et dont les détenteurs se
trouvent dans une situation dramatique.
Comment fonctionne le mécanisme des « subprimes »
Ces prêts, accordés sur la totalité du bien immobilier, étaient renégociés en fonction de la
hausse du prix de ce bien et donnaient souvent lieu à d’autres prêts, accordés sans étude
approfondie des ressources de l’emprunteur, le prêt étant garanti par la valeur du bien. Afin de
financer un plus grand nombre de prêts, les banques titrisent ces créances par l’intermédiaire
d’une société, dite véhicule de titrisation, qui les revend sous forme d’obligations à des
épargnants. Les agences de notation interviennent alors pour « noter » ces nouveaux produits,
en termes de risques, de très risqués à non risqués. Ces agences dépendaient directement des
banques qu’elles notaient puisqu’elles étaient rémunérées par celles-ci. En certifiant certains
de ces produits sans risque, elles ont clairement failli à leur mission.
Qu’est-ce que la titrisation?
Le principe sous-jacent à ces opérations de titrisation, qui existent depuis très longtemps dans
les marchés, est celui de la diversification. Par exemple, au lieu de concentrer tous les risques
de prêts dans une banque de détail, on les repartit par petites parts entre divers investisseurs.
En général, cela réduit l’ampleur du risque final, sauf dans le cas qui nous intéresse, où par
suite du krach les effets de contagion ont joué en priorité. Il n’y a pratiquement pas d’étape
quantitative dans ce processus.
Une bulle spéculative
Une question légitime, qui reste sans réponse pour nous, est de savoir comment les autorités
ont pu laisser le système s’emballer à ce point et sur des bases si fragiles. Cette question a
déjà été posée après l’éclatement des bulles spéculatives (crise asiatique en 1998, crise des
valeurs internet en 2000, etc.). Mais cette nouvelle crise a un impact social plus important tant
à cause du nombre de gens durement touchés par les prêts de type « subprimes » que par ses
retombées économiques notamment en termes de récession dues à l’ampleur du désastre.
Et les mathématiques
Les formations en mathématiques financières
Depuis plusieurs années, les marchés financiers ont absorbé un grand nombre de jeunes
étudiants et ingénieurs « mathématiciens quantitatifs », à des salaires élevés, créant ainsi un
attrait manifeste vers ce domaine. Les masters de mathématiques financières recrutent des
AD 2012
1/6
Matapli – Bulletin de liaison – Vol. 87
2008
9
centaines d’étudiants, les formations se multiplient, au détriment d’autres formations. Dans le
même temps, cela a contribué à attirer plus d’étudiants vers des études scientifiques, dans le
domaine des probabilités en particulier. Les « Mathématiques financières », qui, au même
titre que le bon vin, sont apparues comme une « success story » française, ont été très
médiatisées, et mais aussi vite chargées de tous les maux, certains allant jusqu’à dire que la
crise était une conséquence de l’utilisation de mauvais modèles.
C’est à juste titre que la communauté mathématique se pose la question de la responsabilité
des mathématiques et des mathématiciens dans cette crise financière. Nous nous proposons
d’apporter quelques précisions dans le débat pour permettre aux uns et aux autres d’avoir plus
d’éléments pour en juger. Notons pour commencer qu’on utilise assez peu de mathématiques
dans le monde de la finance en général, en dehors des statistiques élémentaires. Toutefois,
deux secteurs en font un usage beaucoup plus intensif : les marchés des produits dérivés et,
plus récemment, les « hedge-funds », ou fonds d’arbitrage. Les formations de mathématiques
financières concernent surtout le premier marché, que nous présentons ci-dessous.
Les marchés de produits dérivés
Les mathématiques jouent un rôle déterminant dans les marchés financiers qui permettent de
prendre des positions dans le futur, sur des monnaies, des actions, du change, des matières
premières, soit dans un but de couverture, soit dans une optique spéculative. Garantir des flux
dans le futur permet de transférer les risques de l’investisseur vers le vendeur, la banque en
général. C’est dans cette activité qu’on trouve la part la plus importante et la plus utilisée de
mathématiques. Cette mathématisation est intervenue au début des années 1970 aux ÉtatsUnis après la création à Chicago du premier marché organisé de produits dérivés. La
couverture dynamique des risques est indissociable de cette activité, les modèles servant plus
à mettre en place les stratégies de couverture qu’à donner le prix de marché des produits.
L’idée très innovante, proposée par Black, Scholes et Merton en 1973, est de décomposer un
« risque long terme » en une addition de petits risques court terme (la journée) plus aisés à
gérer. Le problème est celui d’une cible aléatoire, que l’on cherche à approcher au mieux à
l’aide d’une stratégie dynamique d’achats et de vente de titres. Les modèles interviennent très
précisément pour quantifier cette stratégie. Dans le cas où le titre sous-jacent est modélisé par
un brownien géométrique, et où la garantie porte sur le prix maximum auquel le titre peut être
acheté, il existe une formule explicite pour le prix du contrat appelée formule de Black et
Scholes, et pour sa couverture qui est donnée par la dérivée du prix. Mais la stratégie est
adaptative et se corrige au jour le jour, ce qui permet de minimiser « l’erreur de modèle ». La
détermination des paramètres se fait en s’ajustant aux prix de marché des produits disponibles
les plus liquides.
Absence d’arbitrage et couverture dynamique
Le principe qui maintient une certaine cohérence dans tout ce mécanisme est celui du
fonctionnement idéal du marché sans arbitrage, c’est-à-dire suffisamment liquide et sans coûts
de frottement, pour que :
II n’y a pas d’arbitrage dans le marché, c’est-à-dire que deux produits financiers qui
garantissent les mêmes flux dans tous les états du monde ont la même valeur à toute date
dans le futur.
AD 2012
2/6
Matapli – Bulletin de liaison – Vol. 87
2008
9
La méthodologie de type Black et Scholes est établie dans des conditions de liquidité parfaite
à l’achat et à la vente, ce qui n’est pas le cas en période de crise où les intervenants
n’effectuent pas de ventes à découvert. Les modèles mathématiques sont efficaces en période
de stabilité financière, lorsque les volatilités ne sont pas trop élevées. Cette méthodologie est
néanmoins assez robuste pour être utilisée lorsque ses conditions d’application ne sont pas
parfaitement vérifiées, parce que les praticiens ont besoin de quantifier leur stratégie de
couverture.
Jon Danielson (London School of Economies) cite l’anecdote suivante :
« A well-known American economist, drafted during World War II to work in the US Army
meteorological service in England, got a phone call from a general in May 1944 asking for
the weather forecast for Normandy in early June. The economist replied that it was
impossible to forecast weather that far into the future. The general wholeheartedly agreed but
nevertheless needed the number now for planning purposes. »
Il conclut en notant qu’une logique similaire s’applique dans la crise présente. Les modèles
sont efficaces dans des situations de calme relatif, où les techniques de backtesting permettent
de calibrer les paramètres de modèle.
Le monde réel est par nature « imparfait », notamment de nombreux risques ne sont pas
couvrables (on dit que le marché est incomplet). Le rôle des mathématiques et des « quants »
est d’aider à décider lorsqu’on peut rester malgré tout dans le monde à la Black-Scholes, en
quantifiant le « risque résiduel » associé aux stratégies mises en place.
Calibration des modèles
Dans une classe de modèles dynamiques, la question de trouver le niveau adéquat des
paramètres est évidemment l’étape cruciale. Pour comprendre les techniques mises en place
dans ces marchés, il n’est pas inutile de rappeler deux points essentiels :
-
le premier est un point de bon sens : les lois de la finance ne sont pas des lois
physiques et l’on ne peut pas répéter une expérience ;
-
le deuxième concerne la nature de l’activité en jeu. Le problème n’est pas d’estimer
des rendements et des volatilités, mais de capter la variation quotidienne d’un cours et
du produit dérivé associé.
Les paramètres des modèles mathématiques décrivant la dynamique des prix des sous-jacents
sont ajustés (calibrés) aux prix des produits dérivés liquides cotés par le marché. On parle
alors de paramètres implicites.
Par exemple, il va de soi qu’un modèle basé sur des processus de Lévy permettra, dû au plus
grand nombre de paramètres, une meilleure adéquation aux données observées qu’un modèle
basé sur un mouvement Brownien. Mais ensuite le modèle sera utilisé par les intervenants
pour déterminer les couvertures de produits dérivés. Dans un modèle où le sous-jacent suit
une diffusion markovienne, cela revient à calculer la dérivée du prix du produit dérivé par
rapport au sous-jacent. En marché incomplet, notamment dans les modèles avec sauts, la
question de la couverture dynamique reste largement à définir. Les travaux académiques sont
très nombreux dans ce domaine, mais considérés comme difficilement implémentables dans
AD 2012
3/6
Matapli – Bulletin de liaison – Vol. 87
2008
9
les marchés. La pratique actuelle est de s’insensibiliser contre des variations des paramètres
du modèle calibré, sans vérifier si l’erreur résiduelle est acceptable.
Une des conséquences de cette pratique est le peu d’importance accordée de fait aux données
passées (aussi appelées données historiques). Cette remarque est à nuancer puisque depuis
quelques années on voit des hedge-funds qui tirent profit du décalage entre les paramètres
estimés statistiquement sur les données historiques et les paramètres implicites.
Comment le marché procède-t-il avec de nouveaux types de produits, puisque dans ce cas il
n’y a pas de marché liquide ?
Par exemple, depuis 2000, une nouvelle activité a vu le jour dans les organismes financiers :
les dérivés de crédit, qui sont des options sur les pertes générées par les faillites pendant une
période donnée d’un ensemble d’une centaine d’entreprises. Les facteurs conduisant à la
faillite peuvent être des facteurs spécifiques de chaque entreprise, mais aussi des facteurs
communs à toutes, comme le taux d’inflation, les niveaux des taux d’intérêt, etc. Intégrer
toutes ces informations est opérationnellement très coûteux en temps de calcul. Devant cette
complexité, les méthodes employées ont d’abord été très rudimentaires : les dépendances sont
modélisées de manière statique, la valeur de chaque entreprise à l’horizon étant représentée
par une variable gaussienne, corrélée à un facteur commun supposé lui aussi gaussien. Le
défaut apparaît si la valeur de l’entreprise passe en dessous d’un niveau (connu). Ce modèle
basique a permis de faire des transactions autour d’une représentation consensuelle. Une
couverture en sensibilité était mise en place. Ce qui était présenté comme une première étape,
en fait n’a été amélioré qu’à la marge. Comme historiquement, les faillites d’entreprises
étaient très rares, la couverture analysait plus les risques de variation des probabilités de
défaut cotées par le marché que les montants des pertes en cas de défaut effectif.
Parallèlement, une recherche académique active a été développée autour de ces problèmes;
mais aucun modèle dynamique n’a réussi à s’imposer comme le standard du marché car
toujours considéré comme trop complexe à implémenter. Il faut dire qu’obtenir un prix
« calibré » en moins d’une seconde oblige à des simplifications. Ces dernières années,
l’intérêt porté à la recherche dans ce domaine s’était nettement relâché, notamment parce que
ce secteur générait de grands profits. Dans un tel contexte, la maîtrise des risques n’était pas
la préoccupation première.
Peut-être les dérivés de crédit sont-ils un bon exemple d’application de la remarque de
John Seo, gérant de hedge-funds, dans laquelle il faudrait remplacer Black-Scholes par
« copule gaussienne » :
« The model created markets, markets follow models. So these markets spring up, and the
people in them figure out that, at least for some of it, Black-Scholes doesn’t work. For certain
kinds of risk -the risk of rare, extreme events-the model is not just wrong. It’s very wrong. But
the only reason these markets sprang up in the first place was the supposition that BlackScholes could price these things fairly. »
AD 2012
4/6
Matapli – Bulletin de liaison – Vol. 87
2008
9
Questions de responsabilité
Une responsabilité technique
La couverture dynamique des produits dérivés a été un élément essentiel de leur
développement, et les mathématiques ont été un élément décisif dans le développement de
cette technologie du risque.
- L’une des premières conséquences en a été la création de produits dérivés permettant de
couvrir des risques « dits de seconde génération », plus difficiles à appréhender par les
investisseurs. Les produits de première génération couvraient contre le risque de hausse ou
de baisse des marchés. Ceux de deuxième génération vont couvrir contre les risques de
variation quotidienne : un exemple typique est le risque de volatilité, pour lequel il existe
maintenant un marché assez liquide. C’est un phénomène bien connu des assureurs
automobiles, qui observent que la plus grande sécurité des véhicules pousse de nombreux
conducteurs à prendre d’autres risques.
- L’innovation financière que ces techniques ont permis de développer n’est pas à remettre
en cause en soi, mais, comme pour les autres secteurs de la crise, cette activité doit être
moins débridée et se recentrer autour des produits dont la finalité est plus claire.
- Mais cela ne veut pas dire disparition des risques : la couverture au jour le jour minimise le
rôle des effets macroéconomiques de long terme, la croissance de la taille des positions
peut conduire à risques résiduels qui ne sont plus acceptables.
- Les dérivés de crédit montrent plutôt les difficultés de couverture dans les marchés en train
de se créer, et la nécessité d’une vigilance (réglementation) accrue quand le marché
s’emballe. Par ailleurs, il faut former des ingénieurs quantitatifs, dominant très bien la
technicité des modèles, pour être capables de résister à la pression du « business » et
signaler quand le modèle « consensus » paraît notoirement insuffisant.
- Un point de méthodologie qui n’a jamais été remis en cause est la calibration aux prix de
marché des dérivés liquides. Cette pratique a eu comme conséquence de minimiser la
vision dynamique de la couverture. Par ailleurs, elle donne une importance sans doute
excessive dans les modèles aux prix observés, qui peuvent être entachés d’imperfections.
D’autre part, en ne confrontant pas ces prix avec les données historiques, on peut entériner
une vision très spéculative des prix La crise n’est pas due aux modèles, elle ne sera pas
résolue en introduisant des nouveaux modèles et la crise prochaine (dans 10 ans?) ne sera
pas évitée par une plus grande utilisation de mathématiques, ni par une abolition de toute
forme de mathématiques dans les institutions.
Par contre, une meilleure surveillance (par analogie à celle mise en place pour la surveillance
des tempêtes et autres catastrophes météorologiques) et une meilleure régulation sont des
outils déterminants pour un fonctionnement plus raisonnable de ces marchés.
Notre rôle, en tant que mathématiciens, se réduit à faire de notre mieux pour expliquer la
limitation de ces modèles, leurs conditions d’utilisation et la signification des structures
aléatoires, et, de façon plus positive, plus dynamique, d’introduire de nouvelles réflexions sur
leur utilisation.
AD 2012
5/6
Matapli – Bulletin de liaison – Vol. 87
2008
9
Une responsabilité sociale
Les marchés financiers sont des éléments déterminants d’une organisation économique et
politique du monde, le capitalisme libéral.
En formant des ingénieurs quantitatifs pour les marchés, en faisant de la recherche en
mathématiques financières, nous avons été un des éléments de la chaîne qui a conduit aux
débordements que l’on observe, et qu’honnêtement nous n’aurions jamais cru possibles. La
technicité peut faire écran.
La question de la responsabilité est de même nature que celle du scientifique fasse au monde
réel : doit-on en être ou pas ? La position du mathématicien dans le domaine de la finance estelle différente de celle du physicien ou du biologiste face à des grands enjeux de société, le
nucléaire, les OGM, par exemple ? Le fait que le support de l’activité soit l’argent ne doit pas
apparaître comme un élément discriminant, même si cela rajoute une complexité
supplémentaire, celle des individus face à l’argent.
Le nouvel équilibre politique et économique qui résultera de cette crise sans précédent
n’évacuera pas cette question, car deux éléments fondamentaux persisteront : l’ampleur de la
masse monétaire qui circule sur les marchés (pensez aux retraites), et les moyens de calculs
actuellement disponibles qui ont été plus que les mathématiques des éléments déterminants de
l’évolution des transactions dans les marchés.
La finance quantitative ne disparaîtra pas, mais peut devenir uniquement « informatique ». Il
vaudrait mieux que les mathématiques financières ne disparaissent pas, car elles restent un
ferment du débat et du questionnement.
Nicole El Karoui
Professeur
Université de Paris VI et
Ecole Polytechnique
Monique Jeanblanc
Professeur
Université d’Évry
AD 2012
6/6
Matapli – Bulletin de liaison – Vol. 87
2008
10
BENOÎT MANDELBROT ET LA MODÉLISATION
MATHÉMATIQUE DES RISQUES FINANCIERS
Benoît Mandelbrot, savant multidisciplinaire et inclassable, est surtout connu pour ses
travaux sur la géométrie fractale et l’analyse multifractale, cadres conceptuels pour décrire et
modéliser de nombreux objets mathématiques irréguliers, comme l’ensemble du plan complexe
qui porte son nom. Certains seront donc surpris d’apprendre que Mandelbrot portait également
un vif intérêt à la modélisation mathématique en finance : il s’intéressa très tôt dans sa carrière
à l’étude statistique des données économiques et financières et fut à l’origine de nombreuses
idées importantes et fécondes dans la modélisation statistique des risques financiers, sujet qui
le passionna tout au long de sa vie. C’est que Benoît Mandelbrot était avant tout un penseur de
la rugosité et un chasseur de la régularité dans l’irrégularité, ce qui le conduisit à s’intéresser
aux phénomènes irréguliers de toute sorte, qu’ils fussent mathématiques, physiques,
biologiques ou économiques. Il était donc inévitable que, tôt ou tard, il porte son intérêt à la
modélisation des fluctuations boursières, dont l’irrégularité occupe bien souvent la une de nos
journaux...
Ce sujet avait déjà suscité la curiosité des mathématiciens, à commencer par le français
Louis Bachelier qui, dans sa thèse en 1900, proposa de modéliser les cours boursiers par un
processus « purement » aléatoire qui prit quelques années plus tard le nom de mouvement
Brownien sous la plume d’Einstein. Dans ce modèle, les variations successives du prix d’une
action sont représentées par des variables aléatoires indépendantes avec une distribution
gaussienne : l’évolution des cours boursiers y est modélisée comme un mouvement
imprévisible mais continu, dont l’amplitude peut être caractérisée par l’écart-type, ou volatilité,
des rendements journaliers, qui mesure l’ordre de grandeur des fluctuations typiques du prix
sur une journée. Le modèle de Bachelier, repris par les économistes américains Markowitz et
Samuelson dans les années 1950, fut le point de départ de la modélisation probabiliste des
risques financiers.
A la recherche d’invariances d’échelle
Dès 1962, Benoît Mandelbrot, qui avait à sa disposition les ordinateurs d’IBM, son
employeur à l’époque, se mit à analyser les propriétés statistiques de données financières,
notamment les cours de matières premières comme le coton. Alors que l’économétrie de son
temps se contentait d’étudier et de modéliser des variations hebdomadaires ou mensuelles de
grandeurs économiques, Mandelbrot recherchait dans ces mêmes données des d’invariances
d’échelle -des propriétés statistiques qui ne dépendent pas de la fréquence d’échantillonnage-.
La distribution des rendements journaliers est-elle semblable à la distribution des rendements
hebdomadaires ou mensuels ? Si on en croit le modèle de Bachelier, la réponse est oui : par la
propriété d’invariance d’échelle du mouvement Brownien, la variation d’un cours sur t jours a
la même loi statistique, à un facteur √t près, que sa variation sur 1 jour : on dit aussi que le
mouvement Brownien est autosimilaire avec un exposant d’autosimilarité 2. En s’appuyant de
nouveau sur une étude statistique des prix du coton, Mandelbrot montre que cette « loi en √t »
ne décrit pas correctement l’évolution des queues de distribution à travers les échelles de
temps, et c’est en essayant de rendre compte de cette variation des propriétés des données
financières avec l’échelle d’observation que Mandelbrot décerna deux phénomènes importants
mais absents du modèle de Bachelier et ignorés jusque-là dans la modélisation économétrique :
AD 2012
1/6
http://hal.inria.fr
19/01/2012
10
- la présence de discontinuités, correspondant à une chute brutale des cours boursiers, et
son pendant statistique, une queue de distribution épaisse et non-gaussienne des
rendements : c’est ce qu’il appela syndrome de Noé par allusion au mythique déluge ;
- la persistance des variations boursières et leur concentration dans le temps, qu’il
appela syndrome de Joseph : « Sept années d’abondance, sept années de vaches
maigres ».
Ces « syndromes » devinrent les deux piliers de sa représentation des aléas boursiers.
Du hasard sage au hasard sauvage : le syndrome de Noé
Dans une série d’articles publiés à partir de 1962 (M 1962c, M 1963c M 1963e, 1967)
Mandelbrot remarque que les prix boursiers présentent des variations extrêmes beaucoup plus
fréquentes que ne le prédit une distribution gaussienne. Mandelbrot qualifia ce comportement
de « hasard sauvage » par opposition au comportement aléatoire continu et assez « sage » du
mouvement Brownien. Dans sa célèbre étude sur les prix du coton (M 1963) qui parut dans le
même recueil (Cootner 1964) que la traduction par Savage de la thèse de Bachelier,
Mandelbrot nota que si le but est de quantifier le risque d’un portefeuille, ce ne sont pas les
variations « typiques » qui comptent mais bien ces gains ou pertes spectaculaires, que
l’écart-type ne mesure pas et qui sont représentées par la queue de la distribution de probabilité
des rendements.
En voici une illustration. Si l’on suppose une distribution gaussienne pour les
rendements journaliers, la probabilité qu’un rendement observé dévie de 4 écarts-types de sa
moyenne est inferieur à 0,01 %, soit un événement observé en moyenne une fois tous les
63 ans. En revanche, pour une distribution de Student avec 3 degrés de liberté (pour laquelle la
probabilité d’observer une perte > x décroit en 1/x3), de même écart-type, la probabilité
d’observer des événements 4 fois l’écart-type passe à 0,62 % soit, en moyenne, un événement
observé deux fois par an. Les rendements journaliers de l’indice Dow Jones (Figure 1) sur les
deux années 2007-2009 exhibent 16 observations dont l’amplitude dépasse 4 écarts-types : cela
donne une proportion de 0,.78 %, un peu plus que la loi de Student avec 3 degrés de liberté et
100 fois plus que dans le cas gaussien !
Figure 1 : Gauche : rendements journaliers de l’indice Dow Jones 2007-2008 (points).
Droite : Distribution normale (rouge) comparée avec la loi de Student de paramètre 3 (bleu) et
la distribution (normalisée) des rendements journaliers de l’indice Dow Jones (points).
Les trois distributions ont le même écart-type et la même moyenne. L’unité sur l’axe horizontal
correspond au nombre d’écart-types.
AD 2012
2/6
http://hal.inria.fr
19/01/2012
10
Figure 2. Gauche : Rendements journaliers de l’indice S&P500 de la bourse de New York, de
janvier 1950 à septembre 2009. La flèche indique le krach du lundi 19 octobre 1987, lorsque
l’indice boursier SP500 perd 20 % en une journée, ce qui correspond à 20 fois l’écart-type.
Droite : Simulation d’un « aléa sage », une série aléatoire gaussienne de même moyenne et
même écart-type. La plus grande perte dans cette série de 14 000 observations est de 4 %, soit
4 fois l’écart-type.
Mandelbrot propose alors de remplacer le mouvement Brownien de Bachelier par une
classe de processus aléatoires reflétant le caractère sauvage et discontinu des mouvements
boursiers : les processus de Lévy, dont l’étude fut initiée dans les années 1930 par Paul Lévy,
et qui, à l’opposé du mouvement Brownien, modélisent une évolution aléatoire discontinue,
faite de sauts de toutes les tailles. Mandelbrot considéra initialement la classe des processus de
Lévy stables, qui, comme le mouvement Brownien, sont autosimilaires mais avec un exposant
d’autosimilarité 0<α<2 : la diffusion « en √t » du mouvement Brownien est alors remplacé par
un comportement en t1/α. Mandelbrot estima que la valeur α est proche de 1.7-1.8 pour de
nombreuses séries financières (M 1963). La modélisation des prix avec des processus stables,
dont la variance est infinie, fit l’objet de débats interminables chez les économètres dans les
années 1960 mais eut du mal à percer dans les applications en finance qui reposait à l’époque
sur la variance comme mesure du risque. Mais il existe bien d’autres constructions de
processus de Lévy qui sont discontinus mais de variance finie et, après avoir été négligée
pendant 30 ans, cette piste de recherche connut un renouveau dans les années 1990 et continue
à stimuler de nouvelles recherches sur les processus de Lévy.
Persistance et concentration du risque : le syndrome de Joseph
Une autre contribution importante de Mandelbrot fut la mise en évidence -et la
modélisation mathématique- des dépendances temporelles ou persistances dans les
mouvements boursiers, qui se manifeste dans leur concentration dans le temps : « les petites
variations sont le plus souvent suivi de petites variations, et les grandes mouvements sont le
plus souvent suivi de grand mouvements» (M 1963). Cette propriété, qui se retrouve dans
toutes les séries boursières, indique l’insuffisance de modèles à accroissements indépendants.
Une autre idée est celle de dépendance à longue portée : les rendements d’une action
sur des jours différents, même éloignés dans le temps, peuvent présenter une dépendance
significative (1971a, 1971b, 1972) : c’est le syndrome de Joseph. Ces deux observations vont à
l’encontre de l’hypothèse d’indépendance des variations boursières, sous-jacente au modèle de
Bachelier. À partir de ses travaux antérieurs avec Van Ness sur la dépendance à longue portée
en hydrologie (1968a, 1968b), Mandelbrot proposa de modéliser ce phénomène en remplaçant
AD 2012
3/6
http://hal.inria.fr
19/01/2012
10
cette fois le mouvement Brownien de Bachelier par un autre processus aléatoire, le mouvement
Brownien fractionnaire, dont les accroissements sont gaussiens mais fortement dépendants
même sur des périodes éloignées. Cette idée a généré des travaux de recherche considérables
sur les processus aléatoires fractionnaires, notamment par Murad Taqqu qui fut élève de
Mandelbrot, ainsi que des applications en économétrie et finance.
Ainsi, les différents modèles que proposait Mandelbrot prédisent que la fréquence des
grands risques est beaucoup plus grande que ne le suggère le modèle Brownien, soit à cause de
la discontinuité des prix dans le temps (syndrome de Noé), soit à cause de la concentration des
pertes dans le temps (syndrome de Joseph). Évidemment, les deux effets peuvent coexister, ce
qui fut confirmé par les centaines d’études économétriques qui suivirent les travaux de
Mandelbrot. Dans ses travaux ultérieurs avec Laurent Calvet et Adlai Fisher (1997a, 1997b),
Mandelbrot proposa de combiner ces deux effets au sein d’un modèle multifractal, revenant
ainsi à un amour de jeunesse, les cascades aléatoires multifractales qu’il proposa en 1974 pour
modéliser la turbulence des fluides (M 1974).
Mesurer l’irrégularité financière : l’analyse multifractale
Une idée importante chez Mandelbrot est l’existence d’une échelle de la rugosité dans
les phénomènes irréguliers : il faut, pensait-il, « bien mesurer l’irrégularité » d’un phénomène
pour choisir un modèle mathématique adéquat. On peut mesurer la régularité locale d’un signal
f(.) à un instant t par son exposant de Hölder local H(f,t) au voisinage de t. Pour des signaux
irréguliers, cet exposant de Hölder peut varier d’un instant à l’autre et, lorsque le signal est
aléatoire, chaque échantillon peut donner une fonction H(t) différente. Une façon plus
« stable » de caractériser l’irrégularité d’un signal est via son spectre de Hölder, défini comme
la dimension de Hausdorff de l’ensemble des points ou l’exposant de Hölder atteint une valeur
donnée :
D(f,h)= dim( {t> 0, H(f,t)= h})
(avec la convention que dim(Ø )= -∞). Lorsque le signal est la trajectoire d’un processus
aléatoire X(t), D(X,h) dépend a priori de la trajectoire observée mais pour de grandes classes
de processus stochastiques – processus de diffusion, processus de Lévy et solutions d’équations
différentielles stochastiques à coefficients réguliers- ce spectre ne dépend en fait que du
support de la loi de X et permet donc de caractériser la « texture » du processus. Par exemple,
pour un signal « monofractal » comme un mouvement Brownien :
D(X, 1/2)=1 et D(X, h)= -∞ pour h ≠ 1/2
alors que pour des signaux « multifractals », plus complexes, D(X,.) peut avoir un domaine
non-trivial. Une idée clé, due à Parisi et Frisch (1985) et développée ensuite dans différentes
directions par Mandelbrot (1974), Arneodo et al (1993), Jaffard (1997) et d’autres, est qu’on
peut, pour une grande classe de fonctions, estimer le spectre de Hölder à partir des moments
empiriques des accroissements du signal à différentes échelles du temps. Mandelbrot comprit
très tôt l’intérêt de ce formalisme multifractal dès les années 1970 dans le contexte de la
modélisation statistique de la turbulence. Avec la disponibilité de données haute-fréquence de
taux de change dans les années 1990, ces techniques permirent à Fisher, Calvet et Mandelbrot
(1997c) de mettre en évidence un spectre de Hölder concave des signaux boursiers qui
ressemble peu à celui des processus stochastiques -processus de diffusion, semimartingaleshabituellement utilisés pour les représenter... et qui signale l’existence d’aléas de rugosité
différentes à de multiples échelles de temps.
AD 2012
4/6
http://hal.inria.fr
19/01/2012
10
Reprenant l’idée, qu’il avait explorée dès 1967 (Mandelbrot & Taylor 1967), de
représenter l’évolution d’un prix non pas en fonction du temps chronologique mais d’un temps
« intrinsèque » de marché, dont l’évolution est elle-même aléatoire et saccadée, Mandelbrot,
Calvet et Fisher (1997a) modélisent ce temps intrinsèque par l’intégrale d’une mesure
multifractale, ce qui aboutit à une représentation de la dynamique des prix par un mouvement
Brownien avec un changement de temps multifractal.
Observer avant de modéliser
Ceux qui ont connu Benoît Mandelbrot savent l’importance qu’il attribuait au fait
d’observer avant de modéliser. La simulation, la visualisation et l’analyse des données ont
joué un rôle important, dans ses travaux sur la finance, comme dans ses travaux sur les
fractales. Cet aspect de sa méthodologie est indissociable de ce qui fut son lieu de travail
pendant de nombreuses années : le centre de recherche IBM à Yorktown Heights (New York),
où il disposait des ordinateurs les plus puissants de son époque, et dont il fit manifestement bon
usage. Mandelbrot passait une grande partie de son temps à visualiser les données, les observer
sur l’écran d’ordinateur et les soumettre à de multiples cribles statistiques. Son regard perçant
faisait le reste. Il n’hésitait pas à réexaminer les modèles proposés dans ses anciens articles à la
lumière de nouvelles données, pour les réévaluer voire les rejeter. Rien de surprenant, diraient
certains lecteurs, mais si cette précieuse habitude mérite d’être mentionnée, c’est qu’elle
contraste avec une littérature foisonnante de « modèles mathématiques », notamment en
économie et finance, qui prétendent modéliser une réalité qu’elles ne daignent pas
d’examiner... Mandelbrot, qui était pourtant sensible à l’élégance mathématique, restait
sceptique sur les « mathématiques financières » qu’il voyait, à la différence d’une véritable
modélisation, se développer comme une nouvelle scolastique où l’engouement pour certains
outils mathématiques semblait primer sur l’observation et les questions de fond sur la nature du
risque…
Accueil et postérité des travaux de Mandelbrot sur les risques financiers
Dire que les travaux de Benoît Mandelbrot sur les risques financiers n’ont pas laissé
indifférents les spécialistes du sujet est un euphémisme. Accueillis au départ avec hostilité par
les uns -notamment nombre d’économistes et représentants de la « finance académique »- et
avec enthousiasme par les autres, notamment des praticiens de la finance et ceux qui comme lui
étudiaient de près les données empiriques, les travaux de Benoît Mandelbrot sur la
modélisation mathématique en finance continuent à inspirer les uns et les autres plus de 40 ans
après leur publication.
L’hostilité de la réaction -notamment des représentants de la finance académique- à
Mandelbrot était en partie due au fait qu’il avait choisi de s’attaquer aux paradigmes de la
théorie financière d’alors : utilisation de la variance comme mesure de risque, représentation
des aléas boursiers par des modèles gaussiens ou des modèles à accroissements indépendants,
pertinence du mouvement Brownien comme représentation de l’aléa boursier… Benoît
Mandelbrot, qui a toujours eu un côté abrasif, aimait la polémique, exprimait ses critiques avec
une franchise extrême et avait une certaine idée de sa personne, ce qui ne plaisait pas toujours.
Dans les conférences d’économie des années 60 aux États-Unis, jouant sur le nom de son
employeur de l’époque, IBM, on parlait d’« ABM» (Anything But Mandelbrot)… Mais cette
hostilité était aussi liée à sa position d’« outsider » à la fois chez les mathématiciens et les
économistes, dans un monde académique qui aime bien filiations et références.
AD 2012
5/6
http://hal.inria.fr
19/01/2012
10
Que reste-t-il aujourd’hui des idées de Mandelbrot sur la modélisation des risques
financiers ? Les modèles que Mandelbrot proposa initialement -processus alpha-stables,
Brownien fractionnaires, cascade aléatoire multifractale- n’ont pas vraiment été retenus dans
les applications économétriques et financières sous leur forme initiale. Dans ce domaine
comme dans les autres, Mandelbrot s’intéressait plus au cadre conceptuel et laissait à d’autres
le soin d’adapter ce cadre aux applications. Ce travail nécessita un effort considérable,
l’élégance mathématique devant céder parfois devant la complexité des données financières.
La modélisation initiale du « hasard sauvage » par les processus de Lévy alpha-stables céda
progressivement la place dans les années 1990 à des processus de Lévy « stables tempérés »,
discontinus et encore quelque peu sauvages mais tout de même de variance finie…
Les idées de Mandelbrot sur la longue dépendance et le syndrome de Noé donnèrent naissance
à une foisonnante littérature sur les modèles de volatilité à longue dépendance (voir par
exemple Comte & Renault 1998, Cont 2005 et l’article de Murad Taqqu dans ce numéro).
Quant aux processus multifractals de Mandelbrot, ils furent raffinés et développés dans les
travaux de Calvet & Fisher (2001) et Bacry & Muzy (2010) dans la modélisation des données
haute fréquence.
Mais, force est de constater que les idées directrices de Mandelbrot -importance des
fluctuations extrêmes, discontinuité et concentration des risque financiers, dépendances
temporelles dans la volatilité, l’importance d’examiner les données à de multiples échelles de
temps- qui rencontrèrent une grande résistance de la part des économistes de son temps, sont
aujourd’hui reconnues comme des faits incontestables, confirmés par plus de 40 ans de
recherche en économétrie financière. Les objets mathématiques qu’il fit entrer avec tant de
fracas dans l’univers de la théorie financière font désormais partie de la boîte à outils de la
modélisation en économétrie et finance.
Dans la quête d’un modèle adéquat pour représenter l’aléa financier, Benoît Mandelbrot
posa de nombreuses bonnes questions, dont certaines restent ouvertes. Ses idées, qui ont connu
des extensions et ramifications multiples, continuent d’inspirer les chercheurs, dans ce domaine
comme dans bien d’autres. Ce qui ne signifie pas nécessairement qu’elles soient appliquées
dans la pratique quotidienne de la gestion des risques financiers... où beaucoup utilisent encore
des modèles gaussiens, pourtant mis en défaut à la fois par les études statistiques et par
l’expérience des crises financières répétées de ces dernières décennies. Mais ceci est une autre
histoire... Faudra-t-il attendre encore 30 ans pour que les gestionnaires de risque (et les
formations de Master !) intègrent ces concepts ? Espérons que non.
Rama CONT
AD 2012
6/6
http://hal.inria.fr
19/01/2012
Téléchargement