Les caprices des marchés financiers : régularités et

publicité
Systèmes dynamiques
Les caprices
des marchés financiers :
régularités et turbulences
Les marchés financiers offrent une masse extraordinaire de données quantitatives sur un
aspect particulier de l’activité humaine. Les séries temporelles de prix révèlent des
propriétés statistiques très spécifiques, qui rappellent par certains côtés la statistique des
champs turbulents. L’analyse de ces séries temporelles a-t-elle des choses à nous apprendre
sur les comportements humains ? Comment utiliser ces résultats pour une meilleure gestion des risques financiers ? Les physiciens ont-ils leur place dans ce débat ? Le texte qui
suit fait le point sur dix ans de « Phynance » statistique.
T
out le monde a suivi, au moins
une fois dans sa vie, par
hasard ou par nécessité, avec
angoisse ou avec curiosité, la chronique du cours de la bourse, du dollar ou du pétrole. A la vérité, ces
chroniques se ressemblent toutes, et
c’est la première surprise : sans unités sur les axes qui permettent de
reconnaître les dates ou la valeur des
cours, ou de connaître les échelles
temporelles et les échelles de variation, il est difficile de distinguer une
action d’une devise, une matière première d’une obligation. L’apparence
visuelle (la « texture ») de ces graphiques et, de façon plus quantitative, les propriétés statistiques des
fluctuations des cours financiers
(que nous détaillerons plus loin,
encadré 1) sont étonnamment
stables, à la fois dans l’espace et
dans le temps : les marchés du XVIIIe
siècle se comportent qualitativement
comme ceux du XXe siècle ; ceux de
Tokyo comme ceux de New-York
semblent être la trace de comportements humains récurrents, universels et, par là même, éventuellement
modélisables.
– Service de physique de l’état condensé,
URA 2464 CNRS, CEA Saclay, Orme des
Merisiers, 91191 Gif-sur-Yvette cedex.
– Science & Finance, 109-111 rue Victor
Hugo, 92532 Levallois, www.sciencefinance.com
84
La modélisation quantitative des
comportements humains paraît encore saugrenue à certains physiciens,
qui semblent opposer la matière
inerte, docile, sans états d’âme et se
prêtant à une expérimentation reproductible aux êtres humains, fondamentalement imprédictibles car
doués de libre arbitre, et de plus
capables de modifier leur comportement en réaction même à une théorie
les concernant. Pourtant, les sciences
économiques et sociales ont montré
depuis longtemps que ces comportements pouvaient être modélisés.
Dans le cas de l’économie, et en particulier des marchés financiers, une
modélisation quantitative mathématisée, inspirée de la physique, a été
introduite au début du siècle. Cela a
été possible en premier lieu, parce
que les sciences physiques ont petit à
petit abordé l’étude de situations de
plus en plus complexes, chaotiques,
imprévisibles, comme la répartition
des vitesses dans un écoulement turbulent, en modifiant progressivement
la notion même de prédiction et en
inventant de nouveaux outils de description statistique. Ainsi, au lieu de
chercher à prévoir la position d’une
particule au cours du temps, la physique du XXe siècle se contente souvent de savoir avec quelle probabilité
la particule sera ici ou là au cours du
temps. C’est à ce courant général
(promu par Boltzmann, Einstein et
Langevin), que participe Bachelier
lorsqu’il propose dans sa thèse, en
1900, une « Théorie de la spéculation » où il jette, cinq ans avant Einstein, les bases de la théorie du mouvement brownien. Il y développe la
première théorie scientifique des
marchés financiers qui, après une traversée du désert de plus d’un demisiècle, a profondément influencé le
développement des mathématiques
financières au cours des 30 dernières
années.
Le cadre de description statistique
s’accommode fort bien du libre
arbitre (réel ou supposé) des êtres
humains. Si dans une situation donnée, chacun est libre d’agir comme il
le souhaite, pour des raisons en
général complexes et difficiles à cerner complètement, les comportements collectifs de populations,
observés dans leur globalité anonyme, acquièrent une régularité telle
que l’on peut espérer y trouver des
lois, des causes, des invariants –
comme pour les phénomènes
concernant la matière inerte. Prenons par exemple le mouvement
erratique d’une particule brownienne : il est dû aux chocs incessants des molécules d’eau qui l’entourent. On pourrait donc tenter une
description historique, anecdotique,
du mouvement en attribuant chaque
déflection à une répartition particulière des molécules d’eau. Cette description détaillée est bien entendu
impossible et, au demeurant, peu
Systèmes dynamiques
Encadré 1
QUELQUES ASPECTS STATISTIQUES
DES FLUCTUATIONS DES COURS
(log x(t + τ ) − log x(t))2 p = A p τ ζ p
ζ p = p[1 − λ2 ( p − 1)],
où λ2 mesure les fluctuations de la volatilité et A p une
constante numérique. Un comportement non linéaire de
l’exposant ζ p avec p (à comparer au mouvement brownien
pour lequel ζ p ≡ p ) est appelé multifractal et caractérise
aussi les fluctuations d’un champ de vitesses turbulent. Ce
modèle fait apparaître quantitativement les analogies entre
turbulence et marchés financiers.
0.34
0.32
0.30
0.28
0.26
2
2
2
<[σ (t+τ)−σ (t)] >
Si l’on appelle x le prix d’un actif financier (action, devise,
obligation, etc.), les variations relatives de prix
v = δ log x ≈ δx/x d’une minute à l’autre, d’une heure à
l’autre, d’un jour à l’autre, etc., possèdent des caractéristiques statistiques relativement universelles, indépendantes du
marché considéré et de l’époque étudiée. Par exemple, la loi
P(v) de la variable aléatoire v a des queues épaisses, que de
nombreuses études récentes, en particulier du groupe de
Stanley à Boston, sur des données haute-fréquence (concernant
surtout les actions) ont permis de caractériser plus finement.
Il s’agit de queues « de Pareto » P(v) ≈ 1/|v|1+µ avec un
exposant µ dans une gamme de 3 à 5. (Pour les actions
individuelles, la loi est relativement symétrique entre hausses
et baisses.) Ces queues décrivent les mouvements violents des
cours, qui peuvent varier en une heure de 1 % mais parfois de
10 % ou même de 100 %. Si µ = 3, la probabilité d’une chute
de 100 % est un million de fois plus faible que celle d’une
chute de 1 %. Ces variations extrêmes reflètent sans doute un
phénomène collectif dont il faudrait comprendre en détail la
nature et le mécanisme (encadré 3).
Plus l’échelle de temps sur laquelle on mesure v est grande,
plus ces queues ont tendance à disparaître, pour laisser
progressivement place à une loi gaussienne. Mais même à
l’échelle du mois, les effets non gaussiens restent notables.
Nous avons montré que cette lente disparition des queues est
reliée au phénomène d’intermittence de la volatilité, qui est le
terme consacré en finance pour parler de l’écart-type de v.
On peut en effet écrire v sous la forme du produit d’une variable
aléatoire (de variance unité) , positive ou négative, qui décrit la
direction du marché, et dont le temps de corrélation est très
faible (quelques dizaines de minutes), et d’une variable σ qui
donne l’amplitude de ces fluctuations, la « température
locale » du marché : v = × σ . La fonction de corrélation
temporelle des σ se comporte comme une loi de puissance
avec un exposant très faible. La figure ci-contre montre la
fonction de corrélation σ 2 (t + τ )σ 2 (t), qui décroît comme
une loi de puissance de τ, avec un exposant 0,22 pour les
actions américaines.
La faiblesse de cet exposant reflète le fait que les périodes de
forte volatilité, ou de calme relatif, durent un jour, une
semaine, ou même parfois plusieurs mois (pendant la guerre
du Golfe par exemple). Un modèle particulièrement riche et
intéressant, qui reproduit ce comportement intermittent de la
volatilité, est le modèle multifractal de Bacry-Muzy-Delour.
Ils postulent en effet que :
• est une variable gaussienne centrée réduite sans corrélations
temporelles, et
• log σ est aussi une variable gaussienne, mais dont la fonction
de corrélation décroît très lentement (logarithmiquement)
avec le temps.
On peut, dans ce modèle, calculer exactement tous les
moments de l’accroissement du logarithme du prix entre deux
instants séparés par un intervalle τ. On trouve :
0.24
0.22
0.20
0
20
40
τ (jours)
60
80
100
Fonction de corrélation temporelle du carré de la volatilité en fonction
de l’intervalle de temps τ. Les données correspondent à une moyenne
sur les 500 actions américaines les plus liquides. La courbe en pointillés est un ajustement en loi de puissance, avec un exposant ν = 0,22.
Le modèle de Bacry-Muzy-Delour prédit un comportement en loi de
puissance de cette fonction de corrélation, avec ν = 4λ2 .
Beaucoup d’autres caractéristiques statistiques peuvent être
explorées, par exemple l’effet dit « leverage » qui concerne les
indices boursiers (CAC40, Dow Jones, etc.), qui est une
corrélation (négative) forte entre variations passées du prix et
volatilité future, sur une échelle temporelle d’une dizaine de
jours. Cet effet est relativement faible et difficile à mesurer ;
nous avons, avec Andrew Matacz et Marc Potters, quantifié et
modélisé cet effet en utilisant simultanément plusieurs sources
de données. Les effets multivariés, c’est-à-dire les corrélations
qui existent entre différentes actions (en particulier en période
de forte volatilité), ou entre obligations de différentes
échéances, mériteraient aussi une discussion plus approfondie.
Dans le premier cas, nous avons suggéré qu’une partie
importante du spectre des valeurs propres de la matrice de
corrélation se comprend grâce à la théorie des matrices
aléatoires de Wigner et Dyson. Cette théorie, inventée pour
comprendre le spectre énergétique des noyaux nucléaires,
montre que les valeurs propres d’une matrice aléatoire ont
des propriétés universelles. Dans le second cas, nous avons
souligné l’existence d’une analogie entre la courbe des taux
– qui décrit à un instant donné l’ensemble des taux d’intérêt
correspondant à des emprunts de durées différentes (un jour,
un mois, un an, dix ans...) – et les vibrations d’une corde
élastique soumise à un bruit aléatoire. Dans les deux cas, les
outils de la physique statistique offrent de nouvelles perspectives
et suggèrent une analyse originale des données financières.
85
Encadré 2
LES OPTIONS ET LA FORMULE DE BLACK-SCHOLES
Une option est une sorte d’assurance contre les fluctuations
des marchés financiers. Par exemple, on peut vouloir assurer
son portefeuille boursier contre un effondrement des cours, et
ainsi acheter une « option » qui fournit la garantie d’un prix
de rachat minimum de ses actions. De nombreux produits de
ce type sont en fait, de façon parfois cachée, déjà disponibles
pour le grand public, et portent le nom d’investissements à
capital garanti. Dans ce cas, la valeur minimale garantie est
le capital initial. On peut aussi vouloir s’assurer contre une
hausse, par exemple une entreprise française devant payer des
factures en dollar peut vouloir se prémunir contre une
appréciation future de cette devise. Quel est le montant
raisonnable de la prime d’assurance à laquelle doit consentir
l’acheteur de l’option ? Le vendeur d’option peut-il suivre une
stratégie optimale d’achat et de vente du « sous-jacent »
(c’est-à-dire l’objet sur lequel porte l’option) de façon à
minimiser son risque ? Il est clair que la réponse à ces deux
questions nécessite une description de la dynamique du sousjacent, un modèle probabiliste de son évolution future. Black
et Scholes, en 1973, proposent une solution complète du
problème en reprenant le modèle de Bachelier, un peu modifié :
ils supposent que le logarithme du prix, plutôt que le prix luimême, effectue un mouvement brownien. On observe en effet à
long terme une croissance exponentielle du prix des actifs financiers, même si à court terme les deux modèles sont très
similaires. Autrement dit, Black et Scholes écrivent, en reprenant les notations de l’encadré 1 :
v = σ + m,
où σ est la « volatilité », une variable aléatoire centrée de
variance unité et m la rentabilité moyenne.
La formule qu’ils obtiennent exprime la valeur de l’option
comme la moyenne du profit potentiel de l’acheteur, ce qui
paraît raisonnable. Cette moyenne est d’autant plus grande
instructive. La description probabiliste, proposée par Einstein et Langevin, permet de dégager les lois universelles du mouvement brownien,
qui décrivent de manière extrêmement précise le comportement d’une
assemblée de ces particules, au détriment de leurs histoires individuelles.
Ces particules, soumises à leur
propre poids, ont une probabilité
légèrement plus grande de se déplacer vers le bas que vers le haut : l’observation de l’une d’entre elles ne
révèle que très difficilement cette
tendance à la descente, qui apparaît
cependant clairement au niveau collectif. De la même façon, le compor86
que la volatilité σ du sous-jacent, sa propension à fluctuer, est
grande : les marchés d’options sont ainsi des marchés où
s’échangent des anticipations de volatilité future. Cependant,
la moyenne du profit potentiel est prise non pas avec la
« vraie » probabilité du mouvement brownien, mais avec une
probabilité « décalée », obtenue en retranchant la rentabilité
moyenne du sous-jacent, c’est-à-dire en imposant m = 0.
Autrement dit, et assez curieusement, le prix de l’option ne
dépend pas de la tendance moyenne à la hausse ou à la baisse
du sous-jacent ! Ce décalage provient de la stratégie de
couverture que suit le vendeur d’options, qui corrige son bilan
financier de manière à compenser exactement l’effet de la tendance moyenne. Black et Scholes trouvent d’ailleurs que la
stratégie optimale est parfaite, dans le sens où le vendeur ne
prend aucun risque ! Ce résultat est intimement lié à la nature
supposée gaussienne des fluctuations, et à la limite (irréaliste)
du temps continu, où la fréquence des transactions tend vers
l’infini. En présence des effets non gaussiens décrits dans
l’encadré 1 (queues de distributions, volatilité stochastique),
la possibilité de trouver une stratégie parfaite disparaît, et il
subsiste un risque résiduel, dont nous avons montré qu’il est
en pratique très important. Le prix lui-même subit des modifications, que les opérateurs du marché implémentent en injectant dans la formule de Black et Scholes non pas la vraie
volatilité σ mais une volatilité effective qui varie en fonction
de l’échéance de l’option et du « prix d’exercice » (le seuil à
la hausse ou à la baisse qui définit l’option). Tracée en fonction du prix d’exercice, cette volatilité a souvent une forme
parabolique ; on parle alors, dans les salles de marché, de
« smile » de volatilité. Nous avons montré que la forme
précise de ce smile peut être reproduite en prenant en compte
de manière quantitative les effets non gaussiens décrits dans
l’encadré 1, en particulier les corrélations à longue portée de
la volatilité.
tement des intervenants sur les marchés financiers résulte de motivations
qui leur sont propres, mélanges d’arguments rationnels, de mimétisme et
de pulsions émotionnelles, de
besoins immédiats ou de décisions à
long terme, de savants calculs ou
d’erreurs d’appréciation. Dans leur
globalité cependant, ces comportements individuels semblent engendrer
une régularité qui les dépasse. Bachelier écrivait ainsi que le marché, à
son insu, obéit à une loi qui le
dépasse, la loi de la probabilité. La
recherche des détails de cette loi est
depuis quelques années un domaine
très actif dans lequel sont impliqués
économistes, mathématiciens et physiciens. Cette recherche est motivée,
entre autres, par la nécessité pour les
établissement financiers de contrôler
les risques inhérents à leur activité
spéculative, nécessité qui est apparue, curieusement, plus tardivement
que dans d’autres domaines d’activités industrielles. Pourtant, les conséquences d’un krach boursier comme
celui de 1929 sont sous bien des
aspects comparables dans leur cortège de malheurs à celles d’un accident nucléaire ou d’un tremblement
de terre. Le contrôle des risques s’est
imposé au début des années 90,
après le krach retentissant de 1987,
Systèmes dynamiques
dont l’occurrence mettait gravement
en défaut le modèle de Bachelier (très
légèrement amendé) utilisé alors. Le
développement exponentiel des marchés dits dérivés, comme les marchés
d’options (encadré 2), où les effets de
levier peuvent amplifier à l’extrême
les mouvements de hausse ou de
baisse, a rendu inévitable une réflexion approfondie sur le risque financier, son origine et sa calibration, afin
de construire des instruments efficaces de mesure de la « sismicité »
des marchés financiers.
A cette motivation instrumentale
s’ajoute une motivation intellectuelle, qui est celle du développement
d’une modélisation statistique quantitative des comportements humains
dont nous avons parlé plus haut. Les
marchés financiers, bien que (ou
peut-être parce que) réducteurs, sont
pour cela un magnifique terrain d’expérimentation, car ils constituent sans
doute la source la plus abondante de
données qui documentent de manière
quantitative une activité humaine : on
dispose des variations de prix de
dizaines de milliers d’instruments
financiers, parfois au cours de plusieurs siècles, comme pour le blé.
Que nous apprennent ces mouvements erratiques de hausse et de
baisse sur les comportements des
individus qui en sont la cause mais
dont les conséquences collectives les
dépassent ? D’autres activités humaines sont de ce point de vue comparables, comme le trafic routier et ses
fluctuations géantes, ou le réseau des
connexions sur Internet. Même si la
masse de données disponibles n’est
pas (encore) comparable à celle des
marchés financiers, le développement de modèles de comportements
de con-ducteurs issus de la physique
statistique a connu un essor considérable ces dernières années : le réseau
autoroutier allemand est entièrement
géré par un modèle de ce type ! Il y a
donc fort à parier que les outils et les
concepts développés pour comprendre la statistique des marchés
financiers auront une portée beaucoup plus vaste.
Revenons sur le modèle de Bachelier et sur ses limitations. Bachelier
4.5
3.5
2.5
Indice DowJones
1.5
1900
1920
1940
1960
1980
2000
3
2
1
0
Mouvement de Bachelier
1
1900
1920
1940
1960
1980
2000
Figure 1 - Deux chroniques de prix, l’une réelle (figure du haut), l’autre synthétique (figure du bas). La
chronique réelle correspond à l’indice Dow-Jones pendant le XXe siècle, en coordonnées semi-logarithmiques. Les flèches indiquent deux grands krachs : 1929 et 1987. La chronique artificielle est obtenue
en suivant la prescription de Bachelier : chaque mouvement est une variable aléatoire gaussienne, totalement indépendante du passé, mais de valeur moyenne non nulle, afin de reproduire l’effet de croissance séculaire de l’économie qui apparaît sur la chronique réelle.
40
20
0
20
40
1900
Indice DowJones
1920
1940
1960
1980
2000
1000.0
500.0
0.0
500.0
1000.0
1900
Mouvement de Bachelier
1920
1940
1960
1980
2000
Figure 2 - Autre représentation des données de la figure 1 : au lieu du prix, on trace ici la variation
relative journalière des prix en fonction du temps, pour le Dow-Jones (en %) et pour le mouvement de
Bachelier (unités arbitraires). On discerne clairement, dans les données réelles, les variations intermittentes de volatilité.
87
fait une hypothèse minimale : si le
prix reflète un équilibre entre acheteurs (qui pensent que le cours va
monter) et vendeurs (qui pensent
qu’il va descendre), ce prix est tel
que l’espérance (c’est-à-dire la
valeur moyenne attendue) du prix de
demain est égale au prix actuel.
Bachelier écrit : Les opinions
contradictoires relatives à ces variations se partagent si bien qu’au
même instant les acheteurs croient à
la hausse et les vendeurs à la baisse,
et, plus loin : Il semble que le marché ne doit croire à un instant donné
ni à la hausse ni à la baisse puisque,
pour chaque cours coté, il y a autant
d’acheteurs que de vendeurs. Autrement dit, l’accroissement de prix
entre aujourd’hui et demain est une
variable aléatoire imprédictible. Le
prix est donc la somme de ces
accroissements aléatoires. Or, la
somme d’un grand nombre de
variables aléatoires est, moyennant
des hypothèses peu restrictives, une
variable aléatoire dite gaussienne,
c’est-à-dire dont la distribution est
donnée par la loi normale de
Laplace-Gauss, et dont l’écart-type
croît comme la racine carrée du
temps qui s’écoule. Le processus
statistique ainsi construit est celui du
mouvement brownien. L’objet obtenu
est universel, dans le sens où il ne
dépend pas de la distribution particulière des accroissements élémentaires. Un exemple d’une chronique
fictive, engendrée numériquement à
partir de la prescription de Bachelier,
est donné en figure 1, et comparé
avec la chronique de l’indice DowJones de la bourse de New-York
depuis le début du siècle. Au premier
coup d’œil, les caractéristiques grossières de ces deux graphiques se ressemblent et notamment, de manière
surprenante, avec l’apparition sur la
chronique simulée de périodes relativement longues où le prix fictif
semble être sur une tendance haussière ou sur une tendance baissière.
Ces « tendances » ne correspondent
évidemment à aucune explication
économique rationnelle, et à aucune
possibilité de prévision. Elles ne
88
sont que le reflet du hasard, qui
prend cependant, dans le cas du
mouvement brownien, une forme
très particulière : en effet, les hausses
peuvent durer si longtemps que la
durée moyenne d’une période faste
(ou défavorable) est infinie !
Une différence majeure apparaît
cependant lorsque l’on observe les
deux graphes de la figure 1 plus
attentivement : plusieurs discontinuités apparaissent clairement sur le
cours réel, correspondant aux grands
krachs du siècle (celui de 1929 par
exemple et la grande dépression qui
en a résulté, ou celui de 1987). Le
processus de Bachelier, quant à lui,
est continu ; aucune grande variation
n’est observée. Cela est une propriété de la loi normale de LaplaceGauss, qui décroît si vite lorsque
l’on s’écarte du centre que les événements extrêmes ont une probabilité quasi nulle de se produire. Dans
le monde de Bachelier, le krach de
1987 n’aurait jamais dû se produire,
même si la bourse avait existé depuis
le début de l’univers. La reconstruction empirique de la loi de distribution des variations de prix fait apparaître une queue dite de Pareto
(encadré 1), c’est-à-dire une lente
décroissance en loi de puissance de
la probabilité des extrêmes. Cette
loi, observée par Pareto à la fin du
XIXe siècle sur la répartition des fortunes ou des revenus, est apparue
depuis dans de nombreux contextes :
fluctuations financières, amplitudes
des tremblements de terre, taille des
mégapoles, recettes d’exploitation
des films... Une autre représentation
permet de comprendre la différence
profonde entre le modèle de Bachelier et la réalité des marchés : au lieu
de tracer le prix au cours du temps,
on peut tracer les variations journalières des prix, à la fois pour l’indice
Dow-Jones et pour l’histoire fictive
de Bachelier (figure 2). On observe
dans le cas réel non seulement des
« pics » d’amplitude correspondant
à de fortes hausses ou de fortes
baisses, mais aussi une tendance à
l’agrégation de ces pics dans le
temps. Autrement dit, il apparaît
clairement des périodes troublées,
d’agitation intense, entrelacées par
des périodes plus calmes, de faible
activité : l’évolution des marchés se
fait par bouffées intermittentes de
volatilité. De telles structures n’apparaissent pas dans le diagramme
sans relief du mouvement de Bachelier, qui correspond à une dynamique
modérée, sans à-coups, un hasard
sans surprises. Il est intéressant de
souligner les similarités frappantes
entre la texture statistique des fluctuations financières et celle du
champ de vitesse d’un écoulement
turbulent. Comme pour les marchés,
un écoulement turbulent (par
exemple celui produit dans la grande
soufflerie de Modane) est intermittent : il se structure en régions
« laminaires » (où l’écoulement est
relativement régulier et où la dissipation d’énergie est faible) entrecoupées par des régions fortement dissipatives. Ainsi, toutes les méthodes
récentes d’analyse de signaux chaotiques (comme la transformée en
ondelettes) qui ont permis des progrès considérables dans la compréhension de la turbulence hydrodynamique et le développement de
modèles statistiques nouveaux, trouvent une application naturelle dans
l’étude des fluctuations financières
(encadré 1).
Lente décroissance de la probabilité des variations extrêmes, persistance des périodes de forte volatilité ; au-delà de cette description
qualitative, on peut définir des
mesures quantitatives de ces effets,
et comparer les résultats obtenus
pour différents marchés et différentes époques pour conclure à cette
grande universalité mentionnée en
introduction (encadré 1). Celle-ci
suggère un mécanisme élémentaire
commun, peut-être relié à certains
invariants fondamentaux de la psychologie humaine : appât du gain et
peur de perdre, manque d’informations, esprit grégaire et mimétisme,
apprentissage par essai et erreur...
notions qu’il faut tenter de quantifier
précisément. Plusieurs modèles,
pour lesquels l’un ou l’autre de ces
Systèmes dynamiques
Encadré 3
QUELQUES MODÈLES SIMPLES
DE MARCHÉS FINANCIERS
Le rêve du physicien statisticien serait de trouver un modèle
où chaque « agent » obéit à des règles de comportement
individuel très simples, mais où les effets collectifs complexes
qui en résultent pourraient expliquer, au moins qualitativement,
les grands traits des caractéristiques statistiques évoquées
dans l’encadré 1 : loi de distributions à queues épaisses,
intermittence de la volatilité. Exactement comme la turbulence
est le produit, à grande échelle, du mouvement de molécules
qui s’entrechoquent. On peut penser à deux niveaux de
description : soit « microscopique », où l’on cherche à modéliser
le comportement de chaque entité élémentaire (l’agent
économique), soit au niveau supérieur, où l’on décrit
l’évolution moyenne de variables plus macroscopiques,
comme le fait l’équation de Navier-Stokes pour la vitesse du
fluide dans notre analogie avec la turbulence. Dans le cas des
marchés financiers, la variable « macroscopique » naturelle
est le prix, dont les variations résultent de l’action collective
des acheteurs et des vendeurs. La recherche dans ce domaine
en est encore à un stade exploratoire et fragmentaire ; les
modèles sont encore très schématiques et peu prédictibles,
mais en plein bouillonnement. Citons par exemple certains
modèles simples de comportements collectifs que nous avons
proposés avec Rama Cont, qui s’inspirent de la percolation
(où des « coalitions » instantanées d’opinions convergentes
conduisent à des mouvements importants), ou des propriétés
du cycle d’hystérésis du modèle d’Ising en champ aléatoire.
L’étude de ce dernier modèle, développé récemment par
Sethna et Dahmen dans un contexte magnétique, montre en
effet un phénomène d’avalanches intéressant lorsque le champ
extérieur passe lentement d’une (grande) valeur positive, qui
favorise l’état +, à une valeur négative privilégiant l’état – : le
retournement de l’aimantation peut se faire soit brutalement,
lorsque l’interaction entre spins est forte par rapport au
champ aléatoire, soit continûment, lorsqu’au contraire les
champs aléatoires sont forts et/ou que les effets collectifs
médiés par l’interaction sont faibles. Lorsque les deux effets
sont comparables, l’aimantation se retourne par bouffées : un
spin se retournant entraîne avec lui une avalanche de
retournements dont la taille est très variable. En langage de
marché, ce modèle se transcrit de la façon suivante : l’état +
correspond à un état optimiste (acheteur), l’état – à un état
pessimiste (vendeur). Le champ aléatoire local correspond à la
propension individuelle de chaque agent à l’optimisme ou au
pessimisme, et l’interaction entre spins au mimétisme entre
agents. Le champ extérieur correspond à l’information
publique, par exemple sur les perspectives économiques. La
question qui se pose alors est celle du retournement, brutal ou
progressif, de l’opinion des agents lors d’un changement de
conjecture. Un retournement brutal conduit au krach, un
retournement plus progressif s’accompagnant néanmoins
« d’avalanches » d’ordre de vente plus ou moins importantes.
Plus précisément, la loi de distribution de la taille des avalanches est une loi de puissance, dont l’exposant dépend peu
des détails microscopiques du modèle. Ce modèle décrit, de
façon schématique, un grand nombre de situations sociales :
phénomènes de mode, dynamique et répartition des votes,
phase terminale d’applaudissements, etc.
Une autre famille de modèles a vu le jour récemment, où
chaque agent peut choisir entre différentes stratégies afin
d’optimiser sa performance sur le signal qu’il contribue luimême à créer – par exemple l’évolution d’un prix, ou dans le
cas du trafic routier, la fréquentation d’une voie rapide, etc.
Un cadre théorique précis, celui du modèle de la minorité, a
été proposé par Challet et Zhang pour simplifier un modèle de
rationalité inductive inventé par l’économiste Brian Arthur. Il
s’agissait du problème du bar El-Farol, un bar de Santa-Fe
qui souffre de son succès et devient insupportable lorsqu’il est
bondé. Comment les clients prennent-ils la décision de s’y
rendre ou de ne pas s’y rendre en fonction de la fréquentation
des semaines précédentes ? De manière surprenante, le
modèle de la minorité peut être résolu en grand détail en utilisant les méthodes de physique statistique développées dans le
cadre de la théorie des verres de spin : l’hétérogénéité des
agents (peu explorée dans les modèles classiques en
économie, où l’existence d’un agent représentatif unique est
souvent supposée) joue le rôle du désordre dans les verres de
spin. On trouve en particulier une transition de phase en
fonction du nombre d’agents, séparant :
• une phase dite « efficiente » où le signal est essentiellement
imprédictible et le score de toutes les stratégies se comporte,
en fonction du temps, comme une marche aléatoire non
biaisée ;
• d’une phase inefficiente, où une information utilisable
persiste dans le signal. Certaines stratégies sont alors
(en moyenne) gagnantes, et d’autres perdantes.
Si l’on permet, dans la phase efficiente, aux agents de ne pas
jouer tant que le score de leur meilleure stratégie est négatif,
on définit un modèle de la minorité « grand canonique » :
le volume d’activité devient une variable aléatoire qui fluctue
dans le temps. Nous avons montré, avec Irène Giardina et
Marc Mézard, que les corrélations temporelles de ce volume
d’activité sont à très longue portée. Ces corrélations sont
héritées de la propriété bien connue des marches aléatoires
non biaisées (ici, les scores des différentes stratégies) de
revenir à leur point de départ au bout d’un temps qui est en
moyenne infini. Ce mécanisme très simple pourrait rendre
compte des corrélations à longue portée de la volatilité des
marchés financiers, mentionnée dans l’encadré 1 : on observe
en effet que la volatilité est fortement corrélée au volume
d’activité.
89
traits joue un rôle important, ont été
proposés et étudiés ces dernières
années (encadré 3) ; leur domaine
d’application est probablement très
vaste.
Malgré certains succès, cette nouvelle discipline dite du Behavioral
Finance – qui s’écarte de l’approche
axiomatique traditionnelle en économie, où les agents sont supposés
infiniment rationnels – en est à ses
balbutiements, et devrait progresser
de façon spectaculaire. L’un des
enjeux est de pouvoir ainsi simuler
par ordinateur des marchés financiers fictifs, comme celui de la figure
1, mais fidèles à la réalité observée.
Tout comme la simulation d’écoulements turbulents réalistes permet de
s’affranchir progressivement des
grandes souffleries pour la conception et la validation de nouveaux
profils d’avions, ou des explosions
nucléaires à Muroroa, on peut espérer que la simulation de marchés fictifs dans un premier temps puis, à un
niveau supérieur, d’économies fictives, permettent à terme une
meilleure gestion des risques financiers et, éventuellement, des politiques économiques. Quoi qu’il en
soit, il est probable que l’apport des
physiciens, résumé dans notre triptyque d’encadrés (analyse originale
de bases de données pléthoriques,
mise au point de méthodes analytiques et numériques pertinentes, et
invention de modèles microscopiques simples mais riches d’enseignements), contribue à transformer
dans les années à venir l’économie
théorique, encore très axiomatisée,
en une science plus empirique et
plus proche du réel.
POUR EN SAVOIR PLUS
Bachelier (L.), Théorie de la spéculation, J. Gabay, Paris, 1995.
Bouchaud (J.-P.) et Potters (M.),
Theory of Financial Risks, Cambridge University Press, 2000, et
les articles accessibles sur
www.science-finance.com
Challet (D.), Marsili (M.),
Zhang (Y.-C.), Modeling Market
Mechanism with Minority Game,
Physica A276, 284, 2000.
Farmer
(J.-D.),
Physicists
attempt to scale the ivory towers
Article proposé par :
Jean-Philippe Bouchaud, tél. + 33 1 69 08 73 45, [email protected]
90
of finance, dans : Computing in
Science and Engineering, November 1999 ; aussi reproduit dans :
Int. J. Theo. Appl. Fin. 3, 311,
2000.
Frisch (U.), Turbulence : The
Legacy of A. Kolmogorov, Cambridge University Press, 1997.
Orléan (A.), Le pouvoir de la
finance, Odile Jacob, 1999.
Mandelbrot (B.), Fractals and
Scaling in Finance, Springer, 1997.
Mantegna (R) et Stanley (H. E.),
An introduction to Econophysics,
Cambridge University Press,
1999.
Muzy (J.-F.), Delour (J.), Bacry
(E.), Modelling fluctuations of
financial time series : from cascade process to stochastic volatility model, Eur. Phys. J. B 17,
537, 2001.
Schiller (R.), Irrational exuberance, Princeton University Press,
2000.
Sethna (J.), Dahmen (K.),
Myers (C.), Crackling noise,
Nature, 410, 242, 2001.
Téléchargement