Dangers et attraits du recours aux données de haute fréquence 363
imputables à la méthode choisie pour effectuer les tests : les échantillons
disponibles sont-ils trop courts, les statistiques servant à évaluer les
propriétés des données conviennent-elles ou la fréquence d’échantillonnage
joue-t-elle un rôle quelconque? Il est possible également que les mesures
habituelles de la volatilité ou du risque, telles que la variance ou
l’hétéroscédasticité conditionnelle autorégressive généralisée (GARCH),
saisissent en fait certaines des caractéristiques latentes, peut-être de nature
structurelle, des données (p. ex. l’absence de non-linéarité) plutôt que les
risques sous-jacents sur les marchés des actifs.
Les décideurs qui cherchent à comprendre la signification des
données de haute fréquence pour la conduite de la politique monétaire se
demandent si la fréquence accrue à laquelle le marché semble en mesure de
fournir de l’information devrait les amener à intervenir plus souvent. Pour
quelle raison les banques centrales devraient-elles se soucier des fluctuations
journalières du taux de change, des taux d’intérêt ou des cours boursiers,
entre autres choses, si ces fluctuations ne risquent guère d’exercer d’effets
permanents sur l’économie ou d’aller à l’encontre de la politique monétaire?
À notre avis, deux ou trois raisons expliquent l’opposition qui existe
entre une approche à long terme de la politique monétaire et la nécessité,
pour les autorités, d’être perçues comme prêtes à réagir à des chocs
fréquents, qui peuvent ou non avoir des effets durables sur l’économie. En
premier lieu, les banques centrales sont considérées comme garantes de la
stabilité du système financier; de ce fait, on s’attend généralement à ce
qu’elles réagissent aux nouvelles susceptibles d’influer sur les marchés
financiers. On s’attendrait par conséquent à ce que les annonces et les
interventions de la banque centrale soient plus précises et donc moins
fréquentes pour faire contrepoids, peut-être, au « bruit » que contiennent les
données de haute fréquence. En second lieu, si les banques centrales
s’intéressent à ces données, c’est peut-être par crainte qu’un événement a
priori d’envergure limitée, qu’il soit « rationnel » ou non, ne déclenche à lui
seul une crise financière et ne menace la stabilité du système financier
(signalons à ce propos la déclaration faite par Alan Greenspan en
décembre 1996 concernant l’« exubérance irrationnelle » des marchés). Les
autorités craignent qu’une telle éventualité ne suffise à justifier le suivi des
données de haute fréquence et une réaction à leur évolution. Il est difficile
d’obtenir des résultats empiriques à ce sujet, mais nous en présenterons
quelques-uns qui sont intéressants.
Nous faisons ici le tour des arguments qui militent pour ou contre un
suivi attentif de l’évolution au jour le jour des marchés financiers par les
banques centrales. Le plan de l’étude est le suivant. Nous définissons à la
section 1 les différents types de myopie et autres comportements à courte
vue des banques centrales. À la section 2, nous nous penchons sur le