"Algo-trading" : les Bourses sous l'emprise des machines ?
Dossier publié le 18.06.10
Le mini-krach du 6 mai 2010 à Wall Street a braqué les projecteurs sur le trading algorithmique ou
"algo-trading", qui désigne les échanges d'actions automatisés. Cette pratique représenterait jusqu'à 70
% des échanges aux Etats-Unis et connaît une forte croissance en Europe. Si elle a des effets positifs
sur la liquidité du marché et la baisse des prix des ordres, la vitesse vertigineuse des opérations qu'elle
permet (quelques millisecondes) interroge. Qui a désormais la maîtrise des mouvements boursiers ? Y
a-t-il, là aussi, un besoin nouveau de régulation ? Le Monde.fr propose à ses abonnés un point complet
sur ce nouveau phénomène.
L'essor vertigineux du trading algorithmique
Publié le 18.06.10 | 19h11
Qu'est-il donc arrivé le jeudi 6 mai 2010 à la Bourse de New York ? En quelques minutes,
l'indice phare Dow Jones a chuté de plus de 9 %. Un vent de panique s'est emparé des
marchés et 1 000 milliards de dollars se sont envolés. Si plusieurs causes sont évoquées, l'une
d'elles, l'algotrading, est mise en avant. Peu connue, cette technique boursière a pourtant
assuré en 2009 70 % du volume des 10 milliards d'échanges quotidiens réalisés sur les
différentes places boursières aux Etats-Unis, selon Tabb Group, une société américaine de
conseil et de recherche sur la finance.
L'algotrading, contraction de "trading algorithmique" (aussi appelé "high frequency trading",
"trading à haute fréquence") ne cesse de gagner en importance. Cette pratique repose sur "des
machines capables d'exécuter des ordres à toute vitesse et de tirer ainsi profit des écarts de
prix minimes sur les valeurs […]. Ces outils d'un nouveau genre arbitrent, fractionnent,
achètent et vendent. Leur dieu est le même que celui du trader à tête d'homme : le temps. A la
différence que leur échelle de temps est le millième de seconde et que, en guise de cerveau, ils
disposent de formules algorithmiques" (Mathieu Rosemain, Les Echos, 14 avril 2010). Le
phénomène est à relier au "turbo-capitalisme" identifié par le sociologue Paul Virilio dans
une interview à Libération (25 mai 2010) devenu, pour certains, emblématique de cette
"finance folle" qui a gagné la planète.
Son histoire est récente. Né aux Etats-Unis à la suite de l'informatisation des ordres sur les
marchés financiers dans les années 1970 (voir la chronologie), le trading algorithmique a pris
son essor au début des années 2000, quand la décimalisation a modifié la taille des ordres en
fractionnant leur valeur, passée d'un minimum de 1/16 de dollar (0,062 5 dollar) à 0,01 dollar.
Cela a changé la microstructure du marché en créant des différences plus petites entre prix
offerts et prix proposés, favorables aux opérations automatisées.
Une décennie plus tard, le boom de l'algotrading est spectaculaire. Aux Etats-Unis, plus de 75
% des institutions financières et 95 % des traders institutionnels utilisent des stratégies de
trading algorithmique. Selon la société Celent, le trading à haute fréquence constitue près de
42 % des volumes d'actions traités et atteindra 54 % au dernier trimestre 2010. Les plus
grosses sociétés américaines de trading algorithmique, comme Getco ou Citadel, traitent
parfois de 10 à 20 % des actions de grandes sociétés cotées.
L'Europe est "en retard" en la matière : l'algotrading y est responsable d'un ordre sur quatre,
selon le cabinet d'études américain Aite Group. Mais il pourrait monter à 45 % des volumes
quotidiens dans deux ans. Celent prévoit surtout un développement en Asie, avec la
modernisation notamment de la Bourse de Tokyo. Mais d'autres régions du monde
s'intéressent à cette technique, comme l'Amérique latine, attirées par la promesse de plus de
liquidité, qui rend les investissements moins coûteux et plus simples.
Les enjeux financiers sont considérables : 2 % des 20 000 firmes de trading américaines
utilisent ces techniques et ont réalisé en 2008 un bénéfice de 21,8 milliards de dollars.
D'autant qu'une partie des échanges se fait grâce à l'essor des "dark pools". Ces plates-formes
électroniques opaques capteraient pas moins de 4,1 % des volumes échangés en valeur en
Europe, selon Tabb Group. Les échanges opaques pourraient représenter 7 % des échanges de
titres en 2010 et bénéficieraient de l'essor et de la sophistication croissante de l'algotrading.
Les enjeux sont donc considérables et le ticket d'entrée ne cesse de s'élever. Les teneurs du
marché comme Getco, les fonds spéculatifs et les Bourses elles-mêmes se livrent à une
bataille technologique coûtant des centaines de millions de dollars d'investissements pour
gagner les quelques fractions de seconde qui leur permettront d'empocher des bénéfices
juteux. Les opérateurs boursiers ont aussi compris leur intérêt. Progressivement, ils proposent
à leurs membres de louer des serveurs à quelques mètres, voire quelques centimètres du cœur
des échanges électroniques. C'est ce qu'on appelle la "co-location". On estime qu'à chaque
centaine de miles (160 kilomètres) supplémentaire de distance du lieu de l'opération, 1
millième de seconde est ajoutée à celle-ci : ce qui peut faire perdre une opération ou gagner
des millions.
Une fluidité accrue du marché
Publié le 18.06.10 | 19h11
Les partisans de l'algotrading mettent en avant deux arguments en faveur de cette technique
boursière :
Les places financières les plus automatisées, comme le Nasdaq (marché des valeurs
technologiques aux Etats-Unis), ont gagné des parts de marché par rapport à celles qui le sont
moins, comme le New York Stock Exchange (NYSE). Les économies d'échelle ont contribué
à diminuer les commissions sur les opérations et contribué aussi à la consolidation des places
boursières, c'est-à-dire au rapprochement entre les Bourses.
Par ailleurs, un des bénéfices évidents pour les investisseurs est "la réduction des spreads
[écarts] différence entre le prix auquel un acheteur est désireux de payer un instrument
financier et le prix auquel un vendeur est prêt à le vendre ainsi qu'un accroissement de la
liquidité" (Chicago Fed Letter, mars 2010, en PDF). La liquidité améliorée du marché
boursier signifie qu'il est plus facile d'y échanger des valeurs, ce qui le rend plus attractif pour
les investisseurs. C'est en tout cas l'argument avancé par les traders à haute fréquence. Ces
opérations n'entraînent pas non plus une volatilité accrue du marché, c'est-à-dire une
amplification de la fluctuation des cours. De même, selon la Réserve fédérale américaine
(Fed), elles n'augmentent pas l'instabilité des devises.
Mais comme le souligne Yann-Eric Le Boulch, président de CM-CIC Securities, l'algotrading
aboutit aussi à une fragmentation de la liquidité en multipliant les ordres de plus en plus fins,
ce qui accroît les coûts de négociation et les frais informatiques. Les intervenants traditionnels
peuvent y être perdants, même si la concurrence entre les Bourses fait baisser les prix.
Les algorithmes, "révolution industrielle" du trading
Publié le 18.06.10
Derrière l'expression "trading algorithmique" se cachent des réalités très différentes, de la plus
simple à la plus complexe. Les programmes utilisés par les courtiers se divisent en deux
catégories principales : les logiciels d'aide à la décision, et ceux dotés d'une intelligence
artificielle élaborée, qui sont capables de faire des choix en fonction d'une multitude de
critères, comme le ferait un être humain.
Ces derniers, réservés aux très gros acteurs du marché comme le Crédit suisse ou Goldman
Sachs, ne représentent pas la "norme" des logiciels d'algo-trading. La plupart de ces
programmes remplissent surtout des fonctions répétitives ou demandant une très grande
précision.
"Un algorithme typique, c'est un algorithme de pourcentage de volume : on peut par exemple
lui demander d'acheter 1 % de toutes les actions disponibles sur le marché d'une entreprise",
détaille Benjamin Bécar, chef de produit trading algorithmique pour Sungard, qui édite des
logiciels clés en main ou sur mesure. "La plupart de nos clients souhaitent avant tout
simplifier leur travail au quotidien ; l'arrivée de l'informatique dans les salles de marché a
permis d'automatiser un grand nombre de tâches, tout comme la révolution industrielle a
mécanisé les chaînes de production." Incidemment, cette automatisation permet aussi aux
entreprises de limiter le nombre de salariés dont elles ont besoin.
MODÈLES MATHÉMATIQUES
La clef de l'efficacité des algorithmes repose sur deux facteurs : la précision du programme,
qui est capable d'effectuer de nombreuses opérations dans des délais très rapprochés, ou au
contraire très longs, et sa capacité d'arbitrer des choix en se basant sur de grands volumes de
données. Le VWAP (volume-weighted average price), un algorithme courant, joue par
exemple sur ces deux tableaux. En découpant les ordres d'achat au fil d'une journée de
trading, en fonction des moments où le volume d'échanges est le plus important, il permet au
trader de ne mobiliser des fonds qu'aux moments les plus pertinents, et de conserver ainsi un
maximum de liquidités.
Pour élaborer un algorithme de trading, les informaticiens spécialisés doivent d'abord
identifier précisément quel est le besoin du trader, et créer un modèle mathématique, composé
d'une ou plusieurs formules intégrant des paramètres variés, comme le prix en temps réel ou la
quantité de liquidités dont dispose le trader. "Pour être performant, un algorithme doit être en
mesure de lire les market data cash et dérivé et de les comparer à l'index", résume
Benjamin Bécar. Ce modèle permet de calculer quels sont les ordres qui doivent être passés,
par exemple, pour obtenir un nombre X d'actions d'une société Y à un prix Z.
Mais les programmes ne se basent pas uniquement sur des formules créées "dans l'absolu" : ils
tiennent aussi compte de l'historique des échanges des semaines ou des mois précédents. Au
fil des ans, les différentes places de marché ont commencé à publier leurs données complètes
au jour le jour, ce qui a permis aux chercheurs de monter des simulations précises du
fonctionnement d'un marché. A partir de 2002, par exemple, des chercheurs réunis au sein du
Platt (Penn-Lehman Automated Trading Project) ont mis au point une simulation
informatique émulant le fonctionnement du Nasdaq, qui a servi de base à plusieurs concours
mettant aux prises des algorithmes de trading, pour déterminer lequel était le plus efficace.
ESPIONNAGE INDUSTRIEL
Ces archives et ces simulations sont des outils précieux pour "tester" le fonctionnement d'un
nouvel algorithme sans prendre de risques sur un marché réel. On peut ainsi "voir" comment
se serait comporté un programme sur les derniers mois. Mais un historique d'échanges ne
permet jamais de tout prévoir, notamment lorsqu'un évènement d'actualité vient bousculer le
fonctionnement normal des échanges. "Certains algorithmes très sophistiqués sont capables
de réagir en fonction de très nombreuses variables, y compris des événements d'actualité.
Mais ils sont l'apanage des plus importants investisseurs, et leurs secrets de fonctionnement
sont jalousement gardés", explique Benjamin Bécar.
Effectivement, les investisseurs ne plaisantent pas avec la confidentialité de leurs logiciels :
en juillet 2009, le FBI a procédé à l'interpellation de Serge Aleynikov, un programmeur
salarié jusqu'en juin de Goldman Sachs, où il travaillait à l'accélération des transactions.
L'entreprise l'accuse d'avoir copié avant son départ de larges parties du code-source de
certains de ses algorithmes, et de vouloir les revendre à la concurrence. En avril, un employé
de la Société générale, soupçonné d'avoir dérobé des codes d'accès, a lui aussi été arrêté par le
FBI.
Pour les grandes firmes utilisant le trading algorithmique, le risque n'est pas tant que leurs
concurrents s'emparent de leurs technologies pour les utiliser eux-mêmes. A ce niveau de
complexité, il est difficile de mettre en pratique directement du code volé à un concurrent.
Mais le risque d'espionnage industriel est loin d'être nul : la rétro-ingénierie de leurs logiciels
permettrait surtout à des concurrents d'obtenir des informations précises sur la stratégie de
trading de l'entreprise.
La volatilité des marchés reste forte, les " robots traders " sont pointés du doigt
Mardi 4 octobre, les Bourses européennes ont ouvert en baisse, après avoir déjà chuté lundi
Les craintes d'une faillite incontrôlée de la Grèce, entrecoupées de maigres espoirs, font
osciller les marchés depuis plusieurs mois. Comme ce lundi 3 octobre le CAC 40, en
chute de 23 % depuis janvier, a encore perdu 1,85 %.
Mais à Wall Street, à la City de Londres ou à la Bourse de Paris l'ampleur et la rapidité
des mouvements intriguent. " En moins d'une heure, lundi, l'indice S & P 500 à New York
a varié de 1,50 % ! ", note Gregori Volokhine, chez Meeschaert à New York.
Aux yeux des opérateurs, la volatilité est trop extrême. L'indice " Vix " - on l'appelle l'"
indice de la peur " - qui mesure les variations de cours attendues affiche des niveaux très
élevés : entre 50 et 40 points en Europe et aux Etats-Unis depuis le début de l'été contre
15 ou 20 en temps " normal ".
Si les menaces sont réelles, les experts s'interrogent : les " robots traders " ne jouent-ils
pas un rôle déstabilisateur ? Ces machines qui passent des ordres de Bourse n'ont-elles
pas mis les marchés hors de contrôle ?
La place prise par les automates depuis la fin des années 1990 a, de fait, de quoi effrayer.
Aujourd'hui, environ 70 % des volumes échangés en Bourse aux Etats-Unis, et plus de 50
% en Europe, sont l'oeuvre de machines et non plus d'êtres humains. A l'origine, il est
question d'efficacité et d'économies. " Un robot ne réclame pas de bonus ", ces primes
exorbitantes versées aux petits génies de la finance, plaisante Victor Lebreton, enseignant
chercheur à l'Ecole centrale d'électronique (ECE).
Mais les machines ne se contentent pas d'exécuter des ordres à moindre coût. Certaines
sont dotées d'une intelligence artificielle, explique M. Lebreton. Les mathématiciens issus
des meilleures universités - Harvard, Columbia, Polytechnique ou Centrale Paris -,
programment les ordinateurs en intégrant des paramètres sur l'évolution de cours et de
statistiques pour déclencher automatiquement l'achat ou la vente de titres.
Ces systèmes, employés par des fonds spéculatifs comme Renaissance Technologies,
permettent souvent de gagner - beaucoup - d'argent. Mais ils amplifient les tendances de
marché. Pire, l'action d'un robot déclenche parfois celle d'un autre avec un risque
d'emballement. Ainsi, une baisse de 15 % du titre Société générale peut se transformer en
un plongeon de 23 %...
Plus troublant encore, est le rôle du trading à haute fréquence (THF) ou " flash trading ".
Ces robots ultrarapides sont apparus au début des années 2000 sur les marchés américains
et en Europe vers 2007. Aujourd'hui le THF représenterait 40 % du marché européen,
selon l'opérateur Euronext, et 56 % aux Etats-Unis.
Ces automates surpuissants exécutent des ordres en un battement de cils. A Paris, le
régulateur a ainsi recensé plus de 700 ordres passés en une seconde, dont 200 d'un même
acteur !
1 / 6 100%
La catégorie de ce document est-elle correcte?
Merci pour votre participation!

Faire une suggestion

Avez-vous trouvé des erreurs dans linterface ou les textes ? Ou savez-vous comment améliorer linterface utilisateur de StudyLib ? Nhésitez pas à envoyer vos suggestions. Cest très important pour nous !