"Algo-trading" : les Bourses sous l'emprise des machines ? Dossier publié le 18.06.10 Le mini-krach du 6 mai 2010 à Wall Street a braqué les projecteurs sur le trading algorithmique ou "algo-trading", qui désigne les échanges d'actions automatisés. Cette pratique représenterait jusqu'à 70 % des échanges aux Etats-Unis et connaît une forte croissance en Europe. Si elle a des effets positifs sur la liquidité du marché et la baisse des prix des ordres, la vitesse vertigineuse des opérations qu'elle permet (quelques millisecondes) interroge. Qui a désormais la maîtrise des mouvements boursiers ? Y a-t-il, là aussi, un besoin nouveau de régulation ? Le Monde.fr propose à ses abonnés un point complet sur ce nouveau phénomène. L'essor vertigineux du trading algorithmique Publié le 18.06.10 | 19h11 Qu'est-il donc arrivé le jeudi 6 mai 2010 à la Bourse de New York ? En quelques minutes, l'indice phare Dow Jones a chuté de plus de 9 %. Un vent de panique s'est emparé des marchés et 1 000 milliards de dollars se sont envolés. Si plusieurs causes sont évoquées, l'une d'elles, l'algotrading, est mise en avant. Peu connue, cette technique boursière a pourtant assuré en 2009 70 % du volume des 10 milliards d'échanges quotidiens réalisés sur les différentes places boursières aux Etats-Unis, selon Tabb Group, une société américaine de conseil et de recherche sur la finance. L'algotrading, contraction de "trading algorithmique" (aussi appelé "high frequency trading", "trading à haute fréquence") ne cesse de gagner en importance. Cette pratique repose sur "des machines capables d'exécuter des ordres à toute vitesse et de tirer ainsi profit des écarts de prix minimes sur les valeurs […]. Ces outils d'un nouveau genre arbitrent, fractionnent, achètent et vendent. Leur dieu est le même que celui du trader à tête d'homme : le temps. A la différence que leur échelle de temps est le millième de seconde et que, en guise de cerveau, ils disposent de formules algorithmiques" (Mathieu Rosemain, Les Echos, 14 avril 2010). Le phénomène est à relier au "turbo-capitalisme" identifié par le sociologue Paul Virilio dans une interview à Libération (25 mai 2010) devenu, pour certains, emblématique de cette "finance folle" qui a gagné la planète. Son histoire est récente. Né aux Etats-Unis à la suite de l'informatisation des ordres sur les marchés financiers dans les années 1970 (voir la chronologie), le trading algorithmique a pris son essor au début des années 2000, quand la décimalisation a modifié la taille des ordres en fractionnant leur valeur, passée d'un minimum de 1/16 de dollar (0,062 5 dollar) à 0,01 dollar. Cela a changé la microstructure du marché en créant des différences plus petites entre prix offerts et prix proposés, favorables aux opérations automatisées. Une décennie plus tard, le boom de l'algotrading est spectaculaire. Aux Etats-Unis, plus de 75 % des institutions financières et 95 % des traders institutionnels utilisent des stratégies de trading algorithmique. Selon la société Celent, le trading à haute fréquence constitue près de 42 % des volumes d'actions traités et atteindra 54 % au dernier trimestre 2010. Les plus grosses sociétés américaines de trading algorithmique, comme Getco ou Citadel, traitent parfois de 10 à 20 % des actions de grandes sociétés cotées. L'Europe est "en retard" en la matière : l'algotrading y est responsable d'un ordre sur quatre, selon le cabinet d'études américain Aite Group. Mais il pourrait monter à 45 % des volumes quotidiens dans deux ans. Celent prévoit surtout un développement en Asie, avec la modernisation notamment de la Bourse de Tokyo. Mais d'autres régions du monde s'intéressent à cette technique, comme l'Amérique latine, attirées par la promesse de plus de liquidité, qui rend les investissements moins coûteux et plus simples. Les enjeux financiers sont considérables : 2 % des 20 000 firmes de trading américaines utilisent ces techniques et ont réalisé en 2008 un bénéfice de 21,8 milliards de dollars. D'autant qu'une partie des échanges se fait grâce à l'essor des "dark pools". Ces plates-formes électroniques opaques capteraient pas moins de 4,1 % des volumes échangés en valeur en Europe, selon Tabb Group. Les échanges opaques pourraient représenter 7 % des échanges de titres en 2010 et bénéficieraient de l'essor et de la sophistication croissante de l'algotrading. Les enjeux sont donc considérables et le ticket d'entrée ne cesse de s'élever. Les teneurs du marché comme Getco, les fonds spéculatifs et les Bourses elles-mêmes se livrent à une bataille technologique coûtant des centaines de millions de dollars d'investissements – pour gagner les quelques fractions de seconde qui leur permettront d'empocher des bénéfices juteux. Les opérateurs boursiers ont aussi compris leur intérêt. Progressivement, ils proposent à leurs membres de louer des serveurs à quelques mètres, voire quelques centimètres du cœur des échanges électroniques. C'est ce qu'on appelle la "co-location". On estime qu'à chaque centaine de miles (160 kilomètres) supplémentaire de distance du lieu de l'opération, 1 millième de seconde est ajoutée à celle-ci : ce qui peut faire perdre une opération ou gagner des millions. Une fluidité accrue du marché Publié le 18.06.10 | 19h11 Les partisans de l'algotrading mettent en avant deux arguments en faveur de cette technique boursière : Les places financières les plus automatisées, comme le Nasdaq (marché des valeurs technologiques aux Etats-Unis), ont gagné des parts de marché par rapport à celles qui le sont moins, comme le New York Stock Exchange (NYSE). Les économies d'échelle ont contribué à diminuer les commissions sur les opérations et contribué aussi à la consolidation des places boursières, c'est-à-dire au rapprochement entre les Bourses. Par ailleurs, un des bénéfices évidents pour les investisseurs est "la réduction des spreads [écarts] – différence entre le prix auquel un acheteur est désireux de payer un instrument financier et le prix auquel un vendeur est prêt à le vendre – ainsi qu'un accroissement de la liquidité" (Chicago Fed Letter, mars 2010, en PDF). La liquidité améliorée du marché boursier signifie qu'il est plus facile d'y échanger des valeurs, ce qui le rend plus attractif pour les investisseurs. C'est en tout cas l'argument avancé par les traders à haute fréquence. Ces opérations n'entraînent pas non plus une volatilité accrue du marché, c'est-à-dire une amplification de la fluctuation des cours. De même, selon la Réserve fédérale américaine (Fed), elles n'augmentent pas l'instabilité des devises. Mais comme le souligne Yann-Eric Le Boulch, président de CM-CIC Securities, l'algotrading aboutit aussi à une fragmentation de la liquidité en multipliant les ordres de plus en plus fins, ce qui accroît les coûts de négociation et les frais informatiques. Les intervenants traditionnels peuvent y être perdants, même si la concurrence entre les Bourses fait baisser les prix. Les algorithmes, "révolution industrielle" du trading Publié le 18.06.10 Derrière l'expression "trading algorithmique" se cachent des réalités très différentes, de la plus simple à la plus complexe. Les programmes utilisés par les courtiers se divisent en deux catégories principales : les logiciels d'aide à la décision, et ceux dotés d'une intelligence artificielle élaborée, qui sont capables de faire des choix en fonction d'une multitude de critères, comme le ferait un être humain. Ces derniers, réservés aux très gros acteurs du marché comme le Crédit suisse ou Goldman Sachs, ne représentent pas la "norme" des logiciels d'algo-trading. La plupart de ces programmes remplissent surtout des fonctions répétitives ou demandant une très grande précision. "Un algorithme typique, c'est un algorithme de pourcentage de volume : on peut par exemple lui demander d'acheter 1 % de toutes les actions disponibles sur le marché d'une entreprise", détaille Benjamin Bécar, chef de produit trading algorithmique pour Sungard, qui édite des logiciels clés en main ou sur mesure. "La plupart de nos clients souhaitent avant tout simplifier leur travail au quotidien ; l'arrivée de l'informatique dans les salles de marché a permis d'automatiser un grand nombre de tâches, tout comme la révolution industrielle a mécanisé les chaînes de production." Incidemment, cette automatisation permet aussi aux entreprises de limiter le nombre de salariés dont elles ont besoin. MODÈLES MATHÉMATIQUES La clef de l'efficacité des algorithmes repose sur deux facteurs : la précision du programme, qui est capable d'effectuer de nombreuses opérations dans des délais très rapprochés, ou au contraire très longs, et sa capacité d'arbitrer des choix en se basant sur de grands volumes de données. Le VWAP (volume-weighted average price), un algorithme courant, joue par exemple sur ces deux tableaux. En découpant les ordres d'achat au fil d'une journée de trading, en fonction des moments où le volume d'échanges est le plus important, il permet au trader de ne mobiliser des fonds qu'aux moments les plus pertinents, et de conserver ainsi un maximum de liquidités. Pour élaborer un algorithme de trading, les informaticiens spécialisés doivent d'abord identifier précisément quel est le besoin du trader, et créer un modèle mathématique, composé d'une ou plusieurs formules intégrant des paramètres variés, comme le prix en temps réel ou la quantité de liquidités dont dispose le trader. "Pour être performant, un algorithme doit être en mesure de lire les market data – cash et dérivé – et de les comparer à l'index", résume Benjamin Bécar. Ce modèle permet de calculer quels sont les ordres qui doivent être passés, par exemple, pour obtenir un nombre X d'actions d'une société Y à un prix Z. Mais les programmes ne se basent pas uniquement sur des formules créées "dans l'absolu" : ils tiennent aussi compte de l'historique des échanges des semaines ou des mois précédents. Au fil des ans, les différentes places de marché ont commencé à publier leurs données complètes au jour le jour, ce qui a permis aux chercheurs de monter des simulations précises du fonctionnement d'un marché. A partir de 2002, par exemple, des chercheurs réunis au sein du Platt (Penn-Lehman Automated Trading Project) ont mis au point une simulation informatique émulant le fonctionnement du Nasdaq, qui a servi de base à plusieurs concours mettant aux prises des algorithmes de trading, pour déterminer lequel était le plus efficace. ESPIONNAGE INDUSTRIEL Ces archives et ces simulations sont des outils précieux pour "tester" le fonctionnement d'un nouvel algorithme sans prendre de risques sur un marché réel. On peut ainsi "voir" comment se serait comporté un programme sur les derniers mois. Mais un historique d'échanges ne permet jamais de tout prévoir, notamment lorsqu'un évènement d'actualité vient bousculer le fonctionnement normal des échanges. "Certains algorithmes très sophistiqués sont capables de réagir en fonction de très nombreuses variables, y compris des événements d'actualité. Mais ils sont l'apanage des plus importants investisseurs, et leurs secrets de fonctionnement sont jalousement gardés", explique Benjamin Bécar. Effectivement, les investisseurs ne plaisantent pas avec la confidentialité de leurs logiciels : en juillet 2009, le FBI a procédé à l'interpellation de Serge Aleynikov, un programmeur salarié jusqu'en juin de Goldman Sachs, où il travaillait à l'accélération des transactions. L'entreprise l'accuse d'avoir copié avant son départ de larges parties du code-source de certains de ses algorithmes, et de vouloir les revendre à la concurrence. En avril, un employé de la Société générale, soupçonné d'avoir dérobé des codes d'accès, a lui aussi été arrêté par le FBI. Pour les grandes firmes utilisant le trading algorithmique, le risque n'est pas tant que leurs concurrents s'emparent de leurs technologies pour les utiliser eux-mêmes. A ce niveau de complexité, il est difficile de mettre en pratique directement du code volé à un concurrent. Mais le risque d'espionnage industriel est loin d'être nul : la rétro-ingénierie de leurs logiciels permettrait surtout à des concurrents d'obtenir des informations précises sur la stratégie de trading de l'entreprise. La volatilité des marchés reste forte, les " robots traders " sont pointés du doigt Mardi 4 octobre, les Bourses européennes ont ouvert en baisse, après avoir déjà chuté lundi Les craintes d'une faillite incontrôlée de la Grèce, entrecoupées de maigres espoirs, font osciller les marchés depuis plusieurs mois. Comme ce lundi 3 octobre où le CAC 40, en chute de 23 % depuis janvier, a encore perdu 1,85 %. Mais à Wall Street, à la City de Londres ou à la Bourse de Paris l'ampleur et la rapidité des mouvements intriguent. " En moins d'une heure, lundi, l'indice S & P 500 à New York a varié de 1,50 % ! ", note Gregori Volokhine, chez Meeschaert à New York. Aux yeux des opérateurs, la volatilité est trop extrême. L'indice " Vix " - on l'appelle l'" indice de la peur " - qui mesure les variations de cours attendues affiche des niveaux très élevés : entre 50 et 40 points en Europe et aux Etats-Unis depuis le début de l'été contre 15 ou 20 en temps " normal ". Si les menaces sont réelles, les experts s'interrogent : les " robots traders " ne jouent-ils pas un rôle déstabilisateur ? Ces machines qui passent des ordres de Bourse n'ont-elles pas mis les marchés hors de contrôle ? La place prise par les automates depuis la fin des années 1990 a, de fait, de quoi effrayer. Aujourd'hui, environ 70 % des volumes échangés en Bourse aux Etats-Unis, et plus de 50 % en Europe, sont l'oeuvre de machines et non plus d'êtres humains. A l'origine, il est question d'efficacité et d'économies. " Un robot ne réclame pas de bonus ", ces primes exorbitantes versées aux petits génies de la finance, plaisante Victor Lebreton, enseignant chercheur à l'Ecole centrale d'électronique (ECE). Mais les machines ne se contentent pas d'exécuter des ordres à moindre coût. Certaines sont dotées d'une intelligence artificielle, explique M. Lebreton. Les mathématiciens issus des meilleures universités - Harvard, Columbia, Polytechnique ou Centrale Paris -, programment les ordinateurs en intégrant des paramètres sur l'évolution de cours et de statistiques pour déclencher automatiquement l'achat ou la vente de titres. Ces systèmes, employés par des fonds spéculatifs comme Renaissance Technologies, permettent souvent de gagner - beaucoup - d'argent. Mais ils amplifient les tendances de marché. Pire, l'action d'un robot déclenche parfois celle d'un autre avec un risque d'emballement. Ainsi, une baisse de 15 % du titre Société générale peut se transformer en un plongeon de 23 %... Plus troublant encore, est le rôle du trading à haute fréquence (THF) ou " flash trading ". Ces robots ultrarapides sont apparus au début des années 2000 sur les marchés américains et en Europe vers 2007. Aujourd'hui le THF représenterait 40 % du marché européen, selon l'opérateur Euronext, et 56 % aux Etats-Unis. Ces automates surpuissants exécutent des ordres en un battement de cils. A Paris, le régulateur a ainsi recensé plus de 700 ordres passés en une seconde, dont 200 d'un même acteur ! Pour ces opérateurs, la course à la vitesse est une des clés de la réussite : elle permet de détecter avant les autres des " aberrations " de prix pour engranger de l'argent. Par exemple, si un même titre est coté 100 dollars (75 euros) à New York et 100 euros à Paris, le trader à haute fréquence le détectera, vendra le titre surévalué et achètera l'autre, jusqu'à l'ajustement du prix. En Europe, le THF a profité de la libéralisation des plateformes boursières - ces opérateurs qui exécutent les ordres - depuis 2007. Désormais, une même action peut s'échanger sur diverses places. D'un côté, ces machines infernales contribuent donc à rendre le marché plus " efficient " en corrigeant certaines anomalies et en améliorant la fluidité. Mais la vitesse brouille les pistes, notamment parce que la plupart des ordres sont annulés avant même d'être exécutés, les paramètres ayant évolué entre-temps. Au total, selon l'Autorité des marchés financiers (AMF) un ordre " flash " sur vingt-quatre est supprimé ou modifié avant terme. " Cette pratique peut parfois être mal intentionnée et donner lieu à des manipulations de cours ", alerte Arnaud Oseredczuk, secrétaire général adjoint à l'AMF : un acteur fait croire qu'il veut acheter une action à un prix élevé et profite ensuite de la variation artificielle de cours qu'il a lui même créée. Surtout, ces technologies prennent de vitesse les régulateurs. Il a fallu six mois au gendarme de la Bourse aux Etats-Unis pour décortiquer les ordres passés, le 6 mai 2010, et identifier l'origine du krach éclair survenu à Wall Street. Enfin, " il y a aussi un risque de perte de confiance et d'éviction des investisseurs particuliers " qui peuvent penser que le marché n'est plus à leur portée, craint M. Oseredczuk. Reste que si les robots effraient, ils ne sont peut-être pas plus redoutables que certains traders. Une étude réalisée en Suisse a comparé l'attitude de 28 traders et 24 psychopathes lors d'un jeu informatique. Bilan : les as de la finance ont eu un comportement bien plus dangereux que les fous à lier... Claire Gatinois. © Le Monde