RTS n° 53 octobre-décembre 1996 Gestion du trafic Application des mélanges de lois de probabilité à la reconnaissance de régimes de trafic routier François Couton Medhi Danech-Pajouh INRETS-DART 2 avenue du Général Malleret-Joinville 94114 Arcueil cedex en collaboration avec Michel Broniatowski Université de Reims Nous tenons à remercier deux spécialistes de l'analyse des données, Messieurs Edwin Diday et Yves Lechevallier, chercheurs à l'INRIA et enseignants à l'Université Paris-Dauphine, pour les précieux conseils qu'ils ont bien voulu nous prodiguer lors de la réalisation de cette étude. La compréhension d'un phénomène et de son évolution, à partir de séries temporelles, est un domaine de recherche actif. Des spécialistes de disciplines scientifiques très variées s'intéressent à ce sujet, en particulier les probabilistes (calcul stochastique) et les statisticiens (estimation, test, prévision). De même, des ingénieurs ont travaillé à la mise au point de méthodes diverses dans leurs domaines, souvent sans fondements théoriques, ni lien les unes avec les autres. Dans cet article, nous nous intéressons à la notion de régime de trafic. Ce concept est souvent utilisé par les opérateurs de réseaux routiers pour distinguer les conditions de circulation. Un régime correspond à un niveau d'écoulement ou de fluidité du trafic. Par exemple, en France, le dispositif Bison futé utilise trois régimes identifiés par des couleurs pour le public et par des vitesses pour les gestionnaires de trafic : régime fluide ou vert, si la vitesse est supérieure à 50 km/h, régime difficile ou orange, si la vitesse se situe entre 20 et 50 km/h, régime encombré ou rouge, si la vitesse est inférieure à 20 km/h. Par ailleurs, la Metropolitan Expressway Public Corporation de Tokyo a défini des régimes de trafic similaires (plus de 40 km/h, entre 20 et 40 km/h, moins de 20 km/h) [Kaneko et al., 1995]. Notre objectif est de déterminer les conditions de l'application du modèle de mélange de lois de probabilité à la reconnaissance de régimes de trafic routier. Nous identifions chaque composante du mélange à un régime de trafic. L'application du modèle des mélanges de lois de probabilité aux mesures de trafic est une démarche complètement nouvelle. Elle consiste à reconnaître les différents régimes de trafic sur une section de route et à étudier leur évolution au cours du temps. Nous nous sommes en particulier intéressés au problème de la transition d'un régime de trafic à un autre. Dans une première partie de l'article, les aspects mathématiques et théoriques du problème sont abordés. Nous présentons tout d'abord le modèle statistique des mélanges et quelques exemples, puis un algorithme stochastique permettant d'estimer les valeurs des paramètres d'un mélange, l'algorithme SEM. 1 Ensuite, nous proposons une méthodologie d'analyse du trafic routier, fondée sur ce modèle statistique, et reposant sur un découpage de la journée en périodes à horaire fixe. Cette méthode permet d'une part de reconnaître les régimes de trafic routier et d'autre part de décrire leur évolution au cours du temps en estimant sur chaque période les paramètres du mélange. Pour finir, nous exposons les résultats de l'application de cette méthode à un indicateur d'écoulement mesuré sur le boulevard périphérique parisien, au niveau des portes d'Italie et de Gentilly. Approche théorique Introduction Un des plus vieux problèmes de la statistique inférentielle est d'estimer une distribution de probabilité à partir d'un échantillon observé. Bien que de nombreux phénomènes soient modélisés par des lois de probabilité classiques, il existe des cas où ce cadre théorique n'est pas applicable. Deux approches sont alors possibles, l'approche non-paramétrique ou l'approche paramétrique améliorée. Dans cette étude, nous privilégions la seconde, avec l'étude des mélanges de distributions appliqués au trafic routier. Nous faisons l'hypothèse que la loi d'une variable aléatoire de données issues de mesures du trafic routier peut s'interpréter comme une combinaison convexe de plusieurs lois de probabilité. Pour reconnaître ces mélanges de lois, nous allons utiliser l'algorithme SEM, décrit dans la suite de l'article. En pratique, on prend conscience de ce phénomène en considérant un histogramme de débits à plusieurs modes. L'avantage de cette approche est de donner une description plus fidèle de la réalité d'un phénomène, sans empêcher cependant sa modélisation mathématique et sa résolution informatique. Généralités sur les mélanges de lois Soit un échantillon E = ( x1 …, x N ) d'une variable aléatoire X à valeurs dans R d dont la loi est : K F = ∑ p k ⋅ Fk k =1 où les Fk sont des mesures de probabilité sur qu'un point de l'échantillon suive la loi R d de paramètres θ k , les Pk Fk , avec 0 < p k < 1 et K ∑p k =1 k sont les probabilités = 1. Le problème consiste à estimer le nombre K de composantes, les paramètres inconnus Pk , ainsi que les lois inconnues Fk . On peut interpréter les Fk comme une base de l'information. Une hypothèse de travail est que le mélange de lois appartienne à une famille de mélanges identifiables (si deux mélanges donnent exactement la même loi pour l'échantillon, alors les paramètres de ces mélanges sont égaux). 2 Dans cette étude, on ne s'intéresse qu'au cas où les Fk appartiennent à la même famille paramétrique de lois de probabilité, admettant des densités : f k ( x) = f ( x θ k ) ( ) Par exemple, dans le cas des lois normales, θ k = µ k ,σ k représente les paramètres moyennevariance ; nous ne faisons donc aucune hypothèse d'égalité des variances dans les diverses composantes. Si Θ = {θ 1 , …θ k } , alors p = { p1 ,… p k } peut être considéré, dans une optique bayesienne, comme une loi de probabilité a priori sur Θ, l'espérance de f (x θ ) p k = Pr {θ k } , et la densité f ( x) est alors par rapport à la loi p : f ( x ) = E f ( x θ ) p Une généralisation immédiate est le mélange continu de lois. Si d'une loi p, on appelle mélange de la loi Fθ , de densité θ ∈ℜ p est probabilisable, muni f ( x θ ) , par p, la loi de densité : f ( x ) = ∫ f ( x θ ) ⋅ dp (θ ) Θ Questions posées par l'identification d'un mélange Ces questions sont multiples : – choix de la famille de loi des composantes, – détermination du nombre de composantes du mélange — il est impossible de connaître simplement le nombre de composantes du mélange ; par exemple, la n-modalité du noyau d'un histogramme ne permet pas d'affirmer que le mélange est à n composantes, – estimation des paramètres d'un mélange — il faut d'une part estimer les probabilités mélangeantes ( p1 …, p k ) , d'autre part les paramètres (θ 1 …,θ k ) des K lois mélangées. L'algorithme SEM Présentation du problème Pour estimer les paramètres du mélange, nous allons utiliser la méthode du maximum de vraisemblance. Nous nous trouvons dans le cas où l'information est minimale, seul l'échantillon ( x1 …, x N ) de la variable aléatoire X est disponible. Nous imposons d'abord le choix d'une 3 famille de lois 1 (gaussiennes). La vraisemblance V et la log-vraisemblance L sont, dans le cas d'observations indépendantes : V ( x1 …, x N ,θ 1 …,θ N , p1 …, p K ) = ∏ ∑ p k ⋅ f ( x i ,θ k ) i =1 k =1, K N K L ( x1 …, x N ,θ 1 …,θ N , p1 …, p K ) = ∑ ln ∑ p k ⋅ f ( x i ,θ k ) i =1 k =1 N Cette méthode consiste à prendre comme estimation des paramètres, les valeurs de Θ = {θ 1 …,θ k } { } et de p = p1 …, p k qui maximisent la vraisemblance. Intuitivement, puisque V représente une densité de probabilité, cela revient à supposer que l'événement qui s'est produit était le plus probable. Le problème de la vraisemblance non bornée Un des défauts de la méthode du maximum de vraisemblance dans le modèle des mélanges de lois de probabilité est que la fonction de vraisemblance associée n'est pas toujours bornée. Si on ( ) considère un échantillon x1 …, x n provenant d'un mélange de plusieurs lois normales unidimensionnelles et si l'une des composantes ne contient qu'un seul point, alors la vraisemblance est non bornée. De cette façon, tout point de l'échantillon peut provoquer un maximum infini. Une hypothèse naturelle est d'imposer à toutes les composantes la même variance (homoscédasticité), mais c'est une contrainte forte qui n'est pas vérifiable dans le cadre de notre étude. Cependant, en pratique, ces points singuliers de l'espace des paramètres n'apparaissent presque jamais. On peut alors passer outre les hypothèses précédentes [Celeux et al., 1995]. Les algorithmes de type EM L'algorithme EM, pour estimation-maximisation, de Dempster, Laird et Rubin [1977] est souvent utilisé pour estimer les paramètres d'un mélange de lois de probabilité par la méthode du maximum de vraisemblance. Cependant, dans certaines situations, cette approche n'est pas applicable, du fait de la difficulté de l'étape d'estimation du maximum de la fonction de vraisemblance. Pour remédier à ce problème, des versions stochastiques de EM ont été proposées. En particulier, SEM de Broniatowski, Celeux et Diebolt [1983], où l'étape d'estimation est précédée par le tirage d'une variable aléatoire multinomiale ou bien MCEM fondée sur le principe d'intégration par les méthodes de Monte-Carlo. Une approche alternative a été élaborée récemment. Cet algorithme, nommé SAEM, est une adaptation de SEM à la méthode du recuit-simulé [Press et Teukolsky, 1992]. Des résultats théoriques ont été démontrés pour certaines familles exponentielles. On consultera à ce propos l'article de Wu [1983]. Celeux, Chauveau et Diebolt conseillent dans une publication récente [Celeux et al., 1995] d'utiliser l'algorithme SEM car il se révèle le meilleur outil d'exploration des données et de reconnaissance 1 Dans cette étude nous travaillons uniquement sur des mélanges de lois de Laplace-Gauss, car les calculs en sont simplifiés et les résultats obtenus sont satisfaisants. 4 des mélanges — que les composantes soient intriquées ou séparées. De plus, les régions intéressantes de l'espace des paramètres peuvent être déterminées, en se reposant sur les résultats de SEM, ou en se fondant sur des considérations issues de l'expérience. C'est pourquoi nous avons travaillé avec l'algorithme SEM pour analyser les données réelles de trafic routier. Déroulement de l'algorithme SEM • Initialisation : au départ, on fixe K majorant supposé du nombre de composantes du mélange ; puis, en chaque point xi de l'échantillon, on génère aléatoirement les K probabilités initiales d'appartenance, ou affectation, à l'une des composantes ; elles sont notées 0<t 0 k t k0 ( x i ) , avec K ( x i ) < 1 et ∑ t k0 ( x i ) = 1. k =1 Ces probabilités forment un vecteur de dimension K, noté t • Étape stochastique : à l'itération n, pour chaque point la variable aléatoire multinomiale t n ( xi ) . Les coordonnées de z kn ( x i ) = 1 . z n ( xi ) z n ( xi ) 2 0 ( xi ) . x i de l'échantillon, on simule un tirage de de dimension K, ayant pour paramètre le vecteur sont toutes nulles, sauf pour une valeur de k où ( x i ) = {z kn ( x i ) ; k = 1,…K }. Les réalisations z n ( x i ) {C1n ,…C Kn } de l'échantillon avec C kn = {x i , si z kn ( x i ) = 1}. On note z n Si pour un certain k, définissent une partition Card (C kn ) = 0 , l'algorithme est réinitialisé avec K − 1 composantes. • Étape de maximisation : on calcule les estimations du maximum de vraisemblance Φ k ,n +1 = ( p k ,n +1 ,θ k ,n+1 ) des paramètres du mélange sur la base des sous-échantillons C kn ; on a 1 N n n +1 pk = ∑ z k ( xi ) . N i =1 L'estimation des θ k ,n+1 dépend de la famille paramétrée, posée a priori, des composantes du mélange. Dans le cas où l'espérance m k et l'écart type s k sk sont les constituants des paramètres (mélange de gaussiennes, de lois de Poisson, d'exponentielles…), les estimations à l'itération n sont : 2 z n ( x i ) est appelée variable cachée du modèle par certains auteurs. 5 N m kn +1 = ∑z i =1 n k N ( xi ) ⋅ xi N ∑z (x ) n k i =1 σ k2,n+1 = et ∑ z kn ( x i ) ⋅ ( x i − m kn+1 ) 2 i =1 N ∑z (x ) i i =1 ( n k i ) • Étape d'estimation : à partir des Φ k ,n +1 = p k ,n +1 ,θ k ,n +1 , on calcule le vecteur des probabilités a posteriori d'appartenance à une composante, dont les K coordonnées sont déterminées analytiquement par la formule : t n +1 k ( xi ) = p kn +1 ⋅ f ( x i ,θ kn+1 ) K ∑p j =1 n +1 j ⋅ f ( x i ,θ nj +1 ) Mise en œuvre de SEM • Comme on ne sait pas quels sont les critères de stationnarité de la suite des paramètres, on fait tourner l'algorithme suffisamment longtemps pour être assuré d'avoir atteint cet état stationnaire (phase d'apprentissage). On exécute ensuite r itérations, ce qui permet de calculer la moyenne et la variance empirique de chaque paramètre (phase d'exploitation). • Si la taille de l'échantillon est trop faible (empiriquement N K ≤ 20 ), et que les composantes du mélange sont peu séparées, l'algorithme SEM peut sous-estimer K. Or le choix de K lors de la phase d'initialisation est une étape essentielle de la méthode ; il convient donc de surestimer K, plutôt que le sous-estimer, puisque seule une surestimation peut être décelée par SEM (voir infra). • Si N est très grand — plusieurs milliers d'observations — la perturbation stochastique perd de son influence. • Si le bon nombre de composantes K est connu, et si celles-ci sont bien séparées, l'algorithme EM est préférable à SEM, en raison de sa simplicité. Dans tous les autres cas, SEM donne de meilleurs résultats. Dans le cas d'une surestimation de la valeur de K fournie lors de l'initialisation de l'algorithme, SEM restitue certaines classes vides ; il faut alors relancer l'algorithme avec un nombre de classes plus faible. Caractéristiques de SEM Les tirages aléatoires empêchent la suite des paramètres estimés {θ } , générée par SEM, de converger vers le premier point stationnaire rencontré de la vraisemblance. À chaque itération, il y a une probabilité non nulle que la nouvelle estimation des paramètres n'augmente pas la vraisemblance. C'est pourquoi SEM peut éviter les maxima locaux ou les cols. n La suite des paramètres estimés {θ } générée par SEM ne peut alors converger ponctuellement. Cependant, sous certaines hypothèses, il est possible de montrer que l'algorithme converge en loi. n 6 Application aux données de trafic routier Nous allons présenter tout d'abord une méthodologie d'analyse de trafic routier fondée sur le modèle des mélanges de lois de probabilité. Puis nous détaillerons la démarche exploratoire, les résultats empiriques obtenus et les difficultés rencontrées. Dans de nombreuses études sur les mélanges de lois, l'objectif est la validation d'un algorithme de reconnaissance de mélanges de lois de probabilité à partir de données issues de mélanges simulés. Notre démarche est différente, puisque nous cherchons à modéliser le comportement du trafic routier en nous appuyant sur le modèle des mélanges. Pour mener à bien cette étude nous faisons plusieurs hypothèses, qui sont toutes compatibles avec les connaissances actuelles sur le trafic routier sans cependant en rendre en compte dans tous leurs aspects. On suppose par exemple que : – l'état du trafic à l'instant t dépend de l'état du trafic dans le passé, – sur la période d'observation, la densité de la loi de probabilité du trafic ne se modifie pas. La première hypothèse soulève le problème de la dépendance par rapport au temps des données utilisées. En théorie, on peut estimer des statistiques sur une population, seulement si l'échantillon a été tiré selon des règles rigoureuses, qui en assurent la représentativité. Le mode de tirage le plus simple, pour parvenir à ce résultat, est l'échantillonnage aléatoire simple correspondant à des tirages équiprobables et indépendants les uns des autres. Sous cette condition, les observations deviennent des réalisations d'une variable aléatoire abstraite du phénomène considéré. Les données brutes que nous traitons ne vérifient pas cette exigence. Par ailleurs, on ne sait démontrer la convergence de SEM que dans quelques cas où les observations sont indépendantes, ce qui n'est pas forcément le cas des données de trafic. Cependant les résultats de l'analyse que nous avons effectuée en passant outre à cette restriction sont satisfaisants. Analyse du trafic routier à partir de mélanges de lois de probabilité Nous supposons d'une part que le trafic est composé de régimes stables, c'est-à-dire tels que les paramètres des composantes du mélange varient faiblement au cours du temps. Comme nous travaillons sur des mélanges de gaussiennes, il en découle que la moyenne et la variance des composantes sont stables. Il apparaît d'autre part évident que les conditions de circulation évoluent au cours de la journée ; ces modifications se reflètent essentiellement sur les variations des poids associés aux composantes stables indiquant les qualités de trafic. Pour que ces modifications de poids apparaissent, nous découpons la journée étudiée en périodes (ou tranches) à horaire fixe. Sur chacune d'entre elles, nous évaluons les paramètres du mélange. Il est conseillé d'avoir au moins cinq cents mesures de trafic par période. Hypothèses du modèle • L'état du trafic à l'instant t dépend de l'état du trafic dans le passé. • Une variable aléatoire issue de mesures de trafic routier est de loi mélangée de lois normales. • L'impact des variables exogènes (météo, grands départs, accidents…) est reflété par les variables endogènes (débit, taux d'occupation, nombre de poids lourds…). 7 Cette dernière hypothèse ne signifie pas que le modèle soit entièrement autoprojectif ; en effet, son évolution future est déterminée au moins partiellement par les variables exogènes futures. Nombre de composantes du modèle On applique l'algorithme SEM aux données historiques en faisant varier le nombre de composantes en entrée. Le nombre recommandé pour celles-ci est compris entre trois et cinq. À l'aide des tests de Kolmogorov-Smirnov et de Mann-Whitney, on détermine le nombre K de composantes donnant les meilleurs résultats. Il est également envisageable de prendre comme référence le nombre de régimes de trafic que le gestionnaire considère, par expérience, comme adapté à la section de route en question, et utilise comme tel. Reconnaissance des mélanges par période Pour chaque période, on lance l'algorithme SEM avec K composantes en entrée. Le nombre d'itérations peut aller jusqu'à mille et l'on sauvegarde la solution toutes les cinquante itérations. On conserve le mélange qui donne les meilleurs résultats aux tests précités. Pour la cohérence de l'analyse, il faut sélectionner un mélange ayant des composantes proches, en moyenne et variance, de celles des périodes précédentes et ultérieures. Toutefois, si l'on part dans SEM d'une solution au hasard, les solutions touvées peuvent ne pas respecter cette hypothèse de stabilité. Il est donc recommandé d'imposer comme conditions initiales un mélange équiprobable, avec des paramètres proches de ceux des tranches adjacentes. Classification de l'historique Nous affectons un point de l'échantillon à la composante du mélange qui maximise sa probabilité a posteriori d'appartenance. La fiabilité de cette étape dépend de l'algorithme de reconnaissance de mélange utilisé. Par exemple, SEM produisant des classes empiétantes, on rencontre des problèmes d'affectation d'une mesure à une unique composante. Calcul des matrices de transitions et de sauts Les matrices de transitions sont une des représentations possibles de l'évolution des régimes de trafic au cours du temps. L'élément ij de la matrice est la proportion des individus appartenant à la classe i à l'instant t qui appartiennent à la classe j à l'instant t + h , h étant la durée de la période. Transition ij = { } Card x k ( t ) ( composante x k ( t ) = i ∩ composante x k ( t + h ) = j ) Card {x k ( t ) composante x k ( t ) = i} Pour expliquer les changements de régime, nous utilisons un indicateur quantitatif appelé saut. Un saut ij est l'écart, en valeur absolue, entre une mesure de trafic appartenant au régime j à l'instant t + h , et au régime i en t. D'une manière identique à celle des matrices de transition, on peut calculer les matrices des moyennes, des écarts types, des médianes, des minima et des maxima des sauts. Les matrices de sauts permettent de connaître la variation nécessaire de trafic imposant le passage d'un régime à un autre. 8 Estimation en temps réel du régime de trafic à l'horizon h En calculant le produit du vecteur des probabilités a posteriori d'appartenance d'un point à une composante et de la matrice des transitions, on obtient le vecteur des probabilités d'appartenance à chacun des régimes à l'horizon h. Pour avoir une estimation du régime le plus probable à l'horizon n ∞ h, il suffit de faire le produit des n matrices des transitions consécutives. Cependant, étant donné les problèmes de fiabilité de la classification de l'échantillon, plus l'horizon est lointain, plus la qualité de l'estimation est médiocre. Figure 1 : Procédure de reconnaissance de régimes de trafic routier Données de l'historique du point de prévision Nombre de composantes du mélange Reconnaissance des mélanges par tranche de durée h Classification de l'historique EN TEMPS DIFFERE Calcul des matrices de transitions et de sauts Données récentes du point de prévision EN Calcul des probabilités d'appartenance TEMPS Produit des probabilités d'appartenance avec les matrices de transitions Estimation du régime de trafic REEL Application au boulevard périphérique parisien Nous allons à présent appliquer la méthode des mélanges de lois de probabilité au boulevard périphérique parisien, en vue de retrouver les différents régimes de trafic. Pour étudier l'écoulement du trafic, nous avons besoin d'une mesure quantifiant la qualité de cet écoulement. Les données de trafic du périphérique parisien sont caractérisées par un taux d'occupation très instable. À un même débit sont associées deux concentrations (ou deux taux d'occupation), correspondant l'une à un trafic fluide, l'autre à une circulation saturée. Avec l'augmentation de la 9 concentration, les interactions entre les véhicules deviennent plus importantes et la vitesse diminue 3. On passe alors à un autre régime de trafic. Le rapport entre débit et concentration permet de distinguer ces deux types de situations. Mais, en pratique, on ne peut utiliser que le taux d'occupation (to) 4, car les boucles magnétiques pour le recueil des données ne donnent pas directement la concentration. Plutôt que d'utiliser la relation fondamentale entre le débit q(x,t), la vitesse u(x,t) et la concentration k(x,t) d'un flot de véhicules en un point x à l'instant t : u ( x, t ) = q ( x, t ) k ( x, t ) , nous avons donc utilisé un autre indicateur de fluidité, que nous nommons dst. C'est une sorte de vitesse brute, que nous définissons par la relation suivante : dst ( t ) = q (t ) to ( t ) À l'inverse des mesures de débit, la fluidité de la circulation croît avec le dst. Un dst faible caractérise un écoulement difficile, tandis qu'un dst élevé est signe d'un écoulement facile. L'objectif est maintenant d'analyser les mécanismes de variation de cet indicateur. Nous avons pris comme données réelles celles relatives à la porte d'Italie sur le boulevard périphérique intérieur (voir figure 2). Le débit utilisé est celui des capteurs des trois files du périphérique. Le taux d'occupation est une moyenne entre les mesures effectuées au même instant à la porte d'Italie et sur des capteurs situés à environ cinq cents mètres en aval, au niveau de la porte de Gentilly. Nous tenons compte du taux d'occupation des capteurs placés en aval, car la concentration (directement liée au to) agit dans le sens inverse de la circulation, et a un effet sensible à cette distance. Les données historiques enregistrées sont réparties sur vingt et une journées du mois de juillet 1994 5. Nous avons étudié en particulier la matinée, que nous avons découpée en périodes ou tranches à horaire fixe. Pour celles-ci nous avons adopté une durée de seize minutes, choix qui s'explique à la fois par une grande variabilité du trafic, et par la fréquence d'acquisition des données, toutes les quarante secondes. Les périodes observées vont de [7 h 52min 40s-8 h 8min 0s] à [9 h 28min 40s-9 h 44 min 0 s]. Pour chaque journée d'enregistrement, chaque tranche contient vingt-quatre mesures. Nous disposons donc en théorie de 21 ∞ 24 = 504 données par tranche. 3 La vitesse est une fonction monotone décroissante de la concentration. On peut déduire la concentration directement du taux d'occupation. 5 Le 30 juin 1994; les 1, 4, 6 et 8 juillet 1994, ainsi que du 13 au 27 juillet 1994 ; au total vingt et une journées, soit trois lundis, deux mardis, quatre mercredis, jeudi et vendredi, deux samedis et dimanches. 4 10 Figure 2 : Emplacement des capteurs sur le périphérique entre la porte d'Italie et la porte de Gentilly Sens du trafic 3 12 15 2 11 14 1 10 13 Porte d'Italie Porte de Gentilly Résultats fournis par l'algorithme SEM Après exploration des données, nous avons choisi un modèle de mélanges à quatre composantes. Le nombre de composantes est issu de l'adéquation fournie directement par l'algorithme SEM (après stabilisation), et par les tests d'ajustement de Mann-Whitney et de Kolmogorov-Smirnov entre les simulations réalisées sur la base du modèle à quatre composantes estimé et les données réelles. Les régimes de trafic choisis sont proches de ceux définis par les opérateurs, en termes de fluidité. L'existence d'un régime supplémentaire (très facile) par rapport à ceux qu'utilisent les opérateurs s'explique par le fait que les opérateurs s'intéressent surtout aux situations de trafic dense et ne font pas la différence entre vitesse élevée et très élevée. Nous adopterons pour notre part les conventions suivantes : – composante TD pour un écoulement très difficile, à vitesse d'environ 6 km/h, – composante D pour un écoulement difficile, à vitesse d'environ 17 km/h, – composante F pour un écoulement facile, à vitesse d'environ 60 km/h, – composante TF pour un écoulement très facile, à vitesse d'environ 70 km/h. Évolution temporelle des paramètres du mélange Les figures 3 à 5 représentent l'évolution des valeurs des paramètres des mélanges pour la variable dst, telles qu'elles ressortent de l'application de l'algorithme SEM aux données de la porte d'Italie. La figure 3 représente l'évolution horaire des moyennes de chaque composante. On note la stabilité des moyennes des quatre régimes. Les composantes à dst faible sont bien identifiables, tandis que les composantes fortes sont plus instables. À maintes reprises SEM ne donne que trois composantes ; cette instabilité du nombre de composantes est inhérente aux données et à l'adéquation fournie par l'algorithme stochastique SEM. 11 Figure 3 : Variation de la moyenne des composantes d'une tranche à l'autre TD - très difficile D - difficile F - facile TF - très facile 450 400 350 300 250 200 150 100 50 0 07:52 08:08 08:24 08:40 08:56 09:12 09:28 09:44 La figure 4 représente l'évolution horaire des poids de chaque composante. Comme les régimes F et TF, correspondant aux conditions favorables de trafic, sont proches, nous allons plutôt observer, par souci de clarté, les différences entre la somme des poids des régimes faciles et celle des régimes difficiles. C'est ce qu'illustre la figure 5. Le fait marquant est une amélioration progressive de la situation au cours de la matinée. Cette tendance, qui sera confirmée par l'étude des matrices de transition, est sans doute due au début de résorption de la pointe du matin (vers 8h40). Figure 4 : Variation du poids des composantes d'une tranche à l'autre TD - très difficile D - difficile F - facile TF - très facile 0,5 0,45 0,4 0,35 0,3 0,25 0,2 0,15 0,1 0,05 0 07:52 08:08 08:24 08:40 08:56 09:12 09:28 09:44 12 Figure 5 : Variation des poids du trafic facile et difficile d'une tranche à l'autre trafic difficile trafic facile 0,7 0,6 0,5 0,4 0,3 0,2 0,1 0 07:52 08:08 08:24 08:40 08:56 09:12 09:28 09:44 Classification induite par les probabilités a posteriori d'appartenance d'un point à un régime Pour classer les données historiques, nous avons utilisé les probabilités a posteriori d'appartenance d'un individu à une composante. Chaque individu est affecté à la composante qui minimise le risque bayesien, ce qui est équivalent à prendre la probabilité a posteriori d'appartenance la plus grande. Mais il faut noter que des mélanges ayant des moyennes très proches donneront des classes empiétant les unes sur les autres. Les tableaux 1 donnent, pour illustrer ce problème, le résultat de deux classifications. Tableaux 1 : Classification des données selon les composantes pour deux tranches horaires Régime TD D F TF Tranche [7 h 4 min 40 s à 7 h 20 min 0 s] Poids de la composante (en %) Pourcentage d'affectation 45,4 46,5 31,8 41,2 11,6 5,9 11,2 6,5 Régime TD D F TF Tranche [7 h 20 min 40 s à 7 h 36 min 0 s] Poids de la composante (en %) Pourcentage d'affectation 53,7 55,1 24,6 29,3 10,4 10,9 11,2 4,7 Comme on le constate, il n'y a pas une bonne adéquation entre les poids des composantes estimés par l'algorithme SEM à partir de l'échantillon et les résultats de la classification induite par les probabilités a posteriori d'appartenance d'un individu à une composante. 13 Ce phénomène est normal, il résulte du fait que l'algorithme SEM produit implicitement des classes qui se recoupent, alors que nous voulons une partition de l'échantillon des mesures pour calculer les matrices des transitions. Cependant, cette distorsion de la classification de l'échantillon pourrait être atténuée en prenant les tirages de la loi multinomiale (la variable cachée du modèle) lors de l'étape stochastique de SEM, à l'itération qui maximise le critère de vraisemblance. On peut également envisager d'étudier d'autres méthodes de reconnaissances de mélanges de lois de probabilité, en privilégiant cette fois l'approche classification plutôt que l'aspect estimation (voir [Schroeder, 1976]). III.5 Analyse À ce degré d'avancement de l'étude, les résultats obtenus permettent d'avoir une analyse synthétique de l'état du trafic et de son évolution d'un quart d'heure à l'autre. De plus, à partir des probabilités a posteriori, nous pouvons déterminer en temps réel à quel régime de trafic appartient la mesure à l'instant t et quelle est son évolution probable. En résumé, les quatre régimes de trafic se caractérisent de la façon suivante : – un régime au dst faible, correspondant à une vitesse de 6 km/h, à un taux d'occupation très élevé et à un débit faible ; nous l'assimilons à un régime de congestion, appelé très difficile ou TD, – un régime au dst un peu plus élevé, correspondant cette fois à un to plus faible et à un débit très supérieur, équivalent à une vitesse de 17 km/h ; nous l'identifions comme un trafic très chargé, qui s'écoule difficilement mais sans blocage complet, et l'appelons difficile ou D, – deux régimes au dst élevé, reflétant une circulation relativement facile, peu chargée, avec des vitesse de véhicules comprises entre 60 et 90 km/h ; ces deux régimes, qui se caractérisent par un débit différent mais des taux d'occupation du même ordre, sont appelés facile ou F, et très facile ou TF. Bien que les éléments de la population bougent beaucoup entre les régimes difficiles (TD et D) et faciles (F et TF), il y a très peu de transitions entre les deux groupes (voir tableau 2). De ce fait, ces régimes ne semblent pas être artificiels. D'ailleurs, les gestionnaires utilisent de façon empirique la notion de régime pour caractériser les différents types de circulation. Tableau 2 : Transitions de la tranche [8 h 56 min à 9 h 12 min], en ligne, vers la tranche [9 h 12 min à 9 h 28], en colonnes TD D F TF TD 72 % 63 % 0% 0% D 28 % 37 % 0% 0% F 0% 0% 81 % 60 % TF 0% 0% 19 % 40 % Les problèmes de classification se font sentir surtout pour les régimes faciles. Nous expliquons cette instabilité par leur proximité, en moyenne. C'est une des difficultés classiques de la reconnaissance de mélanges. Ce problème ne nuit cependant pas à l'objectif principal, qui reste de détecter les régimes de congestion, les seuls qui importent pour les gestionnaires de trafic. 14 Les valeurs des sauts de la composante i vers la composante j sont proches de la différence entre les moyennes des composantes. Dans le cas où l'individu reste dans le même régime, le saut moyen est proche de l'écart type de la classe (voir tableaux 3 et 4). Grâce à ces matrices de transitions, nous pouvons avoir une estimation qualitative de l'évolution du trafic à trente-deux, voire quarante-huit minutes, la qualité du résultat diminuant avec l'horizon de la prévision. Il suffit de multiplier les matrices de transitions consécutives. Nous aurons ainsi la probabilité en partant d'un régime i d'aller vers le régime j, en considérant tous les chemins possibles. Tableau 3 : Sauts moyens en dst de la tranche [8 h 56 min à 9 h 12 min], en lignes, vers la tranche [9 h 12 min à 9 h 28 min], en colonne TD D F TF TD 13 44 0 0 D 55 27 0 0 F 0 0 32 87 TF 0 0 71 88 Tableaux 4 : Poids, moyennes et écarts types en dst des composantes pour deux tranches horaires Tranche [8 h 56 min à 9 h 12 min] Régime Poids Moyenne Écart type TD 16,1 % 36 12 D 31,7 % 95 30 F 10 % 382 21 TF 42,2 % 429 87 Tranche [9 h 12 min à 9 h 28 min] Régime Poids Moyenne Écart type TD 29,8 % 42 15 D 17,9 % 94 28 F 26,6 % 372 49 TF 25,8 % 438 82 Conclusion Nous avons consacré cette étude à la discrimination de régimes de trafic sur une section de route. L'idée principale est d'assimiler ces régimes aux composantes d'un mélange de lois de probabilité, estimées à l'aide de l'algorithme SEM. Nous avons obtenu des résultats intéressants sur : – la nature des données à traiter et la structure du trafic ; nous avons retrouvé les régimes effectivement utilisés par les opérateurs des réseaux routiers, – l'évolution temporelle des composantes des mélanges, 15 – les changements de structure des régimes de trafic routier, – l'importance des perturbations qui modifient la structure du trafic. Il reste cependant de nombreuses voies de recherche et d'applications à explorer. • Une analyse qualitative à court terme de trafic routier n'est pas suffisante, il est nécessaire de la compléter par une prévision quantitative. Cet objectif peut être atteint en couplant une analyse par les mélanges, à une méthode de prévision quantitative, comme ATHENA [Danech-Pajouh et Aron, 1994], ce qui permettrait de juger de la nature du trafic prévu, de comparer son évolution avec les matrices de transition et de détecter des modifications de l'écoulement. • Cette méthode d'analyse de trafic pourrait être utilisée pour une prévision à un horizon de moyen terme et non de court terme, comme celle utilisée pour l'opération Bison futé. On pourrait ainsi faire intervenir la notion de scénarios, en associant à chaque situation courante identifiée par les gestionnaires un régime et une probabilité de réalisation. • Des mélanges obtenus à partir des données de débit donnent une estimation de la capacité de la section de route relative au point de relevé des mesures, la composante la plus forte en moyenne reflétant les fluctuations des débits aux conditions de capacité. Une telle utilisation des mélanges a été envisagée par S. Cohen [1987]. • L'utilisation des techniques de Bootstrap [ Efron et Tibshiran, 1993] pourrait être envisagée pour l'estimation des mélanges, ainsi que dans le calcul des matrices de transitions dans le but de les rendre plus robustes. Bibliographie Broniatowski M., Celeux G., Diebolt J. – Reconnaissance de mélanges de densités par un algorithme d'apprentissage probabiliste, In Diday E. et al. (sous la direction de) : Data Analysis and Informatics, North Holland, p. 359-374, 1983. Celeux G., Diebolt J. – A stochastic approximation type EM algorithm for the mixture problem, Stochastics Reports, n° 41, p. 119-134, 1992. Celeux G., Chauveau D., Diebolt J. – On stochastic versions of the EM algorithm, Rapport de recherche INRIA, n° 2514, 1995. Cohen S. – A pattern recognition technique applied to the estimation of motorway capacity, Review Modelling, Simulation and Control, part C, Vol. 9, n° 4, p. 35-42, 1987. Couton F. – Application des mélanges de lois de probabilité à la reconnaissance de régimes de trafic routier, Rapport de stage INRETS, 1995. Danech-Pajouh M., Aron M. – ATHENA, Prévision à court terme du trafic sur une section de route, Rapport INRETS, n° 177, 1994. Dempster A. P., Laird N. M. et Rubin D. B. – Maximum likelihood from incomplete data via the EM algorithm, Journal of the Royal Statistical Society, B 39, p. 1-38, 1977. Efron B. R., Tibshiran I. – An introduction to the Bootstrap, Chapman and Hill ed., 1993. Kaneko Y. et al. – The judgement of the trafic condition by using the cluster analysis, VNIS and Pacific Rim TransTech Conference, 1995. 16 Lecoutre J.-P., Tassi P. – Statistique non-paramétrique et robustesse, éditions Economica, 1987. Press W. H., Teukolsky S. A. – Numerical recipes, Cambridge University Press, 1992. Schroeder A. – Analyse d'un mélange de distributions de probabilité de même type, Revue de Statistique appliquée, Vol. XXIV, n° 1, p. 39-62, 1976. Wu C. F. – On the convergence properties of the EM algorithm, Annals of Statistics, n° 11, p. 95103, 1983. Résumé Dans cet article, nous considérons que les mesures de trafic (débit et taux d'occupation) sont issues d'une variable aléatoire. Les études empiriques montrent qu'il est assez rare que la loi d'une telle variable aléatoire soit simple,c'est-à-dire corresponde à un mode unique de comportement, comme pourrait l'indiquer une variable de loi normale. Nous supposons que la loi complète de cette variable aléatoire abstraite de trafic est un mélange de plusieurs lois, où chaque composante identifie un comportement particulier du trafic, appelé régime. Nous retrouvons ainsi une notion fréquemment utilisée par les opérateurs des réseaux routiers pour distinguer les différentes conditions de circulation d'un réseau. Dans une première partie, nous présentons le modèle statistique des mélanges et un algorithme (SEM) estimant les valeurs des paramètres d'un mélange, puis nous proposons une méthodologie d'analyse de trafic routier, fondée sur ce modèle. Elle permet d'une part de reconnaître les régimes de trafic routier et d'autre part de décrire leur évolution au cours du temps. Enfin nous exposons les résultats de l'application de cette méthode à des mesures de trafic du boulevard périphérique parisien, au niveau des portes d'Italie et de Gentilly. Abstract In this paper we consider that traffic measurements (flow and occupancy) are produced by an abstract random variable. Empirical studies have shown that it is fairly rare for the distribution of such a variable to be simple, i.e corresponding to a single behaviour mode, for example, a normal distribution. We assume that the complete distribution of this abstract random traffic variable is a combination of several distributions each component of which identifies a specific behaviour of traffic, known as a regime. This is a concept which is frequently used by the operators of road networks in order to identify different traffic conditions within a network. In the first section we will present the statistical mixtures model and an algorithm (SEM) which estimates the values of the parameters in a mixture. We next put forward a methodology for the analysis of road traffic which is based on this model. This methodology provides a means of identifying road traffic regimes and describing their change over time. Finally, we give an account of the results of an application of this technique to traffic measurements made on the Paris boulevard périphérique at the Porte d'Italie and the Porte de Gentilly. 17