Chapitre 5: Prévision Slide 186 115 Chapitre 5 Prévision Dans ce chapitre, nous abordons les problèmes de prévision de la demande, qui sont très importantes à moyen terme pour l’étblissement du plan agrégé, ainsi qu’à long terme pour les décisions stratégiques 5.1 Principes fondamentaux 116 Table des matières – Chapitre 5 Slide 187 5.1 Principes fondamentaux 189 5.2 Procédure générale de prévision 192 5.3 Modèle constant 194 Moyenne mobile simple . . . . . . . . . . . . . . . . . . . . . . 194 Lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . 196 5.4 Modèle linéaire 200 Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . 200 Lissage exponentiel double . . . . . . . . . . . . . . . . . . . . 202 Slide 188 5.5 Variations saisonnières Facteurs de saisonnalité . Lissage double . . . . . Méthode de Holt . . . . Méthode de Winters . . . . . . . 205 205 212 213 216 5.6 Analyse des erreurs de prévision Intervalle de confiance sur la prévision . . . . . . . . . . . . . . Détection automatique des erreurs de prévision . . . . . . . . . Méthodes auto-adaptatives . . . . . . . . . . . . . . . . . . . . 218 218 222 226 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Principes fondamentaux 117 5.1 Principes fondamentaux Sources d’informations Slide 189 – – – – expérience, sentiment du personnel de terrain jugement des experts et managers analyse de données antérieures autres données quantitatives ⇒ méthodes de jugement OU méthodes quantitatives complexes Caractéristiques – – – – Prévisions → décisions importantes Toujours fausses ! (prudence, estimation de l’erreur) Choix des méthodes pour répondre aux besoins (simplicité, efficacité) Prévisions 6= objectifs de vente Méthodes Slide 190 – Méthodes qualitatives (enquêtes, jugements d’experts, ...) → long terme, nouveaux produits – Analyse de séries chronologiques Utilisation du passé pour prévoir le futur (régression, moyenne mobile, lissage exponentiel) – Méthodes causales (régression multiple, économétrie) Liens entre la demande et des facteurs externes – Méthodes de simulation Modèle dynamique incorporant les variables internes et environnementales 5.2 Procédure générale de prévision 118 Composantes de la demande b b b b Observations Xt Slide 191 b b b b b b b b b b b b b b b bVariation Variations saisonnières Tendance b aléatoire t 5.2 Procédure générale de prévision Notations Période actuelle : T Observations : Xt , t = 1, . . . , T Prévisions : X̂T +τ , τ = 1, 2, . . . Slide 192 Choix du modèle Subjectif, basé sur intuition, observation de la tendance générale – Modèle constant : Xt = a + t – Modèle avec tendance linéaire : Xt = a + bt + t – Modèle avec tendance quadratique : Xt = a + bt + ct2 + t – Modèle avec tendance linéaire et var. saisonnière : Xt = (a + bt)ct + t t : variation aléatoire non expliquée. E(t ) = 0, V (t ) = σ2 . 5.3 Modèle constant 119 Estimation des paramètres du modèle Slide 193 Paramètres a, b, ct + observations X1 , . . . , Xt → estimations â(T ), b̂(T ), ĉ(T ) (estimations sur base des observations jusqu’en T ) Prévision de la demande Projection dans le futur de modèle estimé. Exemple : Xt = a + bt + t → â(T ), b̂(T ) → Prévision : X̂T +τ = â(T ) + b̂(T )(T + τ ), τ = 1, 2, . . . 5.3 Modèle constant Moyenne mobile simple Modèle : Xt = a + t . Estimation du paramètre a : Slide 194 1 â(T ) = N T X Xt t=T −N +1 (moyenne des N dernières observations) Prévision : X̂T +τ = â(T ), τ = 1, 2, . . . Remarque : minimise la somme des carrés des écarts : min a T X t=T −N +1 (Xt − a)2 5.3 Modèle constant 120 Choix de N – N grand : variance diminue (σ2 /N ) Meilleure élimination de l’aspect aléatoire. – N petit : prise en compte plus rapide des variations/tendances de la demande. b N petit b b Slide 195 b b b b b b N grand b b Inconvénient : nécessite de mémoriser un grand nombre de valeurs antérieures. Lissage exponentiel simple Idée : donner plus d’importance aux observations récentes → Moindres carrés pondérés exponentiellement b 1 Slide 196 β β min b a b 2 b b β T −t (Xt − a)2 t=1 avec 0 < β < 1 (poids décroissant avec l’âge) b T -5 T -4 T -3 T -2 T -1 T X T 5.3 Modèle constant 121 Valeur de l’estimateur : â(T ) = ST = Slide 197 ST = T 1 − β X T −t β Xt 1 − β T t=1 1 − β T −1 1−β XT + βST −1 T 1−β 1 − βT Grand nombre d’observations : T → ∞ ⇒ β T → 0. ST = αXT + (1 − α)ST −1 α = 1 − β, 0 < α < 1. Lissage exponentiel simple : â(T ) = αXT + (1 − α)â(T − 1) Slide 198 avec – â(T − 1) : estimateur de a lorsque les demandes X1 , . . . , XT −1 sont connues. – â(T ) : estimateur de a lorsque les demandes X1 , . . . , XT sont connues. Remarques : 1. ST prend en compte toutes les données passées sans devoir les mémoriser 2. Initialisation : calcul de S0 : moyenne mobile ou régression. 3. Choix de α ? 5.4 Modèle linéaire 122 Interprétation de α ST = αXT + (1 − α)ST −1 = ST −1 + α (XT − ST −1 ) | {z } Erreur de prévision Slide 199 ⇒ α = coefficient de réponse aux erreurs de prévision ⇒ Nouvelle prévision = ancienne prévision + α× erreur de prévision – α grand : grande réponse, ajustement rapide à des variations permanentes – α petit : stabilité de la prévision, peu d’importance donnée à des événements non répétitifs. 5.4 Modèle linéaire Régression linéaire b Slide 200 b b b b b b b b a Modèle : Xt = a + bt + t Estimation de a et b : Minimiser la somme des carrés des écarts : min a,b â(T ), b̂(t) solution de T â(T ) T (T +1) 2 â(T ) + + T X (Xt − a − bt)2 t=1 T (T +1) 2 b̂(T ) T (T +1)(2T +1) 6 b̂(T ) = = T P t=1 T P t=1 Xt tXt 5.4 Modèle linéaire 123 Désavantage : Poids égal pour tous les écarts passés. Il est probable que la demande future soit plus influencée par les demandes passées récentes → critère pondéré : Slide 201 min a,b T X βt (Xt − a − bt)2 t=1 avec βt : poids de l’erreur de période t. βt décroit quant l’âge augmente. Normalisation : T P βt = 1. t=1 Lissage exponentiel double Lissage exponentiel simple si tendance linéaire (Xt = a + bt + t ) → retard systématique pour la prise en compte de la tendance. Slide 202 ST = αXt + (1 − α)ST −1 ⇒ E(ST ) = (a + bT ) 1−α −b | {zα } biais systématique – ST seul ne permet pas d’estimer les deux paramètres a et b. – Augmenter α permet de réduire le biais mais augmente l’instabilité de la prévision (la variance de l’estimateur). 5.5 Variations saisonnières 124 Lissage double Lissage simple des demandes + lissage des valeurs lissées. ST = αXt + (1 − α)ST −1 ⇒ E(ST ) = (a + bT ) − b ST∗ = αSt + (1 − α)ST∗ −1 ⇒ E(ST∗ ) = E(ST ) − b Slide 203 1−α α 1−α α On peut en déduire que : E(ST ) − E(ST∗ ) = b α 1−α ⇒ b̂(T ) = (ST − ST∗ ) α 1−α E(XT ) = a + bT = E(ST ) + b 1−α = 2E(ST ) − ST∗ α ⇒ â(T ) + b̂(T )T = 2ST − ST∗ Prévision X̂T +τ = = Slide 204 X̂T + τ b̂(T ) τ = 1, 2, . . . α α 2+τ ST − 1 + τ ST∗ 1−α 1−α Initialisation Choix de a0 et b0 (analyse subjective, régression linéaire) a0 = 2S0 − S0∗ b0 = α 1−α (S0 − S0∗ ) ⇒ S0 = a0 − S0∗ = a0 − 1−α α b0 2 1−α α b0 5.5 Variations saisonnières 125 5.5 Variations saisonnières Facteurs de saisonnalité Slide 205 Principe général 1. Extraire la composante saisonnière 2. Prévision sur les demandes “désaisonnalisées” (méthodes précédentes) 3. Saisonnaliser les prévisions Types de facteurs saisonniers – Additifs (Xt = a + bt + ct + t ) Slide 206 – Multiplicatifs (Xt = (a + bt)ct + t ) Longueur du cycle : L périodes, c1 + c2 + · · · + cL = L. 5.5 Variations saisonnières 126 Exemple Slide 207 En moyenne, vente de 1000 unités/an dans le passé. Saison Ventes Facteur de saisonnalité Printemps 200 200/250 = 0.8 Eté 350 350/250 = 1.4 Automne 300 300/250 = 1.2 Hiver 150 150/250 = 0.6 1000 4 Prévision de vente de 1100 unités pour l’année prochaine (i.e. 275/trimestre) Saison Printemps Eté Automne Hiver Prévision 260 × 0.8 = 220 260 × 1.4 = 385 260 × 1.2 = 330 260 × 0.6 = 165 Calcul des facteurs de saisonnalité 1. Obtention des données brutes Année 1 2 3 Slide 208 Printemps 504 581 586 Eté 484 523 543 Automne 409 452 454 Hiver 644 666 685 700 600 500 400 300 200 100 0 b b b b b b b b b b b b 5.5 Variations saisonnières 127 2. Calcul des moyennes centrées Mt sur L périodes → élimination de l’effet saisonnier → moyenne non biaisée par la tendance Slide 209 Remarque : L pair : 1 1 Mt = Xt−L/2 + L 2 t+L/2−1 X i=t−L/2+1 Année 1 2 3 Printemps - 545 562 Eté - 553 565 Automne 520 556 - Hiver 534 559 - 1 Xi + Xt+L/2 2 700 600 500 400 300 200 100 0 b b b b b b bb b b b b b b b b b b b b 3. Calcul des facteurs de saisonnalité Xt Ft = M , ct = moyenne des Ft de même période du cycle. t Slide 210 Année 1 2 3 ct Printemps - 1.067 1.043 1.055 Eté - 0.946 0.962 0.954 Automne 0.787 0.813 - 0.800 Hiver 1.205 1.191 - 1.198 5.5 Variations saisonnières 128 Procédure de prévision 1. Calcul des facteurs ct 2. Désaisonnalisation de la demande Slide 211 XDt = Xt /ct t = 1, . . . T ˆ T +τ , τ = 1, 2, . . . 3. Calcul de prévisions désaisonnalisées XD (moyenne mobile, lissage, régression, . . .) 4. Prévision saisonnalisée ˆ T +τ cT +τ X̂T +τ = XD Lissage double 1. Calcul des facteurs ct 2. Désaisonnalisation de la demande XDt = Xt /ct t = 1, . . . T 3. Mise à jour du modèle de lissage double Slide 212 ST = αXDt + (1 − α)ST −1 ST∗ = αSt + (1 − α)ST∗ −1 4. Prévision saisonnalisée ˆ T + τ b̂(T ) cT +τ X̂T +τ = XD α ∗ ∗ = 2ST − ST + (ST − ST )τ cT +τ 1−α 5.5 Variations saisonnières 129 Méthode de Holt Principe : lisser séparément les deux paramètres a et b du modèle → 2 constantes de lissage Ra et Rb . (Flexibilité) Principe de lissage : Nouvelle valeur = ancienne valeur + réponse × erreur observée. Slide 213 Erreur : eT = XDT − (aT −1 + bT −1 ) aT = (aT −1 + bT −1 ) +Ra et bT = bT −1 +Rb et Procédure de Holt 1. Calcul des facteurs ct 2. Désaisonnalisation de la demande XDt = Xt /ct t = 1, . . . T 3. Calcul de l’erreur de prévision Slide 214 eT = XDT − (aT −1 + bT −1 ) 4. Mise à jour des valeurs lissées aT = (aT −1 + bT −1 ) +Ra et bT = bT −1 +Rb et 5. Prévision saisonnalisée X̂T +τ = (aT + bT τ ) cT +τ 5.5 Variations saisonnières 130 Choix de Ra et Rb Slide 215 – Ra ' N2+1 (moyenne mobile) – Si Rb proche de Ra , ajustement trop rapide de la pente. – Holt ≡ lissage double (α) ⇔ Rb = α 2 Ra = α(2 − α) √ ⇔ Rb = 2 − Ra − 2 1 − Ra √ – (Winters) Rbmax = Ra2 > 2 − Ra − 2 1 − Ra En pratique : 2 N +1 p Rb ∈ [2 − Ra − 2 1 − Ra , Ra2 ] Ra = Valeurs typiques : Ra = 0.25, Rb = 0.02. Méthode de Winters Lissage double et Holt : calcul des ct par moyennes → grand nombre de données. Slide 216 Idée : calculer ct par lissage → 3 paramètres à estimer. Estimateurs : – a(T ) : demande lissée en période T – b(T ) : pente lissée – cT (T − L) : valeur lissée de cT calculée en T − L (un cycle complet avant T ) 5.6 Analyse des erreurs de prévision 131 Calcul des valeurs lissées XT + (1 − α) (a(T − 1) + b(T − 1)) CT (T − L) a(T ) = α b(T ) = β (a(T ) − a(T − 1)) + (1 − β)b(T − 1) cT (T ) = γ Slide 217 XT + (1 − γ)cT (T − L) a(T ) Valeurs typiques : α = 0.25, β = 0.02, γ = 0.3. Prévision : X̂(T + τ ) = (a(T ) + τ b(T )) cT +τ (T − L + (τ mod L)) 5.6 Analyse des erreurs de prévision Intervalle de confiance sur la prévision Slide 218 Avantages du lissage : – simplicité (compréhension, implémentation) – faible nombre de données à conserver – procédures de contrôle de la fiabilité des prévisions Types de contrôle : – signal d’alarme + corrections manuelles – modèles auto-adaptatifs ⇒ Détection automatique des erreurs de prévision (modèle estimé s’écarte de la réalité) ↔ intervalle de confiance sur la prévision 5.6 Analyse des erreurs de prévision 132 – Erreur de prévision : et = Xt − X̂t – Hypothèse : Modèle conforme à la réalité. Xt = modèle + t Slide 219 ⇒ erreur observée (et ) conforme aux variations aléatoires (t ) ⇒ E(et ) = 0, V (et ) = σe2 et ' N (0, σe2 ) (distribution normale) Non corrélation des et successifs. Intervalle de confiance → estimer σe . Soit ∆ l’espérance de déviation absolue : ∆ = E (|e − E(e)|) = E(|e|) r Z ∞ 2 ef (e)de = = E(||) = 2 σe ' 0.8σe π 0 Slide 220 σe ' 1.25∆ Estimation de ∆ : moyenne des |et | Lissage exponentiel : M ADT = α|eT | + (1 − α)M ADT −1 , (MAD = Mean Average Deviation) σe ' 1.25M ADT 5.6 Analyse des erreurs de prévision Intervalle de confiance et = N (0, σe2 ) ⇒ P (−2σe ≤ eT ≤ 2σe ) = 0.95 donc Slide 221 P −2.5M ADT −1 ≤ XT − X̂T ≤ 2.5M ADT −1 = 0.95 P X̂T − 2.5M ADT −1 ≤ XT ≤ X̂T + 2.5M ADT −1 = 0.95 Intervalle de confiance à 95 % de XT : [X̂T − 2.5M ADT −1 , X̂T + 2.5M ADT −1 ] Détection automatique des erreurs de prévision Hypothèse : modèle correct ⇒ σe = 1.25M ADT ⇒ intervalle de confiance. Test d’hypothèse : si eT est trop grand (> 3M ADT ) alors probabilité faible que le modèle soit correct. Slide 222 Test de la validité du modèle sur base des observations et et valeurs calculées M ADt . 3 types d’erreurs : 1. donnée douteuse 2. modèle de prévision biaisé 3. erreurs de prévision trop grandes 133 5.6 Analyse des erreurs de prévision 134 Donnée douteuse Modèle correct jusqu’en T , erreur très grande en T . Filtre : Si Slide 223 |eT | > n1 M ADT (n1 ' 3) alors la dernière donnée XT est douteuse. Si événement exceptionnel, non répétitif → ne pas incorporer eT dans la mise à jour des estimateurs. Modèle biaisé Biais : sur-estimation ou sous-estimation systématique → erreur systématiquement de même signe. M ADT : Erreur absolue lissée. Slide 224 Soit Et = moyenne lissée des erreurs (avec leur signe) ET = αeT + (1 − α)ET −1 Filtre : si |ET | > n2 M ADT alors persistance des signes des et . (trop proche de 1) 5.6 Analyse des erreurs de prévision 135 Remarque : 2 σE 1 α (1.25)2 M AD2 → n2 = ' σe2 = N 2−α r α 1.25 × 2.33 2−α n2 M AD ' 2.33σE , intervalle de confiance à 98 % Slide 225 n2 = 0.3 pour α = 0.1 Variabilité des erreurs Modèle non biaisé mais |et | très grands Filtre : si M ADT X̂T > n3 alors erreur relative trop grande Méthodes auto-adaptatives Détection des erreurs et correction du modèle automatiques. Idée : faire varier les paramètres de lissage en fonction des erreurs observées. Slide 226 Exemple : |Et | M ADt – α petit lorsque le modèle est non biaisé → bon lissage. – α grand lorsque le modèle est biaisé → bon ajustement en cas de changement de tendance. α ou Ra =