Prévision

publicité
Chapitre 5: Prévision
Slide 186
115
Chapitre 5
Prévision
Dans ce chapitre, nous abordons les problèmes de prévision de la demande, qui sont très importantes à moyen terme pour l’étblissement du plan agrégé, ainsi qu’à long terme pour les décisions
stratégiques
5.1 Principes fondamentaux
116
Table des matières – Chapitre 5
Slide 187
5.1 Principes fondamentaux
189
5.2 Procédure générale de prévision
192
5.3 Modèle constant
194
Moyenne mobile simple . . . . . . . . . . . . . . . . . . . . . . 194
Lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . 196
5.4 Modèle linéaire
200
Régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . 200
Lissage exponentiel double . . . . . . . . . . . . . . . . . . . . 202
Slide 188
5.5 Variations saisonnières
Facteurs de saisonnalité .
Lissage double . . . . .
Méthode de Holt . . . .
Méthode de Winters . . .
.
.
.
.
205
205
212
213
216
5.6 Analyse des erreurs de prévision
Intervalle de confiance sur la prévision . . . . . . . . . . . . . .
Détection automatique des erreurs de prévision . . . . . . . . .
Méthodes auto-adaptatives . . . . . . . . . . . . . . . . . . . .
218
218
222
226
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
5.1 Principes fondamentaux
117
5.1 Principes fondamentaux
Sources d’informations
Slide 189
–
–
–
–
expérience, sentiment du personnel de terrain
jugement des experts et managers
analyse de données antérieures
autres données quantitatives
⇒ méthodes de jugement OU méthodes quantitatives complexes
Caractéristiques
–
–
–
–
Prévisions → décisions importantes
Toujours fausses ! (prudence, estimation de l’erreur)
Choix des méthodes pour répondre aux besoins (simplicité, efficacité)
Prévisions 6= objectifs de vente
Méthodes
Slide 190
– Méthodes qualitatives (enquêtes, jugements d’experts, ...)
→ long terme, nouveaux produits
– Analyse de séries chronologiques
Utilisation du passé pour prévoir le futur (régression, moyenne mobile,
lissage exponentiel)
– Méthodes causales (régression multiple, économétrie)
Liens entre la demande et des facteurs externes
– Méthodes de simulation
Modèle dynamique incorporant les variables internes et
environnementales
5.2 Procédure générale de prévision
118
Composantes de la demande
b
b b
b
Observations Xt
Slide 191
b
b
b
b
b
b
b
b
b
b
b
b
b
b b
bVariation
Variations
saisonnières
Tendance
b
aléatoire t
5.2 Procédure générale de prévision
Notations
Période actuelle : T
Observations : Xt , t = 1, . . . , T
Prévisions : X̂T +τ , τ = 1, 2, . . .
Slide 192
Choix du modèle
Subjectif, basé sur intuition, observation de la tendance générale
– Modèle constant : Xt = a + t
– Modèle avec tendance linéaire : Xt = a + bt + t
– Modèle avec tendance quadratique : Xt = a + bt + ct2 + t
– Modèle avec tendance linéaire et var. saisonnière : Xt = (a + bt)ct + t
t : variation aléatoire non expliquée. E(t ) = 0, V (t ) = σ2 .
5.3 Modèle constant
119
Estimation des paramètres du modèle
Slide 193
Paramètres a, b, ct + observations X1 , . . . , Xt
→ estimations â(T ), b̂(T ), ĉ(T )
(estimations sur base des observations jusqu’en T )
Prévision de la demande
Projection dans le futur de modèle estimé.
Exemple : Xt = a + bt + t → â(T ), b̂(T )
→ Prévision : X̂T +τ = â(T ) + b̂(T )(T + τ ), τ = 1, 2, . . .
5.3 Modèle constant
Moyenne mobile simple
Modèle : Xt = a + t .
Estimation du paramètre a :
Slide 194
1
â(T ) =
N
T
X
Xt
t=T −N +1
(moyenne des N dernières observations)
Prévision : X̂T +τ = â(T ),
τ = 1, 2, . . .
Remarque : minimise la somme des carrés des écarts :
min
a
T
X
t=T −N +1
(Xt − a)2
5.3 Modèle constant
120
Choix de N
– N grand : variance diminue (σ2 /N )
Meilleure élimination de l’aspect aléatoire.
– N petit : prise en compte plus rapide des variations/tendances de la
demande.
b
N petit
b
b
Slide 195
b
b
b
b
b
b
N grand
b
b
Inconvénient : nécessite de mémoriser un grand nombre de valeurs
antérieures.
Lissage exponentiel simple
Idée : donner plus d’importance aux observations récentes
→ Moindres carrés pondérés exponentiellement
b
1
Slide 196
β
β
min
b
a
b
2
b
b
β T −t (Xt − a)2
t=1
avec 0 < β < 1 (poids
décroissant avec l’âge)
b
T -5 T -4 T -3 T -2 T -1
T
X
T
5.3 Modèle constant
121
Valeur de l’estimateur :
â(T ) = ST =
Slide 197
ST =
T
1 − β X T −t
β
Xt
1 − β T t=1
1 − β T −1
1−β
XT +
βST −1
T
1−β
1 − βT
Grand nombre d’observations : T → ∞ ⇒ β T → 0.
ST = αXT + (1 − α)ST −1
α = 1 − β, 0 < α < 1.
Lissage exponentiel simple :
â(T ) = αXT + (1 − α)â(T − 1)
Slide 198
avec
– â(T − 1) : estimateur de a lorsque les demandes X1 , . . . , XT −1 sont
connues.
– â(T ) : estimateur de a lorsque les demandes X1 , . . . , XT sont connues.
Remarques :
1. ST prend en compte toutes les données passées sans devoir les
mémoriser
2. Initialisation : calcul de S0 : moyenne mobile ou régression.
3. Choix de α ?
5.4 Modèle linéaire
122
Interprétation de α
ST
=
αXT + (1 − α)ST −1
=
ST −1 + α (XT − ST −1 )
|
{z
}
Erreur de prévision
Slide 199
⇒ α = coefficient de réponse aux erreurs de prévision
⇒ Nouvelle prévision = ancienne prévision + α× erreur de prévision
– α grand : grande réponse, ajustement rapide à des variations
permanentes
– α petit : stabilité de la prévision, peu d’importance donnée à des
événements non répétitifs.
5.4 Modèle linéaire
Régression linéaire
b
Slide 200
b
b
b
b
b
b
b
b
a
Modèle : Xt = a + bt + t
Estimation de a et b :
Minimiser la somme des
carrés des écarts :
min
a,b
â(T ), b̂(t) solution de



T â(T )




T (T +1)
2
â(T )
+
+
T
X
(Xt − a − bt)2
t=1
T (T +1)
2
b̂(T )
T (T +1)(2T +1)
6
b̂(T )
=
=
T
P
t=1
T
P
t=1
Xt
tXt
5.4 Modèle linéaire
123
Désavantage : Poids égal pour tous les écarts passés.
Il est probable que la demande future soit plus influencée par les
demandes passées récentes
→ critère pondéré :
Slide 201
min
a,b
T
X
βt (Xt − a − bt)2
t=1
avec βt : poids de l’erreur de période t.
βt décroit quant l’âge augmente.
Normalisation :
T
P
βt = 1.
t=1
Lissage exponentiel double
Lissage exponentiel simple si tendance linéaire (Xt = a + bt + t )
→ retard systématique pour la prise en compte de la tendance.
Slide 202
ST = αXt + (1 − α)ST −1 ⇒ E(ST ) = (a + bT )
1−α
−b
| {zα }
biais systématique
– ST seul ne permet pas d’estimer les deux paramètres a et b.
– Augmenter α permet de réduire le biais mais augmente l’instabilité de
la prévision (la variance de l’estimateur).
5.5 Variations saisonnières
124
Lissage double
Lissage simple des demandes + lissage des valeurs lissées.
ST = αXt + (1 − α)ST −1 ⇒ E(ST ) = (a + bT ) − b
ST∗ = αSt + (1 − α)ST∗ −1 ⇒ E(ST∗ ) = E(ST ) − b
Slide 203
1−α
α
1−α
α
On peut en déduire que :
E(ST ) − E(ST∗ ) = b
α
1−α
⇒ b̂(T ) =
(ST − ST∗ )
α
1−α
E(XT ) = a + bT = E(ST ) + b
1−α
= 2E(ST ) − ST∗
α
⇒ â(T ) + b̂(T )T = 2ST − ST∗
Prévision
X̂T +τ
=
=
Slide 204
X̂T + τ b̂(T )
τ = 1, 2, . . .
α
α
2+τ
ST − 1 + τ
ST∗
1−α
1−α
Initialisation
Choix de a0 et b0 (analyse subjective, régression linéaire)
a0
=
2S0 − S0∗
b0
=
α
1−α (S0
− S0∗ )
⇒
S0
=
a0 −
S0∗
=
a0 −
1−α
α b0
2 1−α
α b0
5.5 Variations saisonnières
125
5.5 Variations saisonnières
Facteurs de saisonnalité
Slide 205
Principe général
1. Extraire la composante saisonnière
2. Prévision sur les demandes “désaisonnalisées” (méthodes
précédentes)
3. Saisonnaliser les prévisions
Types de facteurs saisonniers
– Additifs (Xt = a + bt + ct + t )
Slide 206
– Multiplicatifs (Xt = (a + bt)ct + t )
Longueur du cycle : L périodes, c1 + c2 + · · · + cL = L.
5.5 Variations saisonnières
126
Exemple
Slide 207
En moyenne, vente de 1000 unités/an dans le passé.
Saison
Ventes Facteur de saisonnalité
Printemps 200
200/250 = 0.8
Eté
350
350/250 = 1.4
Automne
300
300/250 = 1.2
Hiver
150
150/250 = 0.6
1000
4
Prévision de vente de 1100 unités pour l’année prochaine (i.e.
275/trimestre)
Saison
Printemps
Eté
Automne
Hiver
Prévision
260 × 0.8 = 220
260 × 1.4 = 385
260 × 1.2 = 330
260 × 0.6 = 165
Calcul des facteurs de saisonnalité
1. Obtention des données brutes
Année
1
2
3
Slide 208
Printemps
504
581
586
Eté
484
523
543
Automne
409
452
454
Hiver
644
666
685
700
600
500
400
300
200
100
0
b
b b
b
b
b
b
b
b
b
b
b
5.5 Variations saisonnières
127
2. Calcul des moyennes centrées Mt sur L périodes
→ élimination de l’effet saisonnier
→ moyenne non biaisée par la tendance
Slide 209
Remarque : L pair :

1 1
Mt =  Xt−L/2 +
L 2
t+L/2−1
X
i=t−L/2+1
Année
1
2
3
Printemps
-
545
562
Eté
-
553
565
Automne
520
556
-
Hiver
534
559
-

1
Xi + Xt+L/2 
2
700
600
500
400
300
200
100
0
b
b
b b b b bb b
b
b
b b b b b
b
b
b
b
3. Calcul des facteurs de saisonnalité
Xt
Ft = M
,
ct = moyenne des Ft de même période du cycle.
t
Slide 210
Année
1
2
3
ct
Printemps
-
1.067
1.043
1.055
Eté
-
0.946
0.962
0.954
Automne
0.787
0.813
-
0.800
Hiver
1.205
1.191
-
1.198
5.5 Variations saisonnières
128
Procédure de prévision
1. Calcul des facteurs ct
2. Désaisonnalisation de la demande
Slide 211
XDt = Xt /ct
t = 1, . . . T
ˆ T +τ , τ = 1, 2, . . .
3. Calcul de prévisions désaisonnalisées XD
(moyenne mobile, lissage, régression, . . .)
4. Prévision saisonnalisée
ˆ T +τ cT +τ
X̂T +τ = XD
Lissage double
1. Calcul des facteurs ct
2. Désaisonnalisation de la demande
XDt = Xt /ct
t = 1, . . . T
3. Mise à jour du modèle de lissage double
Slide 212
ST
=
αXDt + (1 − α)ST −1
ST∗
=
αSt + (1 − α)ST∗ −1
4. Prévision saisonnalisée
ˆ T + τ b̂(T ) cT +τ
X̂T +τ
= XD
α
∗
∗
= 2ST − ST +
(ST − ST )τ cT +τ
1−α
5.5 Variations saisonnières
129
Méthode de Holt
Principe : lisser séparément les deux paramètres a et b du modèle
→ 2 constantes de lissage Ra et Rb . (Flexibilité)
Principe de lissage :
Nouvelle valeur = ancienne valeur + réponse × erreur observée.
Slide 213
Erreur : eT = XDT − (aT −1 + bT −1 )
aT =
(aT −1 + bT −1 )
+Ra et
bT =
bT −1
+Rb et
Procédure de Holt
1. Calcul des facteurs ct
2. Désaisonnalisation de la demande
XDt = Xt /ct
t = 1, . . . T
3. Calcul de l’erreur de prévision
Slide 214
eT = XDT − (aT −1 + bT −1 )
4. Mise à jour des valeurs lissées
aT =
(aT −1 + bT −1 )
+Ra et
bT =
bT −1
+Rb et
5. Prévision saisonnalisée
X̂T +τ = (aT + bT τ ) cT +τ
5.5 Variations saisonnières
130
Choix de Ra et Rb
Slide 215
– Ra ' N2+1 (moyenne mobile)
– Si Rb proche de Ra , ajustement trop rapide de la pente.
– Holt ≡ lissage double (α)
⇔ Rb = α 2
Ra = α(2 − α)
√
⇔ Rb = 2 − Ra − 2 1 − Ra
√
– (Winters) Rbmax = Ra2 > 2 − Ra − 2 1 − Ra
En pratique :
2
N +1
p
Rb ∈ [2 − Ra − 2 1 − Ra , Ra2 ]
Ra =
Valeurs typiques : Ra = 0.25, Rb = 0.02.
Méthode de Winters
Lissage double et Holt : calcul des ct par moyennes
→ grand nombre de données.
Slide 216
Idée : calculer ct par lissage → 3 paramètres à estimer.
Estimateurs :
– a(T ) : demande lissée en période T
– b(T ) : pente lissée
– cT (T − L) : valeur lissée de cT calculée en T − L (un cycle complet
avant T )
5.6 Analyse des erreurs de prévision
131
Calcul des valeurs lissées
XT
+ (1 − α) (a(T − 1) + b(T − 1))
CT (T − L)
a(T )
=
α
b(T )
=
β (a(T ) − a(T − 1)) + (1 − β)b(T − 1)
cT (T )
=
γ
Slide 217
XT
+ (1 − γ)cT (T − L)
a(T )
Valeurs typiques : α = 0.25, β = 0.02, γ = 0.3.
Prévision :
X̂(T + τ ) = (a(T ) + τ b(T )) cT +τ (T − L + (τ
mod L))
5.6 Analyse des erreurs de prévision
Intervalle de confiance sur la prévision
Slide 218
Avantages du lissage :
– simplicité (compréhension, implémentation)
– faible nombre de données à conserver
– procédures de contrôle de la fiabilité des prévisions
Types de contrôle :
– signal d’alarme + corrections manuelles
– modèles auto-adaptatifs
⇒ Détection automatique des erreurs de prévision (modèle estimé
s’écarte de la réalité)
↔ intervalle de confiance sur la prévision
5.6 Analyse des erreurs de prévision
132
– Erreur de prévision : et = Xt − X̂t
– Hypothèse : Modèle conforme à la réalité.
Xt = modèle + t
Slide 219
⇒ erreur observée (et ) conforme aux variations aléatoires (t )
⇒ E(et ) = 0, V (et ) = σe2
et ' N (0, σe2 )
(distribution normale)
Non corrélation des et successifs.
Intervalle de confiance → estimer σe .
Soit ∆ l’espérance de déviation absolue :
∆
= E (|e − E(e)|) = E(|e|)
r
Z ∞
2
ef (e)de =
= E(||) = 2
σe ' 0.8σe
π
0
Slide 220
σe ' 1.25∆
Estimation de ∆ : moyenne des |et |
Lissage exponentiel :
M ADT = α|eT | + (1 − α)M ADT −1 ,
(MAD = Mean Average Deviation)
σe ' 1.25M ADT
5.6 Analyse des erreurs de prévision
Intervalle de confiance
et = N (0, σe2 ) ⇒ P (−2σe ≤ eT ≤ 2σe ) = 0.95
donc
Slide 221
P −2.5M ADT −1 ≤ XT − X̂T ≤ 2.5M ADT −1 = 0.95
P X̂T − 2.5M ADT −1 ≤ XT ≤ X̂T + 2.5M ADT −1 = 0.95
Intervalle de confiance à 95 % de XT :
[X̂T − 2.5M ADT −1 , X̂T + 2.5M ADT −1 ]
Détection automatique des erreurs de prévision
Hypothèse : modèle correct ⇒ σe = 1.25M ADT
⇒ intervalle de confiance.
Test d’hypothèse : si eT est trop grand (> 3M ADT ) alors probabilité
faible que le modèle soit correct.
Slide 222
Test de la validité du modèle sur base des observations et et valeurs
calculées M ADt .
3 types d’erreurs :
1. donnée douteuse
2. modèle de prévision biaisé
3. erreurs de prévision trop grandes
133
5.6 Analyse des erreurs de prévision
134
Donnée douteuse
Modèle correct jusqu’en T , erreur très grande en T .
Filtre : Si
Slide 223
|eT | > n1 M ADT
(n1 ' 3)
alors la dernière donnée XT est douteuse.
Si événement exceptionnel, non répétitif → ne pas incorporer eT dans la
mise à jour des estimateurs.
Modèle biaisé
Biais : sur-estimation ou sous-estimation systématique → erreur
systématiquement de même signe.
M ADT : Erreur absolue lissée.
Slide 224
Soit Et = moyenne lissée des erreurs (avec leur signe)
ET = αeT + (1 − α)ET −1
Filtre : si
|ET |
> n2
M ADT
alors persistance des signes des et .
(trop proche de 1)
5.6 Analyse des erreurs de prévision
135
Remarque :
2
σE
1
α
(1.25)2 M AD2 → n2 =
' σe2 =
N
2−α
r
α
1.25 × 2.33
2−α
n2 M AD ' 2.33σE , intervalle de confiance à 98 %
Slide 225
n2 = 0.3 pour α = 0.1
Variabilité des erreurs
Modèle non biaisé mais |et | très grands
Filtre : si
M ADT
X̂T
> n3
alors erreur relative trop grande
Méthodes auto-adaptatives
Détection des erreurs et correction du modèle automatiques.
Idée : faire varier les paramètres de lissage en fonction des erreurs
observées.
Slide 226
Exemple :
|Et |
M ADt
– α petit lorsque le modèle est non biaisé → bon lissage.
– α grand lorsque le modèle est biaisé → bon ajustement en cas de
changement de tendance.
α ou Ra =
Téléchargement