Module02_20151019_wieser4

60
METHODES DE PREVISION Analyse prévisionnelle Prof. Dr Ph. WIESER Directeur IML 2009 COLLEGE DU MANAGEMENT CDM – IML Institut international de Management pour la Logistique CdM - LEM - IML / Odyssea-Station 5 / CH - 1015 LAUSANNE Téléphone: +41 21 693 24 65 Fax: +41 21 693 24 89 E-mail: [email protected] ÉCOLE POLYTECHNIQUE FÉDÉRALE DE LAUSANNE 2 TABLE DES MATIERES 1. INTRODUCTION 4 1.1 APPLICATIONS DES METHODES DE PREVISION 4 1.2 INTERET DE L'APPLICATION DE MODELES DE PREVISION 4 1.3 BASES D'UNE PREVISION 5 1.4 CARACTERISTIQUES D'UNE SERIE CHRONOLOGIQUE 6 2. MESURES DE LA PRECISION D'UNE PREVISION 8 2.1 RAPPELS STATISTIQUES 8 2.2 PRECISION D'UNE PREVISION 10 3. METHODES-MODELES DE PREVISION 12 3.1 METHODES PAR LISSAGE 13 3.1.1 MOYENNES MOBILES SIMPLES 13 3.1.2 MOYENNES MOBILES DOUBLES 18 3.1.3 LISSAGE EXPONENTIEL SIMPLE 22 3.1.4 LISSAGE EXPONENTIEL DOUBLE 28 3.1.5 AUTRES FORMES DE LISSAGES 32 3.2 METHODES ADAPTATIVES 37 3.2.1 METHODE PAR FILTRAGE ADAPTATIF 37 3.2.2 LISSAGE EXPONENTIEL SIMPLE ADAPTATIF 43 3.3 METHODES DE REGRESSIONS 46 3.3.1 REGRESSIONS LINEAIRES 46 3.3.2 REGRESSIONS NON LINEAIRES 51 3.3.3 REGRESSIONS MULTIPLES 56 3.4 SAISONNALITE 59 3.4.1 INTERET DE L’INDICE SAISONNIER SUR LA PREVISION 62 3.5 METHODES PAR DECOMPOSITION 64 3.5.1 DECOMPOSITION PAR «FACTEURS D'INFLUENCE» 64 3.5.2 DECOMPOSITION PAR SERIES DE FOURIER 70

description

aftral wieserMETHODES DE PREVISIONAnalyse prévisionnelle

Transcript of Module02_20151019_wieser4

Page 1: Module02_20151019_wieser4

METHODES DE PREVISION

Analyse prévisionnelle

Prof. Dr Ph. WIESER Directeur IML

2009

COLLEGE DU MANAGEMENT CDM – IML

Institut international de Management pour la Logistique

CdM - LEM - IML / Odyssea-Station 5 / CH - 1015 LAUSANNE Téléphone: +41 21 693 24 65 Fax: +41 21 693 24 89 E-mail: [email protected]

ÉCOLE POLYTECHNIQUEFÉDÉRALE DE LAUSANNE

2

TABLE DES MATIERES

1. INTRODUCTION 4

1.1 APPLICATIONS DES METHODES DE PREVISION 4

1.2 INTERET DE L'APPLICATION DE MODELES DE PREVISION 4

1.3 BASES D'UNE PREVISION 5

1.4 CARACTERISTIQUES D'UNE SERIE CHRONOLOGIQUE 6 2. MESURES DE LA PRECISION D'UNE PREVISION 8

2.1 RAPPELS STATISTIQUES 8

2.2 PRECISION D'UNE PREVISION 10 3. METHODES-MODELES DE PREVISION 12

3.1 METHODES PAR LISSAGE 13

3.1.1 MOYENNES MOBILES SIMPLES 13

3.1.2 MOYENNES MOBILES DOUBLES 18

3.1.3 LISSAGE EXPONENTIEL SIMPLE 22

3.1.4 LISSAGE EXPONENTIEL DOUBLE 28

3.1.5 AUTRES FORMES DE LISSAGES 32

3.2 METHODES ADAPTATIVES 37

3.2.1 METHODE PAR FILTRAGE ADAPTATIF 37

3.2.2 LISSAGE EXPONENTIEL SIMPLE ADAPTATIF 43

3.3 METHODES DE REGRESSIONS 46

3.3.1 REGRESSIONS LINEAIRES 46

3.3.2 REGRESSIONS NON LINEAIRES 51

3.3.3 REGRESSIONS MULTIPLES 56

3.4 SAISONNALITE 59

3.4.1 INTERET DE L’INDICE SAISONNIER SUR LA PREVISION 62

3.5 METHODES PAR DECOMPOSITION 64

3.5.1 DECOMPOSITION PAR «FACTEURS D'INFLUENCE» 64

3.5.2 DECOMPOSITION PAR SERIES DE FOURIER 70

Page 2: Module02_20151019_wieser4

3

3.6 METHODES DE BOX & JENKINS (introduction) 74

3.6.1 MODELES 74

3.6.2 DETERMINATION DES PARAMETRES ET MODELES DE PREVISION 76

3.6.3 CHOIX D'UN MODELE 80

3.6.4 CONDITIONS D'APPLICATION 80 4. CHOIX D'UNE METHODE DE PREVISION 84

4.1 ANALYSE DE LA SERIE CHRONOLOGIQUE DE DONNEES 84

4.1.1 ANALYSE GRAPHIQUE ET STATISTIQUE 84

4.1.2 AUTOCORRELATION DES DONNEES 85

4.1.3 CORRECTIONS DE VALEURS «ABERRANTES» 89

4.2 CHOIX D'UN MODELE DE PREVISION 90

4.2.1 APPLICATION PRATIQUE DE MODELES DE PREVISION 90

4.3 TEST D’UN MODELE DE PREVISION 92 5. RESULTATS ET «QUALITE» D'UN MODELE DE PREVISION 93

5.1 RESULTATS 93

5.2 «QUALITE ET «PERFORMANCE» DU MODELE DE PREVISION 98

5.2.1 COMPARAISON: DONNEES-MODELE, PERFORMANCE DU MODELE 98

5.2.2 ANALYSE DES ECARTS, DES RESIDUS 99

5.2.3 AUTOCORRELATION DES RESIDUS 107 6. COMPARAISON DE METHODES DE PREVISION 111

7. COMBINAISON DE METHODES DE PREVISION 115

8. CONCLUSION 116

ANNEXE 1: DECOMPOSITION PAR SERIES DE FOURIER 117 Références 120

4

1. INTRODUCTION

La prévision, dans le cadre d'une prise de décision (économique, financière, stratégique, logistique, ...) joue aujourd'hui un rôle essentiel, particulièrement dans les cas où le «coût» de l'erreur est important, pouvant entraîner, pour l’entreprise (ou l’institutionnel) des conséquences graves, voire irrémédiables.

1.1 APPLICATIONS DES METHODES DE PREVISION

Les techniques actuelles de gestion de production industrielle («Juste-à-temps», flux tirés, stock=0, ...) et les modules intégrés associés (GPAO, MRP, MRPII, ERP, SCM, ...) s’appuient, pour une large part, sur des résultats fournis par une analyse prévisionnelle à court et moyen termes (production: 1 à 3 mois, marketing, stratégie: 3 à 12 mois, voire 24 mois). L’influence d’une telle analyse est ainsi déterminante, spécialement dans les domaines suivants:

- la prise de décision, - la stratégie d'entreprises (croissance, politique d’entreprise, ...), - la gestion et la planification, - le marketing (demande, ...) et la vente, - l’analyse économique et financière (recettes, dépenses, ...), - la logistique (stocks, approvisionnements, ventes, ...), - la croissance prévisionnelle de valeurs exogènes à l'entreprise (production de matériaux,

démographie, PNB, croissance, ...), - ...

1.2 INTERET DE L'APPLICATION DE MODELES DE PREVISION

L'ensemble des méthodes mathématiques de prévision ont pour but essentiel d'éliminer, ou tout au moins de réduire, l'interprétation subjective de l’évolution (extrapolation) d'une série de valeurs historiques: biais humains. Ces biais sont principalement:

- l’influence d'éléments extérieurs sans rapport direct avec la prévision à établir, - la surabondance d'informations, - l’importance de «valeurs initiales» même erronées (mémoire quasi-permanente de la

première valeur!), - le caractère et l’environnement local de la personne effectuant la prévision, - ...

Page 3: Module02_20151019_wieser4

5

Ainsi, la même prévision, effectuée par plusieurs personnes appartenant à des services ou à des départements différents, conduit à des résultats qui peuvent être parfois contradictoires. Il est alors essentiel de pouvoir disposer d'une base commune de discussion, établie par une ou la combinaison de plusieurs méthodes de prévision (c.f. § 3 & 7). De tels modèles sont des outils précieux d’aide à la décision en proposant au(x) décideur(s) (sans se substituer à ces derniers!), des plages probables (interprétation probabiliste des résultats) de prévision (c.f. § 5.1 d) d’une série chronologique de données.

1.3 BASES D'UNE PREVISION

Un certain nombre d’éléments doivent être pris en compte pour appliquer un modèle de prévision, en particulier: L'HORIZON TEMPOREL

- le nombre de valeurs historiques (longueur de la série chronologique), - la durée de la projection (stabilité de la série chronologique!), L’INTERVALLE TEMPOREL DE LA PREVISION

annuel, trimestriel, mensuel, ... LE CHOIX DE METHODE(S)

- le type de modèle: - l’étude de la série chronologique (tendance, cycles, saisonnalité, ...) - le nombre de valeurs prévisionnelles (prévision à court, moyen ou

long terme), - une prévision intrinsèque à une série de données historiques, - une prévision par régressions multiples de plusieurs séries de

données (modèles économétriques) - la combinaison de plusieurs méthodes de prévision, - ...

- la facilité de mise en oeuvre : - la disponibilité de série(s) historique(s), - le coût de mise en oeuvre de la (des) méthode(s) de

prévison, ... PRECISION REQUISE DE LA PREVISION Exemple (source: MENTZER & COX, 1984)

Erreur relative absolue moyenne par horizon et domaine de prévision

Horizons de prévision Court terme Moyen terme Long terme Domaines de prévision (0-3mois) (3mois-2ans) (>2ans) INDUSTRIE 8% 11% 15% CORPORATION 7% 11% 18% GROUPE DE PRODUCTION 10% 15% 20% LIGNE DE PRODUCTION 11% 10% 20% PRODUCTION 16% 21% 26% Moyenne 11% 14% 20%

6

1.4 CARACTERISTIQUES D'UNE SERIE CHRONOLOGIQUE

Une série chronologique de données peut être caractérisée (au plus) par 3 composantes principales (c.f Figure 1):

- le facteur de tendance(s)

- les caractéristiques périodiques: cycles - la saisonnalité:cycle particulier à court terme, par définition à l’intérieur d’une année - les cycles: facteurs périodiques à plus longs termes (> 1 an)

- le facteur aléatoire

3. ALEATOIRE

SERIE:

mensuelle

trimestrielle

1. TENDANCE(S)

2a. SAISONNALITE

2b. CYCLES

tt

t+12t+4

t+24t+8

temps

Figure 1 Remarque: les modèles présentés ci-après peuvent être structurés en 2 ensembles distincts: - les modèles «intégrateurs» prenant en compte tout ou partie des caractéristiques

de la série de données (méthodes par lissages) - les modèles de décomposition quantifiant explicitement chaque caractéristique

de la série chronologique

Page 4: Module02_20151019_wieser4

7

Figure 2: CAS GENERAL, superposition de l'ensemble des caractéristiques de base

DONNEES HISTORIQUES: Exemple B

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400t

Cet exemple sera systèmatiquement appliqué à toutes les méthodes de prévision présentées, sous la référence: EXEMPLE B.

8

2. MESURES DE LA PRECISION D'UNE PREVISION

2.1 RAPPELS STATISTIQUES

Soit X, une série de n valeurs:

Moyenne: X1

nX(i)

i

n

= ⋅=∑

1

Ecart-type: σ =−∑

=(X(i) X)

n

2

i 1

n

(ou n-1: petit échantillon)

Variance: σ2 Corrélation de deux séries de n données: X & Y

Coefficient de corrélation: rVariation EXPLIQUEE

Variation TOTALE= ±

(r2 = coefficient de détermination)

Coefficient de corrélation linéaire: rCov(X,Y)

X Y

=⋅σ σ

r(X(i) X) (Y(i) Y)

X(i) X) Y(i) Y) )

i 1

n

i 1

n2

i 1

n=

− ⋅ −∑

−∑ ⋅ −∑

=

= =( ( ) ( (2

Page 5: Module02_20151019_wieser4

9

AUTOCORRELATION

Corrélation de la même série de données X considérée à des périodes différentes.

Série de base Décalage de 1 période Décalage de 2 périodes X(t) X⇒(t-1) X⇒(t-2) …………

X(1) ⇓ ⇓ X(2) X(1) ⇓ X(3) X(2) X(1) X(4) X(3) X(2) X(5) X(4) X(3) M X(5) X(4)

X(n-2) M X(5) X(n-1) X(n-2) M X(n) X(n-1) X(n-2)

⇒ analyse de séries chronologiques de données (et de résidus): mise en évidence de

tendance(s), de cycles, de saisonnalité, ... (c.f. § 4.1.2 & 5.2.3) Coefficient d'autocorrélation de la série X:

r(X X ) (X X )

X X ) X X ) )

t t t - k t - k

t k 1

n

t t

t 1

n

t - k t k2

t k 1

n=

− ⋅ −

− ⋅ −

= +

=

= +

∑ ∑( ( ) ( (2

avec: k = nombre de périodes en «avance» Moyennant certaines hypothèses (en particulier une valeur de n élevée, stationnarité de la moyenne et de la variance) il est possible de simplifier l'équation ci-dessus, ainsi:

r(X X ) (X X )

(X X )

t t t - k t - k

t k 1

n

t t2

t 1

n=− ⋅ −

= +

=

10

2.2 PRECISION D'UNE PREVISION

D'une façon générale:

DONNEES = LOI DE PREVISION + ECART

Soit au temps t:

D(t) = P(t) + e(t) et ainsi: e(t) = D(t) - P(t)

avec: n = nombre de valeurs historiques et 0 ≤ t ≤ n

Ratios statistiques

Ecart total: ET e(t)t=1

n

= ∑ Ecart moyen: EM e1

ne(t)

t=1

n

= = ⋅∑

Ecart absolu total: EAT e(t)t=1

n

=∑ Ecart absolu moyen: EAM1

ne(t)

t=1

n

= ⋅∑

Somme des écarts quadratiques: SEQ e(t)2

t=1

n

=∑

Moyenne quadratique: MQ1

ne(t) 2

t=1

n

= ⋅∑

Ecart-type: σ =−∑

=(e(t) e)

n

2

t 1

n

(ou n-1: petit échantillon, n<30)

si la moyenne des écarts (EM) est nulle (résidus aléatoires) et si n>30, alors: σ=MQ

Page 6: Module02_20151019_wieser4

11

Test de THEIL: U

P(t 1) D(t 1)

D(t)

D(t +1) - D(t)

D(t)

t 1

n 1

t 1

n-1=

+ − +

=

=

2

2

U>1: ⇒ < interprétation subjective U≤1: ⇒ > interprétation subjective

Test DURBIN-WATSON: DW

(e(t) e(t 1))

e(t)

2

t=2

n

2

t=1

n=

− −∑

(c.f. chapitre 8)

CORRELATION LINEAIRE: r(D(t) D) (P(t) P)

D(t) D) P(t) P) )

t 1

n

t 1

n2

t 1

n=

− ⋅ −∑

−∑ ⋅ −∑

=

= =( ( ) ( (2

⇒ explication de la série chronologique par le modèle (c.f.

§ 2.1), avec: D(t) série de données P(t) modèle de prévision n nombre de valeurs comparatives

données-modèle AUTOCORRELATION DES RESIDUS: c.f. § 5.2.3

12

3. METHODES-MODELES DE PREVISION

Au cours des années, de multiples modèles ont été développés, des plus simples (moyennes mobiles, lissages exponentiels, …) aux plus complexes (Box-Jenkins, modèles économétriques, …). Chaque modèle a ses propres particularités permettant, en fonction de son paramétrage, de mettre en évidence, de manière quantitative ou qualitative, les caractéristiques de base d’une série chronologique de données (but d’un modèle).

Dans le domaine industriel, les modèles généralement utilisés se fondent sur la seule observation de la série chronologique (historique des données) et sont appliqués à un horizon de prévision de court à moyen terme (1 à 12 mois).

En revanche, dans le domaine économique (prévision de croissance d’un pays, …), où l’effet des facteurs externes est déterminant, les modèles sont de types économétriques (c.f. § 3.3.3), c’est-à-dire tentent d’identifier les relations explicatives de la variation d’une série de base (variable expliquée) en fonction d’autres séries de données (variables explicatives). TABLE DES MATIERES DU CHAPITRE

3.1 Méthodes par lissage: - moyennes mobiles, - lissage exponentiel.

3.2 Méthodes adaptatives: - filtrage adaptatif, ...

3.3 Régressions: - simples, ... - multiples.

3.4 Saisonnalité

3.5 Méthodes par décomposition: - tendance, - saisonnalité, - cycles, - aléatoire, - séries de FOURIER.

3.6 Méthodes de BOX-JENKINS (introduction) Remarque: d'une façon générale, chaque méthode de prévision sera présentée par son (ses)

équation(s) mathématique(s), un exemple numérique simple (EXEMPLE A) et un exemple plus complet (EXEMPLE B) commun à toutes les méthodes décrites dans ce chapitre (c.f. Figure 2).

NOTATIONS GENERALES

Série chronologique de données: D(t) Nombre de données historiques: n Base temporelle: t Modèle de prévision: P(t) Nombre de prévisions (>n): δ

Page 7: Module02_20151019_wieser4

13

3.1 METHODES PAR LISSAGE

Ces méthodes de prévision à court terme consistent à effectuer un «lissage» des valeurs extrêmes, afin de révéler la loi sous-jacente d'évolution chronologique des données face aux fluctuations aléatoires. 3.1.1 MOYENNES MOBILES SIMPLES [MMS] Cette méthode simple de lissage consiste à calculer la moyenne de T valeurs de la série chronologique et à décaler successivement d’une unité de temps l’application de cette moyenne (moyenne mobile). Formellement, le résultat de cette moyenne s’appliquera au centre de l’intervalle: MOYENNE MOBILE CENTREE [MMC] (c.f. schéma 1 et § 3.4):

Equation de la méthode: MMC(t)1

TD(i)

i=t-.5 T

t+.5 T

= ⋅⋅

avec: T = période de lissage

DonnéesLissage MMC, T=3

Lissage MMC, T=5

t

Schéma 1 Cette méthode, inapplicable pour extrapoler une série chronologique (prévision), se révèlera par contre très efficace pour mettre en évidence certaines caractéristiques de base des données et en particulier les cycles et de manière détournée la saisonnalité (c.f. § 3.4 & 3.5.1). Dans le cadre d’une prévision, la méthode des Moyennes Mobiles Simples [MMS] s’applique de manière analogue aux MMC en calculant la moyenne des T dernières valeurs de la série chronologique (de t-1 à t-T) mais en projetant (c.f. remarques et variantes ci-après) ce résultat sur la période t.

Moyennes mobiles simples [MMS]: P(t)1

TD(i)

i= t -1

t -T

= ⋅∑

14

EXEMPLE A Moyennes mobiles simples MMS MMC Périodes Données T=2 T=3 T=4 T=3

1 10 - - - - 2 12 - - - 12.0 3 14 11.0 - - 12.3 4 11 13.0 12.0 - 12.7 5 13 12.5 12.3 11.8 13.3 6 16 12.0 12.7 12.5 13.7 7 12 14.5 13.3 13.5 14.3 8 15 14.0 13.7 13.0 13.7 9 14 13.5 14.3 14.0 14.7 10 15 14.5 13.7 14.2 - 11 Prévision 14.5 14.7 14.0

Tableau 1 σ 2.2 1.6 1.7 (c.f. Figure 3) Figure 3: Méthode des Moyennes Mobiles Simples, comparaison graphique de l'effet de la

période de lissage (c.f. Tableau 1, Exemple A)

1 2 3 4 5 6 7 8 9 10 11

16

15

14

13

12

11

10

MMS(T=2)

MMS(T=3)

MOYENNE MOBILE SIMPLE

Données

t

APPLICATION: ces méthodes permettent d’éliminer, ou tout au moins de réduire (fonction

de T et de la base temporelle) les phénomènes ponctuels et/ou de périodes courtes (aléatoire, saisonnalité).

En fonction du choix de T: mise en évidence de la tendance et des

cycles (c.f. Figure 5).

Page 8: Module02_20151019_wieser4

15

REMARQUES et variantes

Il est intéressant de relever quelques caractéristiques particulières de cette méthode par Moyennes Mobiles Simples: chaque terme de la moyenne est pondéré de manière identique (c.f. équation MMS):

P(t) = (1/T)D(t-1) + (1/T)D(t-2) + ... + (1/t)D(t-T)

Une variante à cette méthode, consiste à déterminer un vecteur de pondération Vp minimisant, pour une période de lissage T donnée, l'«erreur» de la prévision. Ainsi:

P(t) = Vp(1)D(t-1) + Vp(2)D(t-2) + ... + Vp(T)D(t-T)

avec: Vp(j)j

T

=∑ =

1

1

Une technique de calibration de ce vecteur Vp sera présentée au § 3.2. à la vue du Tableau 1, il ressort que l'effet de lissage est d'autant plus important que la

période de lissage T est grande! la prévision faite au temps t est fonction (principe de base des MMS) de la moyenne des T

données précédentes. Rigoureusement, il est évident que cette moyenne doit être centrée sur l'intervalle T (c.f. colonne MMC T=3, Tableau 1).

1 2 3 4

P(t)

T

P(t)décalage

Schéma 2 Ce décalage explique en partie le retard d'adaptation et l'effet de «traîne» de cette méthode (décalage de la prévision par rapport aux données de base). Ce phénomène apparaît clairement lorsque que la série chronologique de données est en forme de rampe à pente constante comme le montre l'exemple A' décrit ci-après. La Figure 5 (EXEMPLE B), montre le comportement de cette méthode [MMS] face à une série de données «complexe».

16

Moyennes Mobiles Simples: réponse de cette loi de prévision à une série chronologique de données en forme de rampe (c.f. Figure 4).

EXEMPLE A’ Moyennes mobiles simples MMS Tableau 2 T=2 T=3 T=4

Périodes Données Prév. e(t) Prév. e(t) Prév. e(t) 1 2 - - - - - - 2 4 - - - - - - 3 6 3 3 - - - - 4 8 5 3 4 4 - - 5 10 7 3 6 4 5 5 6 12 9 3 8 4 7 5 7 14 11 3 10 4 9 5 8 16 13 3 12 4 11 5 9 18 15 3 14 4 13 5 10 20 17 3 16 4 15 5 11 Prévision 19 - 18 - 17 -

1 2 3 4 5 6 7 8 9 10 11

20

19

18

17

16

15

14

13

12

11

10

9

8

7

6

5

4

3

2MMS(T=2)

MMS(T=3)

Données

t

Figure 4 Des lissages d'ordres supérieurs permettront de réduire cet effet de «décalage». (c.f. § 3.1.2)

Page 9: Module02_20151019_wieser4

17

Figure 5: EXEMPLE B, Moyennes Mobiles Simples (T=12, données mensuelles: mise en évidence de la tendance et des cycles)

MOYENNE MOBILE SIMPLE (T=12)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

HORIZON DE PREVISION: cette méthode ne permet d’effectuer des prévisions qu’à très

court terme. En effet, soit P(n+1), l’extrapolation de 1 valeur prévisionnelle:

P(n +1)1

TD(i)

i=n

n-T

= ⋅∑

Extrapolation de 2 valeurs prévisionnelles:

P(n + 2)1

TD(i)

i=n+1

n+1-T

= ⋅ ∑

Dans ce dernier calcul entre en compte les T-1 dernières données et la prévision en n+1 [P(n+1)]. En poursuivant cette démarche, le résultat sur un horizon à moyen terme conduirait à une valeur constante et n’aura ainsi plus aucune signification (moyenne de valeurs moyennes!).

18

3.1.2 MOYENNES MOBILES DOUBLES [MMD] Cette méthode, comme son nom le suggère, consiste à appliquer deux fois consécutivement la technique des Moyennes Mobiles Simples [MMS] décrite au paragraphe précédent (avec, dans ce cas: position de P(t) sur la dernière donnée lissée et ajustement local de la tendance!).

P'(t)T

D(i)i=t

t 1 T

= ⋅+ −

∑1

1ère Moyenne Mobile

P"(t)T

P'(i)i=t

t 1 T

= ⋅+ −

∑1

2ème Moyenne Mobile

Il est aisé de montrer (c.f. Tableau 3, EXEMPLE A) que l'effet de «traîne» mis en évidence lors de l'étude des MMS est encore accentué avec les MMD. Une série de corrections doivent alors être apportées afin de réduire ces effets. En particulier, la prévision peut être sensiblement améliorée en ajoutant à P'(t), la différence P'(t)-P"(t): ajustement de la «moyenne», en effet: (c.f. également § 3.1.4)

D(t) - P'(t) ≈ P'(t) - P"(t) [∀t], ainsi

FC1(t) = P'(t) + (P'(t)-P"(t)) = 2P'(t) - P"(t)

Les prévisions P'(t) et P"(t) sont appliquées sur la dernière valeur, respectivement D(t) et P'(t), entrant dans le calcul de la moyenne alors que, rigoureusement, elles devraient être placées au centre de l'intervalle: t; t-T (c.f Schéma 3). Un deuxième facteur correctif est ainsi introduit afin de compenser cet écart de position, correspondant à la différence: P'(t) - P"(t), soit pour une période T=4:

1 2 3 4P'(t)

T

P"(t)décalage

Schéma 3 Décalage (exemple T=4): æ = (T-1)/2 = (4-1)/2 = 1.5 Deuxième facteur correctif: ajustement de la tendance locale (de la pente)

FC2(t)= (P'(t)-P"(t))/æ = 2(P'(t)-P"(t))/(T-1)

Page 10: Module02_20151019_wieser4

19

L'équation complète de la prévision MMD devient alors:

P(t+δδδδ) = FC1(t) + δδδδFC2(t)

avec: δ = nombre de prévisions (δ=1, si t≤n) Pour des valeurs P(t+δ) où (t+δ) > n, la loi de prévision est ainsi une droite de pente FC2, alors que la méthode des Moyennes Mobiles Simples induisait une valeur constante ! En reprenant l'exemple de la rampe à pente constante décrit au paragraphe 3.1.1 (EXEMPLE A', Tableau 2) EXEMPLE A MMS1 T=3 MMS2 T=3 MMD T=3 Périodes Données P'(t) e(t) P"(t) e(t) P'(t)-P"(t) P(t) e(t)

1 2 - - - - - - - 2 4 - - - - - - - 3 6 4 2 - - - - - 4 8 6 2 - - - - - 5 10 8 2 6 4 2 - - 6 12 10 2 8 4 2 12 (δ=1) 0 7 14 12 2 10 4 2 14 (δ=1) 0 8 16 14 2 12 4 2 16 (δ=1) 0 9 18 16 2 14 4 2 18 (δ=1) 0 10 20 18 2 16 4 2 20 (δ=1) 0 11 Prévision: P(11) = (18+2) + 12 22 δ=1 12 Prévision: P(12) = (18+2) + 22 24 δ=2

Tableau 3 (dans ce cas particulier: FC2(t) = FC2 = Cte = 2)

20

Figure 6: comparaison des réponses des méthodes MMS et MMD à un signal de rampe à pente constante (c.f. Exemple A’, Tableau 2 et Exemple A, Tableau 3).

0

2

4

6

8

10

12

14

16

18

1 10 20 30

MMD (T=3)

MMS (T=3)

Données

t

REMARQUE: cette méthode présente un certain nombre d'avantages par rapport aux Moyennes Mobiles Simples (diminution de l'effet de «traîne», ...), par contre, pour effectuer une prévision (t>n), il est nécessaire de pouvoir disposer d'un nombre de données historiques double de celui requit dans le cadre des MMS.

Les paragraphes 3.1.3 & 3.1.4 présentent d'autres techniques de lissage (Lissages Exponentiels) supprimant cette contrainte.

Page 11: Module02_20151019_wieser4

21

Figure 7: EXEMPLE B, Moyenne Mobile Double (T=12, données mensuelles: mise en évidence de la tendance et des cycles)

MOYENNE MOBILE DOUBLE (T=12)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

HORIZON DE PREVISION: de manière analogue aux MMS, cette méthode n’offre la

possibilité d’effectuer des prévisions qu’à très court terme (c.f. horizon de prévision des MMS, § 3.1.1).

L’extrapolation sur un horizon de prévision à moyen ou long terme conduirait à une droite de pente constante = FC2.

22

3.1.3 LISSAGE EXPONENTIEL SIMPLE [LEX] Deux inconvénients majeurs pénalisent la méthode des Moyennes Mobiles, à savoir:

- un nombre élevé de données historiques à garder en mémoire (particulièrement pour les MMD et pour des périodes de lissage T importantes),

- le même poids (1/T) attribué à chaque valeur entrant dans le calcul de la moyenne. La méthode du LISSAGE EXPONENTIEL est basée sur le même principe que celle des Moyennes Mobiles, c'est-à-dire un lissage de valeurs historiques, mais ne nécessite pas la mémorisation d'autant de données chronologiques et surtout permet de moduler la pondération de ces dernières, pour donner, par exemple, un poids plus grand aux observations récentes. Loi mathématique: en développant de l'équation des MMS (c.f. paragraphe 3.1.1):

[ ]P(t)1

TD(i)

TD(t 1) D(t 2) ... D(t T)

i=t-1

t-T

= ⋅ = ⋅ − + − + + −∑1

et ainsi: [ ]P(t +1)T

D(t) D(t 1) ... D(t +1 T)= ⋅ + − + + −1

ou: P(t +1)D(t)

TP(t)

D(t - T)

T= + −

En supposant que la donnée D(t-T) puisse être approximée par la prévision P(t), alors:

P(t +1)D(t)

TP(t)

P(t)

T= + −

ou: P(t +1)1

TD(t)

TP(t)= ⋅

+ −

1

1

En posant: αααα = 1/T, l'équation ci-dessus devient:

P(t+1) = αD(t) + (1-α)P(t)

Page 12: Module02_20151019_wieser4

23

L'équation générale de la méthode du LISSAGE EXPONENTIEL SIMPLE est alors:

P(t) = ααααD(t-1) + (1-αααα)P(t-1)

avec: 0 ≤ α ≤ 1 ainsi, par analogie avec les MMS: α ~ 1 => lissage faible, α ~ 0 => lissage important. En transformant l’équation générale: P(t) = P(t-1) + α(D(t-1) - P(t-1)

ainsi: α ~ 1: rajustement important lié à l'erreur de la prévision précédente α ~ 0: rajustement faible lié à l'erreur de la prévision précédente Caractéristique de la méthode

En développant l'équation générale ci-dessus: P(t) = αD(t-1) + (1-α)P(t-1), alors:

P(t+1) = αD(t) + (1-α)P(t) = = αD(t) + (1-α)[αD(t-1) + (1-α)P(t-1)] = = αD(t) + α(1-α)D(t-1) + (1-α)2

P(t-1) Ainsi: P(t) = Ω(0)D(t) + Ω(1)D(t-1) + ... + Ω(j)D(t-j) + ..

avec: ΩΩΩΩ(j) = αααα[(1-αααα)j], vecteur de pondération satisfaisant la condition: ΣΩ(j) = 1

En effet, Ω(j) est une série géométrique du type abj dont la somme est égale à: a/(1-b), soit:

ΣΩ(j) = α/[1-(1-α)] = 1 La Figure 8 ci-après représente l'évolution de Ω(j) en fonction de j, avec α en paramètre, d'où l'appellation de cette méthode: LISSAGE EXPONENTIEL.

24

Figure 8: LISSAGE EXPONENTIEL, évolution de Ω(j) en fonction de j

Nombre de périodes précédentes j

0 1 2 3 4 5 6 7

0.5

0.4

0.3

0.2

0.1

0

α α α α = 0.10

α α α α = 0.30

αααα = 0.50

ΩΩΩΩ(j)

Remarque: comme l’indique la Figure 8, le paramètre α permet de moduler l’importance

donnée aux valeurs historiques. Ainsi une valeur de α faible (par exemple α=0.1) induira un lissage important (forte influence du passé), par contre une valeur élevée de α (par exemple α=0.5 et au-delà) conduira à un lissage faible donnant de l’importance aux dernières valeurs historiques observées.

Page 13: Module02_20151019_wieser4

25

EXEMPLE A Lissage Exponentiel Simple [P(1) ≡ D(1)] Variante: P(1) = 12 Périodes Données α = 0.90 α = 0.75 α = 0.50 α = 0.25 α = 0.10 α = 0.90 α = 0.10

1 11 11.0 11.0 11.0 11.0 11.0 12.0 12.0

2 12 11.0 11.0 11.0 11.0 11.0 11.1 11.9 3 14 11.9 11.8 11.5 11.3 11.1 11.9 11.9 4 9 13.8 13.4 12.8 11.9 11.4 13.8 12.1 5 13 9.5 10.1 10.9 11.2 11.2 9.5 11.8 6 16 12.7 12.3 11.9 11.7 11.3 12.7 11.9 7 7 15.7 15.1 14.0 12.7 11.8 15.7 12.3 8 12 7.9 9.0 10.5 11.3 11.3 7.8 11.8 9 10 11.6 11.3 11.2 11.5 11.4 11.6 11.8 10 11 10.2 10.3 10.6 11.1 11.3 10.2 11.6 11 Prévision 10.9 10.8 10.8 11.1 11.2 10.9 11.6

Tableau 4 σ 4.3 3.9 3.4 3.1 2.9 4.3 2.8 La partie droite du tableau met en évidence l'influence de la valeur initiale de la prévision en fonction du paramètre de lissage α. Il est évident que cette influence est d'autant plus grande que la constante de lissage α est faible (poids important des observations passées). La Figure 9 présente deux prévisions contrastées (α=0.90 & α=0.10) tirées du tableau ci-dessus. Figure 9: LISSAGE EXPONENTIEL SIMPLE, Exemple A: α=0.90 & α=0.10

LISSAGE EXPONENTIEL SIMPLE

1 2 3 4 5 6 7 8 9 10 11

16

15

14

13

12

11

10

9

8

7

LEX αααα=0.10

LEX αααα=0.90

Données

t

26

La Figure 10 montre la méthode de Lissage Exponentiel Simple: α=0.20, appliquée à l’EXEMPLE B HORIZON DE PREVISION: de manière analogue aux MMS, cette méthode n’offre la

possibilité d’effectuer des prévisions qu’à très court terme (c.f. horizon de prévision des MMS, § 3.1.1).

L’extrapolation sur un horizon de prévision à moyen ou long terme conduirait à une à valeur constante.

REMARQUES

Les paragraphes suivants présentent des techniques de lissage d'ordres supérieurs permettant, comme dans le cas des Moyennes Mobiles Doubles, de diminuer l'effet de retard («traîne», comportement analogue aux MMS, c.f. Figure 4) afin de pouvoir appliquer ces méthodes à des séries chronologiques à variations de tendances et moyennes marquées.

Certains auteurs expriment l'équation du Lissage Exponentiel Simple par l’équation

générale:

P(t) = αD(t) + (1-α)P(t-1) (c.f. § 3.1.4)

Cette modélisation réduit l'effet de «traîne», mais pose quelques difficultés dans le cadre de détermination de valeurs de prévision: t>n! Elle sera donc utilisée avant tout pour modéliser une série de données.

Page 14: Module02_20151019_wieser4

27

Figure 10: EXEMPLE B, Lissage Exponentiel Simple: α=0.20

LISSAGE EXPONENTIEL SIMPLE (αααα=0.2)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

28

3.1.4 LISSAGE EXPONENTIEL DOUBLE [LEXD] Le principe (et le but) de cette méthode est analogue à celui des MMD (diminution de l'effet de «traîne») et présente l'avantage, entre autre, de ne pas nécessiter un nombre aussi important de données historiques. (c.f. § 3.1.2) Cette méthode de lissage double consiste ainsi à effectuer deux fois consécutivement un lissage simple [LEX] et à ajuster les résultats de manière à corriger l'effet de «traîne» mis en évidence au paragraphe 3.1.3 (EXEMPLE A, α=0.90). Il est ainsi possible de quantifier le retard d'une prévision obtenue par lissage exponentiel simple par rapport à une série de données à croissance linéaire: D(t) = A + Bt En remplaçant D(t) dans la loi de prévision LEX (c.f. REMARQUES, § 3.1.3): P'(t) = αD(t) + (1-α)P'(t-1) en développant cette équation: P'(t) = [(A + Bt)α(1 + (1-α) + (1-α)² + ...)] - Bα(1-α)(1 + 2(1-α) + 3(1-α)² + ...) et puisque:

α α⋅ −∑ =∞

( )1 1i

i=0 et α α α α⋅ ⋅ −∑ = −

∞i i

i=0( ) ( ) /1 1

alors: P'(t) = A + Bt - B((1-α)/α) = D(t) - B((1-αααα)/αααα)

Ainsi, le terme: B((1-α)/α) représente le retard de la prévision par rapport aux données. En appliquant une deuxième fois le même processus de lissage sur la prévision P': P"(t) = αP'(t) + (1-α)P"(t-1) en développant cette équation: P"(t) = A + Bt - 2B(1-α)/α = P'(t) - B((1-α)/α) donc: - B((1-α)/α) = P"(t) - P'(t) = P'(t) - D(t) d'où: D(t) = 2P'(t) - P"(t) Ainsi la valeur moyenne de la prévision au temps t, P(t), sans décalage par rapport à la donnée D(t) s'exprime par:

P(t) = 2P'(t) - P"(t) La prévision au temps t+δ, P(t+δ), doit prendre en compte la valeur de prévision P(t) ainsi que sa tendance locale défini comme suit:

P'(t) - P"(t) = B((1-α)/α) d'où: tendance locale = B(t) = (α[P'(t)-P"(t)])/(1-α) [B = B(t) !]

Page 15: Module02_20151019_wieser4

29

Ainsi l'équation générale de la méthode du LISSAGE EXPONENTIEL DOUBLE est alors:

P(t+δδδδ) = a(t) + δδδδb(t)

avec:

a(t) = 2P'(t) - P"(t) moyenne lissée en période t b(t) = (α[P'(t)-P"(t)])/(1-α) tendance linéaire en période t

EXEMPLE A Lissage Exponentiel Double α=0.30 Compar. [LEXD] [LEX] Périodes Données P'(t) P"(t) a(t) b(t) P(t) δ P(t)

1 6 6.0 6.0 - - - - - 2 7 6.3 6.1 6.5 0.1 - - 6.0 3 8 6.8 6.3 7.3 0.2 6.6 1 6.3 4 7 6.9 6.5 7.3 0.2 7.5 1 6.8 5 10 7.8 6.9 8.7 0.4 7.4 1 6.9 6 9 8.2 7.3 9.1 0.4 9.1 1 7.8 7 12 9.3 7.9 10.8 0.6 9.5 1 8.2 8 10 9.5 8.4 10.7 0.5 11.4 1 9.3 9 11 10.0 8.8 11.1 0.5 11.2 1 9.5 10 14 11.2 9.5 12.8 0.7 11.6 1 10.0 11 Prévision 13.5 1 11.2 12 Prévision 14.2 2 10.8 13 Prévision 14.9 3 14 Prévision 15.6 4 Tableau 5 MQ 1.7 2.3 σ 1.6 1.4

La Figure 11 présente la prévision de la série chronologique de données ci-dessus selon les méthodes du Lissage Exponentiel Simple et Double. La Figure 12 montre, pour l’EXEMPLE B, la méthode du Lissage Exponentiel Double: α=0.20

30

Figure 11: EXEMPLE A, Comparaison: Lissage Exponentiel Simple: α=0.30 Lissage Exponentiel Double: α=0.30

LISSAGES EXPONENTIELS

1 2 3 4 5 6 7 8 9 10 11 12

15

14

13

12

11

10

9

8

7

6

Lis. exp. simple

Lis. exp.double

Données

t

REMARQUES

l'expérience montre que, en général, la méthode du Lissage Exponentiel Double permet d'atteindre des résultats meilleurs que ceux obtenus par la technique des MMD.

Toutefois, comme pour la méthode LEX, une analyse d'écarts permettra d'optimiser la constante de lissage α.

le paragraphe 3.1.5 présente d'autres formes de Lissages, en particulier: la méthode linéaire

de HOLT et le Lissage Exponentiel Quadratique (BROWN); cette dernière méthode permettant de prendre en compte les effets de tendances quadratiques par opposition au:

- LEX: tendance horizontale (constante), et au - LEXD: tendance linéaire.

Page 16: Module02_20151019_wieser4

31

Figure 12: EXEMPLE B, Lissage Exponentiel Double: α=0.20

LISSAGE EXPONENTIEL DOUBLE (αααα=0.2)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

HORIZON DE PREVISION: de manière analogue aux MMD, cette méthode n’offre la

possibilité d’effectuer des prévisions qu’à très court terme (c.f. horizon de prévision des MMD, § 3.1.2).

L’extrapolation sur un horizon de prévision à moyen ou long terme conduirait à une droite de pente constante.

32

3.1.5 AUTRES FORMES DE LISSAGES A. METHODE DE HOLT [LHOLT]

Cette méthode est similaire au principe du Lissage Exponentiel Double, mais permet de dissocier explicitement le lissage de la moyenne des données de la série chronologique (constante de lissage α absorbant l'écart em(t) , part de l'écart e(t) entre la moyenne prévue au temps t et la moyenne réelle), de celui de la tendance de cette même série (constante de lissage β). Les équations de base de la méthode de HOLT sont ainsi:

P(t) = αD(t) + (1-α)[P(t-1)+W(t-1)]

avec W(t) = β[P(t)-P(t-1)] + (1-β)W(t-1)

W(t) représentant l'ajustement de la tendance («lissage» de la tendance locale). Il s'agit donc bien d'un double lissage exponentiel (données [α] et tendance [β]). L'équation générale de la prévision au temps t+δ est ainsi:

P(t+δδδδ) = P(t) + δδδδW(t)

B. LISSAGE EXPONENTIEL QUADRATIQUE [LQUAD] Les modèles exposés jusqu'ici permettent d'analyser des séries chronologiques présentant des changements lents de tendances et/ou de moyennes. L'application d'un modèle quadratique rend possible l'approche prévisionnelle de séries à fortes variations de tendances (comparaison de modèles: c.f. Figure 13 ci-dessous).

TENDANCE:

composante quadratique

composante linéaire

MOYENNE

temps

t+δδδδ

Figure 13

Page 17: Module02_20151019_wieser4

33

Le passage du modèle linéaire au modèle quadratique s'obtient en effectuant un lissage supplémentaire, soit un lissage exponentiel triple, ainsi: P'(t) = αD(t) + (1-α)P'(t-1) 1er lissage

P"(t) = αP'(t) + (1-α)P"(t-1) 2ème lissage

P'"(t) = αP"(t) + (1-α)P'"(t-1) 3ème lissage L'équation générale du modèle de prévision par Lissage Exponentiel Quadratique est alors définie par:

P(t+δδδδ) = a(t) + δδδδb(t) + δδδδ2c(t)

avec:

a(t) = 3P'(t) - 3P"(t) + P'"(t)

b(t) = [α/2(1-α)2][(6-5α)P'(t)-(10-8α)P"(t)+(4-3α)P'"(t)]

c(t) = [α2/2(1-α)2][P'(t)-2P"(t)+P'"(t)]

Ces trois coefficients étant obtenus en développant les équations de lissage ci-dessus (c.f. également § 3.1.3). Les deux tableaux de la page suivante présentent, pour l’EXEMPLE A du paragraphe 3.1.4, une comparaison entre les méthodes de lissage de HOLT et QUADRATIQUE, en regard des résultats obtenus dans le cadre de la méthode du Lissage Exponentiel Double. (c.f. Figure 14)

34

EXEMPLE A Lissage de HOLT α=0.30 β=0.70 Compar. Lissage Lissage LEXD

Périodes Données données tendance P(t) δ P(t) 1 6 6.0 1) 0.0 2) - - - 2 7 6.3 0.2 - - - 3 8 7.0 0.5 6.5 1 6.6 4 7 7.4 0.4 7.5 1 7.5 5 10 8.4 0.9 7.8 1 7.4 6 9 9.2 0.8 9.3 1 9.1 7 12 10.7 1.2 10.1 1 9.5 8 10 11.3 0.9 11.9 1 11.4 9 11 11.8 0.6 12.2 1 11.2 10 14 12.9 0.9 12.4 1 11.6 11 Prévision 13.8 1 13.5 12 Prévision 14.8 2 14.2 13 Prévision 15.7 3 14.9 14 Prévision 16.6 4 15.6

Tableau 6 MQ 1.5 1.7 σ 1.6 1.6

Valeurs initiales: 1) P(1) ≡ D(1) 2) W(1) = 0, une autre variante pourrait être: W(1) = D(2) - D(1) EXEMPLE A Lissage Exponentiel QUADRATIQUE Comp. α=0.30 LEXD Périodes Données P'(t) P"(t) P'"(t) a(t) b(t) c(t) P(t) δ P(t)

1 6 6.0 6.0 6.0 - - - - - - 2 7 6.3 6.1 6.0 6.7 0.23 0.01 - - - 3 8 6.8 6.3 6.1 7.6 0.51 0.03 6.9 1 6.6 4 7 6.9 6.5 6.2 7.4 0.30 0.01 8.2 1 7.5 5 10 7.8 6.9 6.4 9.2 0.85 0.04 7.7 1 7.4 6 9 8.2 7.3 6.7 9.4 0.68 0.03 10.1 1 9.1 7 12 9.3 7.9 7.0 11.4 1.18 0.05 10.1 1 9.5 8 10 9.5 8.4 7.4 10.9 0.70 0.02 12.6 1 11.4 9 11 10.0 8.9 7.9 11.2 0.60 0.01 11.6 1 11.2 10 14 11.2 9.6 8.4 13.2 1.12 0.04 11.8 1 11.6 11 Prévision 14.4 1 13.5 12 Prévision 15.7 2 14.2 13 Prévision 17.0 3 14.9 14 Prévision 18.4 4 15.6 Tableau 7 MQ 1.8 1.7

σ 1.9 1.6

Page 18: Module02_20151019_wieser4

35

Figure 14: EXEMPLE A, Comparaison: - Lissage Exponentiel de HOLT: α=0.30 & β=0.70 - Lissage Exponentiel QUADRATIQUE: α=0.30

Exemple A

1 2 3 4 5 6 7 8 9 10 11 12 13 14

19

18

17

16

15

14

13

12

11

10

9

8

7

6

Lis. exp. quadratique

Lis. exp. HOLT

Données

t

36

Figure 15: EXEMPLE B, Lissage Exponentiel de HOLT: α=0.20, β=0.10

LIS. EXP. HOLT ( αααα=0.2, ββββ=0.1)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

Page 19: Module02_20151019_wieser4

37

3.2 METHODES ADAPTATIVES

Les différentes techniques de lissage exposées au paragraphe précédent font appel à un certain nombre de paramètres considérés comme constants dans le modèle de prévision, en particulier:

- les poids de chaque valeur entrant dans le calcul de la moyenne: 1/T (Moyennes Mobiles Simples ou Doubles),

- le coefficient de lissage α (Lissage Exponentiel Simple ou Double). Le but des approches adaptatives est de calibrer (voire d'optimiser) ces paramètres, en fonction du type même de la série chronologique de données. 3.2.1 METHODE PAR FILTRAGE ADAPTATIF [FAD] But: calibrage d'un vecteur de pondération optimum applicable à la technique des Moyennes

Mobiles. Le fait de pouvoir calibrer chaque élément de ce vecteur (c.f. § 3.1.1) permet d'obtenir des modèles de prévision parfois «meilleurs» que ceux obtenus en considérant un vecteur de pondération constant = 1/T (T=période de lissage). Le principe de cette méthode est de calibrer ce vecteur «poids» par itérations successives, en ajustant à chaque étape l'ensemble de ses éléments («minimisation» du carré moyen de l'écart: modèle - données). En partant de l'équation générale des MMS (c.f. § 3.1.1):

P(t +1)1

T(i) D(i)

i=t+1-T

t

= ⋅ ⋅∑[ ]Γ

avec Γ = vecteur de pondération. Remarque: méthode des MMS: Γ(i) = Γ = 1/T = Cte Le processus général du calcul d'optimisation du vecteur de pondération est décrit par le schéma de la Figure 16.

38

Figure 16: Filtrage Adaptatif, processus général de calcul

j = j + 1

P(n+1) ...

P(t+1)

e2Min

D(t), D(t-1), ... , D(t+1-T)

t = T + 1

ΓΓΓΓ(i) = ΓΓΓΓo

ΓΓΓΓ(i) stable ?ΓΓΓΓ(i)oui

non

STOP

t > n ΓΓΓΓ(i) = ΓΓΓΓ'(i)

t = t + 1

ΓΓΓΓfinal (i) = ΓΓΓΓ(i)

oui

non

ΓΓΓΓ'(i)D(t+1)

initialisationj=1

Finalement: Γfinal = f(Min e2moyen)

En considérant un lissage sur une période T=2, soit deux poids mis en jeu, il est possible de visualiser le carré moyen de l'erreur par une fonction en forme de «cuvette» (c.f. Figure 17). En réalité la surface de cette courbe n'est pas uniforme en raison du caractère aléatoire des observations passées!

2

e2

e2Min

1

Figure 17

Page 20: Module02_20151019_wieser4

39

Mathématiquement, le calcul d'optimisation des T éléments du vecteur «poids» consiste à se déplacer le long de cette courbe «cuvette» de manière à atteindre le point «minimum» (Méthode de la plus grande pente décroissante). Ainsi, tous calculs effectués, l'équation résultante se présente sous la forme:

ΓΓΓΓ'(i) = ΓΓΓΓ(i) + [2KeD(i)]

avec: 1 ≤ i ≤ T K = constante d'apprentissage (valeur exogène) (Cte de réglage, adaptation ± rapide du modèle) e = erreur du modèle de prévision: D(t+1) - P(t+1)

Il s'agira enfin de normer ce vecteur de pondération: Γ' (i) = 1i=1

T

Exemple: soit une série périodique 1-2 (EXEMPLE A) approchée par une méthode de filtrage

adaptatif avec une période de lissage de T=2.

Vecteur de pondération: Γ = [Γ1;Γ2] Pondération initiale: Γ0 = [0.5;0.5]

j=nombre d’itérations

EXEMPLE A Filtrage adaptatif K=0.10 K=0.50 Périodes Données j=1 j=2 j=1

1 1 - - - 2 2 - - - 3 1 1.50 1.20 1.50 4 2 1.57 1.87 1.00 5 1 1.41 1.15 1.50 6 2 1.67 1.90 1.00 7 1 1.33 1.11 1.50 8 2 1.76 1.93 1.00 9 1 1.26 1.08 1.50 10 2 1.82 1.95 1.00 11 Prévision 1.20 1.06 1.50

Tableau 8 Pondération Γ1 0.804 0.940 0.500 Γ2 0.196 0.060 0.500 MQ 0.35 0.12 0.79 σ 0.37 0.13 0.80

40

Détail du calcul (K=0.10, j=1): P(3) = (0.5 1) + (0.5 2) = 1.5 e(3) = 1 - 1.5 = -0.5 ainsi: Γ1 = 0.5 + (2 0.1 (-0.5) 1) = 0.4 Γ2 = 0.5 + (2 0.1 (-0.5) 2) = 0.3 soit en valeurs normées: Γ1 = 0.571 & Γ2 = 0.429 puis : P(4) = (0.571 2) + (0.429 1) = 1.57 ..... Résultats de pondération en fonction du nombre d'itérations:

Nombre d’itérations j Pondération Γ1 Pondération Γ2 1 0.804 0.196 2 0.940 0.060 3 0.983 0.017 4 0.995 0.005 5 0.999 0.001 6 1.000 0.000

REMARQUES:

le coefficient K doit être spécifié avec soin. En effet, une valeur élevée de K provoque, à

chaque étape, des rajustements très importants qui peuvent conduire à des incohérences ou à une divergence du modèle! (c.f. EXEMPLE A, Tableau 8: K=0.5; j=1),

il est à noter finalement que cette méthode peut aboutir à des modèles de prévision d'une

précision sensiblement meilleure que celle obtenue avec des techniques de Moyennes Mobiles ou de Lissages Exponentiels, mais au détriment d’approches plus complexes.

HORIZON DE PREVISION: idem à celui des autres méthodes de lissage (MMS, MMD,

LEX, LEXD, ...) La Figure 18 ci-après présente l'EXEMPLE A avec les conditions: K=0.10 & j=1, et la Figure 19 reprend l’EXEMPLE B avec la méthode du Filtrage Adaptatif avec les paramètres: K=0.10 & j=5.

Page 21: Module02_20151019_wieser4

41

Figure 18: EXEMPLE A, Filtrage Adaptatif K=0.10 & j=1

FILTRAGE ADAPTATIF: K=0.10 & j=1

1 2 3 4 5 6 7 8 9 10 11

2

1.9

1.8

1.7

1.6

1.5

1.4

1.3

1.2

1.1

1

Données

t

42

Figure 19: EXEMPLE B, Filtrage Adaptatif: K=0.10 & j=5

FILTRAGE ADAPTATIF: K=0.10 & j=5

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

Page 22: Module02_20151019_wieser4

43

3.2.2 LISSAGE EXPONENTIEL SIMPLE: approche adaptative [LEXAD] Cette méthode consiste à calibrer en fonction de t le coefficient de lissage α, de manière à minimiser l'écart du modèle de prévision. En partant de l'équation générale du LEX (c.f. § 3.1.3): P(t+1) = αD(t) + (1-α)P(t) en introduisant αααα = αααα(t):

P(t+1) = αααα(t)D(t) + [1-αααα(t)]P(t)

avec:

α(t+1) = E1(t)/E2(t)

E1(t) = εe(t) + (1-ε)E1(t-1) E2(t) = εe(t) + (1-ε)E2(t-1)

et: e(t) : e(t) = D(t) - P(t), E1(t): lissage de l'écart e(t) E2(t): lissage de la valeur absolue de l'écart e(t) ε: constante de lissage de l'écart Remarque: l'équation: α(t+1) = E1(t)/E2(t), pourrait être remplacée par: α(t) = E1(t)/E2(t)

Néanmoins cette méthode provoque souvent des «réponses» d'adaptation trop brutale, c'est la raison pour laquelle il est préférable d'introduire une certaine inertie au modèle par le décalage de α.

44

En reprenant le même exemple développé dans le cadre de la méthode LEX (c.f. § 3.1.3): EXEMPLE A Lissage Exponentiel Adaptatif Compar.

α0=0.90 & ε=0.10 LEX Périodes Données P(t) e(t) E1(t) E2(t) α(t) α=0.90

1 11 11.0 0.0 0.00 0.00 0.90 11.0 2 12 11.0 1.0 0.10 0.10 0.90 11.0 3 14 11.9 2.1 0.30 0.30 0.90 11.9 4 9 13.8 -4.8 -0.21 0.75 0.90 13.8 5 13 9.5 3.5 0.16 1.03 0.28 9.5 6 16 10.5 5.5 0.70 1.48 0.16 12.7 7 7 11.4 -4.4 0.20 1.76 0.48 15.7 8 12 9.3 2.7 0.45 1.86 0.11 7.9 9 10 9.6 0.4 0.45 1.72 0.24 11.6 10 11 9.7 1.3 0.53 1.68 0.26 10.2 11 Prévision 10.0 0.32 10.9

Tableau 9 MQ 3.5 4.1 σ 3.7 4.3 valeurs initiales: P(1) = P(2) = D(1) E1(1) = E2(1) = 0 α(1) = α(2) = α(3) = α(4) = α0 Le tableau ci-dessus montre une amélioration sensible de la moyenne quadratique (MQ) par rapport aux résultats obtenus avec la méthode LEX α = 0.9 = Cte. Il est également intéressant de noter l'adaptation importante du coefficient α! HORIZON DE PREVISION: idem à celui des autres méthodes de lissage exponentiel

(LEX, LEXD, ...) La Figure 20 présente l’EXEMPLE B modélisé par un Lissage Exponentiel Adaptatif avec les conditions: αo = 0.20 & ε = 0.10

Page 23: Module02_20151019_wieser4

45

Figure 20: EXEMPLE B, Lissage Exponentiel Adaptatif, αo = 0.20 & ε = 0.10

LISSAGE EXPONENTIEL ADAPTATIF

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

46

3.3 METHODES DE REGRESSIONS

Les techniques examinées jusqu'ici (MMS, MMD, LEX, LEXD, ...) tentaient d'identifier la loi fondamentale sous-jacente à une série chronologique. Les méthodes de régressions supposent qu'une loi de base est connue, et qu'elle peut être modélisée par une équation dont les coefficients sont à déterminer de manière à minimiser les écarts entre la série de données et le modèle: P=f(t) (le temps, dans ce cas de régression simple, étant la variable indépendante).

De telles méthodes (c.f. également § 3.5), destinées à modéliser la tendance générale d’une série de données, sont fréquemment appliquées dans le cadre de prévisions à moyen et long terme (stabilité?!). L'analyse de régression ne se limite pas uniquement à ce type de relation simple (P=f(t)), mais est utilisée dans la détermination de modèles économétriques dans le but d'estimer la valeur d'une série en fonction d'une ou de plusieurs autres séries de données (variables indépendantes): modèles causals (régressions simples et multiples), X=f(Y), X=f(Y,Z,V...) 3.3.1 REGRESSIONS LINEAIRES [RP1] Régression polynomiale de degré 1 Ce modèle présuppose que la loi de variation de la série chronologique est une droite d'équation:

P(t) = A0 + A1t

TENDANCE LINEAIRE dont les coefficients A0 et A1 sont à déterminer de façon à minimiser la somme des carrés des écarts:

Σe2(t) = Σ[D(t) - P(t)]2

pour tous t (ces écarts pouvant être positifs, négatifs ou nuls), ainsi:

Condition: Min e (t)2

t=1

n

∑ METHODE DES MOINDRES CARRES

Page 24: Module02_20151019_wieser4

47

EXPOSE DE LA METHODE

Soit D une série de données définie par les points:

[D1,t1], [D2,t2], ... , [Dn,tn] Il s'agit alors de déterminer une droite d'équation:

P(t) = A0 + A1t avec la condition que A0 et A1 minimisent:

S = Σe2 = e12 + e2

2 +...+ en2

(Remarque: la notation ≡ ∑∑=t 1

n

)

En développant cette relation: S = [D(1)-(A0+A1)]

2 + [D(2)-(A0+2A1)]2 + ... + [D(n)-(A0+nA1)]

2 S est minimum lorsque ses dérivées partielles par rapport à A0 et A1 sont nulles:

∂S/∂A0 = 0 & ∂S/∂A1 = 0 Les équations obtenues sont ainsi:

A0n + A1Σt - ΣD(t) = 0 A0Σt + A1Σt2 - Σ[tD(t)] = 0

après résolution de ce système de deux équations à deux inconnues:

[(ΣD(t))Σt2] - [(Σt)(Σ(tD(t)))] A0 = (nΣt2) - (Σt)2 [nΣ(tD(t))] - [(Σt)(ΣD(t))] A1 = (nΣt2) - (Σt)2

A0 : décalage à l'origine A1 : pente de la droite PREVISION: estimation d'une valeur prévisionnelle en t=n+δ:

P(n+δδδδ) = A0 + A1(n+δδδδ)

48

EXEMPLE A: Régression linéaire n=10 (c.f. Figure 21)

Périodes t t2 D(t) tD(t) P(t) 1 1 10 10 11.3 2 4 12 24 11.7 3 9 14 42 12.1 4 16 11 44 12.6 5 25 13 65 13.0 6 36 16 96 13.4 7 49 12 84 13.8 8 64 15 120 14.3 9 81 14 126 14.7 10 100 15 150 15.1 Σt = 55

(Σt)2 = 3025 Σt2 = 385 ΣD = 132 Σ(tD) = 761 A0 = 10.87

A1 = 0.424

11 Prévision: P(t) = 10.87 + 0.424t 15.5 Tableau 10 σ 1.4

1 2 3 4 5 6 7 8 9 10

16

15

14

13

12

11

10

Données

t

Figure 21 La Figure 22 ci-après présente, pour l’EXEMPLE B, l’application d’une régression linéaire.

Page 25: Module02_20151019_wieser4

49

Figure 22: EXEMPLE B, Régression Linéaire Résultat: A0=706 & A1=-0.471

REGRESSION LINEAIRE

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

Données

1996

t

50

MESURE DE PERFORMANCE: COEFFICIENT DE CORRELATION LINEAIRE

L'équation du coefficient de corrélation linéaire, exprimé au paragraphe 2.1, se traduit par:

rVariation EXPLIQUEE

Variation TOTALE= ±

En d'autres termes, ce coefficient mesure l'efficacité de l'ajustement du modèle par rapport aux données, sa variation étant comprise entre +1 et -1 (c.f. Figure 23).

corrélation forte: r ≈ +1 ou r ≈ -1 / corrélation nulle: r ≈ 0

CORRELATION POSITIVE CORRELATION NEGATIVE CORRELATION NULLE

Figure 23 Ainsi, dans les exemples précédents des Figures 21 & 22:

EXEMPLE A, Figure 21: r = 0.66 EXEMPLE B, Figure 22: r = 0.11

Remarque: la formule du coefficient de corrélation linéaire décrite au paragraphe 2.1 peut également s'écrire:

rn (X(i) Y(i)) - X(i) Y(i)

(n X(i) X(i)) (n Y(i) Y(i))

i 1

n

i 1

n

i 1

n

i 1

n

i 1

n

i 1

n

i 1

n=

⋅ ⋅∑

⋅∑ ∑

⋅ − ∑∑

⋅ ⋅ − ∑∑

= = =

== ==

2 2 2 2) ( ) (

avec: X ≡ t et Y ≡ D(t), alors:

rn (t D(t)) - t D(t)

(n t t) (n D(t) D(t))

t 1

n

t=1

n

t 1

n

t 1

n

t 1

n

t 1

n

t 1

n=

⋅ ⋅∑

⋅∑ ∑

⋅ − ∑∑

⋅ ⋅ − ∑∑

= =

== ==

2 2 2 2) ( ) (

Page 26: Module02_20151019_wieser4

51

3.3.2 REGRESSIONS NON LINEAIRES [RPx] En appliquant la même démarche que celle exposée au paragraphe 3.3.1 (régression linéaire), il est possible, moyennant un changement de variable, de prendre en compte, pour décrire la loi de base de variation d'une série chronologique, des équations non linéaires, en particulier: a1. FONCTION HYPERBOLIQUE

P(t) = 1/(A0 + A1t)

ou: (1/P(t)) = A0 + A1t en posant: Ph(t) = 1/P(t) ⇒ Ph(t) = A0 + A1t b1. FONCTION EXPONENTIELLE

P(t) = A0A1t

ou: Log P(t) = Log A0 + tLog A1 = A0' + A1't en posant: Pe(t) = Log P(t) ⇒ Pe(t) = A0' + A1't c1. FONCTION PUISSANCE

P(t) = A0tA1

ou: Log P(t) = Log A0 + A1Log t = A0' + A1Log t en posant: Pp(t) = Log P(t) ⇒ Pp(t) = A0' + A1Log t d1. COURBE en «S»

P(t) = AS/(1 + A0e-A1t)

avec AS = valeur de l'asymptote (phénomène à seuil!, c.f. schéma 4)

AS

t

Schéma 4

52

De plus, la technique des «moindres carrés» peut être étendue aux polynômes de degré k (c.f. § 3.3.1), ainsi: a2. PARABOLE

P(t) = A0 + A1t + A2t2

Parabole des moindres carrés b2. CUBIQUE

P(t) = A0 + A1t + A2t2 + A3t

3

Cubique des moindres carrés c2. COURBE DE DEGRE k

P(t) = A0 + A1t + A2t2 + ... + Akt

k

d2. FONCTION LOGISTIQUE (degré 2)

P(t) = A0 + A1Log t + A2(Log t)2

(⇒ extension à une fonction logarithmique de degré k) EXEMPLE A: Régression linéaire et non linéaire (comparaison)

t D(t) Linéaire Hyperbol. Puissance Parabol. Cubique Log. k=2 1 10 11.29 11.18 11.24 10.75 10.35 10.23 2 12 11.72 11.53 11.62 11.53 11.66 11.74 3 14 12.14 11.90 12.02 12.23 12.56 12.54 4 11 12.56 12.29 12.43 12.84 13.13 13.07 5 13 12.99 12.71 12.85 13..35 13.46 13.46 6 16 13.41 13.16 13.29 13.78 13.66 13.77 7 12 13.84 13.65 13.74 14.11 13.82 14.02 8 15 14.26 14.17 14.21 14.35 14.03 14.22 9 14 14.68 14.73 14.70 14.50 14.37 14.40 10 15 15.11 15.34 15.20 14.56 14.96 14.56 11 Prévision 15.53 16.00 15.72 14.53 15.87 14.70 Tableau 11 σ 1.44 1.48 1.46 1.40 1.37 1.36 r 0.66 0.65 0.66 0.69 0.70 0.71 A0 10.9 0.0921 10.9 9.87 8.53 10.2 A1 0.424 -0.0027 1.03 0.924 2.11 2.30 A2 - - - -0.455 -0.302 -0.183 A3 - - - - 0.0155 -

Page 27: Module02_20151019_wieser4

53

Figure 24: EXEMPLE A Comparaison: régression linéaire - régression logarithmique de degré k=2

1 2 3 4 5 6 7 8 9 10

16

15

14

13

12

11

10

Linéaire

Données

Logistique(k=2)

t

APPLICATION: ces méthodes de régression sont avant tout destinées à modéliser la

caractéristique TENDANCE d’une série de données chronologique. Il ne faudrait ainsi pas vouloir modéliser d’autres caractéristiques, en particulier les facteurs périodiques (saisonnalité ou cycles), à l’aide de modèle de régression d’ordre élevé de k. Cela conduirait à des instabilités de prévisions (extrapolations) du modèle (c.f. Figure 25).

HORIZON DE PREVISION: ⇒ régressions seules: moyen à long terme

⇒ régression avec superposition des facteurs saisonniers et cycliques: court à moyen terme (c.f. § 3.5)

54

Figure 25a: INSTABILITES, EXEMPLE B modélisé par une régression polynomiale du 6ème degré

EXEMPLE B: Régression du 6ème degré

0

200

400

600

800

1000

1200

1400

1989 1990 1991 1992 1993 1994 1995 1996

Données

t

Figure 25b: INSTABILITES, EXEMPLE B modélisé par une régression polynomiale du

7ème degré

EXEMPLE B: Régression du 7ème degré

-2000

-1500

-1000

-500

0

500

1000

1989 1990 1991 1992 1993 1994 1995 1996

Donnéest

Page 28: Module02_20151019_wieser4

55

REMARQUE: certaines séries chronologiques peuvent présenter, localement, plusieurs tendances marquées (c.f. Figures 26)

Il s’agira alors, en fonction de l’horizon de prévision souhaité, de considérer: - soit une approche locale par régressions successives (prévision à court

terme) - soit une approche globale par régression unique (prévision à moyen, voire

long terme) Ces deux approches (calcul de tendances) pouvant être enrichies des

composantes cycliques et saisonnières (c.f. § 3.5)

Approche locale

t

Figure 26a

Approche globale

t

Figure 26b

56

3.3.3 REGRESSIONS MULTIPLES [RM] Un modèle de régression multiple est défini par une équation permettant d'estimer une variable X, en fonction de variables indépendantes Y, Z, ... (modèle économétrique):

X = f(Y,Z,...)

La démonstration de la méthode se fera au travers d’un exemple: X = f(Y,Z)

soit: X(i) = a + bY(i) + cZ(i), avec a, b et c = constantes

Si X, Y & Z = f(t), alors: i ≡ t Par analogie à la droite de régression des moindres carrés (ensemble de n points à deux dimensions), il sera défini un plan de régression des moindres carrés (ensemble de n points à trois dimensions; si dimension>3 ⇒ hyperplan de régression). En appliquant la même technique que celle décrite au paragraphe 3.3.1, il est possible d'obtenir le système d'équations normales suivantes:

ΣX = an + bΣY + cΣZ

Σ(XY) = aΣY + bΣ(Y2) + cΣ(YZ)

Σ(XZ) = aΣZ + bΣ(YZ) + cΣ(Z2)

La résolution de ces équations conduit à déterminer les constantes: a, b et c. Exemple: X = f(Y,Z), explication de X en fonction de Y & Z

n ou t X Y Z Y2 Z2 XY XZ YZ 1 64 57 8 3249 64 3648 512 456 2 71 59 10 3481 100 4189 710 590 3 53 49 6 2401 36 2597 318 294 4 67 62 11 3844 121 4154 737 682 5 55 51 8 2601 64 2805 440 408 6 58 50 7 2500 49 2900 406 350 7 77 55 10 3025 100 4235 770 550 8 57 48 9 2304 81 2736 513 432 9 56 52 10 2704 100 2912 560 520 10 51 42 6 1764 36 2142 306 252 11 76 61 12 3721 144 4636 912 732 12 68 57 9 3249 81 3876 612 513 Σ 753 643 106 34843 976 40830 6796 5779

Tableau 12

Page 29: Module02_20151019_wieser4

57

Ainsi, les équations définies précédemment deviennent (n=12):

753 = 12a + 643b + 106c

40830 = 643a + 34843b + 5779c

6796 = 106a + 5779b + 976c

d'où après résolution du système:

a = 3.65 b = 0.855 c = 1.51

Equation du plan de régression:

Xestimé = 3.65 + 0.855Y + 1.51Z

(c.f. Figure 27) Comparaison: X & Xestimé

n ou t X Y Z Xestimé 1 64 57 8 64.4 Coefficients de 2 71 59 10 69.1 corrélation linéaire 3 53 49 6 54.6 r(X,Y) = 0.820 4 67 62 11 73.2 r(X,Z) = 0.770 5 55 51 8 59.3 r(Y,Z) = 0.798 6 58 50 7 56.9 r(X,Xestimé) = 0.842 7 77 55 10 65.7 8 57 48 9 58.2 9 56 52 10 63.2 10 51 42 6 48.6 11 76 61 12 73.9 12 68 57 9 65.9 Tableau 13 σ 4.85

REMARQUE: le calcul de prévisions: P(n+δ) ≡ Xestimé(n+δ) se fera par l'équation du plan

(hyperplan) de régression définie ci-dessus. Il est évident que pour pouvoir calculer Xestimé(n+δ), il faut connaître Y(n+δ),

Z(n+δ), ... déterminés, par exemple, à partir des méthodes de prévision (appliquées à une série chronologique unique) exposées dans ce chapitre 3 (Moyennes Mobiles, Lissage Exponentiel, Régressions Simples, Méthode de Box-Jenkins, ...).

58

Figure 27: Représentation graphique du plan de régression X=f(Y,Z) de l'exemple précédent.

40

50

60

70

80

40 50 60

5

10

15

X

Y

Z

Données

Modèle

Page 30: Module02_20151019_wieser4

59

3.4 SAISONNALITE

Les méthodes de Régression, exposées au paragraphe 3.3, ont permis de modéliser la caractéristique tendance d'une série chronologique. En référence aux Figures 1 & 2, il apparaît que la saisonnalité (par définition: cycles contenus à l’intérieur d’une année) constitue un élément important des séries de données basées sur une échelle mensuelle ou trimestrielle de temps. En effet, la mise en évidence et la quantification des indices saisonniers permettront d’isoler explicitement cette caractéristique et de ce fait, offriront la possibilité de désaisonnaliser la série de base (c.f. Figure 29) avant de lui appliquer une (ou plusieurs) méthode(s) de prévision destinées alors à expliquer les caractéristiques de tendance(s) et de cycles (c.f. § 3.4.1 & Figure 30). Différentes techniques existent pour calculer ces indices (c.f. également § 3.5.2). Celle exposée dans ce paragraphe est basée sur la méthode des Moyennes Mobiles Centrées [MMC] (c.f. § 3.1.1). Cette méthode consiste à effectuer une MMC sur 12 mois (base de temps mensuelle) ou 4 trimestres (base de temps trimestrielle). Il s'agit ensuite de déterminer, par mois ou par trimestre, le rapport ψ [%] de la valeur de la donnée de base à celle obtenue par MMC, puis de calculer, pour un même mois ou trimestre, la moyenne (avec la possibilité d’exclure les deux valeurs extrêmes) normée de ces rapports sur plusieurs années. Exposé synthétique de la méthode:

Donnée de base comprenant au plus les caractéristiques: Td = tendance C = cycles D = f(Td,C,S,A) S = saisonnalité A = aléatoire

Application de la méthode MMC (T=12 ou T=4, selon la base temporelle) ⇒ élimination des caractéristiques aléatoires et saisonnières: PMMC = f(Td,C)

Calcul de ψ: ψψψψ = D/PMMC = f(S,A) Calcul de ψmoyen: ψψψψmoyen = f(S)

60

Exemple numérique appliqué à la série de l'EXEMPLE B

t D(t) MMC ψ [%] t D(t) MMC ψ [%] 89 1 695 - - 90 1 684 716.7 95.4

2 684 - - 2 668 710.3 94.0 3 817 - - 3 854 710.1 120.3 4 800 - - 4 765 710.3 107.7 5 773 - - 5 692 706.3 98.0 6 807 - - 6 751 701.7 107.0 7 712 730.2 97.5 7 635 698.0 91.0 8 610 729.3 83.6 8 608 688.0 88.4 9 499 727.9 68.6 9 501 674.8 74.2 10 842 731.0 115.2 10 794 659.4 120.4 11 801 728.1 110.0 11 746 654.8 113.9 12 722 721.3 100.1 12 678 659.3 102.8 ... ⇒⇒⇒⇒1995

Tableau 14 T=12 T=12 L'indice saisonnier du mois (ou trimestre) j sur les années i se calcule alors:

IS(j) = Faψψψψmoyen(j) [%]

avec:

ψ ψmoyeni=1

N

(j)1

N(i, j)= ⋅∑

ou en éliminant les valeurs extrêmes:

ψ ψ ψ ( , ) − ψ ( , )moyeni=1

N

max min(j)1

N - 2(i, j) i j i j= ⋅ ∑

F(j)

a

j 1

12=∑=

1200

ψ

F(j)

a

j 1

4=∑=

400

ψ

N = nombre d'années d'observation Fa = facteur d'ajustement ⇒ ISmoyen / an = 100% Remarque: calcul de ψψψψmoyen(j) Plutôt qu'une moyenne, de laquelle est éventuellement déduite les valeurs

extrêmes, il serait également possible de calculer la valeur médiane des ψ(i,j).

Page 31: Module02_20151019_wieser4

61

En appliquant la démarche décrite ci-avant, les indices saisonniers de l'EXEMPLE B sont ainsi:

1 2 3 4 5 6 7 8 9 10 11 120

0.2

0.4

0.6

0.8

1

1.2

JANVIER : 0.912

FEVRIER : 0.922

MARS : 1.094

AVRIL : 1.073

MAI : 1.121

JUIN : 1.145

JUILLET : 0.970

AOUT : 0.853

SEPTEMBRE : 0.796

OCTOBRE : 1.146

NOVEMBRE : 1.042

DECEMBRE : 0.956

Figure 28 Figure 29: EXEMPLE B, série de données brutes et désaisonnalisées

Données brutes

EXEMPLE B: SERIE BRUTE & DESAISONNALISEE

400

500

600

700

800

900

1000

1989 1990 1991 1992 1993 1994 1995

t

62

3.4.1. INTERET DE L'INDICE SAISONNIER SUR LA PREVISION La démarche générale d'application d'une méthode de prévision était jusqu'alors le suivant: D(t) ⇒ MODELE ⇒ P(t) D = f(Td,C,S,A) P = f(Td,C,S) En désaisonnalisant la série de données:

Ds(t) = D(t) / IS(t)

il est alors possible de calibrer un modèle de prévision sur la base de cette série désaisonnalisée («aide au modèle» qui ne devra prendre en compte, au plus, que les caractéristiques tendance(s) et cycles): Ds(t) ⇒ MODELE ⇒ Ps(t) Ds = f(Td,C,A) Ps = f(Td,C) puis, il s’agira de «resaisonnaliser» le modèle de prévision (c.f. § 3.5):

P(t) = Ps(t)IS(t)

La démarche complète de présente alors:

D(t) ⇒ Ds(t) ⇒ MODELE ⇒ Ps(t) ⇒ P(t) D = f(Td,C,S,A) ⇓ Ds = f(Td,C,A) Ps = f(Td,C) ⇑ P = f(Td,C,S)

- + ⇓ ⇑

INDICES SAISONNIERS

Shéma 5 La Figure 30 ci-après présente l'application, à la série de l'EXEMPLE B désaisonnalisée, du modèle de Régression Linéaire resaisonnalisé selon la démarche exposée ci-dessus (c.f. Figure 22 pour comparaison).

Page 32: Module02_20151019_wieser4

63

Figure 30: EXEMPLE B: Régression Linéaire avec effet de saisonnalité, A0=702 & A1=-0.412

Données

REGRESSION LINEAIRE (+saisonnalité)

1989 1990 1991 1992 1993 1994 1995

1000

900

800

700

600

500

400

1996

t

Remarque: certains modèles sont du type multiplicatif (c.f. Schéma 5): P = f(TdCS) ou

partiellement multiplicatif: P = f[(x%Td)(y%C)(z%S)],

d’autres peuvent être du type additif: P = f(Td+C+S) (ou partiellement additif) Ces approches contrastées permettent ainsi d’amplifier ou de réduire l’effet de

chaque caractéristique avec la possibilité d’intégrer (selon les mêmes règles de calcul) certaines actions spéciales prévues dans l’horizon de prévision (c.f. § 5.2.2d).

64

3.5 METHODES PAR DECOMPOSITION

L'ensemble des méthodes décrites jusqu'ici (à l'exception des méthodes de Régressions) ne cherchaient pas à distinguer les différentes composantes de la loi générale sous-jacente caractérisant la série chronologique de données. Les méthodes par décomposition tentent de mettre en évidence explicitement, et généralement quantitativement, les différentes caractéristiques d’une série chronologique de données: tendance(s), cycles, saisonnalité 3.5.1 DECOMPOSITION PAR «FACTEURS D'INFLUENCE» [DEC] Détermination qualitative des cycles

Ce modèle de prévision consiste à identifier, à isoler et à déterminer, indépendamment les unes des autres, les différentes caractéristiques d’une série de données chronologique (c.f. Figure 1 et § 3.4). Au plus, une série chronologique de données est composée des caractéristiques suivantes:

D(t) = f(Tendance(s), Cycles, Saisonnalité) + Aléatoire

Le modèle, au mieux, identifiera les caractéristiques Tendance(s), Cycles, Saisonnalité (par définition l’aléatoire n’est pas modélisable! C’est-à-dire qu’un modèle «idéal» conduirait à: e(t)=f(Aléatoire), c.f. § 5).

P(t) = f(Tendance(s), Cycles, Saisonnalité)

Modèle «idéal»: D(t)[f(Td, C, S, A)] = P(t)[f(Td, C, S)] + e(t)[f(A)]

Il s'agit alors de décomposer chaque élément de cette série de façon à faire ressortir explicitement: Td: le facteur de tendance(s), C: le facteur de cycle(s). S: le facteur saisonnier (indices saisonniers),

Page 33: Module02_20151019_wieser4

65

Les démarches et méthodes suivantes seront utilisées pour mettre en évidence l'ensemble de ces facteurs:

⇒ Tendance(s): régressions (linéaires, non linéaires, simples, multiples, ...), (c.f. § 3.3)

⇒ Saisonnalité: indices saisonniers (MMC, ...) (c.f. § 3.4 & 3.5.2) ⇒ CYCLE(S): DEMARCHE QUALITATIVE (analyse quantitative, c.f. § 3.5.2) Un cycle est la généralisation du facteur saisonnier (cas particulier) mis en

évidence au paragraphe précédent, mais, par définition, de période supérieure à 12 mois!

Exposé de la démarche par l’exemple: si D(t) est une série mensuelle de données, l’application d’une méthode de

Moyenne Mobile [MM] sur 12 mois (période de lissage: T=12, respectivement T=4 mois pour une série à base trimestrielle) élimine (par définition) les fluctuations saisonnières et réduit, voire annule, l’aléatoire de la série, ainsi:

MM(T=12 ou 4 mois) = Tendance CYCLE(S)

La tendance étant déterminée explicitement par une méthode de régression,

alors:

CYCLE(S) = MM(T=12 ou 4 mois) / Tendance

Détermination qualitative des cycles

Exemple numérique: EXEMPLE B En décomposant cette série de données mensuelles, il est possible de faire ressortir les facteurs suivants: Tendance: régression linéaire (série désaisonnalisée), équation: PTd(t) = 702 - 0.412t Indice saisonniers: c.f. paragraphe 3.4, Figure 28 Cycles: c.f. démarche ci-dessus Aléatoire (1 ≤ t ≤ n): e(t) = D(t) - P(t) = D(t) - f(Tendance Cycles Saisonnalité)

66

Les graphiques ci-après présentent, par recomposition, les caractéristiques suivantes: Figure 31: Tendance & Cycles Figure 32: Tendance & Aléatoire Figure 33: Tendance & Cycles & Saisonnalité Tendance & Saisonnalité: c.f. Figure 30 PREVISION: la prévision s’effectue par extrapolation des 3 composantes de base, à savoir: - la Tendance: selon la loi imposée initialement et dont les coefficients ont

été déterminés par la méthode des moindres carrés - la Saisonnalité: par extrapolation des indices mensuels ou trimestriels - les Cycles: si ces derniers sont significatifs, par extrapolation de «forme»

(approche qualitative) de l’ensemble des cycles (approche globale)

Le paragraphe 3.5.2 présente une approche de détermination quantitative des cycles: équations des cycles par décomposition en séries de Fourier 1). Dans ce cas, la méthode d’extrapolation est identique à celle de la tendance ou de la saisonnalité.

L’action de ces deux dernières composantes, sur la prévision, se fait par superposition à la caractéristique Tendance.

HORIZON DE PREVISION: court à moyen terme, en fonction de la stabilité des caractéristiques cycliques et saisonnières!

1) Remarque: d’autres méthodes quantitatives ont été développées ou font l’objet

actuellement de recherche. En particulier, les approches liées à la théorie des fractales (détermination de la fonction de transition) semblent intéressantes et prometteuses.

Page 34: Module02_20151019_wieser4

67

Figure 31: EXEMPLE B, méthode par Décomposition TENDANCE & CYCLES

DECOMPOSITION: Tendance & Cycles

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

68

Figure 32: EXEMPLE B: méthode par Décomposition TENDANCE & ALEATOIRE

DECOMPOSITION: Tendance & Aléatoire

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

Page 35: Module02_20151019_wieser4

69

Figure 33: EXEMPLE B: méthode par Décomposition TENDANCE & CYCLES & SAISONNALITE

DECOMPOSITION: Tendance & Cycles & Saisonnalité

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

70

3.5.2 DECOMPOSITION PAR SERIES DE FOURIER [DFR] (Analyse de FOURIER, détermination quantitative des cycles)

Cette approche (applicable de façon générale aux séries stationnaires et périodiques) consiste à isoler et à modéliser un échantillon significatif de données (ou l’ensemble des données) à l’aide de sinusoïdes «élémentaires» (harmoniques) afin de mettre en évidence tous phénomènes périodiques (indices saisonniers, cycles), de type:

y(t) = Asin[(((ϕt)/N)2π) + ϑ]

avec: A = amplitude ϕ = fréquence (période) ϑ = angle de phase N = nombre de valeurs En superposant ces sinusoïdes élémentaires, et après développement des équations (c.f. ANNEXE 1), il devient (méthode applicable aux séries stationnaires en tendance, c.f. remarque ci-après relative aux filtres):

[ ]Y(t)a(0

2(a( ) cos( )) + ((b( ) ( ))

=1

m

= + ⋅ ⋅∑)

sinϕ τ ϕ τϕ

avec: τ = ((ϕt)/N)2π t = 1 ... N m = (N-1)/2 a(0)/2 = moyenne de la série (tendance nulle) et a(0), a(ϕ) et b(ϕ) les N inconnues du système: ⇒ résolution d'un système de N équations à

N inconnues. L'amplitude associée à chaque harmonique ainsi que l'angle de phase, sont alors définis:

A( ) a( ) b( )2 2ϕ ϕ ϕ= + & sin ( )a( )

A( )ϑ ϕ

ϕϕ

=

et ainsi: ϑ ϕϕϕ

( )a( )

A( )= arcsin

Page 36: Module02_20151019_wieser4

71

EXEMPLE A: soit la série de 21 valeurs obtenues par l'équation:

Y(t) 50 10 sin2 t

212

4= + ⋅

⋅⋅

+

π

π

t Y(t) t Y(t) t Y(t) 1 59.83 8 43.48 15 46.70 2 59.17 9 48.88 16 41.95 3 55.32 10 54.67 17 40.01 4 49.63 11 58.84 18 41.53 5 44.06 12 59.94 19 46.00 6 40.56 13 57.58 20 51.86 7 40.43 14 52.59 21 57.07

Tableau 15 soit une sinusoïde de valeur moyenne = 50, de fréquence = 2, d'amplitude = 10 et d'angle de phase = 45° (c.f. Figure 34).

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21

60

55

50

45

40

SINUSOIDE: moyenne=50, amplitude=10, phase=45[o]

t

Figure 34

72

EXEMPLE A: ANALYSE de FOURIER

Résolution d’un système de 21 équations, soit la possibilité de mettre en évidence les 10 premières harmoniques: m = (N-1)/2)

Coefficients Amplitudes et angles de de FOURIER phase des harmoniques

ϕ a(ϕ) b(ϕ) A(ϕ) ϑ(ϕ) [°] 0 100.0 - - - a(0) 1 0.00 0.00 0.00 29.26 2 7.07 7.07 10.00 45.00 harmonique 2 3 0.00 0.00 0.00 36.43 4 0.00 0.00 0.00 283.11 5 0.00 0.00 0.00 36.40 6 0.00 0.00 0.00 347.76 7 0.00 0.00 0.00 331.56 8 0.00 0.00 0.00 289.69 9 0.00 0.00 0.00 300.90 10 0.00 0.00 0.00 85.21 Tableau 16

Ces résultats sont ainsi conformes à l’équation initiale: Y(t) 50 10 sin2 t

212

4= + ⋅

⋅⋅

+

π

π,

avec: 50 ⇒ moyenne de la série: a(0)/2 = 100/2 = 50 2t ⇒ harmonique: ϕ=2 10 ⇒ amplitude de l’harmonique 2: A(ϕ=2) = 10 ππππ/4 ⇒ déphasage de l’harmonique 2: ϑ(ϕ=2) = 45° MODELE DE PREVISION

Le modèle de prévision, basé sur l'analyse de FOURIER, consiste à superposer une série d'harmoniques jugées significatives (amplitudes, ...) d'après les tableaux des coefficients, amplitudes et angles de phase exposés ci-dessus. Ainsi:

[ ]P(t)a(0

2(a( ) cos( )) + ((b( ) ( )) (i)

i= + ⋅ ⋅∑

)sinϕ τ ϕ τ

avec: τ = ((ϕt)/N)2π i = choix des harmoniques Remarque: indépendamment d'un modèle de prévision, la décomposition en séries de

FOURIER s'avérera très utile dans le cadre d’une analyse de données (c.f. § 4.1) afin de mettre évidence quantitativement tous phénomènes cycliques.

Page 37: Module02_20151019_wieser4

73

APPLICATION DE LA METHODE: procédure de filtrage

La décomposition en série de Fourier peut s’appliquer directement sur la série chronologique brute rendue, si besoin, stationnaire et éventuellement désaisonnalisée (il est toutefois à noter que la saisonnalité est un cycle particulier, qui peut ainsi être mis en évidence par une décomposition en séries de Fourier!). Dans ce cas, l’analyseur de Fourier, devra distinguer les composantes cycliques, des facteurs aléatoires perturbateurs. Le recours à un FILTRE, appliqué aux données brutes, permettra d’éliminer, ou tout au moins de réduire, ces facteurs aléatoires, pour ne conserver que les composantes cycliques. Les méthodes de lissage offrent la possibilité, de manière simple, de filtrer les données de base brutes par un choix judicieux des valeurs des paramètres de lissage (c.f. Figure 5, paramètre T=12). Il s’agira alors de s’assurer que la série est stationnaire en tendance avant d’appliquer la méthode de Fourier. Le modèle complet de prévision (Td + C + S) se fera conformément à la procédure décrite au paragraphe précédent (c.f. PREVISION, § 3.5.1). Figure 35: EXEMPLE B, décomposition en séries de FOURIER Application d’un filtre (c.f. ci-avant) (Echantillonnage des 61 premières valeurs, choix des harmoniques 1 & 2)

Données

DECOMPOSITION EN SERIES DE FOURIER (avec filtre)

400

500

600

700

800

900

1000

1989 1990 1991 1992 1993 1994 1995 1996

t

74

3.6 METHODES DE BOX & JENKINS (introduction)

Le modèle de prévision de BOX & JENKINS [MBJ] peut être considéré comme une généralisation des techniques de Régression et de Lissage. L'application de cette méthode présuppose que la série chronologique réponde aux critères suivants:

- le processus correspond partiellement à un modèle AUTOREGRESSIF (AR),

- le processus correspond partiellement à un modèle du type MOYENNES MOBILES PONDEREES (MA),

- la série est STATIONNAIRE. Différentes techniques permettent, par transformation des valeurs initiales, de rendre une

série stationnaire: différentiation, régression, ... 3.6.1 MODELES a. MODELE AUTOREGRESSIF (AR)

Si la valeur d'une série chronologique D(t) peut être déterminée à chaque période par pondération relative des valeurs précédentes, alors:

D(t) = Φ1D(t-1) + Φ2D(t-2) +... + ΦqD(t-q) + e(t) + K

avec: Φi = coefficients de pondération des valeurs D(t-i) précédentes, e(t) = écart en t K = terme constant (série stationnaire en moyenne) En pratique, des modèles du premier et second ordre sont fréquemment utilisés (un ordre supérieur pouvant induire des écarts autocorrélés important dus à des «perturbations historiques»): Modèles AR:

1er ordre: D(t) = Φ1D(t-1) + e(t) + K

2ème ordre: D(t) = Φ1D(t-1) + Φ2D(t-2) + e(t) + K

Page 38: Module02_20151019_wieser4

75

b. MODELE PAR MOYENNES MOBILES PONDEREES (MA)

Une autre approche d'analyse de la série est de supposer un niveau moyen connu, et décrire l'évolution de cette série par rapport à cette valeur moyenne (analyse par écarts):

D(t) = e(t) - Π1e(t-1) - Π2e(t-2) - ... - Πqe(t-q) + K

avec: Πi = coefficients de pondération des écarts e(t-i) précédents, K = terme constant (série stationnaire en moyenne) Exemples de modèles MA du 1er et 2ème ordre:

1er ordre: D(t) = e(t) - Π1e(t-1) + K

2ème ordre: D(t) = e(t) - Π1e(t-1) - Π2e(t-2) + K

c. MODELE MIXTE (ARMA)

Le modèle ARMA s’obtient par superposition des modèles AR & MA. Exemple modèle d'ordre 1:

D(t) = Φ1D(t-1) - e(t) - Π1e(t-1) - K

76

3.6.2 DETERMINATION DES PARAMETRES ET MODELES DE

PREVISION a. MODELE AR En partant de l'équation générale:

D(t) = Φ1D(t-1) + Φ2D(t-2) +... + ΦqD(t-q) + e(t) + K en développant et en transformant cette équation (écart à la moyenne, calcul des valeurs espérées, ...) compte tenu des hypothèses d’application de la méthode de BOX-JENKINS (stationnarité, ...): ⇒ équations de YULE-WALKER (pour plus de détail, le lecteur se rapportera aux ouvrages cités en référence à la fin de ce document)

r1 = Φ1 + Φ2r2 + ... + Φqrq-1 r2 = Φ1r1 + Φ2 + ... + Φqrq-2 ... rq = Φ1rq-1 + Φ2rq-2 + ... + Φq

où les rq peuvent être estimés (1ère approximation) par les coefficients simplifiés d'autocorrélation définis au paragraphe 2.1. Exemple:

Modèle du 1er ordre q=1: r1 = Φ1 ⇒ Φ1 = r1

Modèle du 2ème ordre q=2: r1 = Φ1 + Φ2r2 r2 = Φ1r1 + Φ2

r1 = coefficient d'autocorrélation décalé d'une période, r2 = coefficient d'autocorrélation décalé de deux périodes.

En résolvant ce système de deux équations à deux inconnues: Φ1 & Φ2:

Φ1 = [r1(1 - r2)]/(1 - r12)

Φ2 = (r2 - r12)/(1- r1

2)

Page 39: Module02_20151019_wieser4

77

MODELES DE PREVISION AR

a.1 MODELE DU PREMIER ORDRE

Equation générale (transformation: écart à la moyenne): D∗(t) = Φ1D

∗(t-1) + e(t)

avec: D∗(t) = D(i) - Dm et Dm = moyenne de la série D

ainsi: D(t) - Dm = Φ1(D(t-1) - Dm) + e(t)

⇒ D(t) = Dm(1-Φ1) + Φ1D(t-1) + e(t) avec: P(t)=D(t)-e(t), donc:

P(t) = Dm(1-ΦΦΦΦ1) + ΦΦΦΦ1D(t-1)

a.2. MODELE DU DEUXIEME ORDRE

Equation générale: D∗(t) = Φ1D∗(t-1) + Φ2D

∗(t-2) + e(t)

et: D(t) - Dm = Φ1(D(t-1) - Dm) + Φ2(D(t-2) - Dm) + e(t)

⇒ D(t) = Dm(1-Φ1-Φ2) + Φ1D(t-1) + Φ2D(t-2) + e(t) donc:

P(t) = Dm(1-ΦΦΦΦ1-ΦΦΦΦ2) + ΦΦΦΦ1D(t-1) + ΦΦΦΦ2D(t-2)

78

b. MODELE MA La détermination des coefficients Πi est faite par un processus de calcul analogue à celui décrit dans le cadre du modèle AR, ainsi:

Modèle du 1er ordre q=1: r1 = (-Π1)/(1 + Π12)

⇒ Π1 = résolution de cette équation du second degré, ainsi:

Π11 1 4

=− ± − r

2r

1

1

2

Modèle du 2ème ordre q=2: r1 = [-Π1(1 - Π2)]/(1 + Π12 + Π2

2) r2 = (-Π2)/ (1 + Π1

2 + Π22)

Π1, Π2 ⇒ résolution de ces deux équations du second degré, à deux inconnues Π1 & Π2, avec: r1 & r2, respectivement 1er et 2ème coefficients d'autocorrélation de la série D(t) MODELES DE PREVISION MA

b.1 MODELE DU PREMIER ORDRE

Equation générale: D∗(t) = D(t) - Dm = e(t) - Π1e(t-1)

ainsi: D(t) = Dm + e(t)- Π1e(t-1) avec P(t)=D(t)-e(t), donc:

P(t) = Dm - ΠΠΠΠ1e(t-1)

b.2 MODELE DU DEUXIEME ORDRE

En opérant de façon analogue au modèle du premier ordre:

P(t) = Dm - ΠΠΠΠ1e(t-1) - ΠΠΠΠ2e(t-2)

Page 40: Module02_20151019_wieser4

79

c. MODELE ARMA Modèle du 1er ordre, équation générale: D(t) = Φ1D(t-1) - e(t) - Π1e(t-1) - K

⇒ détermination des coefficients Φ1 & Π1. Par analogie aux modèles AR & MA (même processus de calcul), il devient:

r1 = [(1 - Φ1Π1)(Φ1 - Π1)]/(1 + Π12 - 2Φ1Π1)

r2 = Φ1r1

Ainsi, en développant la première équation en r1:

Π12(r1 - Φ1) + Π1(1 + Φ1

2 - 2r1Φ1) + r1 - Φ1 = 0

⇒ Π1, avec Φ1 = r2/r1, et r1 & r2, respectivement 1er et 2ème coefficients d'autocorrélation de

la série D(t) MODELE DE PREVISION ARMA: MODELE DU PREMIER ORDRE

Equation générale: D∗(t) = Φ1D

∗(t-1) + e(t) - Π1e(t-1)

ainsi: D(t) - Dm = Φ1(D(t-1) - Dm) + e(t) - Π1e(t-1)

et: D(t) = Dm(1 + Φ1) + Φ1D(t-1) + e(t) - Π1e(t-1) avec: P(t) = D(t) - e(t), alors:

P(t) = Dm(1 + ΦΦΦΦ1) + ΦΦΦΦ1D(t-1) - ΠΠΠΠ1e(t-1)

80

3.6.3 CHOIX D'UN MODELE Le choix d'un modèle (AR, MA ou ARMA) se fera grâce à l'examen des coefficients d'autocorrélation (et autocorrélation partielle) de la série de données, en les comparant à des processus AR, MA ou ARMA connus. La valeur des coefficients entrant dans les calculs des modèles AR, MA & ARMA, dont la détermination est décrite au paragraphe 3.6.2, peut être affinée (simulation) après observation des valeurs d'autocorrélations des résidus (c.f. chapitre 5). Si la série a été désaisonnalisée ou si , par artifice mathématique, elle a été rendue stationnaire, il s'agira de corriger en conséquence les résultats P(t)! Les Figures 36, 37 & 38 présentent l'application de chacun de ces modèles à l'EXEMPLE B (série désaisonnalisée + «stationnarisée»). 3.6.4 CONDITIONS D'APPLICATION MODELE AR:

1er ordre: -1 < Φ1 < +1

2ème ordre: -2 < Φ1 < +2 et -1 < Φ2 < +1 MODELE MA:

1er ordre: -1 < Π1 < +1

2ème ordre: -2 < Π1 < +2 et -1 < Π2 < +1

Page 41: Module02_20151019_wieser4

81

Figure 36: EXEMPLE B, Modèle AR du 1er ordre

AR[1] (désaisonnalisée + ajustement en tendance)

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

82

Figure 37: EXEMPLE B, Modèle AR du 2ème ordre

AR[2] (désaisonnalisée + ajustement en tendance)

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

Page 42: Module02_20151019_wieser4

83

Figure 38: EXEMPLE B, Modèle MA du 2ème ordre

MA[2] (désaisonnalisée + ajustement en tendance)

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

84

4. CHOIX D'UNE METHODE DE PREVISION,

ANALYSE DE LA SERIE CHRONOLOGIQUE DES DONNEES

Le choix d'une méthode de prévision dépend du nombre de valeurs prévisionnelles désirées (prévision immédiate, à court, à moyen ou long terme, c.f. § 4.2), de la base temporelle, des caractéristiques (tendance, saisonnalité, cycles, ...) de la série (des séries) chronologique(s) de données (c.f. § 1.4) et du nombre d'observations disponibles.

4.1 ANALYSE DE LA SERIE CHRONOLOGIQUE DE DONNEES

Différentes techniques plus ou moins sophistiquées permettent cette analyse, quelques-unes ont été retenues et présentées dans ce paragraphe. 4.1.1 ANALYSE GRAPHIQUE ET STATISTIQUE a. VISUALISATION GRAPHIQUE (Exemple: c.f. § 3.1.3, EXEMPLE A)

Périodes1 2 3 4 5 6 7 8 9 10

20

15

10

5

0

Figure 39

Cette approche ne permet que le choix grossier d'un modèle ou d'une série de modèles; choix qui sera affiné par une analyse plus fine des données (par exemple: calcul des coefficients d'autocorrélation, c.f. § 4.1.2) et par un examen de la qualité du modèle de prévision (c.f. chapitre 5). Vouloir estimer, sur la base de l'observation graphique des données, une tendance, un cycle, ... peut s'avérer difficile et conduire à des conclusions erronées (biais humains, c.f. § 1.2).

Page 43: Module02_20151019_wieser4

85

b. ANALYSE D'ECARTS PAR PERIODE SUCCESSIVE

Exemple de la Figure 39 Valeur moyenne: 11.50 Ecart-type: 2.55 Croissance

Périodes Donnée: D(t) absolue relative 1 11 - - 2 12 1.00 9.09 % 3 14 2.00 16.67 % 4 9 -5.00 -35.71 % 5 13 4.00 44.44 % 6 16 3.00 23.08 % 7 7 -9.00 -56.25 % 8 12 5.00 71.43 % 9 10 -2.00 -16.67 % 10 11 1.00 10.00 %

Tableau 17 c. ANALYSE GENERALE DE TENDANCE(S) (c.f. § 3.3) Modèles de régressions (approche itérative) d. INDICES SAISONNIERS (c.f. § 3.4) Par définition, mise en évidence et quantification des cycles particuliers de périodes

inférieurs à une année e. ANALYSE DE FOURIER (c.f. § 3.5.2) Détection et analyse détaillée de tous phénomènes périodiques 4.1.2 AUTOCORRELATION DES DONNEES Cette technique, dont les équations de base ont été décrites au chapitre 2 permet de mettre en évidence une corrélation d’une «même» série de données considérée à des périodes différentes: ⇒ effets de tendance, de saisonnalité, de cycles, ... (Méthodes de BOX-JENKINS: choix du modèle AR, MA ou ARMA). Exemples: 1. Figure 40: série 1-2, appliquée dans le cadre de la présentation de la méthode du

Filtrage Adaptatif (c.f. § 3.2.1, Figure 18)

2. Figure 41: série de 50 valeurs d’une rampe à pente constante: 1, 2, 3, ... , 50

3. Figures 42 a&b: EXEMPLE B (c.f. Figure 2)

86

Figure 40: Coefficients d'autocorrélation de la série 1-2, décrite au paragraphe 3.2.1

1 2 3 4 5 6 7 8

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1SERIE 1-2: AUTOCORRELATION DES DONNEES

Périodes en avance Figure 41: Coefficients d'autocorrélation d'une série en forme de rampe à pente constante (Série de 50 valeurs, c.f. § 3.1.1, Exemple A’)

RAMPE (constante): AUTOCORRELATION DES DONNEES

Périodes en avance

1 2 3 4 5 6 7 8 9 10

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

Page 44: Module02_20151019_wieser4

87

Figure 42a: EXEMPLE B, coefficients d'autocorrélation, décalage jusqu'à 24 périodes, mise en évidence de la saisonnalité (histogramme horizontal).

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1EXEMPLE B: AUTOCORRELATION DES DONNEES

Mois en avance

88

Figure 42b: EXEMPLE B, coefficients d'autocorrélation, décalage jusqu'à 24 périodes, mise en évidence de la saisonnalité (histogramme vertical enrichi des valeurs des coefficients d'autocorrélation).

EXEMPLE B: AUTOCORRELATION DES DONNEES

-1 -0.8 -0.6 -0.4 -0.2 0 0.2 0.4 0.6 0.8 1

0.444

-0.016

-0.118

0.019

0.116

0.047

0.142

0.005

-0.204

-0.229

0.063

0.366

-0.033

-0.382

-0.342

-0.100

0.020

-0.028

-0.022

-0.311

-0.529

-0.414

0.100

0.461

0.002

-0.263

-0.191

-0.022

0.077

0.027

0.067

-0.182

-0.313

-0.073

0.483

0.759

Intervalle de confiance des coefficients d'autocorrélation d'une série de 84 valeurs aléatoires: 0.214

Mois en avance

Page 45: Module02_20151019_wieser4

89

4.1.3 CORRECTIONS DE VALEURS ABERRANTES Il peut arriver que certaines valeurs particulières d'une série de données soient aberrantes (erreurs de mesure, phénomène extérieur ponctuel, ...). Il s'agit alors, (sous certaines conditions et avec précaution!) de corriger (d'adapter) ces valeurs afin qu'elles ne perturbent pas trop fortement la loi mathématique du modèle de prévision (c.f. Figure 43 et § 5.2.2 d). Exemple: régression linéaire avec effet perturbateur

temps

Figure 43

90

4.2 CHOIX D'UN MODELE DE PREVISION

Le tableau ci-dessous présente, à titre indicatif, les domaines de validité de différentes méthodes en fonction de l’horizon de prévision souhaité (base temporelle de référence: valeurs mensuelles). PREVISIONS

immédiates à court terme à moyen terme à long terme METHODES < 1 mois de 1 à 3 mois < 2 ans > 2 ans Méthodes de lissages Filtrage adaptatif Méthodes par décomposition Méthodes de BOX-JENKINS Régressions simples Régressions multiples Certaines applications intégrées de gestion (GPAO, MRP, MRPII, ...) comportent un module d’analyse prévisionnelle qui fait appel automatiquement à plusieurs méthodes de base en fonction des caractéristiques des données et des horizons de prévision souhaités. Il est alors souvent opportun, avant toute mise en pratique, de tester ces modules pour connaître leurs réponses globales ou locales: - à des variations ou à des dérèglements de la série de données (c.f. § 4.3), - à des extrapolations sur des horizons à court, moyen ou long terme. De tels modules peuvent également identifier et interpréter (c.f. § 5.2.2) des dérèglements ponctuels de la série chronologique (actions spéciales, c.f. § 5.2.2 d) et les reproduire dans le futur en fonction d’actions comparables probables. 4.2.1 APPLICATION PRATIQUE DE MODELES DE PREVISION L’application d’un modèle dépend d’un certain nombre de facteurs et de critères internes et externes à la série de données (c.f. § 1.3). En fonction de ces facteurs, il s’agira de choisir une ou plusieurs (c.f. § 7) méthodes de prévision suceptibles de modéliser, en fonction de la base temporelle, l’évolution des caractéristiques de la série chronologique. Le choix d’une méthode est conditionné, entre autre, par l’horizon de prévision souhaité (c.f. tableau ci-dessus), dont le nombre de valeurs est fonction de la base temporelle.

Ainsi, une prévision d’une année comporte: 12 valeurs prévisionnelles en base mensuelle, 4 valeurs prévisionnelles en base trimestrielle, 1 valeur prévisionnelle en base annuelle.

Page 46: Module02_20151019_wieser4

91

Par agrégations successives d’une série mensuelle Dm(t) (mois ⇒ trimestres ⇒ année), il est alors possible de prendre en compte, pour la même période prévisionnelle, différents modèles applicables à des horizons de prévision allant du moyen (12 valeurs) au très court terme (1 valeur). La comparaison des résultats de ces différents modèles, en valeurs moyennes et probabilistes (c.f. § 5.1 d), se fera finalement aussi par agrégations successives. Exemple: soit Dm(t) une série à base mensuelle, Pm(t) sa prévision sur 12 mois, Ptm(t) sa

prévision sur 4 trimestres et Pa(t) sa prévision sur 1 année.

Comparaison des résultats: P (t) P (t) P (t)mt 1

12

tmt 1

4

a= =∑ ⇒ ∑ ⇒

Si une série de données est le résultat de l’agrégation de n séries partielles, la comparaison des prévisions de la série agrégée avec celles des séries désagrégées peut s’avérer intéressante et constituer un moyen de contrôle utile.

Soit: D(t) = Σ[D1(t), D2(t), ..., Di(t)] alors: Comparaison: P(t) ⇔ Σ[P1(t), P2(t), ..., Pi(t)] en valeurs déterministes et probabilistes

92

4.3 TEST D'UN MODELE DE PREVISION

Afin de comprendre et d’évaluer la réponse d’un modèle à des variations marquées de caractéristiques d’une série de données, il est utile d’avoir recours à des «signaux d’entrée» standards du type: saut, rampe ou impulsion (c.f. Figure 44).

«Signaux d’entrée» standards

SAUT RAMPE IMPULSION

Figure 44 La procédure de test suit la logique exprimée au schéma 6.

Signaux standards MODELE

comparaison

Réponses

Schéma 6 Il est alors possible d’évaluer le comportement de chaque méthode de prévision et ainsi de mettre en évidence, en fonction des paramètres propres à chaque modèle, des effets de traîne ou d’inertie, des dépassements du signal de consigne, des instabilités, ... (c.f. Figure 45).

Réponse de méthodes de Lissage à un SAUT unité

Fonction du paramètre de lissage (T ou αααα) et du degré du modèle

Figure 45

Page 47: Module02_20151019_wieser4

93

5. RESULTATS ET «QUALITE» D'UN MODELE DE PREVISION

Ce chapitre présente un certain nombre de résultats (états de sortie) associés à un modèle de prévision obtenus par l'application du logiciel «SCALP» (Statistique et CALculs Prévisionnels, ITEP-LEM, Dr Ph. WIESER). Application numérique: EXEMPLE B, méthode par Régression Linéaire, avec et sans prise

en compte de la saisonnalité.

5.1 RESULTATS

a. EQUATION DU MODELE DE PREVISION

(sans prise en compte de la saisonnalité,

série brute) (avec prise en compte de la saisonnalité, c.f.

§ 3.4.1)

POLYNOME DE DEGRE: 1 POLYNOME DE DEGRE: 1

P(t) = A0 + A1t P(t) = A0 + A1t

AVEC LES COEFFICIENTS: AVEC LES COEFFICIENTS:

A0 = 706 A0 = 702 A1 = -0.471 A1 = -0.412

b. CALCUL DES δδδδ VALEURS PREVISIONNELLES DEMANDEES

Résultats des δ valeurs prévisionnelles en: - valeurs «moyennes», - valeurs «moyennes» ± un écart-type [σ], (c.f. point d ci-après, ainsi que § 5.2) EXEMPLE B: Régression Linéaire, série désaisonnalisée (prise en compte de la saisonnalité,

c.f. § 3.4.1), σ=72.81 Prévisions n+δ, δ= Prévision moyenne - σ Prévision moyenne Prévision moyenne + σ

1 535.52 608.33 681.14 2 541.99 614.80 687.61 3 655.72 728.53 701.34 ... ... ... ...

Tableau 18

94

c. REPRESENTATIONS GRAPHIQUES

Figure 22: graphique sans l'écart-type, sans prise en compte de la saisonnalité,

Figure 30: graphique sans l'écart-type, avec prise en compte de la saisonnalité,

Figure 46: graphique avec ± un écart-type sur l'ensemble des valeurs: données + prévisions, sans prise en compte de la saisonnalité,

Figure 47: graphique avec ± un écart-type sur l'ensemble des valeurs: données + prévisions, avec prise en compte de la saisonnalité,

Figure 48: graphique avec ± un écart-type sur les valeurs prévisionnelles uniquement, avec prise en compte de la saisonnalité, zoom sur les deux dernières années de données et sur les valeurs prévisionnelles.

d. INTERET DE LA REPRESENTATION GRAPHIQUE DE L’ECART-TYPE

L’approche probabiliste (valeur moyenne de la prévision ± nσ, c.f. § 5.2.2 b) constitue, entre partenaires, un outil fondamental de dialogue et de négociation à toute prise de décision (c.f. § 1.2). Il met en évidence la probabilité de se trouver dans une zone de prévision (si à l’avenir la série se comporte de manière analogue au passé!) et doit susciter des réflexions et des réactions de la part des décideurs en fonction, par exemple, d’éléments futurs, exogènes à la série chronologique (c.f. Schéma 7).

Communication

Négociation

Choix

± nσσσσ

Données

Prévision

t

Schéma 7

Page 48: Module02_20151019_wieser4

95

Figure 46: EXEMPLE B, Régression Linéaire, série brute avec 12 valeurs prévisionnelles (représentation de l'écart-type sur l'ensemble des valeurs).

REGRESSION LINEAIRE (série brute)

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

96

Figure 47: EXEMPLE B, Régression Linéaire, série désaisonnalisée avec 12 valeurs prévisionnelles (représentation de l'écart-type sur l'ensemble des valeurs).

REGRESSION LINEAIRE (prise en compte de la saisonnalité)

1989 1990 1991 1992 1993 1994 1995 1996

1000

900

800

700

600

500

400

Données

t

Page 49: Module02_20151019_wieser4

97

Figure 48: EXEMPLE B, Régression Linéaire, série désaisonnalisée avec 12 valeurs prévisionnelles (représentation de l'écart-type sur les seules valeurs prévisionnelles).

Zoom sur les deux dernières années de données et sur les valeurs prévisionnelles.

REGRESSION LINEAIRE (prise en compte de la saisonnalité)

1994 1995 1996

1000

900

800

700

600

500

400

[ZOOM]

Données

t

98

5.2 «QUALITE ET PERFORMANCE» DU MODELE DE PREVISION

5.2.1 COMPARAISON: DONNEES-MODELE, PERFORMANCE DU

MODELE comparaison: données-modèle

calcul des écarts par période, en valeurs absolues et relatives

calcul de divers «indices de performance»: EM, EAM, MQ, σ, r, U, DW, ... (c.f. § 2.2) EXEMPLE B: Régression Linéaire, série désaisonnalisée. PERFORMANCE DU MODELE

Ecarts Mois Années Données D(t) MODELE P(t) absolus relatifs [%]

1 1989 695.00 639.86 -55.14 -7.93 % 2 1989 684.00 646.69 -37.31 -5.45 % 3 1989 817.00 766.34 -50.66 -6.20 % 4 1989 800.00 751.34 -48.66 -6.08 % 5 1989 773.00 784.26 11.26 1.46 % 6 1989 807.00 800.77 -6.23 -0.77 % 7 1989 712.00 678.30 -33.70 -4.73 % 8 1989 610.00 595.89 -14.11 -2.31 % 9 1989 499.00 555.50 56.40 11.32 % 10 1989 842.00 799.38 -42.62 -5.06 % ... ... ... ... ... ...

Tableau 19 EXEMPLE B: Régression Linéaire, série désaisonnalisée. INDICES DE PERFORMANCE DU MODELE

ECART MOYEN [EM]: 0.45 ECART ABSOLU MOYEN [EAM]: 50.62 MOYENNE QUADRATIQUE [MQ]: 72.81 ECART-TYPE [σ]: 72.81 CORRELATION .LINEAIRE [r]: 0.72 TEST DE THEIL [U]: 0.67 TEST DE DURBIN-WATSON [DW]: 0.80

Régression, cas particulier: MQ ≡ σ (n>30)

Page 50: Module02_20151019_wieser4

99

5.2.2 ANALYSE DES ECARTS, DES RESIDUS (DONNEES-MODELE) Le contrôle et l’analyse des écarts (résidus) e(t) = D(t) - P(t) et de ses ratios statistiques associés (c.f. § 2.2 et tableau de résultats ci-avant) est une condition nécessaire, mais pas suffisante, pour déterminer les performances et la qualité d’un modèle de prévision. Le but espéré par l’application d’un modèle est que ce dernier explique les caractéristiques: Tendance(s), Cycles et Saisonnalité, ainsi «idéalement»:

e(t) = f(Aléatoire)

la caractéristique «Aléatoire» ne pouvant, par définition, pas être modélisée! Par l’examen des critères statistiques mis en évidence jusqu’ici (c.f. tableau ci-avant), il est alors possible de déduire les éléments suivants:

un critère de l’écart moyen proche de zéro indiquera que les résidus sont centrés sur l’origine (pas déviation systématique de l’écart).

Seul intérêt de ce critère!

écart-type, c.f. point b ci-après

le coefficient de détermination r2, par définition, permet de déterminer la part des

variations expliquées par le modèle (c.f. 2.1), ainsi dans l’exemple ci-avant:

variation expliquée par le modèle = 52% (0.722) de la variation totale

tests de THEIL et de DURBIN-WATSON, c.f. respectivement paragraphe 2.2 & chapitre 6 D’autres critères statistiques, exposés aux paragraphes suivants, permettront d’analyser la qualité et le comportement du modèle. A titre d’exemple, ces critères complémentaires sont calculés sur la réponse du modèle de Régression Linéaire, avec prise en compte de la saisonnalité, appliqué à l’Exemple B (c.f. Figure 2).

100

a. VISUALISATION GRAPHIQUE DES RESIDUS e(t)

Figure 49: EXEMPLE B, Régression Linéaire, série désaisonnalisée. Ecarts prévisionnels: e(t)

ECARTS: e(t) (Régression Linéaire désaisonnalisée)

1989 1990 1991 1992 1993 1994 1995

300

200

100

0

-100

-200

-300 t

La visualisation graphique des résidus e(t) permet, en première approche, de vérifier si ces derniers sont centrés sur l’origine et si un écart, une déviation ou/et un phénomène cyclique systématique sont présents. La Figure 49 (c.f également Figure 56) présente ainsi un résidu cyclique qui doit pouvoir être corrigé en appliquant, par exemple, une méthode par décomposition intégrant les cycles (c.f. § 3.5).

Page 51: Module02_20151019_wieser4

101

b. MISE EN EVIDENCE D'UN DEREGLEMENT DU MODELE DE PREVISION

En supposant que les écarts e(t) sont aléatoires et distribués suivant une loi Normale centrée et d'écart-type σ, les probabilités d'observation de valeurs sont alors de (c.f. Figure 50):

68.3[%] entre la valeur moyenne ± 1σ 95.5[%] entre la valeur moyenne ± 2σ 99.7[%] entre la valeur moyenne ± 3σ

(Intérêt d’une représentation probabiliste des résultats: c.f. Figures 46 à 48, et point d du paragraphe 5.1). Ainsi, un écart e(t) supérieur en valeur absolue à 3σ indique un dérèglement local du «système», par exemple une rupture de stock, une promotion de vente, ... Figure 50: EXEMPLE B, Régression Linéaire, série désaisonnalisée. Analyse d'écarts: DEREGLEMENT

DEREGLEMENT (Régression Linéaire désaisonnalisée)

1989 1990 1991 1992 1993 1994 1995

300

200

100

0

-100

-200

-300

3σσσσ

2σσσσ

1σσσσ

-1σσσσ

-2σσσσ

-3σσσσ

t

102

La visualisation de l’évolution, en fonction du temps, de l’écart-type, des données et du modèle, permet également de déceler des dérèglements locaux, respectivement de la série chronologique et de la méthode de prévision appliquée (c.f. Figure 51). Figure 51: EXEMPLE B, évolution de σ(t). Série brute et modèle de Régression Linéaire appliqué à la série désaisonnalisée.

EXEMPLE B: EVOLUTION DE L'ECART-TYPE σσσσ(t)

0

20

40

60

80

100

120

1989 1990 1991 1992 1993 1994 1995

Données brutes

RESIDUS

Modèle: Régression Linéaire, série désaisonnalisée

t

Page 52: Module02_20151019_wieser4

103

c. SIGNAL D'ALERTE («tracking signal»)

Cette méthode est basée sur la comparaison des écarts cumulés par rapport à une limite de confiance donnée.

Ecarts cumulés en t : e(i) [D(t) P(t)i 1

t

i 1

t

= −∑∑==

]

Ecart absolu moyen en t: EAM(t)1

te(t)

i 1

t

= ⋅∑=

Le signal d'alerte SGA (méthode de Brown) est défini par:

SGA(t)e(i)

EAM(t)i 1

t

=∑=

En supposant que les e(t) suivent une loi de distribution Normale centrée d'écart-type σ, alors:

EAM2

= ⋅ ≈σπ

σ08.

En se donnant les limites de confiance à ± 3σ (correspondant à des probabilités de 99.7%, c.f. Figure 50), le signal d'alerte SGA(t) devrait se trouver dans les limites suivantes:

SGA(t)3

≤ ± ≈σ

0.8σ4

Le dépassement de ces limites met en évidence un dérèglement local du système. Remarque: l'inconvénient de cette méthode est son inertie. En effet, lors d'un dépassement

de limite, le système ne revient que très «lentement» vers 0 (c.f. Figure 52)

104

Figure 52: EXEMPLE B, Régression Linéaire, série désaisonnalisée. Analyse d'écarts: SIGNAL D'ALERTE (tracking signal).

SIGNAL D'ALERTE (Régression Linéaire désaisonnalisée)

1989 1990 1991 1992 1993 1994 1995

16

14

12

10

8

6

4

2

0

-2

-4

-6

-8

-10

-12

-14

-16 t

Page 53: Module02_20151019_wieser4

105

d. MISE EN EVIDENCE D'ACTIONS SPECIALES

L'analyse mathématique d'une série de données chronologiques ne fait pas toujours ressortir explicitement certains phénomènes liés à la politique de l'entreprise: campagnes promotionnelles, baisses ou hausses de prix, rupture de stocks,... De tels phénomènes sont baptisés «Actions Spéciales»et peuvent être positifs ou négatifs, avec ou sans saturation, avec ou sans incidences sur l’avenir (c.f. ci-dessous) La mise en évidence et la calibration de ces actions spéciales permet:

de visualiser l'effet d'un phénomène ponctuel et ses conséquences sur les valeurs futures

de la série chronologique (modification de tendance, gain de parts de marché, ..., c.f. Figure 53),

de corriger certaines valeurs historiques associées à une action ponctuelle (c.f. § 4.1.3),

d'adapter le modèle prévisionnel au cas où une action de même nature est prévue en t+δ (valeurs normées).

∆∆∆∆Td

t

Figure 53 La détermination automatique d'actions spéciales est basée sur l'analyse des écarts e(t) supposés distribués selon une loi Normale centrée, ainsi:

EAM ≈ 0.8σ (c.f. ci-dessus) La probabilité pour que: |e(t)| ≤ 2EAM est d'environ 90% Si cette inégalité n'est pas respectée, il existe une forte probabilité d’un dérèglement local de la série qui pourrait être expliqué par «action spéciale» (c.f. Figure 54).

106

Figure 54: EXEMPLE B, Régression Linéaire, série désaisonnalisée. Mise en évidence d'actions spéciales Résidus représentés en valeurs absolues (courbe «redressée»)

ACTIONS SPECIALES (Régression Linéaire désaisonnalisée)300

280

260

240

220

200

180

160

140

120

100

80

60

40

20

0

2EAM

1989 1990 1991 1992 1993 1994 1995

t

Page 54: Module02_20151019_wieser4

107

5.2.3 AUTOCORRELATION DES RESIDUS Le principe est analogue à celui décrit au paragraphe 4.1.2.

Cette technique, appliquée aux résidus e(t) = D(t) - P(t), est destinée à déterminer s’il est possible de mettre en évidence une loi de comportement de ces écarts e(t) (référence de comparaison: série de n valeurs purement aléatoires!), par exemple: une tendance, des cycles, de la saisonnalité, ... [Rappel, but d’un modèle: e(t) = f(Aléatoire)]. Si tel est le cas, il s'agira de remettre en cause la validité du modèle utilisé et de le comparer, sur la base de ce critère, avec d'autres modèles de prévision afin de choisir le ou les modèles (ou de calibrer les paramètres d'un modèle) adaptés pour la série de données étudiée. Exemples: Figure 55, EXEMPLE B, Régression Linéaire, série brute, ⇒ mise en évidence de la saisonnalité Figure 56, EXEMPLE B, Régression Linéaire, série désaisonnalisée, ⇒ mise en évidence d'un cycle Figure 57, EXEMPLE B, Décomposition, prise en compte de la tendance, des

cycles et de la saisonnalité ⇒ aléatoire

108

Figure 55: EXEMPLE B, COEFFICIENTS D'AUTOCORRELATION DES RESIDUS. METHODE: Régression Linéaire, série brute. ⇒ mise en évidence de la saisonnalité

REGRESSION LINEAIRE

Mois en avance

AUTOCORRELATION DES RESIDUS

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

Page 55: Module02_20151019_wieser4

109

Figure 56: EXEMPLE B, COEFFICIENTS D'AUTOCORRELATION DES RESIDUS. METHODE: Régression Linéaire, série désaisonnalisée. ⇒ mise en évidence d'un cycle

Mois en avance

AUTOCORRELATION DES RESIDUS

REGRESSION LINEAIRE avec prise en compte de la saisonnalité

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

110

Figure 57: EXEMPLE B, COEFFICIENTS D'AUTOCORRELATION DES RESIDUS. METHODE: Décomposition, Tendance + Cycles + Saisonnalité ⇒ aléatoire

Mois en avance

AUTOCORRELATION DES RESIDUS

DECOMPOSITION: Tendance + Cycles + Saisonnalité

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

Page 56: Module02_20151019_wieser4

111

6. COMPARAISON DE METHODES DE PREVISION

Ce chapitre présente la comparaison, en terme d’indices de «performance», de différentes méthodes de prévision appliquées à la série de données de l'EXEMPLE B (c.f. Figure 2). Critères de comparaison, tests statistiques sur les résidus: (c.f. § 2.2)

EM: écart moyen, EAM: moyenne de l'écart absolu total, σ: écart-type, r: coefficient de corrélation linéaire, U: test de THEIL, DW: test DURBIN-WATSON. Tableau 20 référence des numéros de figures No Méthodes Fig. EM EAM σ r U DW 1 Moyenne mobile simple

T=12 5 -1.62 85.70 106.55 0.13 0.94 1.06

2 idem 1, avec prise en compte de la saisonnalité

-1.29 59.51 78.70 0.67 0.73 0.82

3 Moyenne mobile double T=12

7 -13.26 89.99 107.58 0.27 0.98 1.02

4 idem 3, avec prise en compte de la saisonnalité

-13.13 66.31 80.05 0.69 0.78 0.91

5 Lissage exponentiel simple α=0.20

10 -2.26 88.42 105.98 0.20 0.90 1.32

6 idem 5, avec prise en compte de la saisonnalité

2.03 50.54 67.32 0.77 0.60 1.11

7 Lissage exponentiel double α=0.20

12 -3.00 95.66 111.97 0.26 0.95 1.42

8 idem 7, avec prise en compte de la saisonnalité

-2.69 50.07 66.91 0.79 0.60 1.39

9 Lissage exponentiel Holt α=0.20 et β=0.10

15 -5.66 93.24 110.65 0.20 0.93 1.24

10 idem 9 avec prise en compte de la saisonnalité

-5.62 56.74 71.11 0.76 0.63 1.04

11 Lissage de Brown (quad.) α=0.20 + saisonnalité

0.16 53.31 70.90 0.79 0.64 1.52

12 Lissage de Winter α=0.20, β=0.10 +saisonn.

6.36 48.48 66.75 0.78 0.60 1.13

112

suite

No Méthodes Fig. EM EAM σ r U DW 13 Filtrage adaptatif

T=12, K=0.10 et j=5 19 3.33 85.41 105.14 0.15 0.93 1.09

14 idem 13 avec prise en compte de la saisonnalité

1.01 58.31 76.92 0.69 0.72 0.85

15 Liss. exponentiel adaptatif α0=0.20, ε=0.10

20 -3.22 89.22 106.75 0.21 0.90 1.30

16 idem 15 avec prise en compte de la saisonnalité

-1.35 50.10 66.56 0.78 0.60 1.26

17 Régression linéaire 22 0.00 84.27 104.07 0.11 0.91 1.12 18 idem 17 avec prise en

compte de la saisonnalité 30 0.45 50.62 72.81 0.72 0.67 0.80

19 Décomposition (qualitat.) Tendance(1er degré)+Cycles

31 -2.06 77.16 94.59 0.44 0.82 1.36

20 Décomposition (qualitat.) Tend.(1er)+Cycles+Saisonn.

33 -0.30 40.51 59.00 0.83 0.54 1.19

21 Déc. Fourier, ajust. Td+S (éch. 61 val., harm. 1 2 4 7)

6.56 46.03 70.52 0.74 0.67 0.78

22 idem 21 avec filtre (éch. 61 valeurs, harm. 1 2)

35 9.30 48.41 74.95 0.70 0.70 0.74

23 Box-Jenkins AR(1) ajust. en tendance (1er degré)

-0.03 75.18 94.12 0.45 0.83 1.74

24 idem 23 avec prise en compte de la saisonnalité

36 1.48 41.19 59.15 0.83 0.54 1.99

25 Box-Jenkins AR(2) ajust. en tendance (1er degré)

0.18 73.71 93.93 0.50 0.82 1.47

26 idem 25 avec prise en compte de la saisonnalité

37 1.50 43.92 63.46 0.80 0.58 1.25

27 Box-Jenkins MA(2) ajust. en tendance (1er degré)

0.06 76.38 95.81 0.46 0.83 2.37

28 idem 27 avec prise en compte de la saisonnalité

38 1.31 47.00 63.17 0.81 0.57 2.07

29 idem 27 sans ajustement de tendance

0.29 94.34 118.56 0.36 1.03 3.08

REMARQUE: Test de DURBIN-WATSON

Ce test permet de caractériser l'allure des résidus: e(t) (c.f. équation DW du §2.2), en effet, une valeur élevée (∼>2) met en évidence un premier coefficient d'autocorrélation des résidus négatif: signe de e(t) - e(t-1) changeant pratiquement à chaque période, alors qu'une valeur faible (∼<1) signale un premier coefficient d'autoccorélation positif: signe de e(t) - e(t-1) relativement «stable» en fonction du temps.

Page 57: Module02_20151019_wieser4

113

Les Figures 58 & 59 ci-dessous présentent deux séries de résidus, tirées du tableau précédent (méthodes 18 & 29), ayant des valeurs DW contrastées (respectivement 0.80 & 3.08).

e(t), méthode no 18

1989 1990 1991 1992 1993 1994 1995

400

300

200

100

0

-100

-200

-300

-400 t

Figure 58

e(t), méthode no 29

1989 1990 1991 1992 1993 1994 1995

400

300

200

100

0

-100

-200

-300

-400 t

Figure 59 Les Figures 56 (méthode 18) & 60 mettent en évidence les coefficients d'autocorrélation correspondants.

114

Figure 60: EXEMPLE B, coefficients d'autocorrélation des résidus Méthode no 29: DW = 3.08

Mois en avance

AUTOCORRELATION DES RESIDUS

BOX-JENKINS MA[2]

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36

-1

-0.8

-0.6

-0.4

-0.2

0

0.2

0.4

0.6

0.8

1

Page 58: Module02_20151019_wieser4

115

7. COMBINAISON DE METHODES DE PREVISION

L'expérience montre qu'en combinant linéairement (avec éventuellement un facteur de pondération) plusieurs méthodes (même très «simples») cohérentes et applicables à la série de données, il est possible d'améliorer sensiblement les résultats d'une prévision. En reprenant les exemples du chapitre 6 sur la base du critère de l’écart-type σ: No Méthodes σ 7 Lissage exponentiel double: α=0.20 111.97 7 9

Lissage exponentiel double: α=0.20 + Lissage exponentiel HOLT: α=0.20 et β=0.10

110.24

7 9 3

Lissage exponentiel double: α=0.20 + Lissage exponentiel HOLT: α=0.20 et β=0.10 + Moyenne mobile double: T=12

107.34

116

8. CONCLUSON

Le but de ce cours a été de présenter un certain nombre de modèles de prévision couramment utilisés dans la pratique, en particulier dans les modules informatiques intégrés de gestion d’entreprises (MRP, ERP, SCM, …). Il est essentiel de souligner l’importance du choix et du paramétrage de ces modèles. En effet, un modèle inadapté induira des résultats prévisionnels aberrants pouvant avoir des conséquences graves pour l’entreprise. L’utilisateur devra ainsi être connaître le comportement d’un modèle de prévision appliqué à une série chronologique de données. Il est de plus nécessaire de souligner que le résultat d’une analyse prévisionnelle constitue actuellement un outil d’aide indispensable à toute prise de décision en matière de production, de planification et de stratégie industrielle. L’approche probabiliste de la prévision, qui constitue la base objective à toute négociation interne et à toute prise de décision, doit impérativement être intégrée dans cette analyse. Finalement, l’expérience montre que :

• «Ce n’est pas toujours les modèles les plus compliqués qui donnent les meilleurs résultats»

• «Il vaut mieux une application intelligente de méthodes simples, qu’un choix inapproprié de modèles complexes»

Page 59: Module02_20151019_wieser4

117

ANNEXE 1

DECOMPOSITION PAR SERIES DE FOURIER

DEVELOPPEMENT DES EQUATIONS DE BASE

y(t) = Asin[(((ϕt)/N)2π) + ϑ]

avec: A = amplitude ϕ = fréquence (période) ϑ = angle de phase N = nombre de valeurs En posant: τ = ((ϕt)/N)2π, alors:

y(t) = Asin[τ + ϑ]

Relation fondamentale de trigonométrie: sin[u + v] = sin(u) cos(v) + cos(u) sin(v) Alors:

y(t) = A[sin(τ)cos(ϑ) + cos(τ)sin(ϑ)]

En posant: a = Asin(ϑ), et b = Acos(ϑ), alors:

y(t) = acos(τ) + bsin(τ)

En superposant les sinusoïdes élémentaires et compte tenu du décalage à l’origine:

[ ]Y(t)a(0

2(a( ) cos( )) + ((b( ) ( ))

=1

m

= + ⋅ ⋅∑)

sinϕ τ ϕ τϕ

avec: τ = ((ϕt)/N)2π t = 1 ... N m = (N-1)/2 a(0)/2 = moyenne de la série (tendance nulle)

118

Avec:

A( ) a( ) b( )2 2ϕ ϕ ϕ= + & sin ( )a( )

A( )ϑ ϕ

ϕϕ

= ou ϑ ϕϕϕ

( )a( )

A( )= arcsin

Pour chaque harmonique ϕϕϕϕ: a2 + b2 = A2

sin2(ϑ) + A2cos2(ϑ) = A2

[sin2(ϑ) + cos2(ϑ)] = A2

1

donc: A a b2 2= + et: a = Asin(ϑ), donc sin(ϑ) = (a/A) PROCESSUS DE CALCUL (exemple) Soit la série D(t):

Périodes

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35

90

80

70

60

50

40

30

20

Figure 61 La série D(t) comprend 35 valeurs. Pour chaque harmonique, de fréquence paramétrée ϕi, deux inconnues sont à déterminer: l’amplitude A i et le déphase ϑ i. Soit 2 équations pour chaque harmonique paramétrée en fréquence, plus une équation supplémentaire pour déterminer la constante a(0)/2 (moyenne de la série). Ainsi, pour cet exemple, les 35 valeurs de données pourraient permettre la détermination de 17 harmoniques: 35 équations (fonction des 35 données) à 35 inconnues (inconnue a(0)/2 + 2 inconnues par harmonique: 1 + 2x17 harmoniques = 35).

Page 60: Module02_20151019_wieser4

119

Par exemple, recherche des 17 premières harmoniques:

Périodes1 35

Harmonique 1

Périodes1 35

Harmonique 3

Périodes1 35

Harmonique 2

Périodes1 35

Harmonique 4

Figure 62 etc., jusqu’à l’harmonique 17. Soit un système de 35 équations à 35 inconnues: Harmonique 1 Harmonique 2

D(t1) = [a(0)/2] + [a(ϕ1)cos(τ1) + b(ϕ1)sin(τ1)] (t1) + [a(ϕ2)cos(τ2) + b(ϕ2)sin(τ2)] (t1) + …

D(t2) = [a(0)/2] + [a(ϕ1)cos(τ1) + b(ϕ1)sin(τ1)] (t2) + [a(ϕ2)cos(τ2) + b(ϕ2)sin(τ2)] (t2) + …

D(tn) = [a(0)/2] + [a(ϕ1)cos(τ1) + b(ϕ1)sin(τ1)] (tn) + [a(ϕ2)cos(τ2) + b(ϕ2)sin(τ2)] (tn) + … La résolution de ce systèmes permettra l’obtention des 35 inconnues caractéristiques [a(ϕi) et b(ϕi) ⇒ Ai et ϑi] des 17 premières harmoniques (de cet exemple) et de la constante de la série [a(0)/2]. Remarque: cet exemple montre le processus de calcul appliqué à l’extraction des 17

premières harmoniques. La démarche peut évidemment être généralisée au calcul de toute harmonique (paramétrée hors des 17 premières) sur tout échantillon de données.

120

REFERENCES

Quelques références de base:

«FORECASTING»

S. Makridakis, S. C. Wheelwright, V. E. McGee Jhon Wiley & Sons, 1983 Nombreuses références bibliographiques associées

«LA PREVISION A COURT TERME»

R. Lewandowski Dunod, 1979 [ISBN 2.04.003153.7] «ANALYSE CHRONOLOGIQUE»

L. Philips, R. Blomme, C. Vanden Berghe Cabay Economica, 1981 [ISBN 2-87077-030-8] «SCALP»

Logiciel d’analyse prévisionnelle Dr Ph. Wieser EPFL/IML «FORECASTING INTEGRATION IN LOGISTICS PROCESS»

Dr Ph. Wieser Eurolog 2000, Athènes, mai 2000 «THE ESSENTIALS OF LOGISTICS AND MANAGEMENT»

Chapter 14 : Forecast analysis and forecasting models

Dr Ph. Wieser EPFL Press, Lausanne 2007, 2nd edition