Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr ›...

84
Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis « Mathématiques des Séries Temporelles » Jean-François Burnol Sont rassemblées ici 82 pages comprenant : – un texte de vingt-deux pages développant, sans preuves, certains aspects théoriques sous-jacents aux notions qui furent abordées dans le cours, – des feuilles avec 50 exercices corrigés pour les séances de travaux dirigés du deuxième semestre de l’année acadé- mique 1999–2000, – un examen blanc, un sujet de partiel, un sujet d’examen, avec leurs solutions, aussi un sujet d’examen de rattra- page, toujours pour 1999–2000, – des feuilles avec 30 exercices partiellement corrigés pour le deuxième semestre de l’année 2000–2001, – et finalement un partiel, un examen, avec corrections, et un examen de rattrapage pour l’année 2000–2001. C’est un plaisir de remercier Marc Diener qui a fait tra- vailler les étudiants sur un logiciel spécialisé, ce qui fut très complémentaire à mon cours et à mes exercices (trop) théo- riques. Les feuilles d’exercices réunies ici ne représentent donc que la moitié du travail que les étudiants ont dû ac- complir en séances de travaux dirigés. Et je remercie aussi Francine Diener et Nicolas Radulesco.

Transcript of Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr ›...

Page 1: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS (1999/2000 et 2000/2001)Université de Nice – Sophia Antipolis

« Mathématiques des Séries Temporelles »

Jean-François Burnol

Sont rassemblées ici 82 pages comprenant :– un texte de vingt-deux pages développant, sans preuves,

certains aspects théoriques sous-jacents aux notions quifurent abordées dans le cours,

– des feuilles avec 50 exercices corrigés pour les séances detravaux dirigés du deuxième semestre de l’année acadé-mique 1999–2000,

– un examen blanc, un sujet de partiel, un sujet d’examen,avec leurs solutions, aussi un sujet d’examen de rattra-page, toujours pour 1999–2000,

– des feuilles avec 30 exercices partiellement corrigés pourle deuxième semestre de l’année 2000–2001,

– et finalement un partiel, un examen, avec corrections, etun examen de rattrapage pour l’année 2000–2001.

C’est un plaisir de remercier Marc Diener qui a fait tra-vailler les étudiants sur un logiciel spécialisé, ce qui fut trèscomplémentaire à mon cours et à mes exercices (trop) théo-riques. Les feuilles d’exercices réunies ici ne représententdonc que la moitié du travail que les étudiants ont dû ac-complir en séances de travaux dirigés.

Et je remercie aussi Francine Diener et Nicolas Radulesco.

Page 2: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis
Page 3: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 1

Maîtrise MASS 1999/2000 – 2ème semestre – MM6Université de Nice – Sophia Antipolis

“Mathématiques des Séries Temporelles”Jean-François Burnol

Nous devons prévenir le lecteur qu’il rencontrera dans cesnotes les défauts suivants (entre autres) :– Il n’y a aucune démonstration.– De plus le niveau mathématique est trop élevé pour une

Maîtrise MASS.– Les termes inversibilité, causalité, régularité ne sont pas

employés selon l’acceptation courante en économétrie. Enéconométrie il semble que l’on dise “inversible” là où nousdisons “causal et d’inverse causal (régulier)”.

– Le résultat mathématique central (théorème de Szegö-Kolmogorov-Krein) n’est pas exposé (il est inutile pourun ARMA.)

– La théorie de Szegö des polynômes orthogonaux n’est pasexposée.

– (lié au point précédent) La prévision est vue uniquementdans le cas où tout le passé est disponible.

– (lié au point précédent) Les autocorrélations partiellesne sont pas discutées. L’algorithme de Durbin n’est pasdiscuté. Le filtre récursif de Kalman n’est pas discuté.

– Le problème de l’identification des paramètres n’est quebrièvement évoqué. L’estimation selon la fonction de vrai-semblance maximale ne l’est pas du tout.

– Les statistiques liées à l’estimation des autocovariancesne sont pas discutées.

Page 4: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

2 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Maîtrise MASS 1999/2000 – 2ème semestre – MM6

Université de Nice – Sophia Antipolis

Cours “Mathématiques des séries temporelles”

Compléments 4 : aide-mémoire sur les séries stationnaires

version du 14 mai 2000, c© Jean-François Burnol, 2000.

Note : cet aide-mémoire ne correspond pas à l’ordre dans lequel les sujets ont été abor-dés, mais reprend l’essentiel du matériel couvert dans les précédents compléments. Il necontient pas de démonstration. Le coeur du sujet est la notion d’innovation fondamentale,l’existence de la représentation MA(∞), et l’algorithme de prévision sur la base des as-pects complémentaires AR(∞) et MA(∞). J’ai utilisé dans ces notes une notion de “sérieanalytique”, mais je ne sais pas si cette terminologie est couramment employée. Elle esttrès utile pour discuter de manière naturelle les ARMA(p,q).

Un effort a été fait pour bien distinguer entre elles les notions de stationnarité, d’inversibi-lité et de causalité. Cet effort est nécessaire au vu de la confusion sur ce sujet présente dansdifférents textes destinés aux étudiants en économétrie (par exemple l’ouvrage de référence“Time Series Analysis”, Princeton University Press, 1994, 799 pages, James D. Hamilton,qui comporte des arguments “intuitifs” qui en plus d’être intuitifs sont faux). J’ai parailleurs bénéficié pour la préparation de ce cours du polycopié “Prévision” de MoniquePontier (DESS 1996 à l’université de Orléans, 68 pages), mais dans un état d’esprit qui adû prendre en compte les réalités d’un cours de niveau maîtrise.

Parmi les autres sujets partiellement abordés dans le cours : projections orthogonaleset régression, mesure et représentation spectrale, séries non-stationnaires (polynomiales,ARIMA, I(d)) avec une discussion des effets d’une racine unité, le filtre de Kalman (sca-laire et vectoriel), et son utilisation pour la prévision sur la base d’un échantillon finiet l’interpolation. Le temps a manqué en particulier pour traiter de la co-intégration, del’hétéroscédasticité (ARCH, GARCH, . . .), et surtout de l’estimation de paramètres. Ce-pendant, grâce au Professeur Marc Diener, les étudiants ont pu bénéficier pendant les TDsd’une formation complémentaire aux outils logiciels.

Je remercie Francine et Marc Diener, Nicolas Radulesco, et les participants du séminairegtmass pour avoir stimulé mon intérêt en ce sujet.

Page 5: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 3

Sommaire

1 Stationnarité : autocovariances 41.1 Stationnarité . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Fonction génératrice des autocovariances . . . . . . . . . . . . 41.3 Histoire d’un processus . . . . . . . . . . . . . . . . . . . . . . 5

2 Filtres : inversibilité, causalité 52.1 Moyennes mobiles . . . . . . . . . . . . . . . . . . . . . . . . 52.2 Filtres analytiques et Inversibilité . . . . . . . . . . . . . . . . 62.3 Filtres causaux . . . . . . . . . . . . . . . . . . . . . . . . . . 7

3 Prévision : innovations, décomposition de Wold 83.1 Innovations fondamentales . . . . . . . . . . . . . . . . . . . . 83.2 Décomposition de Wold . . . . . . . . . . . . . . . . . . . . . 93.3 Formules de prévision de Wiener . . . . . . . . . . . . . . . . 10

4 MA(q) 114.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

5 AR(p) 145.1 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145.2 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155.3 Équations de Yule-Walker . . . . . . . . . . . . . . . . . . . . 16

6 ARMA(p,q) 176.1 Condition d’existence . . . . . . . . . . . . . . . . . . . . . . 176.2 Structure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

7 Séries analytiques 217.1 MA(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217.2 AR(∞) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217.3 Prévision . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

Page 6: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

4 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

1 Stationnarité : autocovariances

1.1 Stationnarité

Une série temporelle est une suite de variables aléatoires X = (Xt)t∈Z (définies sur le même

espace probabilisé, et on les supposera à valeurs dans R). Elle est dite cov-stationnaire (ou à

covariances stationnaires, ou encore faiblement stationnaire du deuxième ordre, etc. . .) si d’une

part E(Xt) est indépendant de t et si d’autre part E(Xt+jXt) est indépendant de t pour tout j.

On note alors E(X) = E(Xt) (espérance de X). On dit que X est centrée si E(X) = 0. On note

X∗ la série temporelle centrée déduite de X : ∀t X∗t = Xt − E(X). On note γX

0 = E(X∗t X

∗t )

(variance de X) et plus généralement γXj = E(X∗

t+jX∗t ) (jème autocovariance de X).

Note 1.1.1 (technique) : on suppose ci-dessus (et dans tout ce qui suit) X à valeurs réelles. Dans lecas d’une série à valeurs complexes il y a deux conventions possibles pour γX

j : soit E(X∗t+jX

∗t ), soit

E(X∗t+jX

∗t ). Ce choix a des répercussions dans différentes formules (filtrage du spectre, Yule-Walker,

etc. . .). Contrairement au choix fait dans le cours, c’est le deuxième qui semble le meilleur (par exemplel’opérateur de décalage L corrrespond à la multiplication par z et non par 1

z ), et il est implicite danscertaines formules de ce texte dès qu’elles impliquent des nombres complexes.

Un bruit blanc est une série temporelle ε cov-stationnaire, centrée, telle que γεj = 0 pour j 6= 0.

En général on sous-entend aussi que γε0 > 0 (sinon la série est identiquement nulle).

1.2 Fonction génératrice des autocovariances

On a toujours |γj | ≤ γ0 et γ−j = γj (pour X à valeurs complexes on a γ−j = γj).

Lorsque les autocovariances sont sommables (∑

j |γj | <∞), la fonction (continue) suivante :

fX(θ) =∑

j∈Z

γj exp(i jθ)

est dite fonction génératrice des autocovariances. Par γ−j = γj on voit que fX(θ) ∈ R et il est

remarquable que l’on puisse de plus démontrer : ∀θ fX(θ) ≥ 0. La jème autocovariance de X

s’obtient par la formule suivante de la théorie des séries de Fourier :

γj =

∫ 2π

0fX(θ) exp(−i jθ) dθ

Page 7: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 5

Souvent on utilise la notation alternative :

fX(z) =∑

j∈Z

γj zj pour z = exp(iθ)

mais attention cela n’aura en général de sens que pour les nombres complexes z de module 1

(pour les autres la série pourrait diverger soit pour j → ∞ soit pour j → −∞).

1.3 Histoire d’un processus

Si X est centrée on note H(X) et on appelle histoire (linéaire) de X l’espace (de Hilbert) des

combinaisons linéaires des Xt, t ∈ Z. Si X n’est pas centrée, on définira l’histoire de X selon

H(X) = H(X∗) (d’autres conventions sont possibles).

Le passé (linéaire) de X jusqu’à l’instant t, noté H≤t(X) est le sous-espace (fermé) de H(X)

engendré par les X∗u, u ≤ t. Les H≤t(X) forment une chaine croissante de sous-espaces de H(X).

Leur réunion est dense dans H(X), leur intersection H−∞(X) := ∩tH≤t(X) est appelée passé

(linéaire) lointain de X.

2 Filtres : inversibilité, causalité

2.1 Moyennes mobiles

On note L l’opérateur de décalage qui transforme une série temporelle X = (Xt) en la série

temporelle L X := Y = (Yt = Xt−1). Cet opérateur est donc défini pour n’importe quelle

série temporelle, pas nécessairement cov-stationnaire (et aussi pour des séries numériques, ou

à valeurs vectorielles, etc. . .). Il constitue l’exemple de base d’un filtre. On définit aussi son

inverse L−1 selon L−1 X := Y = (Yt = Xt+1). Le filtre unité 1 est le filtre qui ne fait rien :

1 X = X.

La notion de filtre est très vaste : d’une manière générale, il s’agit d’une opération X 7→ A X,

définie sur un certain espace vectoriel de séries temporelles (le domaine de A), et satisfaisant

des conditions telles que la linéarité (A (X + Y ) = A X + A Y ) et l’invariance dans le

temps (A L X = L A X).

Page 8: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

6 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Lorsque les séries temporelles considérées sont stationnaires, il est naturel d’imposer que A Xsoit également stationnaire et que l’histoire de A X soit contenue dans l’histoire de X. Un

exemple important est donné par les moyennes mobiles (bilatères) : le filtre A est déterminé

par une suite de coefficients aj , j ∈ Z, et agit (sur les séries centrées) selon

( 2.1.1 ) (A X)t =∑

j∈ZajXt−j

On impose au minimum que les coefficients aj du filtre vérifient∑

j |aj |2 < ∞, de sorte que

A ε est bien définie pour tout bruit blanc ε (il est alors possible pour certaines séries X que

la somme dans 2.1.1 soit divergente et donc que A X ne soit pas définie).

Si les coefficients aj sont nuls pour j < 0 on dit que la moyenne mobile est unilatère.

2.2 Filtres analytiques et Inversibilité

On dit que A est un filtre analytique si la fonction h(z) =∑

j∈Zaj z

j est analytique dans

un anneau contenant le cercle S1. Concrètement cela signifie que les coefficients aj ont une

décroissance exponentielle :

∃C < 1, B > 0,∀j |aj | ≤ B · C |j|

On dit de h(z) qu’elle est la fonction spectrale de A et on notera A = Ah ou même A = h(L).

La formule 2.1.1 définit A X pour toute série stationnaire X.

Théorème 2.2.1 Le composé de deux filtres analytiques Ah et Ak est le filtre analytique de

fonction spectrale h(z)k(z). En particulier Ah Ak = Ak Ah.

Théorème 2.2.2 Si les autocovariances de X sont sommables alors il en est de même pour

Ah X et la fonction génératrice de ses autocovariances vaut |h(z)|2 fX(z).

Note 2.2.3 (technique) : Dans le cas complexe la formule du théorème est valable pour la définitionγj = E(X∗

t+jX∗t ). Pour l’autre convention c’est |h( 1

z )|2 qu’il faudrait prendre. Si les coefficients aj sontréels il n’y a aucune différence entre |h( 1

z )|2 et |h(z)|2 (pour |z| = 1). Dans tous les cas attention : la

formule vaut uniquement pour |z| = 1, pour d’autres valeurs de z il faudrait prendre h(z)h( 1z ) fX(z).

Page 9: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 7

Le filtre Ah est dit inversible si pour toute série (cov-stationnaire, centrée) Y on peut en trouver

une autre X avec Ah X = Y .

Théorème 2.2.4 Un filtre analytique est inversible si et seulement si sa fonction spectrale h(z)

ne s’annule pas sur le cercle. Dans ce cas la solution à Ah X = Y est unique et donnée par

X = Ak Y avec k(z) = 1h(z) .

Un filtre polynomial est un filtre analytique dont la fonction spectrale h(z) est un polynôme

en z. On impose alors de plus toujours la convention h(0) = 1, de sorte que Ah = 1 + φ1L +

φ2L2 + . . . φdL

d. Le polynôme h(z) se factorise en∏

1≤j≤d(1 − λjz). On dit que les λj sont les

co-racines de h (ses racines sont les inverses 1λj

).

2.3 Filtres causaux

On dit qu’un filtre Ah est causal si pour tout X :

∀t H≤t(Ah X) ⊂ H≤t(X)

Théorème 2.3.1 Un filtre analytique Ah = h(L) =∑

j∈ZcjL

j est causal si et seulement si

les coefficients cj sont tous nuls pour j < 0 (de manière équivalente si la fonction h(z) est

analytique dans le disque |z| ≤ 1).

On dit qu’un filtre Ah est régulier (ou bi-causal) si pour tout X :

∀t H≤t(Ah X) = H≤t(X)

Un filtre régulier est donc nécessairement causal.

Théorème 2.3.2 Un filtre analytique causal Ah = h(L) =∑

j≥0 cjLj est régulier si seulement

si la fonction analytique h(z) ne s’annule pour aucun z vérifiant |z| ≤ 1. Un filtre régulier est

donc nécessairement inversible.

Théorème 2.3.3 Un filtre analytique est régulier si et seulement si il est inversible, causal, et

d’inverse également causal.

Page 10: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

8 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

On voit donc qu’un filtre polynomial est toujours causal, qu’il est inversible si le polynôme ne

s’annule pas sur le cercle, et régulier si ses co-racines λj vérifient |λj | < 1 (ses racines sont toutes

strictement à l’extérieur du cercle). On reviendra (lors de la discussion des processus MA(q),

AR(p), ARMA(p,q)) sur le problème de donner explicitement les coefficients de l’inverse d’un

filtre polynomial inversible.

3 Prévision : innovations, décomposition de Wold

Les séries temporelles considérées dans cette section seront toutes supposées centrées. Sinon on

remplace X par sa version centrée X∗.

3.1 Innovations fondamentales

Soit X une série temporelle cov-stationnaire (centrée). Soit, pour tout t, Pt la projection ortho-

gonale sur H≤t(X). Soit

εt := Xt − Pt−1(Xt)

Théorème 3.1.1 La série temporelle ε = (εt)t∈Z est un bruit blanc.

Ce bruit blanc est appelé bruit blanc d’innovation de X. Les εt sont les innovations fondamen-

tales du processus X. La relation

Xt = εt + Pt−1(Xt)

montre que εt est ce qui arrive de “nouveau” àX à l’instant t. La variance de ε est nécessairement

inférieure ou égale à la variance de X.

On dit que X est purement déterministe si son bruit blanc d’innovation est nul. On peut alors

(en théorie) prévoir exactement les valeurs futures de X en fonction de la connaissance de toutes

ses valeurs passées.

Théorème 3.1.2 X est purement déterministe si et seulement si pour au moins un t on a

H≤t(X) = H≤t+1(X), si et seulement si H−∞(X) = H(X).

Page 11: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 9

L’extrême opposé est le suivant : on dit que X est purement innovante si X est non nulle et si

H−∞(X) = 0.

Théorème 3.1.3 X (non nulle) est purement innovante si et seulement si pour au moins un

t on a H≤t(X) = H≤t(ε), et l’égalité est alors valable pour tout t.

3.2 Décomposition de Wold

Théorème 3.2.1 (Wold) Pour toute série temporelle stationnaire centrée X il existe (de ma-

nière unique) une série purement innovante (ou nulle) Y et une série purement déterministe κ

telles que

X = Y + κ

Y et κ sont non corrélées

Théorème 3.2.2 Soit P−∞ la projection orthogonale sur H−∞(X). Alors dans la décompo-

sition de Wold on a κt = P−∞(Xt). À chaque instant t on a la décomposition orthogonale

H≤t(X) = H≤t(Y ) ⊕H(κ).

Théorème 3.2.3 Supposons que X ne soit pas purement déterministe. Alors la partie purement

innovante Y de la décomposition de Wold s’exprime de manière unique comme moyenne mobile

unilatère en fonction du bruit blanc d’innovation ε de X :

∀t Yt =∑

j≥0

cjεt−j

avec c0 = 1,∑

j |cj |2 <∞. Le bruit blanc d’innovation de X est également bruit blanc d’inno-

vation pour Y .

Théorème 3.2.4 Une moyenne mobile unilatère non nulle Xt =∑

j≥0 dj ηt−j (avec η un bruit

blanc, et∑

j |dj |2 <∞) est purement innovante. Cependant η n’est pas nécessairement le bruit

blanc d’innovation de X.

Page 12: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

10 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Pour que dans une moyenne mobile unilatère Xt =∑

j≥0 cjεt−j le bruit blanc ε soit le bruit

blanc d’innovation de X il faut des conditions sur les coefficients cj dont l’énoncé est assez

technique. Cependant lorsqu’ils correspondent à un filtre (causal) analytique h(z) =∑

j cjzj

on a l’énoncé simple suivant :

Théorème 3.2.5 Soit Ah = h(L) =∑

j≥0 cjLj un filtre causal analytique, et ε un bruit blanc

(non nul). Alors la série purement innovante X = Ah ε a comme bruit blanc d’innovation ε

si et seulement si

c0 = 1 et |z| < 1 ⇒ h(z) 6= 0

On rappelle que par définition la fonction h(z) est supposée analytique dans un disque |z| < c2

strictement plus grand que le disque unité. Elle n’aura donc qu’un nombre fini de zéros éventuels

dans le disque |z| ≤ 1. Pour que ε soit le bruit blanc d’innovation de Ah ε la condition est donc

qu’aucun zéro ne se trouve à l’intérieur du cercle, mais les zéros sur le cercle sont autorisés.

3.3 Formules de prévision de Wiener

Pour une série purement déterministe le futur est exactement déterminé par le passé : cela

peut paraitre un avantage pour la prévision, mais aussi un inconvénient (suivant son inclina-

tion philosophique). D’ailleurs identifier une série κ comme étant purement déterministe, puis

trouver concrètement comment exprimer κt en fonction (linéaire) de ses valeurs passées pose

des problèmes considérables (et de toute façon insolubles car on ne dispose jamais que d’un

nombre fini d’observations). Dans ce cours l’accent est mis sur les séries purement innovantes

comme les AR(p) pour lesquelles le futur recèle de manière “officielle” une part de hasard, avec

cependant un faible nombre de paramètres inconnus a priori.

La représentation de Wold d’une série purement innovante comme moyenne mobile unilatère

par rapport à son bruit blanc d’innovation permet de résoudre le problème de la prévision

optimale du futur en fonction du passé.

Théorème 3.3.1 Soit X une série purement innovante, qui est donc une moyenne mobile

unilatère Xt =∑

j≥0 cjεt−j par rapport à son bruit blanc d’innovation. Soit, pour δ > 0, Xt+δ | t

la prévision optimale de Xt+δ sur la base du passé linéaire H≤t(X). Alors :

Page 13: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 11

( 3.3.2 ) Xt+δ | t =∑

j≥δ

cj εt+δ−j =∑

j≥0

cj+δ εt−j

Ceci constitue une partie des formules de prévision de Wiener-Kolmogorov, la version complète

contenant les éléments suivants :

1. Un critère qui permette de décider sur la base des autocovariances de X si X est purement

innovante.

2. Des formules ou algorithmes pour les coefficients cj .

3. Les formules 3.3.2 et si possible l’expression de εt en fonction des Xu, u ≤ t

4. Dans la mesure du possible une expression directe des Xt+δ | t en fonction des Xu, u ≤ t.

En toute généralité, les réponses à ces questions sont assez techniques, mais nous y reviendrons

pour les MA(q), AR(p), ARMA(p,q) et plus généralement les “séries analytiques”.

Théorème 3.3.3 Soit σ2δ la variance de Xt+δ − Xt+δ | t. On a

σ2δ = γε

0 (∑

0≤j≤δ−1

|cj |2)

γX0 = γε

0 ·∑

j≥0

|cj |2

On voit donc que au fur et à mesure que l’horizon t + δ s’éloigne l’erreur σ2δ de la prévision

optimale augmente et tend vers la variance de X, avec une valeur minimale pour δ = 1 égale à

la variance de ε.

4 MA(q)

Dans cette section et les suivantes les séries temporelles sont centrées. Plus généralement on

dira ensuite que X est un MA(q) ou un AR(p) ou un ARMA(p,q) si X∗ l’est. MA = “moving

average” (moyenne mobile), AR = “autoregressive” (autoregressif).

Page 14: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

12 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

4.1 Structure

On dit que X est un MA(q) si X est le filtré Ak η d’un bruit blanc (non nul) par un filtre

polynomial Ak = k(L) = 1 + ψ0L + . . . + ψqLq, de degré q (ψq 6= 0). On dit que X est un

MA(≤q) si deg(k) ≤ q.

Théorème 4.1.1 Un MA(q) X = Akη est purement innovant. Sa relation avec son bruit blanc

d’innovation ε est aussi du type MA(q) : X = Ah ε, avec deg(h) = deg(k) = q. Le polynôme

h(z) (dit polynôme canonique) s’obtient à partir du polynôme k(z) en remplaçant toutes les

racines éventuelles se trouvant à l’intérieur du cercle unité par leurs inversions (α 7→ 1α ), les

déplaçant ainsi à l’extérieur du cercle unité.

Théorème 4.1.2 Soit X un MA(q). Il n’y a qu’un nombre fini de polynômes k(z) pour lesquels

on puisse trouver un bruit blanc η avec X = Ak η. Une fois k choisi, η est uniquement

déterminé. Tous les polynômes k ont le même degré q.

Théorème 4.1.3 Soit X = Ak η un MA(q). Soit µ1, . . . , µq les co-racines de k(z). Le poly-

nôme h(z) qui relie X à son bruit blanc d’innovation est

h(z) =∏

j, |µj |≤1

(1 − µj z)∏

j, |µj |>1

(1 − 1

µjz)

La variance du bruit blanc d’innovation est relié à la variance de η par

γε0 = γη

0 ·∏

j, |µj |>1

|µj |2

Les autocovariances d’un MA(q) X = Ak η = η + ψ1L η + . . .+ ψqLq η se calculent selon :

j

γXj zj = γη

0 (1 + ψ1z + . . .+ ψqzq)(1 + ψ1

1

z+ . . .+ ψq

1

zq)

En particulier

γX0 = γη

0 (1 + |ψ1|2 + . . .+ |ψq|2)

et les γXj sont nuls pour |j| > q.

Page 15: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 13

Théorème 4.1.4 Une série cov-stationnaire est un MA(q) si et seulement si ses autocova-

riances γXj sont nulles pour j > q et γX

q 6= 0.

Théorème 4.1.5 La somme d’un MA(q1) et d’un MA(q2) (non-corrélées) est un MA(≤max(q1,

q2)).

4.2 Prévision

Soit X un MA(q). On a vu comment trouver le polynôme canonique

h(z) =∏

1≤k≤q

(1 − λk z) ∀k |λk| ≤ 1

et donc la relation qui le lie à son bruit blanc d’innovation ε :

Xt = εt + φ1εt−1 + . . .+ φqεt−q

On a donc

Théorème 4.2.1

Xt+1 | t = φ1εt + . . .+ φqεt−(q−1)

Xt+2 | t = φ2εt + . . .+ φqεt−(q−2)

. . .

Xt+q | t = φqεt

j > q ⇒ Xt+j | t = 0

Il subsiste le problème d’exprimer explicitement les εu en fonction des Xt. Il y a des difficultés

si le polynôme canonique s’annule sur le cercle :

Théorème 4.2.2 Si h(z) s’annule en un point du cercle unité, alors il n’existe aucun choix

de coefficients αj pour lesquels∑

j≥0 αj Xt−j converge et coïncide avec εt. Cependant on peut

représenter εt comme une limite de telles combinaisons linéaires des Xu, u ≤ t.

Page 16: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

14 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Dans le cas régulier où le polynôme h(z) ne s’annule pas sur le cercle unité (et définit donc un

filtre régulier), on a

Théorème 4.2.3 Si h(z) ne s’annule en aucun point du cercle unité alors il existe un choix

unique de coefficients αj pour lesquels on a

εt =∑

j≥0

αj Xt−j

Les coefficients αj convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les coefficients

du filtre analytique A1/h. Dans le cas où h n’a pas de racine multiple, on a la formule explicite

suivante :

∀j ≥ 0 αj =∑

1≤k≤q

mkλjk

avec

mk =1

∏l 6=k(1 − λl

λk)

En conclusion les MA(q) ne sont pas bien adaptés à la prévision puisque d’une part j > q ⇒Xt+j | t = 0 et d’autre part les prévisions nécessitent la connaissance de toutes les valeurs passées

de X.

5 AR(p)

5.1 Structure

On dit que X est un AR(p) si il existe un filtre polynomial k(z) = 1−ψ1z− . . .−ψpzp de degré

p (ψp 6= 0) tel que η = Ak X soit un bruit blanc non nul. On dit que X est un AR(≤p) si

deg(k) ≤ p.

Théorème 5.1.1 Si X est un AR(p) alors k(z) n’a aucune racine sur le cercle. Autrement dit

le filtre analytique Ak est nécessairement inversible et X = A1/k η. Il n’y a qu’un nombre fini

de polynômes qui filtrent X en un bruit blanc : ils s’obtiennent à partir de k(z) par la même

règle que pour les MA(q). En particulier ils ont tous le même degré p.

Page 17: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 15

Théorème 5.1.2 Si X est un AR(p) (η = Ak X) alors X est purement innovante, et il

existe un unique polynôme h(z) (dit canonique) tel que le bruit blanc d’innovation de X soit

de la forme ε = Ah X. Le polynôme canonique est de degré p et s’obtient à partir de k(z)

par la même règle que pour les MA(q). Il est donc de la forme h(z) =∏

1≤k≤q(1 − λk z) avec

∀k |λk| < 1.

Théorème 5.1.3 Si X est un AR(p) alors X s’exprime comme moyenne mobile unilatère à

partir de son bruit blanc d’innovation ε :

Xt =∑

j≥0

cj εt−j

avec des coefficients cj qui convergent rapidement vers 0 lorsque j → ∞, en effet ce sont les

coefficients du filtre analytique A1/h , avec h(z) le polynôme canonique.

5.2 Prévision

Les AR(p) sont bien adaptés à la prévision :

Théorème 5.2.1 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique

h(z) = 1− φ1z − . . .− φpzp. Les prévisions optimales Xu | t (pour u > t) sont des combinaisons

linéaires de Xt, Xt−1, . . . , Xt−p+1 :

Xu | t =∑

0≤j≤p−1

aj(u)Xt−j

qui s’obtiennent par récurrence selon

Xu | t =∑

1≤k≤p

φkXu−k | t

avec les conditions initiales Xt−j | t = Xt−j pour j ≥ 0

On peut donner des formules plus explicites pour les coefficients aj(u), mais c’est un peu

compliqué, surtout si h(z) a des racines multiples. Du point de vue du calcul par un ordinateur

il est en général plus simple, et tout aussi efficace, d’évaluer Xu | t par récurrence comme ci-

dessus. Lorsque h(z) n’a pas de racine multiples, on peut aussi procéder selon :

Page 18: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

16 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Théorème 5.2.2 Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique

h(z) = 1−φ1z−. . .−φpzp =

∏1≤k≤p(1−λk z), sans racine multiple. Soit hk(z) =

∏j 6=k(1−λj z)

et Y k = hk(L) X. Alors les Y k sont des AR(1) qui partagent avec X le même bruit blanc

d’innovation. On a

Xu | t =∑

1≤k≤p

mk · λu−tk · Y k

t

avec

mk =1

∏j 6=k(1 − λj

λk)

En comparaison avec les MA(q), on voit donc que pour un AR(p) les prévisions Xu | t peuvent

être non nulles même avec u ≫ t, et de plus s’expriment assez directement comme une combi-

naison linéaire des p dernières valeurs observées de X. Ces avantages paraissent décisifs...mais

attention, dans la pratique on ne connaît pas à l’avance les valeurs de φ1, . . . , φp et on ne connaît

pas non plus la variance γε0 du bruit blanc d’innovation : pour obtenir des valeurs approchées

significatives il faudra disposer de nettement plus que p observations. On calculera alors d’abord

des approximations aux auto-covariances de X puis on en déduira (section suivante) des valeurs

pour φ1, . . . , φp et γε0.

5.3 Équations de Yule-Walker

Soit X un AR(p) de bruit blanc d’innovation ε et de polynôme canonique h(z) = 1 − φ1z −. . . − φpz

p =∏

1≤k≤p(1 − λk z). Pour des raisons théoriques on veut pouvoir calculer les auto-

covariances de X lorsque les φk et γε0 sont connus. Pour des raisons pratiques on veut pouvoir

calculer φk et γε0 lorsque les autocovariances de X sont connues.

Théorème 5.3.1 (Yule-Walker) On a les équations suivantes :

(YW0) γX0 − φ1γ

X−1 − . . .− φpγ

X−p = γε

0

(YW1) γX1 − φ1γ

X0 − . . .− φpγ

X1−p = 0

. . .

(YWj) γXj − φ1γ

Xj−1 − . . .− φpγ

Xj−p = 0

dites équations de Yule-Walker.

Page 19: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 17

Note 5.3.2 Lorsque X est à valeurs réelles γX−j = γX

j , en général γX−j = γX

j . On suppose X à valeursréelles dans les deux théorèmes suivants.

Théorème 5.3.3 Étant donnés φ1, . . . , φp et γε0 le système YW0, . . . , Y Wp de p+ 1 équations

linéaires en les p + 1 inconnues γX0 , . . . , γ

Xp possède une unique solution. Les γX

j pour j > p

sont alors calculées par récurrence avec les YWj, j > p.

Théorème 5.3.4 Étant donnés γX0 , . . . , γ

Xp le système YW1, . . . , Y Wp de p équations linéaires

en les p inconnues φ1, . . . , φp possède une unique solution. L’équation YW0 permet alors d’éva-

luer γε0.

Dans la pratique (après avoir deviné une valeur raisonnable pour p) on calcule des valeurs

empiriques des autocovariances γX0 , . . . , γ

Xp . On en déduit les valeurs de φ1, . . . , φp et γε

0. Puis

on cherche à valider le modèle en comparant avec les valeurs empiriques les valeurs des γXj

pour j > p déduites des autres YWj . Enfin le modèle sera “efficace” (du point de vue de la

prédiction) si γε0 est petit par rapport à γX

0 . Cela signifie que les racines (ou co-racines) de h(z)

doivent être proches du cercle unité.

6 ARMA(p,q)

6.1 Condition d’existence

Soit P (z) = 1 − φ1z − . . . − φpzp un polynôme de degré p et Q(z) = 1 + ψ1z + . . . + ψpz

p un

polynôme de degré q. Soit η un bruit blanc. On cherche X cov-stationnaire vérifiant :

(ARMAP |Q) AP X = AQ η

Théorème 6.1.1 Pour qu’il existe une solution cov-stationnaire à l’équation ARMAP |Q il faut

et il suffit que toute co-racine de P (z) sur le cercle, si il en existe, soit aussi une co-racine de

Q(z) avec au moins la même multiplicité.

Théorème 6.1.2 Si ARMAP |Q possède une solution cov-stationnaire alors elle en possède une

unique qui soit purement innovante, et cette solution s’obtient comme X = AF η où F (z) est

Page 20: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

18 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

la fraction rationnelle Q(z)P (z) . Toutes les autres solutions sont de la forme X +Z1 + . . .+Zr avec

Zk une série temporelle de la forme (Zk)t = αtk(Zk)0 et α1, . . . , αr les co-racines de P (z) sur

le cercle.

On dira donc que X est un ARMA(p,q) si X est l’unique solution purement innovante d’une

équation ARMAP |Q avec deg(P ) = p et deg(Q) = q (et on dit que X est un ARMA(≤p,≤q) si

deg(P ) ≤ p et deg(Q) ≤ q). On peut supprimer tout facteur commun à P et Q. Alors P (z) ne

peut pas avoir de racine sur le cercle, le filtre AP est inversible, et X = (AP )−1 AQ η. On

suppose que c’est le cas dans tout ce qui suit.

6.2 Structure

Théorème 6.2.1 Pour que η soit le bruit blanc d’innovation de X il faut et il suffit que P (z) =∏

1≤k≤p(1 − λk z) et Q(z) =∏

1≤j≤q(1 − µj z) avec ∀k |λk| < 1 et ∀j |µj | ≤ 1.

Théorème 6.2.2 Si X est un ARMA(p,q) donné selon AP X = AQ η, alors la relation (dite

minimale) entre X et son bruit blanc d’innovation est du même type :

AP1X = AQ1

ε

où P1 et Q1 s’obtiennent à partir de P et Q selon la même règle que pour les AR(p) et les

MA(q), puis en supprimant tout facteur commun éventuel.

Théorème 6.2.3 X est un ARMA(p,q) (pour p et q bien choisis) si et seulement si la fonction

génératrice de ses autocovariances est une fraction rationnelle.

Théorème 6.2.4 La somme d’un ARMA(p1,q1) et d’un ARMA(p2,q2) (non-corrélées) est un

ARMA(p1+p2, ≤max(p1+q2, p2+q1)).

Par exemple : la somme de deux bruits blanc indépendants (=ARMA(0, 0)) est un bruit blanc.

La somme d’un bruit blanc et d’un MA(q) est un MA(≤q) (en fait exactement un MA(q)).

La somme d’un AR(p) et d’un bruit blanc indépendant est un ARMA(p, ≤p). La somme

Page 21: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 19

d’un AR(p1) et d’un AR(p2) est un ARMA(p1+p2, ≤max(p1, p2)). La somme d’un AR(p)

et d’un MA(q) est un ARMA(p, ≤p+q). La somme d’un MA(q1) et d’un MA(q2) est un

MA(≤max(q1,q2)). Toutes ces sommes portent sur des séries non-corrélées.

6.3 Prévision

Supposons que l’on dispose d’un grand nombre d’observations consécutives de X jusqu’à l’ins-

tant t. Pour estimer les prévisions optimales Xu | t il faut suivant la méthode générale de Wiener

d’une part disposer des coefficients cj qui relient X à son bruit blanc d’innovation ε, et d’autre

part déduire des valeurs numériques observées des Xu (pour u ≤ t) les valeurs numériques des

εu (pour u ≤ t). On a alors suivant la formule générale 3.3.2 :

Xt+δ | t =∑

j≥0

cj+δ εt−j

Dans une première étape on utilise le théorème suivant pour essayer d’évaluer p et les coefficients

du polynôme P (z) :

Théorème 6.3.1 Les équations de Yule-Walker YWj (définies précédemment pour un AR(p))

sont valables pour un ARMA(p,q) pour j > q. Lorsque (p,q) est minimal le système Sp|q de p

équations YWq+1, . . . , Y Wq+p en les p inconnues φ1, . . . , φp possède une unique solution.

Dans la pratique on devine p, on calcule les autocovariances empiriques, puis on résoud Sp|q pour

des valeurs croissantes de q. Si les solutions ne se stabilisent pas, c’est que p est trop petit. Si

les systèmes ont numériquement des déterminants proches de 0, c’est que p est trop grand. Une

fois déterminée une valeur raisonnable pour p, on dispose donc de P (z) = 1− φ1z − . . .− φpzp

et on peut calculer numériquement les autocovariances βj de AP X, d’où une valeur pour

q (j > q ⇒ βj ≈ 0). L’étape suivante est de trouver les zéros µ1, . . . , µq de∑

|j|≤q βjzj dans

le disque unité d’où Q(z) =∏

1≤j≤q(1 − µjz) = 1 + ψ1z + . . . + ψqzq. C’est seulement à ce

stade que l’on pourra évaluer la variance γε0 du bruit blanc d’innovation, par exemple selon

β0 = γε0 ·∑

j |ψj |2.

Page 22: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

20 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Les coefficients cj sont les coefficients du filtre analytique A−1P AQ, autrement dit les coefficients

du développement

(|z| ≤ 1)∑

j≥0

cj zj =

∏1≤j≤q(1 − µjz)∏1≤k≤p(1 − λkz)

pour lesquels on peut donner diverses formules ou algorithmes.

L’expression du bruit blanc d’innovation ε en fonction de X n’est accessible que si Q(z) ne

s’annule pas sur le cercle, on a alors εt =∑

j≥0 dj Xt−k où les dj sont les coefficients du filtre

analytique AP A−1Q . Dans ce cas :

Théorème 6.3.2 Les prévisions optimales s’expriment comme des combinaisons linéaires

Xt+δ | t =∑

j≥0

α(δ, j)Xt−j

avec pour chaque δ : ∑

j≥0

α(δ, j) zj =

[1

Q(z)

P (z)

]

+

· P (z)

Q(z)

où [·]+ signifie que l’on ne retient que les termes en zk avec k ≥ 0.

Pour δ = 1 on a α(1, j) = −dj+1, et il est inutile de calculer les α(δ, j) pour δ ≥ 2. En effet :

Théorème 6.3.3 Les Xt+δ | t s’obtiennent par récurrence selon

Xt+δ | t = −∑

j≥1

dj Xt+δ−j | t

avec les conditions initiales pour u ≤ t

Xu | t = Xu

et les dj reliant X et son bruit blanc d’innovation ε selon

εt =∑

j≥0

dj Xt−j

Autrement dit on procède comme avec un AR(p), à partir du moment où l’on dispose de la

représentation “AR(∞)” qui exprime le bruit blanc d’innovation à partir de X.

Page 23: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000 21

7 Séries analytiques

7.1 MA(∞)

les séries AR(p), MA(q), ARMA(p,q) sont toutes des séries analytiques au sens suivant : on

dit que la série cov-stationnaire centrée X est analytique si elle est non-nulle et si ses autoco-

variances γXj ont une décroissance exponentielle :

∃c < 1 ∃A ∀j |γXj | < A · c|j|

Autrement dit X (non-nulle) est analytique si la fonction génératrice de ses autocovariances est

la restriction au cercle d’une fonction analytique dans un certain anneau.

Théorème 7.1.1 X est analytique si et seulement si elle est purement innovante et si les coef-

ficients cj apparaissant dans sa décomposition de Wold Xt =∑

j≥0 cjεt−j ont une décroissance

exponentielle.

Nous dirons que X est un MA(∞) si elle est une moyenne mobile unilatère avec des coefficients

à décroissance exponentielle à partir d’un bruit blanc (non nul). D’après le théorème précédent

toute série analytique est un MA(∞).

Théorème 7.1.2 X est un MA(∞) si et seulement si elle est analytique.

Théorème 7.1.3 X (non-nulle) est une série analytique si et seulement si elle peut s’écrire

sous la forme A(L) η avec A(L) un filtre analytique et η un bruit blanc. Ce dernier sera le

bruit blanc d’innovation de X si et seulement si A(L) est un filtre causal avec A(0) = 1 et

|z| < 1 ⇒ A(z) 6= 0.

7.2 AR(∞)

On dit que X est un AR(∞) si il existe des coefficients à décroissance exponentielle φj tels que

le filtré de X par le filtre analytique causal 1− φ1L− φ2L2 − . . . soit un bruit blanc (non nul).

Page 24: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

22 Maîtrise MASS, Université de Nice – Sophia Antipolis, c© J.-F. Burnol 2000

Théorème 7.2.1 X est un AR(∞) si et seulement si elle est une série analytique dont la

fonction génératrice des autocovariances ne s’annule pas sur le cercle. Tout AR(∞) est donc

aussi un MA(∞). Si X est un AR(∞) alors il existe un unique filtre analytique tel que son

bruit blanc d’innovation ε puisse s’écrire sous la forme A(L) X. Ce filtre est causal et vérifie

|z| ≤ 1 ⇒ A(z) 6= 0.

Théorème 7.2.2 X est un AR(∞) si et seulement si il existe un filtre analytique A(L) avec

A(L) X = η un bruit blanc (non nul). Nécessairement A(L) est un filtre inversible et donc

X = A(L)−1 η. η est le bruit blanc d’innovation de X si et seulement si A(L) est un filtre

causal avec A(0) = 1 et |z| < 1 ⇒ A(z) 6= 0.

7.3 Prévision

Soit X un AR(∞). Il existe donc deux suites de coefficients φ0 = 1, φ1, φ2, . . . et c0 = 1, c1, c2, . . .

à décroissances exponentielles qui le relient à son bruit blanc d’innovation :

AR(∞) Xt − φ1Xt−1 − φ2Xt−2 − . . . = εt

MA(∞) Xt = εt + c1 εt−1 + c2 εt−2 + . . .

Théorème 7.3.1 (Algorithme fondamental pour la prévision) Les prévisions optimales

Xt+δ | t s’obtiennent par récurrence selon

Xt+δ | t =∑

j≥1

φj Xt+δ−j | t

avec les conditions initiales pour u ≤ t

Xu | t = Xu

L’erreur quadratique dans la prévision est donnée par

σ2δ := E(|Xt+δ − Xt+δ | t|2) = γε

0 ·∑

0≤j≤δ−1

|cj |2

On a σ21 = γε

0 et à la limite lorsque δ → ∞ :

limδ→∞

σ2δ = γX

0 = γε0 ·∑

0≤j

|cj |2

Page 25: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis

Maîtrise MASS 1999-2000 (2eme sem.)

Séries Temporelles (option Mathématiques)

Exercices et sujets d’examens

c©J.-F. Burnol, 2000.

Note: Les premières feuilles d’exercices posent de grosses difficultés à des étudiants quine disposent que de très peu de notions préalables sur les séries de Fourier, la notion deprojection orthogonale, les espaces de Hilbert, la théorie de la mesure, la notion de variablealéatoire, les nombres complexes et les fractions rationnelles.

De plus la convention retenue pour les covariances d’une série centrée à valeurs complexesn’est pas la meilleure. Il aurait fallu prendre γj = E(Xt+jXt) (tout en conservant γj =∫

z−jdµX .) Il aurait mieux valu éviter le plus possible l’emploi des nombres complexes.La notion de mesure spectrale est trop technique, et il vaut mieux se limiter à la fonctiongénératrice des covariances qui existe toujours pour un ARMA(p,q).

Les exercices des examens n’utilisent que les nombres réels, et ils donnent une meilleureidée du niveau attendu des étudiants, compte tenu de leur bagage mathématique. Dans lecours, on a abordé d’autres sujets comme les séries non-stationnaires ARIMA et le filtre deKalman-Bucy.

23

Page 26: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

24

Page 27: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles

Feuille d’exercices 1

SC = série chronologique (à valeurs complexes ou réelles).

SCCS = série chronologique à covariances stationnaires. e = E(Xt) γj = E(Xt+jXt) − |e|2 =∫z−jdµX

SCCCS = série chronologique centrée à covariances stationnaires. e = 0

BB = bruit blanc. E(εt+jεt) = σ2δj,0

(*) indique un exercice d’une difficulté plus grande.

1. Soient ε et η deux BB indépendants. À quelle condition la série (. . . , ε0, η0, ε1, η1, . . .) est une SCCS ?

2. Soit X une SCCCS. On se donne des constantes (complexes) at et on définit Yt = atXt. On suppose

γX1 6= 0. À quelle condition Y est-elle une SCCS ?

3. (*) Même question mais en supposant γX2 6= 0 et γX

3 6= 0.

4. Soient X et Y deux SCCCS indépendantes. Montrer que Z = X + Y est une SCCCS et calculer ses

covariances ainsi que sa mesure spectrale en fonction de celles pour X et Y .

5. Soit ε un BB, et X un MA(1) défini par Xt = aεt + bεt−1 (a, b ∈ C). Calculer les covariances de X.

Montrer l’inégalité γ0 ≥ 2|γ1|.

6. (*) Soit X une SCCCS. Montrer ∀j γ0 ≥ |γj | (ind.: calculer la variance de la variable aléatoire

Y = |γj |X0 − γjXj). Donner un exemple pour lequel ces inégalités sont des égalités.

7. (*) Soit X une SCCCS vérifiant: |j| ≥ 2 ⇒ γj = 0. Soit z un nombre complexe de module 1 et k ≥ 1.

Quelle est la variance de Y = Xt + zXt−1 + . . .+ zkXt−k ? En déduire γ0 ≥ 2|γ1|, et utiliser les formules de

l’exercice 5 pour montrer l’existence d’un MA(1) qui a les mêmes covariances que X (cela implique que X

est lui-même un MA(1) par un résultat que l’on verra ultérieurement en cours).

8. Soit ε un BB, et X un MA(2) défini par Xt = aεt + bεt−1 + cεt−2 (a, b, c ∈ C). Calculer les covariances

de X. Montrer les inégalités |γ2| ≤ γ0

2 et |γ1| ≤ γ0

2 + |γ2|. Donner un exemple où cette deuxième inégalité

est une égalité.

9. (*) Soit X une SCCCS vérifiant: |j| ≥ 3 ⇒ γj = 0. On montrera ultérieurement en cours que X est un

MA(2), et donc que ses covariances vérifient les inégalités de l’exercice 8. Prouver ces inégalités directement

(ind.: adopter la méthode de l’exercice 7).

25

Page 28: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – Analyse des séries temporelles

1. Même variance pour les deux bruits blancs.

2. Comme γX1 6= 0, X n’est pas nulle et γX

0 6= 0 aussi. Donc |at| est une constante et soit les at sont

tous nuls, soit aucun n’est nul. Dans ce cas le calcul de γY1 donne une relation at+1 = cat, |c| = 1. Donc

at = a0ct, |c| = 1.

3. idem en reliant at+3 et at ainsi que at+3 et at+1 donc at+1 et at.

4. γZj = γX

j + γYj , µZ = µX + µY .

5. γ0 = |a|2 + |b|2, γ1 = ab, γ−1 = ba, les autres sont nuls.

6. E(∣∣|γj |X0 − γjXj

∣∣2) = 2|γj |2(γ0 − |γj |). Exemple: ∀t : Xt = X0.

7. E(|Xt + zXt−1 + . . .+ zkXt−k|2) = (k+ 1)γ0 + 2kRe(γ1z). Prendre z = − γ1

|γ1| . (si γ1 = 0 il n’y a rien à

montrer). Faire k → ∞. L’inégalité permet de trouver a et b avec γ0 = |a|2 + |b|2, γ1 = ab.

8. γ0 = |a|2 + |b|2 + |c|2, γ1 = γ−1 = ab+ bc, γ2 = γ−2 = ac. Les autres sont nuls. Pour l’exemple prendre

a = 1, b = 2, c = 1.

9. Si on se restreint aux termes pairs, on a une SC à laquelle 7 s’applique donc |γ2| ≤ γ0

2 . Sinon E(|Xt +

zXt−1 + . . .+ zkXt−k|2) = (k + 1)γ0 + 2kRe(γ1z) + 2(k − 1)Re(γ2z2). Faire k → ∞. Prendre z = − γ1

|γ1| .

26

Page 29: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 2

1. Exercice. Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt− 13εt−1. Exprimer εt en fonction

de Xt, Xt−1, . . .Quelles sont les meilleures prédictions de Xt+1, Xt+2, . . . connaissant les Xu, u ≤ t ?

2. Problème. Soit η un BB de variance 1 et X le MA(1) défini par Xt = ηt − 5ηt−1. On définit εt comme

étant∑

j≥0(15 )jXt−j . Quelles sont les fonctions représentant les ηt, Xt et εt dans L2(S1, µη)? Montrer que

ε est un BB. Quelle est sa variance? Quelles sont les fonctions représentant les εt, Xt et ηt dans L2(S1, µε)?

et dans L2(S1, µX)? Exprimer ηt en fonction des εu. Quelle est la meilleure prédiction possible pour ηt+1

exprimée en fonction des Xu, u ≤ t ?

3. Exercice. Soit Y une SCS, h(z) un polynôme, et Z le filtré de Y par h. Soit k(z) un second polynôme

et W le filtré de Z par k. Montrer que W est le filtré de Y par le produit des polynômes h et k.

4. Exercice. Soit ε un BB de variance 1 et X le MA(1) défini par Xt = εt − εt−1. Soit WN =εt−1+εt−2+...+εt−N

N . Quelle est la variance de WN ? Montrez Xt +(1− 1N )Xt−1 + . . .+ 1

NXt−N+1 = εt −WN .

En déduire εt ∈ H≤t(X).

5. Problème (**). On conserve les notations de l’exercice précédent. Montrer qu’il est impossible d’écrire

εt sous la forme d’une série Z =∑

j≥0 αjXt−j (convergente au sens de la norme ‖W‖ =√

E(|W |2) ).

Raisonnant par l’absurde, on commencera par calculer Cov(Xu, Z) pour u ≤ t + 1 pour en déduire des

relations de récurrence entre les αj . On montrera ensuite que le critère de Cauchy ne peut être satisfait pour

la suite définissant Z.

6. Exercice. Soit ε un BB de variance 1 et X le MA(2) défini par Xt = εt − 56εt−1 + 1

6εt−2. Dans

L2(S1, µX) quelles sont les fonctions représentant les Xt et les εt? Exprimez εt comme combinaison des

Xu, u ≤ t, et donnez les meilleurs prédictions possibles pour Xt+1, Xt+2, . . . connaissant les Xu, u ≤ t. On

utilisera la formule 1(1−λ1z)(1−λ2z) = 1

(λ1−λ2)z( 11−λ1z − 1

1−λ2z ).

7. Problème (*). Soit η un BB de variance 1 et X le MA(2) défini par Xt = ηt − 5ηt−1 + 6ηt−2. Quelles

sont les meilleures prédictions possibles pour les valeurs futures de η connaissant les valeurs passées de X?

On commencera par construire le bruit blanc d’innovation ε de X en utilisant les résultats de l’exercice

précédent. Puis on donnera les fonctions correspondant aux εt, Xt et ηt dans L2(S1, µǫ). On en déduira les

valeurs des covariances Cov(ηt, εu).

8. Soit η un BB de variance 1 et X le MA(3) défini par Xt = ηt − 3ηt−1 − 4ηt−2 + 12ηt−3. Quel est

le polynôme canonique de X? Quelle est la variance du bruit blanc d’innovation εinn? Quelles sont les

fonctions représentant les εt dans L2(S1, µX)?

Université de Nice – Sophia Antipolis J.-F. Burnol

27

Page 30: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 2 – Solutions

1. On a εt =∑

j≥013jXt−j . D’ après la méthode expliquée en cours X∗

t+j = 0 pour j ≥ 2, tandis que

X∗t+1 = − 1

3ε∗t = −∑j≥0

13j+1Xt−j .

2. Dans L2(S1, µη) les fonctions représentant les ηt sont par définition z 7→ zt. Pour les Xt: z 7→ xt(z) :=

zt − 5zt−1. Pour les εt: z 7→ εt(z) := (zt − 5zt−1)∑

j≥0(15 )j 1

zj = zt 1−5 1z

1− 15

1z

. Notons h(z) =1−5 1

z

1− 15

1z

. On a

h(z) = −51

z

1 − 15z

1 − 15

1z

et donc |h(z)| = 5 pour |z| = 1. Les fonctions εt(z) représentant les εt sont z 7→ zth(z). Elles sont

orthogonales de sorte que ε est un BB, et de variance 5. Dans L2(S1, µε) les fonctions représentant les εt

sont z 7→ zt. On a Xt = εt − 15εt−1 donc les fonctions représentant les Xt sont z 7→ zt(1− 1

51z ). L’application

f(z) 7→ f(z)/h(z) est une isométrie de L2(S1, µη) vers L2(S1, µε) qui envoie les εt(z) sur z 7→ zt. Donc

les fonctions représentant les ηt sont: z 7→ zt

h(z) = −zt 15

z− 15

1− 15z. On obtient une isométrie de L2(S1, µη) vers

L2(S1, µX), qui envoie xt(z) vers z 7→ zt par f(z) 7→ f(z)1−5/z . Les fonctions représentant les εt dans L2(S1, µX)

sont donc z 7→ zt 11− 1

51z

, et celles représentant les ηt sont z 7→ zt 11−5 1

z

. Comme Xt s’exprime en fonction des

valeurs passées de η, le passé de X est inclus dans le passé de η, et comme la meilleure prédiction possible

pour ηt+1 connaissant le passé de η est simplement 0, la réponse est la même si l’ on ne connaît que le passé

de X: la meilleure prédiction est 0.

3. On a Zt =∑

j φjYt−j avec h(z) =∑

j φjzj . Si k1 et k2 sont deux polynômes, W1 et W2 les filtrés de

Z par k1 et k2, le filtré de Z par k1 + k2 est W1 +W2 et il suffit donc de montrer le résultat pour k(z) = za ,

a ≥ 0. Alors Wt = Zt−a =∑

j φjYt−a−j =∑

k ψkYt−k avec ψ0 = 0, . . . , ψa−1 = 0, ψa+j = φj , ce qui signifie

que W est le filtré de Y par zah(z).

4. Var(WN ) = 1N . On a

Xt = εt − εt−1

Xt +Xt−1 = εt − εt−2

Xt +Xt−1 +Xt−2 = εt − εt−3

Xt +Xt−1 +Xt−2 + . . .+Xt−N+1 = εt − εt−N

et en additionant ces N égalités on obtient

NXt + (N − 1)Xt−1 + . . .+Xt−N+1 = Nεt −NWN

Donc εt diffère de Xt +(1− 1N )Xt−1 + . . .+ 1

NXt−N+1 par une variable aléatoire de variance 1N , et en faisant

tendre N vers ∞ on obtient εt ∈ H≤t(X).

Université de Nice – Sophia Antipolis J.-F. Burnol

28

Page 31: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

5. On a Cov(Xu, Z) =∑

j≥0 αjCov(Xu,Xt−j). Par ailleurs Cov(Xt1 ,Xt2) = 0 si |t1 − t2| ≥ 2, = −1

si |t1 − t2| = 1, = 2 si t1 = t2. Donc Cov(Xt+1, Z) = −α0, Cov(Xt, Z) = 2α0 − α1, Cov(Xt−1, Z) =

−α0 + 2α1 − α2, Cov(Xt−1−j , Z) = −αj + 2αj+1 − αj+2. Supposons εt = Z. Alors cela donne

−α0 = −1

2α0 − α1 = +1

(j ≥ 0) −αj + 2αj+1 − αj+2 = 0

Donc α0 = 1, puis α1 = 1, puis α2 = 1, etc. . . . Tous les αj sont donc nécessairement égaux à 1. Cependant

les sommes partielles XN + XN+1 + . . . + XM = εN − εM−1 ont toutes variance 2, qui ne tend pas vers 0

lorsque N,M → ∞. La série∑

j Xt−j est donc divergente.

6. Pour Xt: z 7→ zt. Pour εt:

z 7→ zt

1 − 56

1z + 1

61z2

=zt

(1 − 12

1z )(1 − 1

31z )

On a1

(1 − 12

1z )(1 − 1

31z )

=3

1 − 12

1z

+−2

1 − 13

1z

=∑

j≥0

(31

2j− 2

1

3j)(

1

z)j

et ainsi εt =∑

j≥0(312j − 2 1

3j )Xt−j . On a X∗t+1 = − 5

6εt + 16εt−1, X∗

t+2 = 16εt, X∗

t+3 = X∗t+4 = . . . = 0. Pour

exprimer ceci en fonction des Xu, u ≤ t, il faut ensuite remplacer εt et εt−1 par leurs expressions en fonction

des Xu, u ≤ t.

7. Le passé de X est inclus dans le passé de η. Donc les meilleures prédictions possibles η∗t+j pour

les valeurs futures (j > 0) de η sont simplement η∗t+j = 0. X est le filtré de η par le polynôme k(z) =

1− 5z + 6z2 = (1− 2z)(1− 3z). Le polynôme canonique associé est h(z) = (1− 12z)(1− 1

3z). Le bruit blanc

d’innovation est celui pour lequel Xt = εt − 56εt−1 + 1

6εt−2. Les fonctions représentant les εt sont z 7→ zt.

Pour les Xt: z 7→ zt − 56z

t−1 + 16z

t−2. Pour les ηt:

z 7→ zt 1 − 56z

−1 + 16z

−2

1 − 5z−1 + 6z−2

On a1 − 5

6z−1 + 1

6z−2

1 − 5z−1 + 6z−2=

1

36

1 − 5z + 6z2

1 − 56z + 1

6z2

= 1 +1

36

−35 + 25z

1 − 56z + 1

6z2

= 1 +1

36

(45

1 − 12z

− 80

1 − 13z

)= 1 +

1

36

j≥0

(45

2j− 80

3j

)zj

ηt =1

36εt +

1

36

j≥1

(45

2j− 80

3j

)εt+j

D’où les valeurs de Cov(ηt, εu) comme coefficients de cette expansion.

29

Page 32: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

8. X est le filtré de η par le polynôme k(z) = 1−3z−4z2+12z3 = (1−3z)(1−4z2) = (1−3z)(1−2z)(1+2z).

Le polynôme canonique est donc h(z) = (1 − 13z)(1 − 1

2z)(1 + 12z) = 1 − 1

3z − 14z

2 + 112z

3. Les fonctions

représentant le bruit blanc d’innovation de X dans L2(S1, µη) sont donc

z 7→ εt(z) := zt k(1z )

h( 1z )

= zt (1 − 3 1z )(1 − 2 1

z )(1 + 2 1z )

(1 − 13

1z )(1 − 1

21z )(1 + 1

21z )

= 12 zt 1

z3

(1 − 13z)(1 − 1

2z)(1 + 12z)

(1 − 13

1z )(1 − 1

21z )(1 + 1

21z )

et sa variance est donc 12. Les fonctions représentant les εt dans L2(S1, µX) sont:

z 7→ zt 1

(1 − 13

1z )(1 − 1

21z )(1 + 1

21z )

30

Page 33: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 3

1. Exercice. Soit ε un BB de variance 1, ρ un nombre complexe de module strictement plus petit que 1

et X le AR(1) vérifiant Xt − ρXt−1 = εt. Dans l’espace L2(S1, µε) quelles sont les fonctions représentant les

εt ? les Xt? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de X en fonction de ρ.

2. Exercice. Soit η un BB de variance 1, ρ un nombre complexe de module strictement plus grand que

1 et X le AR(1) vérifiant Xt − ρXt−1 = ηt. Quel est le polynôme canonique de X, quelle est la relation

entre X et son bruit blanc d’innovation ε = (εt)t∈Z ? Dans l’espace L2(S1, µε) quelles sont les fonctions

représentant les εt ? les Xt? les ηt? Quelle est la mesure spectrale de X ? Exprimer les auto-covariances de

X en fonction de ρ.

3. Exercice. On reprend les notations de l’exercice 1. Quelles sont les meilleures prédictions possibles des

Xt+1, Xt+2, . . . connaissant les Xu, u ≤ t ? Et dans le cas de l’exercice 2?

4. Problème. Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt − 14Xt−2 = εt. Dans l’espace

L2(S1, µε) quelles sont les fonctions représentant les εt ? les Xt? On pose Yt = Xt − 12Xt−1 et Zt =

Xt + 12Xt−1. Montrer que Y et Z sont des AR(1) dont on donnera les polynômes canoniques et le bruit

blanc d’innovation. Montre que X, Y , Z, et ε ont tous le même passé. Quelles sont les meilleures prédictions

possibles des valeurs futures de Y et de Z connaissant les valeurs passées de X? En déduire les meilleures

prédictions des valeurs futures de X connaissant ses valeurs passées (on utilisera: 2Xt = Yt + Zt).

5. Exercice (*). Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt− (λ1 +λ2)Xt−1 +λ1λ2Xt−2 = εt,

avec |λ1| 6= 1, |λ2| 6= 1, λ1 6= λ2. Quelles sont les auto-covariances de X en fonction de λ1 et de λ2 ? (il y a

4 cas à traiter). Et si λ1 = λ2 ?

6. Problème (**). Soit ε un BB de variance 1, et X le AR(2) vérifiant Xt −Xt−1 + 14Xt−2 = εt. Dans

l’espace L2(S1, µε) quelles sont les fonctions représentant les εt ? les Xt? On pose Yt = Xt− 12Xt−1. Montrer

que Y est un AR(1) dont on donnera le polynôme canonique, le bruit blanc d’innovation, les meilleures

prédictions possibles des valeurs futures connaissant les valeurs passées de X. On pose Wt = Xt − t · Yt.

Montrer: Wt − 12Wt−1 = −(t− 1) · εt. En déduire les meilleures prédictions des valeurs futures de W , puis

de X, connaissant les valeurs passées de X. La série temporelle W est-elle stationnaire?

7. Problème (**). Soit ε un BB de variance 1, et X le AR(3) vérifiant Xt− 13Xt−1− 1

4Xt−2+ 112Xt−3 = εt.

On pose Yt = Xt − 14Xt−2, Zt = Xt − 5

6Xt−1 + 16Xt−2 et Wt = Xt + 1

6Xt−1 − 16Xt−2. Montrer que Y , Z et

W sont des AR(1) dont on donnera les polynômes canoniques et le bruit blanc d’innovation. Exprimer Xt

comme combinaison linéaire de Yt, Zt et Wt et en déduire les meilleures prédictions pour ses valeurs futures.

Université de Nice – Sophia Antipolis J.-F. Burnol

31

Page 34: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 3 – Solutions

1. Pour εt: z 7→ zt, pour Xt: z 7→ zt

1−ρ 1z

. La mesure spectrale de X est dµX = 1|1−ρ 1

z|2

dθ2π . Les

autocovariances de X sont données par

γj = Cov(Xt+j ,Xt) =

∫z−j 1

|1 − ρ 1z |2

Par ailleurs1

|1 − ρ 1z |2

=1

(1 − ρ 1z )(1 − ρz)

=z

z − ρ

1

1 − ρz

=1

1 − |ρ|2 (ρ

z − ρ+

1

1 − ρz) =

1

1 − |ρ|2 (∑

k≥1

ρk

zk+∑

k≥0

ρk zk)

Donc pour j ≥ 0 on a γj = ρj

1−|ρ|2 tandis que pour j < 0 on a γj = ρ|j|

1−|ρ|2 .

2. X est le filtré de η par le polynôme k(z) = 1 − ρz, et le polynôme canonique est donc h(z) =

1− 1ρz = 1− ρ

|ρ|2 z. Le bruit blanc d’innovation est tel que Xt − ρ|ρ|2Xt−1 = εt. Dans L2(S1, µε) les fonctions

représentant les εt sont z 7→ zt. Pour Xt ce sont les z 7→ zt

1− ρ

|ρ|21z

, et pour ηt ce sont

z 7→ zt 1 − ρ 1z

1 − ρ|ρ|2

1z

= −zt ρ

z

1 − zρ

1 − 1ρ

1z

Les autocovariances sont données par les formules de l’exercice 1, appliquées à 1ρ au lieu de ρ, mais il faut

faire attention à la variance de ε. D’après la formule ci-dessus la variance de η est |ρ|2 celle de ε. Donc la

variance de ε est 1|ρ|2 et ainsi

(j ≥ 0) γXj =

1

|ρ|21ρj

1 − | 1ρ |2= ρ−j 1

|ρ|2 − 1

(j < 0) γXj =

1

|ρ|2ρ j

1 − | 1ρ |2= ρ j 1

|ρ|2 − 1

3. D’après ce qui a été expliqué en cours X∗t+j = ρjXt pour j > 0. Pour l’exercice 2 (|ρ| > 1) la réponse

est X∗t+j = 1

ρ jXt (toujours pour j > 0).

4. Pour εt: z 7→ zt. Pour Xt: z 7→ zt

1− 14

1

z2

. Pour Yt: z 7→ zt (1 − 12

1z ) 1

1− 14

1

z2

= zt 11+ 1

21z

. Le filtré de Y par

1 + 12z est donc ε. Donc Y est un AR(1) et ε est son bruit blanc d’innovation (car la racine −2 de 1 + 1

2z

est en dehors du disque unité). Idem pour Z. X, Y , et Z ont donc tous ε comme bruit blanc d’innovation,

donc ont toutes le même passé. Connaître le passé de X est donc équivalent à connaître le passé de Y et

Université de Nice – Sophia Antipolis J.-F. Burnol

32

Page 35: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

ainsi Y ∗t+j = 1

(−2)j Yt et Z∗t+j = 1

2jZt. On a aussi 2X∗t+j = Y ∗

t+j +Z∗t+j . Pour j pair cela donne X∗

t+j = 12jXt.

Pour j impair, cela donne 2X∗t+j = 1

2j (−Yt + Zt) = 12jXt−1 d’où X∗

t+j = 12j+1Xt−1.

5. Les auto-covariances de X sont

γXj =

∫z−j 1

|1 − (λ1 + λ2)1z + λ1λ2

1z2 |2

Notons h(z) = 1 − (λ1 + λ2)z + λ1λ2z2. Supposons |λ1| < 1, |λ2| < 1. Alors pour |z| = 1:

1

|1 − (λ1 + λ2)1z + λ1λ2

1z2 |2

=1

|1 − λ11z |2 |1 − λ2

1z |2

=1

1 − λ11z

1

1 − λ1z

1

1 − λ21z

1

1 − λ2z

=z

z − λ1

1

1 − λ1z

z

z − λ2

1

1 − λ2z=

Aλ1

z − λ1+

B

1 − λ1z+

Cλ2

z − λ2+

D

1 − λ2z

=∑

j≥1

(Aλj1 + Cλj

2)(1

z)j +

j≥0

(Bλ1j+Dλ2

j) zj

pour certaines constantes A,B,C,D qui sont

A =1

λ1 − λ2

1

1 − |λ1|2λ1

1 − λ2λ1

B =1

λ1 − λ2

1

1 − |λ1|2λ1

1 − λ1λ2

=1

λ1 − λ2

λ1

h(λ1)

C = − 1

λ1 − λ2

1

1 − |λ2|2λ2

1 − λ1λ2

D = − 1

λ1 − λ2

1

1 − |λ2|2λ2

1 − λ2λ1

= − 1

λ1 − λ2

λ2

h(λ2)

ce qui donne

(j ≥ 0) γXj = Bλ1

j+Dλ2

j=

1

λ1 − λ2

(λ1

j+1

h(λ1)− λ2

j+1

h(λ2)

)

(j < 0) γXj = Aλ1

|j| + Cλ2|j| = γX

−j

Tout cela est un petit peu compliqué, désolé. Je laisse aux enthousiastes les cas |λ1| > 1 ou |λ2| > 1. Avec

h(z) = 1 + αz + βz2 (α = −λ1 − λ2, β = λ1λ2) cela donne aussi

γXj =

1

h(λ1)h(λ2)

λ1j+1 − λ2

j+1+ αλ1λ2(λ1

j − λ2j) + β(λ1λ2)

2(λ1j−1 − λ2

j−1)

λ1 − λ2

une expression qui permet de passer à la limite lorsque λ2 → λ1 ce dernier étant fixé, et avec à la limite

α = −2λ1, β = λ21, h(λ1) = (1 − |λ1|2)2, on obtient:

γXj =

1

h(λ1)2

((j + 1)λ1

j+ α j λ1

j+1+ β (j − 1)λ1

j+2)

33

Page 36: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

γXj =

1

h(λ1)2

(jλ1

jh(λ1) + λ1

j(1 − |λ1|4)

)=

λ1j

(1 − |λ1|2)2(j +

1 + |λ1|21 − |λ1|2

)

toujours pour j ≥ 0. Encore une fois, c’est un petit peu compliqué, désolé.

6. Les εt: z 7→ zt, les Xt: z 7→ zt

(1− 12

1z)2

. Les Yt: z 7→ zt

1− 12

1z

et ainsi Y est un AR(1) de polynôme canonique

1 − 12z, de bruit blanc d’innovation ε. Il a le même passé que X, et pour j > 0 les meilleures prédictions

possibles sont Y ∗t+j = (1

2 )jYt. L’équation Wt − 12Wt−1 = −(t − 1) · εt se vérifie par un calcul direct. Il en

résulte W ∗t+j = (1

2 )jWt pour j > 0 car ε∗t+j = 0. Ainsi X∗t+j = W ∗

t+j +(t+j) ·Y ∗t+j = (1

2 )j (Wt +(t+j) ·Yt) =

( 12 )j ((j + 1)Xt − j

2Xt−1). Non W n’est pas stationnaire, sinon ((t− 1)εt)t∈Z le serait.

7. Le polynôme canonique de X est h(z) = (1 − 13z)(1 + 1

2z)(1 − 12z) et Y , Z, W sont des AR(1) de

polynômes respectifs 1− 13z, 1+ 1

2z, 1− 12z, de bruit blanc d’innovation ε. On obtient Xt = −4

5 Yt+310Zt+

32Wt

et de plus Y ∗t+j = (1

3 )jYt, Z∗t+j = (− 1

2 )jZt, W ∗t+j = (1

2 )jWt, puis X∗t+j si l’on y tient.

34

Page 37: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 4

1. On se donne un AR(1) X d’équation

Xt −1

5Xt−1 = εt

Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . . connaissant le passé linéaire de X

jusqu’à l’instant t ?

2. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de

X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0

et γ1 puis des autres autocovariances.

3. On se donne un bruit blanc ε de variance 1 et X le MA(3) vérifiant

Xt = εt − εt−1 + 2εt−2 − 3εt−3

Que valent les autocovariances de X ?

4. Soit η un bruit blanc de variance 1 et X le MA(q) vérifiant

Xt = 5ηt+5 − 10ηt−5

Quelle est la valeur minimale de q pour laquelle X est un MA(q)? Quelles sont les autocovariances de X ?

5. On reprend l’exercice précédent. Quelle est la relation entre X et son bruit blanc d’innovation ε ? Quelle

est la variance de ε ?

6. Soit η un bruit blanc et X une SCCS telle que

3Xt+1 − 6Xt−1 = ηt

Quelle est la valeur minimale de p pour laquelle X est un AR(p)? Quelle est la relation entre X et son bruit

blanc d’innovation ε ?

7. On reprend l’exercice précédent, en supposant de plus que la variance γ0 de X est 1. Écrivez les équations

de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ1, . . . γ5, ainsi que la variance de ε.

8. On suppose que X est un AR(2) d’équation

Xt −1

2Xt−1 −

1

4Xt−2 = εt

Université de Nice – Sophia Antipolis J.-F. Burnol

35

Page 38: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

et que les valeurs suivantes successives ont été observées:

2, 1, 0, 1.25, 1.625, 0.125

la valeur 0 survenant à l’instant t = 0. Quelles sont vos prédictions pour les valeurs X4, X5, X6 ?

9. On continue avec l’exercice précédent. Un autre observateur ne s’est vu communiquer que X−2 = 2 et

X−1 = 1. Quelles sont ses prédictions pour X0, X1, X2, X3, X4, X5, X6? Commentez.

10. Quelles sont les équations de Yule-Walker pour le X des deux exercices précédents (en sachant que ε

est de variance 1)? Donnez les valeurs exactes de γ0, . . . , γ5. Par ailleurs quelles sont les valeurs empiriques

que l’on déduit des valeurs numériques? Comparez.

36

Page 39: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Feuille d’exercices 4 – Solutions

1. X∗t+1 = 1

5Xt, X∗t+2 = 1

25Xt, X∗t+3 = 1

125Xt, etc. . .

2. γ0 − 15γ−1 = 1, γ1 − 1

5γ0 = 0, γ2 − 15γ1 = 0, γ3 − 1

5γ2 = 0. . .Les deux premières équations (compte tenu

de γ1 = γ−1) donnent γ0 = 2524 , γ1 = 5

24 puis γj = (15 )j γ0.

3. γ0 = 1 + 1 + 4 + 9 = 15, γ1 = −1 − 2 − 6 = −9, γ2 = 2 + 3 = 5, γ3 = −3 et γj = 0 pour j > 3.

4. En posant κt = 5ηt+5, on a Xt = κt − 2κt−10 (et κ est de variance 25). La valeur minimale de q est 10.

Les autocovariances de X sont γ0 = (1+4) ∗ 25 = 125, γ1 = 0, . . . ,γ9 = 0, γ10 = −2 ∗ 25 = −50, γj = 0 pour

j > 10.

5. κ n’est pas le bruit blanc d’innovation car le polynôme 1− 2z10 a ses racines a l’intérieur du disque unité.

Le polynôme canonique vaut h(z) = 1 − 12z

10. La relation entre X et son bruit blanc d’innovation est donc

Xt = εt − 12εt−10. La variance de X est donc 1 + 1

4 celle de ε qui vaut donc 100.

6. En posant κt = 13ηt−1 on obtient Xt − 2Xt−2 = κt. Donc p= 2. Le polynôme 1 − 2z2 a ses racines a

l’intérieur du disque unité. Le bon polynôme associé est 1 − 12z

2 et la relation entre X et son bruit blanc

d’innovation est Xt − 12Xt−2 = εt.

7. Pour obtenir les équations de Yule-Walker il est indispensable d’utiliser la représentation canonique de X

comme AR(2) qui le relie à son bruit blanc d’innovation: Xt − 12Xt−2 = εt. Notons γε la variance de ε qui

est inconnue pour le moment. Compte tenu de γ0 = 1, γ−1 = γ1, γ−2 = γ2, les équations de Yule-Walker

donnent: γ0 − 12γ2 = γε, γ1 − 1

2γ1 = 0, γ2 − 12γ0 = 0 donc γ2 = 1

2 , γ1 = 0, γ0 = 1, γε = 1 − 14 = 3

4 . Puis:

γ3 = 12γ1 = 0, γ4 = 1

2γ2 = 14 et γ5 = 1

2γ3 = 0.

8. X∗4 = 1

2X3 + 14X2 = 15

32 = 0.46875, X∗5 = 1

2X∗4 + 1

4X3 = 1764 = 0.265625, X∗

6 = 12X

∗5 + 1

4X∗4 = 1

4 = 0.25.

9. Notons X !j les prédictions du deuxième observateur. X !

0 = 1, X !1 = 3

4 = 0.75, X !2 = 5

8 = 0.625,

X !3 = 1

2 = 0.5, X !4 = 13

32 = 0.40625, X !5 = 21

64 = 0.328125, X !6 = 17

64 = 0.265625. Pour pouvoir faire des

prédictions significatives il faudrait que le bruit blanc d’innovation ait une variance sensiblement plus petite

que celle de X, puisque le principe de la prédiction est d’utiliser ε∗t+j = 0 pour j > 0, et cette estimation

est d’autant meilleure que la variance de εt+j est petite. Or ce n’est pas le cas ici (l’exercice suivant montre

que la variance de ε est à peu près la moitié de celle de X). Les deux observateurs sont affectés au même

titre par ce problème. Le fait que X !6 et X∗

6 soient proches est une coïncidence (d’ailleurs X !2 et X !

3 sont

nettement distincts de X2 et X3).

Université de Nice – Sophia Antipolis J.-F. Burnol

37

Page 40: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

10. γ0 − 12γ1 − 1

4γ2 = 1, γ1 − 12γ0 − 1

4γ1 = 0, γ2 − 12γ1 − 1

4γ0 = 0, γj+2 − 12γj+1 − 1

4γj = 0 pour j > 0.

Les trois premières équations donnent γ0 = 1 + 2325 = 1.92, γ1 = 1 + 7

25 = 1.28, γ2 = 1 + 325 = 1.12,

puis on obtient γ3 = 2225 = 0.88, γ4 = 18

25 = 0.72, γ5 = 2950 = 0.58. Les valeurs empiriques sont γ0 =

(4 + 1 + 0 + 1.252 + 1.6252 + 0.1252)/6 = 1.53649, γ1 = (2 + 0 + 0 + 1.25 ∗ 1.625 + 1.625 ∗ 0.125)/5 = 0.84688,

γ2 = (0 + 1.25 + 0 + 1.25 ∗ 0.125)/4 = 0.35157, γ3 = (2 ∗ 1.25 + 1 ∗ 1.625 + 0)/3 = 1.375, γ4 = (2 ∗ 1.625 + 1 ∗0.125)/2 = 1.6875, γ5 = (2 ∗ 0.125) = 0.250. Les différences par rapport aux vraies valeurs sont importantes,

même pour γ0 et γ1. Il faudrait au moins une bonne vingtaine de valeurs successives de X pour que le calcul

des covariances empiriques ait une réelle signification.

38

Page 41: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporellesFeuille d’exercices 5

NOTE: je vous encourage à modifier les données numériques (vous constaterez mon manque d’originalité) età résoudre de multiples fois ces exercices. Vous aurez besoin d’une calculette, et/ou de savoir inverser unematrice 2×2 (3×3 dans le dernier problème). Dans chaque exercice on suppose que la variance de ε vaut 1, eton veut la meilleure estimation de Xt pour certains instants (et la variance de l’erreur commise) compte-tenudes valeurs observées en d’autres instants. Il faudra commencer par calculer certaines autocovariances de lasérie cov–stationnaire X.

Problème 1. Xt − 12Xt−1 = εt

a. X0 = 1, estimer Xt pour t = −2,−1, 1, 2.b. X0 = 1, X1 = −1, estimer Xt pour t = −2,−1, 2, 3.c. X0 = 1, X2 = −1, estimer Xt pour t = −2,−1, 1, 3.d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.

Problème 2. Xt = εt + 12 εt−1

a. X0 = 1, estimer Xt pour t = −2,−1, 1, 2.b. X0 = 1, X1 = −1, estimer Xt pour t = −2,−1, 2, 3.c. X0 = 1, X2 = −1, estimer Xt pour t = −2,−1, 1, 3.d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.

Problème 3. Xt − 815Xt−1 + 1

15Xt−2 = εt

a. X0 = 1, estimer Xt pour t = −2,−1, 1, 2.b. X0 = 1, X1 = −1, estimer Xt pour t = −2,−1, 2, 3.c. X0 = 1, X2 = −1, estimer Xt pour t = −2,−1, 1, 3.d. X0 = 1, X3 = −1, estimer Xt pour t = 1, 2.

Problème 4. Xt − 13Xt−1 = εt

a. X0 = 1, X1 = −1, X2 = 0, estimer Xt pour t = −2,−1, 3, 4.b. X0 = 1, X2 = 0, X4 = −1, estimer Xt pour t = −1, 1, 3, 5.c. X0 = 1, X12 = −1, X24 = 0, estimer X6 et X18.

Université de Nice – Sophia Antipolis J.-F. Burnol

39

Page 42: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice – Sophia Antipolis c©Jean-François Burnol, 2000.

40

Page 43: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Examen blanc du 21 mars 2000

1. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

7εt−1

Exprimez εt en fonction de Xt, Xt−1, Xt−2, etc. . .

2. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

5εt−1

Quelles sont les meilleures prédictions possibles pour Xt+1, Xt+2, etc. . . en fonction de Xt, Xt−1, Xt−2,

etc. . . ?

3. Soit η un bruit blanc et X le MA(1) défini selon

Xt = ηt − 5ηt−1

Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible

pour Xt+1 en fonction de Xt, Xt−1, Xt−2, etc. . . ?

4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z2 et X le MA(2) obtenu en filtrant η par le polynôme

k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation

entre X et son bruit blanc d’innovation?

5. On se donne un AR(1) X d’équation

Xt −1

3Xt−1 = εt

Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . . connaissant le passé linéaire de X

jusqu’à l’instant t ?

6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de

X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0

et γ1 puis des autres autocovariances.

7. Soit ε un bruit blanc et X le AR(2) telle que

Xt −9

20Xt−1 +

1

20Xt−2 = εt

Université de Nice – Sophia Antipolis J.-F. Burnol

41

Page 44: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Soient Y et Z définis selon

Yt = Xt −1

4Xt−1 Zt = Xt −

1

5Xt−1

Montrez que Y et Z sont des AR(1) (calculez Yt − 15Yt−1 et Zt − 1

4Zt−1). Trouvez α et β de sorte que

Xt = αYt + βZt.

8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant).

Quelles sont les meilleures prédictions possibles pour Yt+1, Yt+2, etc. . . et Zt+1, Zt+2, etc. . . connaissant

H≤t(X) ? Et quelles sont les meilleures prédictions pour Xt+1, Xt+2, etc. . . ?

9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que

Xt −7

12Xt−1 +

1

12Xt−2 = εt

Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0, γ1, γ2 puis

de γ3 . . . γ6.

10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que

Xt − 7Xt−1 + 12Xt−2 = ηt

Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε?

11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que

∀t Xt −3

2Xt−1 +

1

2Xt−2 = ηt ?

12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez.

42

Page 45: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Examen blanc du 21 mars 2000 – Solutions

1. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

7εt−1

Exprimez εt en fonction de Xt, Xt−1, Xt−2, etc. . .

εt =

∞∑

j=0

(1

7)j Xt

2. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

5εt−1

Quelles sont les meilleures prédictions possibles pour Xt+1, Xt+2, etc. . . en fonction de Xt, Xt−1, Xt−2,

etc. . . ?

X∗t+1 = −1

5εt = −1

5

∞∑

j=0

(1

5)j Xt

X∗t+2 = X∗

t+3 = X∗t+4 = . . . = 0

3. Soit η un bruit blanc et X le MA(1) défini selon

Xt = ηt − 5ηt−1

Quelle est la relation entre X et son bruit blanc d’innovation? Quelle est la meilleure prédiction possible

pour Xt+1 en fonction de Xt, Xt−1, Xt−2, etc. . . ?

Xt = εt −1

5εt−1

X∗t+1 = −1

5

∞∑

j=0

(1

5)j Xt

4. Soit η un BB de variance 1, soit k(z) = 1 + 5z + 6z2 et X le MA(2) obtenu en filtrant η par le polynôme

k. Comment s’exprime X en fonction de η? Que valent les autocovariances de X? Quelle est la relation

entre X et son bruit blanc d’innovation?

Université de Nice – Sophia Antipolis J.-F. Burnol

43

Page 46: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Xt = ηt + 5 ηt−1 + 6 ηt−2

γ0 = 62

γ1 = 35

γ2 = 6

γj = 0 pour j > 2

Le polynôme filtrant est k(z) = 1 + 5 z + 6 z2 = (1 + 2z)(1 + 3z). Le polynôme canonique associé est

h(z) = (1 + 12z)(1 + 1

3z) = 1 + 56z + 1

6z2 et ainsi

Xt = εt +5

6εt−1 +

1

6εt−2

5. On se donne un AR(1) X d’équation

Xt −1

3Xt−1 = εt

Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . . connaissant le passé linéaire de X

jusqu’à l’instant t ?

X∗t+j = (

1

3)j Xt

6. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariances de

X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeurs de γ0

et γ1 puis des autres autocovariances.

γ0 −1

3γ−1 = 1

γ1 −1

3γ0 = 0

γj+1 −1

3γj = 0

γ0 =9

8

γj =9

8(1

3)j

7. Soit ε un bruit blanc et X le AR(2) telle que

Xt −9

20Xt−1 +

1

20Xt−2 = εt

44

Page 47: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Soient Y et Z définis selon

Yt = Xt −1

4Xt−1 Zt = Xt −

1

5Xt−1

Montrez que Y et Z sont des AR(1) (calculez Yt − 15Yt−1 et Zt − 1

4Zt−1). Trouvez α et β de sorte que

Xt = αYt + βZt.

Yt −1

5Yt−1 = Xt −

9

20Xt−1 +

1

20Xt−2 = εt

Zt −1

4Zt−1 = Xt −

9

20Xt−1 +

1

20Xt−2 = εt

Xt = −4Yt + 5Zt

8. On reprend l’exercice précédent. Montrer que X, Y , Z ont toutes le même passé (à chaque instant).

Quelles sont les meilleures prédictions possibles pour Yt+1, Yt+2, etc. . . et Zt+1, Zt+2, etc. . . connaissant

H≤t(X) ? Et quelles sont les meilleures prédictions pour Xt+1, Xt+2, etc. . . ?

X, Y , Z ont le même bruit blanc d’innovation, donc le même passé à chaque instant.

Y ∗t+j = (

1

5)j Yt

Z∗t+j = (

1

4)j Zt

X∗t+j = −4Y ∗

t+j + 5Z∗t+j = −4 (

1

5)j Yt + 5 (

1

4)j Zt = −4 (

1

5)j (Xt −

1

4Xt−1) + 5 (

1

4)j (Xt −

1

5Xt−1)

X∗t+j = (−4 (

1

5)j + 5 (

1

4)j)Xt + ((

1

5)j − (

1

4)j)Xt−1

9. Soit ε un bruit blanc de variance 1 et X le AR(2) tel que

Xt −7

12Xt−1 +

1

12Xt−2 = εt

Écrivez les équations de Yule-Walker pour les autocovariances de X. Calculez les valeurs de γ0, γ1, et γ2.

(YW0) γ0 −7

12γ−1 +

1

12γ−2 = 1

(YW1) γ1 −7

12γ0 +

1

12γ−1 = 0 ⇒ γ1 =

7

13γ0

(YW2) γ2 −7

12γ1 +

1

12γ0 = 0 ⇒ γ2 =

3

13γ0

YW0 ⇒ 55

78γ0 = 1 ⇒ γ0 =

78

55

γ1 =42

55γ2 =

18

55

45

Page 48: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

10. Soit η un bruit blanc et X un AR(2) de variance 1 tel que

Xt − 7Xt−1 + 12Xt−2 = ηt

Quelle est la relation entre X et son bruit blanc d’innovation ε? Quelle est la variance de ε?

Le polynôme filtrant est k(z) = 1 − 7 z + 12 z2 = (1 − 3z)(1 − 4z). Le polynôme canonique associé est

h(z) = (1 − 13z)(1 − 1

4z) = 1 − 712z + 1

12z2 et ainsi

Xt −7

12Xt−1 +

1

12Xt−2 = εt

D’ après l’exercice précédent la variance de X est 7855 fois celle de son bruit blanc d’innovation. La variance

de celui-ci vaut dont 5578 .

11. Soit η un bruit blanc. Existe-t-il une série temporelle à covariances stationnaires telle que

∀t Xt −3

2Xt−1 +

1

2Xt−2 = ηt ?

Non, car le polynôme filtrant k(z) = 1 − 32z + 1

2 z2 vérifie k(1) = 0 et a donc une racine sur le cercle unité,

ce qui est interdit pour un AR(p).

12. Un AR(p) peut-il être simultanément un MA(q) ? Justifiez.

Seul un bruit blanc est simultanément un AR(p) et un MA(q). On peut, par exemple, le montrer ainsi:

supposons que X soit un AR(p) et un MA(q). Il existe donc un polynôme h1(z) de degré q1 ≤ q qui filtre

un bruit blanc ε1 en X, et un polynôme h2(z) de degré p2 ≤ p qui filtre X en un deuxième bruit blanc ε2.

Mais alors ε2 est le filtré de ε1 par le polynôme k(z) = h1(z)h2(z) =∑

0≤j≤d φj zj de degré exact d = q1 +p2

(et φ0 = 1). La dième autocovariance de ε2 vaut ainsi φd qui est non nul, et ceci impose d = 0 car ε2 est un

bruit blanc. Donc q1 = p2 = 0 et X = ε1 = ε2.

46

Page 49: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

NOM:

PRÉNOM:

né(e) le:

à:

REPLIEZ ET AGRAFEZ

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Université de Nice – Sophia Antipolis J.-F. Burnol

Partiel du 2 mai 2000

Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note au-

dessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées

par un calcul. Vous disposez de 90 minutes.

Problème 1: points.

Problème 2: points.

Problème 3: points.

Problème 4: points.

Problème 5: points.

Problème 6: points.

NOTE:

47

Page 50: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon

Xt = ηt − 2ηt−1

1a. Quelles sont les autocovariances de X?

1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε?

1c. Quelle est la variance de ε ?

1d. Exprimez εt en fonction des valeurs passées de X.

1e. Exprimez les prévisions optimales Xt+1|t, Xt+2|t, . . . en fonction de Xt,Xt−1, . . ..

Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant

Xt − 3Xt−1 = ηt

2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε?

2b. On suppose avoir observé X−5, . . . ,X0 = −1, 0.6, 1.2,−0.6, 0.75, 0.27. Quelles sont les valeurs numé-

riques des prédictions optimales X1|0 et X2|0 ?

2c. Quelle est la variance de ε ?

2d. Comment s’exprime X en fonction des valeurs futures de η ?

2e. Quelle est la variance de η ?

Problème 3. (5 points) Soit ε un bruit blanc de variance γε et X le AR(2) vérifiant

Xt −8

15Xt−1 +

1

15Xt−2 = εt

3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γε, γ0 (= 1), γ1,

γ2 ?

3b. Que valent γε, γ1, γ2 ?

3c. Trouvez A et B de sorte que 1(1− 1

3z)(1− 1

5z)

= A(1− 1

3z)

+ B(1− 1

5z)

.

3d. Donnez les valeurs de c0, c1, c2 dans l’expression Xt = c0εt + c1εt−1 + c2εt−2 + . . .

3e. Comment s’exprime Xt+1 − Xt+1|t en fonction des εt+1, εt, . . .? Même question pour Xt+2 − Xt+2|t (en

fonction des εt+2, εt+1, . . .). Quelle est sa variance?

Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant

Xt − 2Xt−1 = ηt +1

2ηt−1

4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ?

4b. Exprimez Xt en fonction de εt, εt−1, . . ..

4c. Exprimez εt en fonction de Xt,Xt−1, . . .

Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t.

Montrez que Y est aussi un ARMA(p,q).

Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12z, c’est-à-dire ∀t Yt =

Xt − 12Xt−1. Montrez que X et Y ont le même bruit blanc d’innovation.

48

Page 51: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

NOM:

PRÉNOM:

né(e) le:

à:

REPLIEZ ET AGRAFEZ

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Mathématiques des séries temporelles

Université de Nice – Sophia Antipolis J.-F. Burnol

Partiel du 2 mai 2000

Tous documents autorisés. Il y a six problèmes pour un total de 24 points (toute note au-

dessus de 20 sera arrondie à 20/20). Toutes les réponses numériques doivent être justifiées

par un calcul. Vous disposez de 90 minutes.

CORRIGÉ

Problème 1. (5 points) Soit η un bruit blanc de variance 1 et X le MA(1) défini selon

Xt = ηt − 2ηt−1

1a. Quelles sont les autocovariances de X?

1b. Quelle est la relation MA(1) entre X et son bruit blanc d’innovation ε?

1c. Quelle est la variance de ε ?

1d. Exprimez εt en fonction des valeurs passées de X.

1e. Exprimez les prévisions optimales Xt+1|t, Xt+2|t, . . . en fonction de Xt,Xt−1, . . ..

1a. γ0 = 5, γ±1 = −2, les autres sont nuls.

1b. Xt = εt − 12εt−1

1c. 5 = (1 + 14 )γε ⇒ γε = 4.

1d. εt =∑

j≥012jXt−j .

1e. Xt+1|t = − 12εt = −∑j≥0

12j+1Xt−j . Xt+δ|t = 0 pour δ ≥ 2.

Problème 2. (5 points) Soit η un bruit blanc et X le AR(1) de variance 1 vérifiant

Xt − 3Xt−1 = ηt

49

Page 52: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

2a. Comment s’exprime X en fonction des valeurs passées de son bruit blanc d’innovation ε?

2b. On suppose avoir observé X−5, . . . ,X0 = −1, 0.6, 1.2,−0.6, 0.75, 0.27. Quelles sont les valeurs numé-

riques des prédictions optimales X1|0 et X2|0 ?

2c. Quelle est la variance de ε ?

2d. Comment s’exprime X en fonction des valeurs futures de η ?

2e. Quelle est la variance de η ?

2a. Xt − 13Xt−1 = εt ⇒ Xt =

∑j≥0

13j εt−j .

2b. X1|0 = 0.27/3 = 0.09 et X2|0 = 0.09/3 = 0.03.

2c. YW: 1 − 13γ1 = γε, γ1 − 1

3 = 0 ⇒ γ1 = 13 et donc γε = 8

9 .

2d. Xt = − 13ηt+1 + 1

3Xt+1 ⇒ Xt = −∑j≥113j ηt+j .

2e. 1 = γη( 19 + 1

92 + 193 + . . .) ⇒ γη = 8.

Problème 3. (5 points) Soit ε un bruit blanc de variance γε et X le AR(2) vérifiant

Xt −8

15Xt−1 +

1

15Xt−2 = εt

3a. On suppose que X est de variance 1. Quelles sont les équations de Yule-Walker reliant γε, γ0 (= 1), γ1,

γ2 ?

3b. Que valent γε, γ1, γ2 ?

3c. Trouvez A et B de sorte que 1(1− 1

3z)(1− 1

5z)

= A(1− 1

3z)

+ B(1− 1

5z)

.

3d. Donnez les valeurs de c0, c1, c2 dans l’expression Xt = c0εt + c1εt−1 + c2εt−2 + . . .

3e. Comment s’exprime Xt+1 − Xt+1|t en fonction des εt+1, εt, . . .? Même question pour Xt+2 − Xt+2|t (en

fonction des εt+2, εt+1, . . .). Quelle est sa variance?

3a. et 3b. 1− 815γ1 + 1

15γ2 = γε, γ1 − 815 + 1

15γ1 = 0 ⇒ γ1 = 12 , γ2 − 8

15γ1 + 115 = 0 ⇒ γ2 = 1

5 , donc γε = 5675 .

3c. A = 52 , B = − 3

2 .

3d. 1(1− 1

3z)(1− 1

5z)

= 52 (1 + 1

3z + 19z

2 + . . .) − 32 (1 + 1

5z + 125z

2 + . . .) = 1 + 815z + 49

225z2 + . . .

3e. Xt+1 − Xt+1|t = εt+1, Xt+2 − Xt+2|t = εt+2 + c1εt+1. Sa variance est donc (1 + ( 815 )2) 56

75 = 23·7·172

33·54 =

0.959 . . .

Problème 4. (3 points) Soit η un bruit blanc et X le ARMA(1,1) vérifiant

Xt − 2Xt−1 = ηt +1

2ηt−1

4a. Quelle est la relation ARMA entre X et son bruit blanc d’innovation ε ?

50

Page 53: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

4b. Exprimez Xt en fonction de εt, εt−1, . . ..

4c. Exprimez εt en fonction de Xt,Xt−1, . . .

4a. Xt − 12Xt−1 = εt + 1

2εt−1.

4b. 1+ 12z

1− 12z

= −1 + 21− 1

2z

= 1 + z + 12z

2 + 14z

3 + . . .. Donc Xt = εt +∑

j≥11

2j−1 εt−j .

4c. εt = Xt +∑

j≥11

2j−1 (−1)jXt−j .

Problème 5. (3 points) Soit X un ARMA(p,q). Soit Y la série cov-stationnaire définie par ∀t Yt = X−t.

Montrez que Y est aussi un ARMA(p,q).

Supposons (avec ap 6= 0, bq 6= 0)

Xt + a1Xt−1 + . . .+ apXt−p = εt + b1εt−1 + . . .+ bqεt−q

Cela donne

Y−t + a1Y−t+1 + . . .+ apY−t+p = εt + b1εt−1 + . . .+ bqεt−q

En remplaçant t par −t cela donne

Yt + a1Yt+1 + . . .+ apYt+p = ε−t + b1ε−t−1 + . . .+ bqε−t−q

Yt+p +ap−1

apYt+p−1 + . . .+

1

apYt =

1

apε−t +

b1apε−t−1 + . . .+

bqapε−t−q

puis en remplaçant t par t− p:

Yt +ap−1

apYt−1 + . . .+

1

apYt−p =

1

apε−t+p +

b1apε−t+p−1 + . . .+

bqapε−t+p−q

Pour conclure on pose ηt =bq

apε−t+p−q qui est un bruit blanc, et on obtient:

Yt +ap−1

apYt−1 + . . .+

1

apYt−p = ηt +

bq−1

bqηt−1 + . . .+

1

bqηt−q

ce qui montre que Y est un ARMA(p,q).

Problème 6. (3 points) Soit X une série cov-stationnaire et Y son filtré par 1 − 12z, c’est-à-dire ∀t Yt =

Xt − 12Xt−1. Montrez que X et Y ont le même bruit blanc d’innovation.

Comme ∀t Yt = Xt − 12Xt−1 on a ∀t H≤t(Y ) ⊂ H≤t(X). Et comme Xt =

∑j≥0

12j Yt−j on a aussi

∀t H≤t(X) ⊂ H≤t(Y ). Donc ∀t H≤t(Y ) = H≤t(X). Notons Pt la projection orthogonale sur H≤t(Y ) =

H≤t(X). On a εt = Xt −Pt−1(Xt) pour le bruit blanc d’innovation de X et pour le bruit blanc d’innovation

de Y : ηt = Yt −Pt−1(Yt) = Xt − 12Xt−1 −Pt−1(Xt − 1

2Xt−1) = Xt − 12Xt−1 −Pt−1(Xt)+ 1

2Xt−1 = εt. QED.

51

Page 54: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

52

Page 55: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles

Université de Nice – Sophia-Antipolis J.-F. Burnol

Examen du 31 mai 2000

Documents et calculatrices autorisés.

Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point.

Problème 1.

Soit ε un bruit blanc de variance 1 et X le AR(1) vérifiant

Xt −1

5Xt−1 = εt

1a. Quelles sont les autocovariances de X ?

1b. Exprimez les prévisions optimales Xt+1|t, Xt+2|t, . . . en fonction de Xt,Xt−1, . . ..

1c. Exprimez Xt en fonction des valeurs passées de ε.

1d. Soit δ ≥ 1. Que vaut E(|Xt+δ − Xt+δ|t|2) ?

Problème 2.

Soit ε un bruit blanc de variance 66 et X le AR(2) vérifiant

Xt −3

10Xt−1 −

1

10Xt−2 = εt

2a. Que valent γX0 , γX

1 , γX2 ?

2b. Soit Yt = Xt − 12Xt−1 et Zt = Xt + 1

5Xt−1. Montrez que Y et Z sont des AR(1).

2c. Exprimez les prévisions optimales des valeurs futures de Y et de Z en fonction des valeurs passées de X

(jusqu’à l’instant t).

2d. On a observé X0 = 100 et X1 = −50. Quelle est la meilleure prévision pour X4 ?

53

Page 56: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 3.

Soit η un bruit blanc et X le MA(2) vérifiant

Xt = ηt − 6ηt−1 + 8ηt−2

3a. Quelles sont les racines et co-racines de 1 − 6z + 8z2 ?

3b. Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?

3c. Trouvez A et B de sorte que 1(1− 1

2z)(1− 1

4z)

= A(1− 1

2z)

+ B(1− 1

4z)

.

3d. Exprimez εt en fonction de Xt, Xt−1, . . .

Problème 4.

Soit ε un bruit blanc et X le ARMA(1,1) vérifiant

Xt −1

3Xt−1 = εt −

1

2εt−1

4a. Soit Y le AR(1) vérifiant Yt − 13Yt−1 = εt. Montrez: Xt = Yt − 1

2Yt−1.

4b. Exprimez γX0 en fonction de γY

0 et γY1 .

4c. On suppose que ε est de variance 1. Calculez γY0 , γY

1 déduisez-en γX0 .

Problème 5.

Soit ε un bruit blanc et X le AR(1) de variance 90 vérifiant

Xt −1

3Xt−1 = εt

4a. Que valent γX1 et γX

2 ?

4b. On a observé X0 et X2. Quelle est la valeur optimale X1 et l’erreur E(|X1 − X1|2) ?

54

Page 57: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 6.

Soit η un bruit blanc et X le MA(1) de variance 90 vérifiant

Xt = ηt + 3ηt−1

4a. Que valent les autocovariances de X ?

4b. On a observé X0 et X2. Quelle est la valeur optimale X1 et l’erreur E(|X1 − X1|2) ?

Problème 7.

Soit ε un bruit blanc de variance 1 et X le MA(1) vérifiant

Xt = εt −1

2εt−1

Soit Y une série non-stationnaire vérifiant

Yt − Yt−1 = Xt

4a. Exprimez pour t > 0 Yt en fonction de Y0, ε0, . . . , εt.

4b. On supposera que εu pour u > 0 n’est pas corrélé avec Y0. Soit Yt|0 (pour t > 0) la meilleure estimation

possible de Yt sur la base des valeurs passées Y0, Y−1, . . . . Que vaut E(|Yt − Yt|0|2) ?

Problème 8.

On fait N mesures répétées d’une grandeur physique X. Cette grandeur ne change pas et on la représente

donc comme une variable aléatoire constante (de valeur x ∈ R; et on supposera x > 0). Chaque mesure

Yi vaut X +Wi avec des erreurs Wi mutuellement indépendantes, d’espérance nulle et toutes avec la même

variance γ = qx2 pour un certain q > 0.

4a. Montrez que l’inverse de la matrice N ×N avec 1 + q sur la diagonale et 1 partout ailleurs est 1q(N+q)

fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs.

4b. Quelle est la meilleure estimation XN de X comme combinaison linéaire de Y1, Y2, . . . , YN ? (on

admettra si besoin est le résultat de la question précédente). Quelle est l’erreur associée ?

4c. Soit ZN l’estimateur sans biais Y1+...+YN

N . Vérifiez E(|X − XN |2) < E(|X − ZN |2).

FIN

55

Page 58: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS 1999/2000 – 2ème semestre – MM6 – Séries temporelles

Université de Nice – Sophia-Antipolis J.-F. Burnol

CORRIGÈ – Examen du 31 mai 2000 – CORRIGÈ

Documents et calculatrices autorisés.

Il y a huit problèmes, comprenant vingt-quatre questions. Chacune rapporte 1 point.

Problème 1.

1a. Par YW on a γ0 − 15γ1 = 1 et γ1 − 1

5γ0 = 0, donc γ0 = 2524 , γ1 = 5

24 , et γj = 2524

15j pour j > 1.

1b. Xt+δ|t = 15δXt.

1c. Xt =∑

j≥015j εt−j .

1d. E(|Xt+δ − Xt+δ|t|2) =∑

0≤j<δ(15j )2 = 25

24 (1 − 125δ )

Problème 2.

2a.γ0 −

3

10γ1 −

1

10γ2 = 66

γ1 −3

10γ0 −

1

10γ1 = 0

γ2 −3

10γ1 −

1

10γ0 = 0

donc γ1 = 13γ0 et γ2 = 1

5γ0 puis γ0 = 75, γ1 = 25, γ2 = 15.

2b. On calcule Yt + 15Yt−1 = εt et Zt − 1

2Zt−1 = εt. Bien sûr Y et Z sont cov–stationnaires, donc ce sont

des AR(1), de bruit blanc d’innovation ε.

2c. Comme Y et Z ont le même bruit blanc d’innovation que X, elles ont le même passé. Yt+δ|t = (−15 )δYt

et Zt+δ|t = (12 )δZt.

2d. X2 = (3(−50) + 100)/10 = −5, X3 = (3(−5) + (−50))/10 = −6.5, X4 = (3(−6.5) + (−5))/10 = −2.45.

Autre méthode: on a Xt = 17 (2Yt + 5Zt) donc X4 = 1

7 (2Y4 + 5Z4). On a Y1 = −100 et Z1 = −30, donc

Y4 = (−15 )3(−100) = 4

5 et Z4 = (12 )3(−30) = − 15

4 donc finalement X4 = 17 ( 8

5 − 754 ) = − 49

20 = −2.45.

56

Page 59: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 3.

3a. 1 − 6z + 8z2 = (1 − 2z)(1 − 4z) donc les racines sont 12 et 1

4 et les co-racines sont 2 et 4.

3b. Le polynôme canonique est h(z) = (1 − 12z)(1 − 1

4z) = 1 − 34z + 1

8z2 donc Xt = εt − 3

4εt−1 + 18εt−2

3c. 1(1− 1

2z)(1− 1

4z)

= 21− 1

2z− 1

1− 14z.

3d. εt =∑

j≥0(22j − 1

4j )Xt−j .

Problème 4.

4a. Posons: Zt = Yt − 12Yt−1, alors Z est cov-stationnaire et vérifie Zt − 1

3Zt−1 = εt − 12εt−1. Elle est donc

identique avec X (par le théorème d’unicité).

4b. γX0 = (1 + 1

4 )γY0 − γY

1 .

4c. γY0 = 1/(1 − 1

9 ) = 98 , γY

1 = 38 donc γX

0 = 54

98 − 3

8 = 3332 .

Problème 5.

4a. γX1 = 90

3 = 30 et γX2 = 30

3 = 10.

4b. X1 = αX0 + βX2 avec

[α β] = [30 30]

[90 1010 90

]−1

= [30 30]1

10

1

80

[9 −1−1 9

]= [

3

10

3

10]

donc X1 = 310X0 + 3

10X2. De plus

E(|X1 − X1|2) = 90 − [α β]

[30

30

]= 90 − 18 = 72

Problème 6.

5a. 90 = γX0 = 10γε

0 donc γε0 = 9 et γX

1 = 3γε0 = 27. Comme X est un MA(1) γX

j = 0 pour j > 1.

5b. X1 = αX0 + βX2 avec

[α β] = [27 27]

[90 00 90

]−1

= [27 27]1

90

[1 00 1

]= [

3

10

3

10]

donc X1 = 310X0 + 3

10X2. De plus

E(|X1 − X1|2) = 90 − [α β]

[27

27

]= 90 − 162

10=

738

10

57

Page 60: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 7.

4a.Yt = Y0 +X1 + . . .+Xt

Yt = Y0 + (−1

2ε0 + ε1) + (−1

2ε1 + ε2) + . . .+ (−1

2εt−1 + εt)

Yt = Y0 −1

2ε0 +

1

2ε1 + . . .+

1

2εt−1 + εt

4b. On a

Yt|0 = Y0 −1

2ε0

car d’une part εu pour u > 0 n’est pas corrélé avec Y0 (et donc avec aucun des Yj , j < 0 car il n’est pas

corrélé avec les Xj , j ≤ 0) et d’autre part ε0 appartient au passé de X donc de Y aussi. Ainsi

E(|Yt − Yt|0|2) =1

4(t− 1) + 1 =

t+ 3

4

Problème 8.

4a. On suppose N ≥ 2 bien sûr. Notons A la matrice N ×N avec 1+ q sur la diagonale et 1 partout ailleurs

et B 1q(N+q) fois la matrice avec N − 1 + q sur la diagonale et −1 partout ailleurs. Le produit AB est une

matrice avec sur la diagonale 1q(N+q) ((1 + q)(N − 1 + q)− (N − 1)) qui vaut simplement 1 et partout ailleurs

1q(N+q) (−(1 + q) + (N − 1 + q) − (N − 2)) qui donne 0.

4b. On note que les produits scalaires (X,Yi) valent tous x2, que les produits scalaires (Yi, Yj) valent

x2(1 + q) lorsque i = j et x2 lorsque i 6= j. Par la formule du cours XN =∑

j αjYj avec

[α1 . . . αN ] = [x2 . . . x2] [(Yi, Yj)]−1

= [1 . . . 1]A−1 = [1 . . . 1]B

[α1 . . . αN ] =1

q(N + q)[q . . . q] =

1

N + q[1 . . . 1]

donc XN = Y1+...+YN

N+q . L’erreur associée vaut par la formule du cours

E(|X − XN |2) = x2 − 1

N + q[1 . . . 1]

x2

...x2

= x2(1 − N

N + q) = x2 q

N + q

4c. On a ZN = X + W1+...+WN

N donc E(|X − ZN |2) = 1N2Nqx

2 = x2 qN ce qui est bien strictement plus

grand que x2 qN+q .

FIN

58

Page 61: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Maîtrise MASS 1999/2000 – 2„eme semestre – MM6 – Séries temporellesUniversité de Nice Sophia– Antipolis

J.-F. Burnol

Deuxième session – jeudi 14 septembre 2000

Documents et calculatrices autorisés.Il y a 5 problèmes, comprenant vingt-deux questions. Chacune rapporte 1point. Toute réponse numérique non justifiée est invalide et sera notée 0.Durée: deux heures.

Problème 1.

Soit η un bruit blanc et X le MA(1) de variance 50 vérifiant

Xt = ηt − ηt−1

(1) Quelle est la variance de η?

(2) Que valent les autocovariances de X ?

(3) On a observé X0 et X3. Quelle est la valeur optimale X1 et l’erreur E(|X1 − X1|2) ?

Problème 2.

Soit η un bruit blanc et X le MA(2) vérifiant

Xt = ηt − 2ηt−1 − 35ηt−2

(1) Quelles sont les racines et co-racines de 1 − 2z − 35z2 ?

(2) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?

(3) Exprimez εt en fonction de Xt, Xt−1, . . .

Problème 3.

Soit ε un bruit blanc et Y le ARMA(1,1) vérifiant

Yt −1

2Yt−1 = εt −

1

3εt−1

59

Page 62: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

(1) Soit W le AR(1) vérifiant Wt − 12Wt−1 = εt. Montrez: Yt = Wt − 1

3Wt−1.

(2) Exprimez γY0 en fonction de γW

0 et γW1 .

(3) On suppose que W est de variance 1. Quelle est la variance de ε?

(4) On suppose toujours que W est de variance 1. Que valent γW1 et γW

2 ? Que vaut γY0 ?

Problème 4.

Soit ε un bruit blanc de variance 1 et Z le AR(1) vérifiant

Zt −1

10Zt−1 = εt

(1) Quelles sont les autocovariances de Z ?

(2) Exprimez les prévisions optimales Z1|0, Z2|0, . . . en fonction de Z0, Z−1, . . ..

(3) Exprimez Z0 en fonction de ε0, ε−1, . . ..

(4) Soit δ ≥ 1. Que vaut E(|Zδ − Zδ|0|2) ?

Problème 5.

Soit ε un bruit blanc et X le AR(1) de variance 100 vérifiant

Xt −1

2Xt−1 = εt

(1) Quelle est la variance de εt?

(2) Comment s’exprime Xt comme combinaison de εt, εt−1, . . . ?

(3) Que valent γX1 et γX

2 ?

(4) On a observé X1 et X2. Quelle est la valeur optimale X3 et l’erreur E(|X3 − X3|2) ?

FIN

60

Page 63: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Séries Temporelles

Maîtrise MASS — Université de Nice

Jean-François Burnol avec la collaboration de Marc Diener

Année 2000–2001, 2ème semestre

Fiches d’exercices, partiel, examen, examen de rattrapage.

Page 64: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

62 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 65: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 1 (13.02.01)

On appelle régression linéaire de la v.a. X par les v.a. Y1, . . ., Yn la v.a. notée X (qui est égalementnotée E(X | Y1, . . . , Yn)) qui est l’unique combinaison affine

X = α0 + α1Y1 + . . .+ αnYn

rendant E

((X − α0 − α1Y1 − . . .− αnYn)

2)

minimale. On montre que (α0, α1, . . . , αn) est une solutiondu système des N + 1 équations à N + 1 inconnues :

N∑

j=0

αjE(YiYj) = E(YiX) pour i = 0..N.

où l’on a posé Y0 = IΩ (v.a. déterministe égale a 1), ou, si l’on préfère :

α0 +α1E(Y1) · · · · · · +αNE(YN ) = E(X)α0E(Y1) +α1E(Y 2

1 ) +α2E(Y1Y2) · · · +αNE(Y1YN ) = E(Y1X)...

......

α0E(Yi) +α1E(YiY1) · · · +αjE(YiYj) · · · = E(YiX)...

......

α0E(YN ) +α1E(YNY1) · · · · · · +αNE(Y 2N ) = E(YNX)

En général il y a une unique solution, mais il y aura plusieurs solutions si les variables aléatoires Yj nesont pas linéairement indépendantes. La combinaison résultante α0 + α1Y1 + . . .+αnYn est-elle unique,indépendante du choix éventuel de la solution. On montre

X = E(X) +

N∑

k=1

βk(Yk − E(Yk)),

avec β1,. . .,βN formant une solution du système :∑N

j=1 βjCov(Yi, Yj) = Cov(Yi,X) , i = 1..N.

1. Déterminer la régression linéaire de X par Y1, . . ., Yn dans les cas suivants : N = 2, EY1 = 0 = EY2,VY1 = 1, VY2 = 2, E(Y1Y2) = 1, et

1. EX = 0, E(XY1) = 1, E(XY2) = 0 ;

2. EX = 1, E(XY1) = 1, E(XY2) = 0 ;

3. EX = 0, E(XY1) = 0, E(XY2) = 0 ;

4. EX = 2, Cov(X,Y1) = 2, Cov(X,Y2) = 1.

2. On suppose que les T1, T2, T3, et T4 sont tels que pour tous i 6= j dans 1, 2, 3, 4 on ait ETi = 0,ET 2

i = 1, E(TiTj) = 0.

1. On pose Y1 = T1 + T2 + T3, Y2 = T2 + T3 + T4, et X = T1 + T2 + T3 + T4. Que vaut E(X | Y1, Y2) ?

2. On pose Y3 = T1 + T3 + T4. Que vaut E(X | Y1, Y2, Y3) ?

3. On pose Y4 = T1 + T2 + T4. Que vaut E(X | Y1, Y2, Y3, Y4) ?

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 63

Page 66: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

64 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 67: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 2 (20.02.01)

1. Soit H l’ensemble des v.a. sur l’espace probabilisé Ω ; des deux applications bilinéaires suivantes,laquelle est un produit scalaire et laquelle ne l’est pas ? (expliquez.)

(X,Y ) = E(XY ) ou (X,Y ) = Cov(X,Y ).

On choisit dorénavant celle des deux définitions qui est effectivement un produit scalaire, et l’on pose

‖X‖ =√

(X,X).

2. On note U ⊥ V si et seulement si (U, V ) = 0 (et on dit que U et V sont perpendiculaires.) Montrerle “théorème de Pythagore” :

U ⊥ V ⇔ ‖U + V ‖2 = ‖U‖2 + ‖V ‖2.

3. Soit Y0 la variable aléatoire constante Y0 := 1Ω. Soit X une variable aléatoire et soit X sa régressionlinéaire par Y0. Montrer : X = α0Y0, avec α0 = EX. Deux méthodes : a. On considère la fonctionα 7→ ϕ(α) := ‖X−α‖2. Expliciter cette fonction et déterminer pour quelle valeur de α elle est minimale.b. Montrer (X−(EX)Y0, Y0) = 0 et en déduire par le théorème de Pythagore pour tout α : ‖X−αY0‖ ≥‖X − (EX)Y0‖.

4. Soient Y1, . . ., YN des v.a. sur Ω ; on pose

FN =≪ Y0, Y1, . . . , YN ≫= α0Y0 + α1Y1 + . . .+ αNYN , αi ∈ R où Y0 := 1Ω

et on note X le régressé linéaire de X par Y1, . . ., YN . Montrer que X − X ∈ F⊥N , c’est-à-dire que pour

tout Y ∈ FN on a :(X − X, Y ) = 0

Montrer que X est caractérisé comme étant l’unique vecteur dans FN tel que X − X ∈ F⊥N soit vrai.

5. On pose Z := X − X. Vérifier les propriétés suivantes :

1. La v.a. Z est centrée, et EX = EX.

2. Les v.a. X et Z ne sont pas corrélées.

3. VX = VX + VZ.

4. VX = Cov(X,X).

5. VZ = VX −∑Nk=1 αkCov(Yk,X), où X =

∑Ni=0 αiYi, avec Y0 = 1Ω.

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 65

Page 68: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

66 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 69: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 3 (27.02.01) : Innovations pour un MA(1)

Soit ε = (εt)t∈Z un bruit blanc, centré, de variance σ2. Soit θ un nombre réel non nul, et soit X = (Xt)t∈Z

la série temporelle définie par Xt = εt − θεt−1. On dit que X est un MA(1) (moyenne mobile d’ordre 1 ;MA = “moving average”.) Le but de ce problème est de comprendre comment évolue la régression X(K)

0

de X0 sur X−1, . . . ,X−K lorsque la taille de la mémoire K tend vers +∞, et en particulier l’erreur deprédiction V(X0 −X

(K)0 ).

1. montrer que les covariances cov(Xt,Xu) valent (1 + θ2)σ2 pour t = u et −θσ2 pour |t − u| = 1 etsont nulles dans les autres cas.

2. Soit ρ = − θ1+θ2 . Montrer que les coefficients a1(K), . . . , aK(K) de la régression deX0 surX−1, . . . ,X−K

forment la solution du système linéaire suivant :

1 ρ 0 · · · 0

ρ 1 ρ. . .

...

0 ρ 1. . . 0

.... . .

. . .. . . ρ

0 · · · 0 ρ 1

a1(K).........

aK(K)

=

ρ0......0

3. On suppose |θ| 6= 1. Il se trouve que la solution du système précédent est alors de la forme :aj(K) = AK · θj + BK ·

(1θ

)jpour des constantes AK et BK correctement choisies. Déterminer les

valeurs de AK et de BK : on les déduira des équations impliquant a1(K), a2(K), aK−1(K) et aK(K).Les relations suivantes sont utiles : ρ 1

θ + 1 + ρθ = 0, θ + ρθ2 = −ρ.

4. On suppose toujours |θ| 6= 1. Soit σ2K la variance de l’erreur X0 − X

(K)0 . Montrer que σ2

K vaut(1 + θ2 + θ a1(K))σ2, puis la formule explicite :

σ2K = σ2 ·

(θ2 +

1 − θ2

1 − θ2K+2

)

Montrer que σ2K décroît lorsque K augmente et converge vers une valeur limite que l’on déterminera en

fonction de θ. Distinguer soigneusement les cas |θ| < 1 et |θ| > 1.

5. En prenant la limite K → ∞ dans le cas |θ| < 1 montrer la representation AR(∞) suivante de X :Xt + θXt−1 + θ2Xt−2 + . . . = ηt, avec η le bruit blanc des innovations de X. En déduire que η = ε. Quese passe-t-il si |θ| > 1 ?

Indications : dans 3 on trouve AK = − 11−θ2K+2 et BK = θ2K+2

1−θ2K+2 . Dans 4 la valeur de limK→∞ σ2(K)

est σ2 si |θ| < 1 et θ2 σ2 si |θ| > 1. Cette limite est la variance du bruit blanc des innovations de X. Lesinnovations de X sont les εt uniquement lorsque |θ| ≤ 1. Dans 5, la représentation AR(∞) de X lorsque|θ| > 1 existe aussi mais utilise 1

θ en lieu et place de θ. Dans ce cas les innovations ηt ne sont pas égalesavec les εt. On montre par ailleurs que dans les cas spéciaux θ = ±1 il n’existe aucune représentationAR(∞) de X (mais ses innovations sont bien les εt.) jf b.

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 67

Page 70: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

68 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 71: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 4 (13.03.01)

1. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

7εt−1

Exprimez εt en fonction de Xt, Xt−1, Xt−2, etc. . .

2. Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

5εt−1

Quelles sont les meilleures prédictions possibles pour Xt+1, Xt+2, etc. . .en fonction de Xt, Xt−1, Xt−2,etc. . . ?

3. On se donne un AR(1) X d’équation

Xt −1

3Xt−1 = εt

Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . .connaissant le passé linéaire deX jusqu’à l’instant t ?

4. On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autocovariancesde X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduire les valeursde γ0 et γ1 puis des autres autocovariances.

5. Soit η un bruit blanc et X le MA(1) défini selon

Xt = ηt − 5ηt−1

Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possiblepour Xt+1 en fonction de Xt, Xt−1, Xt−2, etc. . . ?

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 69

Page 72: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

1 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

7εt−1

Exprimez εt en fonction de Xt, Xt−1, Xt−2, etc. . .

εt =∞∑

j=0

(1

7)j Xt

2 (corr.) Soit ε un bruit blanc et X le MA(1) défini selon

Xt = εt −1

5εt−1

Quelles sont les meilleures prédictions possibles pour Xt+1, Xt+2, etc. . .en fonction de Xt, Xt−1, Xt−2,etc. . . ?

X∗t+1 = −1

5εt = −1

5

∞∑

j=0

(1

5)j Xt

X∗t+2 = X∗

t+3 = X∗t+4 = . . . = 0

3 (corr.) On se donne un AR(1) X d’équation

Xt −1

3Xt−1 = εt

Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . .connaissant le passé linéaire deX jusqu’à l’instant t ?

X∗t+j = (

1

3)j Xt

4 (corr.) On reprend l’exercice précédent. On suppose que εt est de variance 1. Soient γj les autoco-variances de X. Ce sont des nombres réels et γ−j = γj . Écrire les équations de Yule-Walker, en déduireles valeurs de γ0 et γ1 puis des autres autocovariances.

γ0 −1

3γ−1 = 1 γ1 −

1

3γ0 = 0 γj+1 −

1

3γj = 0

γ0 =9

8γj =

9

8(1

3)j

5 (corr.) Soit η un bruit blanc et X le MA(1) défini selon

Xt = ηt − 5ηt−1

Quelle est la relation entre X et son bruit blanc d’innovation ? Quelle est la meilleure prédiction possiblepour Xt+1 en fonction de Xt, Xt−1, Xt−2, etc. . . ?

Xt = εt −1

5εt−1

X∗t+1 = −1

5

∞∑

j=0

(1

5)j Xt

70 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 73: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 5 (20.03.01)

1. Soit ε un bruit blanc centré et X le AR(2) tel que

Xt −9

20Xt−1 +

1

20Xt−2 = εt

Vérifiez que la “condition de stationnarité” est satisfaite. On suppose que ε est de variance 57 (sic. . .).Écrivez les équations de Yule-Walker, et résolvez en γ0, γ1 et γ2.

2. (suite) Soient Y et Z définis selon

Yt = Xt −1

4Xt−1 Zt = Xt −

1

5Xt−1

Montrez que Y et Z sont des AR(1) (calculez Yt − 15Yt−1 et Zt − 1

4Zt−1). Trouvez α et β de sorte queXt = αYt + βZt pour tous les t.

3. (suite) On reprend l’exercice précédent. Montrer que les trois séries chronologiques X, Y , Z ont toutesles mêmes innovations fondamentales et le même passé à chaque instant. Quelles sont les meilleuresprédictions possibles pour Yt+1, Yt+2, etc. . .et Zt+1, Zt+2, etc. . .connaissant Xt, Xt−1, Xt−2, etc. . . ? Etquelles sont les meilleures prédictions pour Xt+1, Xt+2, etc. . . ?

4. (suite) Exprimez Yt et Zt puis Xt en fonction de εt, εt−1, εt−2, etc. . .

5. Soit η un bruit blanc centré de variance 1, soit Q(z) le polynôme 1−9z+20z2 et Y le MA(2) obtenuen filtrant η par Q(L). Que valent les autocovariances de Y ?

6. (suite) Soit ε un bruit blanc centré de variance 400, soit R(z) le polynôme 1 − 920z + 1

20z2 et X le

MA(2) obtenu en filtrant ε par le polynôme R(L). Que valent les autocovariances de X ?

7. (suite) Dans les deux exercices précédents comparez les covariances de X avec celles de Y . Quelleest la relation entre X et son bruit blanc d’innovation ? Quelle est la relation entre Y et son bruit blancd’innovation ? On suppose connus Yt, Yt−1, Yt−2, etc. . .Quelle est la meilleure prédiction possible pourYt+1 ?

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 71

Page 74: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Solutions :

Sauf erreur on trouve γ0 = 70, γ1 = 30, γ2 = 10.

On a Xt = −4Yt + 5Zt.

Les meilleures prédictions sont E(Yu| ≤ t) =(

15

)u−tYt, et E(Zu| ≤ t) =

(14

)u−tZt. De plus

E(Xu| ≤ t) = −4 E(Yu| ≤ t) + 5 E(Zu| ≤ t)

Yt =∑

j

(15

)jεt−j , Zt =

∑j

(14

)jεt−j , d’où Xt par combinaison linéaire.

Sauf erreur : 482, - 189, et 20.

Sauf erreur : 482, - 189, et 20.

Mêmes autocovariances pour Y et pour X. La relation entre Y et son bruit blanc d’innovation est celled’un MA(2) avec le même polynôme filtrant que X. Soient ε les innovations de Y . On a E(Yt+1| ≤ t) =− 9

20εt + 120εt−1. Il faut exprimer εt et εt−1 en fonctions du passé de Y ce qui nécessite d’inverser le filtre

R(L). Pour cela il suffit de récuperer les données de l’exercice 4 où l’expression du AR(2) en fonction deses innovations correspond justement à l’inversion de ce polynôme. On conclut :

εt =∑

j≥0

(−4

(1

5

)j

+ 5

(1

4

)j)Yt−j

E(Yt+1| ≤ t) = − 9

20Yt +

j≥1

(4

5

(1

5

)j

− 5

4

(1

4

)j)Yt−j

72 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 75: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 6 (15.05.01)

1. On dispose d’un indicateur bruité Y d’une variable aléatoire X : Y = X + ε avec ε ∼ N (0, τ2). Onsuppose que l’erreur ε est indépendante de X qui elle-même suit une loi N (µ, σ2) dont les paramètressont supposés connus. Quelle est la meilleure estimation que l’on puisse faire de X sachant Y et quelleest l’erreur quadratique associée. Discuter en fonction de τ2 → ∞ et de τ2 → 0.

2. Montrer pour ν > −1 :

limT→∞

1

T

1

T ν

T∑

t=1

tν =1

ν + 1

3. Soient εt des variables indépendantes, centrées, identiquement distribuées, de variance commune σ2.Soit Y0 = 0 et pour T ≥ 1, YT =

∑Tt=1 εt. Montrer :

T−3/2T∑

t=1

Yt−1 = T−1/2T∑

t=1

(1 − t

T)εt

À la limite lorsque T → ∞ quelle est la loi de T−3/2∑T

t=1 Yt−1 ?

4. (suite) Plus généralement quelle est la loi jointe à la limite lorsque T → ∞ du vecteur (T−1/2∑T

t=1 εt,

T−3/2∑T

t=1 Yt−1) ? En déduire la loi jointe de (B(1),∫ 1

0B(r)dr) pour le mouvement Brownien standard.

5. On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loiautorégressive d’ordre 1 de la forme Yt = A+BYt−1 +ut. Quelles sont les formules (utilisant une matrice2 × 2) donnant les meilleures estimations AT et BT possibles au sens des moindres carrés pour A et Blorsque T + 1 observations Y0, . . ., YT sont connues ? (on minimise

∑(Yt − A − BYt−1)

2) Quelle est laformule pour le vecteur des différences (AT −A,BT −B), lorsque l’on a réellement Yt = A+BYt−1 +ut ?

6. (suite, difficile) On suppose que la série chronologique Yt est en fait une marche aléatoire Yt = Yt−1+εt

(la variance des εt valant σ2), autrement dit que les vraies valeurs de A et de B sont respectivement 0et 1. On pourra supposer Y0 = 0. En utilisant le théorème de la limite centrale fonctionnelle, exprimerla loi limite du vecteur (T 1/2AT , T (BT − 1)) en fonction d’un mouvement Brownien.

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 73

Page 76: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesFiche TD 6 (15.05.01) – Corrigé des exercices 29 et 30

6 (corr.) On considère les trois vecteurs suivant dans RT : V1 = (1, . . . , 1), V2 = (Y0, . . . , YT−1) et

W = (Y1, . . . , YT ). Les valeurs AT et BT sont celles pour lesquelles la projection orthogonale de W sur<< V1, V2 >> est AV1 +BV2. Elles sont donc données par

(AT

BT

)=

((V1, V1) (V1, V2)(V1, V2) (V2, V2)

)−1((W,V1)(W,V2)

)

ce qui donne (AT

BT

)=

(T

∑Tt=1 Yt−1∑T

t=1 Yt−1

∑Tt=1 Y

2t−1

)−1( ∑Tt=1 Yt∑T

t=1 YtYt−1

)

Supposons que A et B soient tels que l’on ait pour tout t : Yt = A+BYt−1 + ut. Alors

T∑

t=1

Yt = TA+ (

T∑

t=1

Yt−1)B +

T∑

t=1

ut

T∑

t=1

YtYt−1 = (

T∑

t=1

Yt−1)A+ (

T∑

t=1

Y 2t−1)B +

T∑

t=1

utYt−1

( ∑Tt=1 Yt∑T

t=1 YtYt−1

)=

(T

∑Tt=1 Yt−1∑T

t=1 Yt−1

∑Tt=1 Y

2t−1

)(AB

)+

( ∑Tt=1 ut∑T

t=1 utYt−1

)

(AT

BT

)=

(AB

)+

(T

∑Tt=1 Yt−1∑T

t=1 Yt−1

∑Tt=1 Y

2t−1

)−1( ∑Tt=1 ut∑T

t=1 utYt−1

)

7 (corr.) Par ce qui précède on a

(AT

BT − 1

)=

(T

∑Tt=1 Yt−1∑T

t=1 Yt−1

∑Tt=1 Y

2t−1

)−1( ∑Tt=1 εt∑T

t=1 εtYt−1

)

Comme dans l’exercice 4 résolu en cours, si l’on définit la fonction en escalier XT (r) sur l’intervalle [0, 1]comme valant Yt−1/T sur l’intervalle [(t−1)/T, t/T [ pour 1 ≤ t ≤ T et YT /T en 1, on sait que

√TXT (·)

converge pour T → ∞ vers un Mouvement Brownien standard B(r) (de variance σ2). Cela signifie parexemple que lorsque T est très grand la somme de Riemann 1

T

∑Tt=1

√TXT ( t−1

T ) approxime∫ 1

0B(r)dr.

En fonction des Yt cela donne

T−3/2T∑

t=1

Yt−1 ∼∫ 1

0

B(r)dr

De même la somme de Riemann 1T

∑Tt=1 T (XT ( t−1

T ))2 approxime∫ 1

0B(r)2dr, d’où

T−2T∑

t=1

Y 2t−1 ∼

∫ 1

0

B(r)2dr

Notons de plus la petite astuce suivante :( 1√

T0

0 1T

)·(

T∑T

t=1 Yt−1∑Tt=1 Yt−1

∑Tt=1 Y

2t−1

)·( 1√

T0

0 1T

)=

(1 T−3/2

∑Tt=1 Yt−1

T−3/2∑T

t=1 Yt−1 T−2∑T

t=1 Y2t−1

)

74 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 77: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

et donc pour T → ∞ :

(√T 00 T

)·(

T∑T

t=1 Yt−1∑Tt=1 Yt−1

∑Tt=1 Y

2t−1

)−1

·(√

T 00 T

)∼(

1∫ 1

0B(r)dr∫ 1

0B(r)dr

∫ 1

0B(r)2dr

)−1

ce qui donne en fin de compte :

( √TAT

T (BT − 1)

)∼(

1∫ 1

0B(r)dr∫ 1

0B(r)dr

∫ 1

0B(r)2dr

)−1

·(

1√T

∑Tt=1 εt

1T

∑Tt=1 εtYt−1

)

On notera que 1√T

∑Tt=1 εt =

√TXT (1) ∼ B(1) et que par ailleurs comme on l’avait vu en cours, en

utilisant Y 2t = Y 2

t−1 + 2εtYt−1 + ε2t on obtient Y 2T = 2

∑Tt=1 εtYt−1 +

∑Tt=1 ε

2t soit encore

1

T

T∑

t=1

εtYt−1 =1

2TY 2

T − 1

2T

T∑

t=1

ε2t =1

2TXT (1)2 − 1

2T

T∑

t=1

ε2t

Le dernier terme tend avec probabilité 1 vers 12σ

2 tandis que le premier est ∼ 12B(1)2. En conclusion,

lorsque T → ∞ :

( √TAT

T (BT − 1)

)∼(

1∫ 1

0B(r)dr∫ 1

0B(r)dr

∫ 1

0B(r)2dr

)−1

·(

B(1)12 (B(1)2 − σ2)

)

ce qui répond à la question (on peut trouver l’expression finale un peu compliquée). En particulier la loide T (BT − 1) est approximativement celle de

12 (B(1)2 − σ2)

∫ 1

0B(r)2dr − (

∫ 1

0B(r)dr)2

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 75

Page 78: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

76 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 79: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesContrôle (02.04.01)

Problème 1.

Soit ε un bruit blanc centré de variance 8 et X le AR(1) vérifiant

Xt −1

3Xt−1 = εt

(1) Quelles sont les autocovariances de X ?

(2) Exprimer les prévisions optimales X1, X2,. . .de X1, X2, . . .connaissant toutes les valeurs passées

X0, X−1, . . ..(3) Exprimer X0 en fonction de ε0, ε−1, . . ..

(4) Soit h ≥ 1. Que vaut E(|Xh − Xh|2) ?

Problème 2.

Soit ε un bruit blanc centré et X le AR(1) de variance 25 vérifiant

Xt −1

5Xt−1 = εt

(1) Quelle est la variance de εt ?

(2) Comment s’exprime Xt comme combinaison de toutes les innovations passées εt, εt−1, . . . ?

(3) Que valent γX1 et γX

2 ?

(4) Quelle est la valeur optimale X3 sachant X1 et X2 et qu’elle est l’erreur E(|X3 − X3|2) ?

Problème 3.

Soit η un bruit blanc centré et X le MA(2) vérifiant

Xt = ηt − 2ηt−1 − 35ηt−2

(1) Quelle est la relation MA(2) entre X et son bruit blanc d’innovation ε ?

(2) On suppose que η est de variance 1. Quelle est la variance de ε ?

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 77

Page 80: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

78 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 81: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

NOM :

PRÉNOM :

né(e) le :

à :

Replier et agrafer

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesExamen (30.05.01)

Problème 1.

Soient Y1, . . ., YN et Z1, . . ., ZM des variables aléatoires (N,M ≥ 1). Soit X une autre variable aléatoire.Soit X1 la régression linéaire de X par Y1, . . ., YN , Z1, . . ., ZM . Montrer que X et X1 ont les mêmesrégressions linéaires par Y1, . . ., YN .

Problème 2.

Soit η un bruit blanc centré et soit X le MA(1) défini selon

Xt = ηt − 10ηt−1

(1) Quelle est la relation entre X et son bruit blanc d’innovation ?

(2) Quelle est la meilleure prédiction possible pour Xt+1 en fonction de Xt, Xt−1, Xt−2, etc. . . ?

(3) Quelle est l’erreur quadratique moyenne associée ?

Problème 3.

On se donne un AR(1) centré X d’équation

Xt −1

7Xt−1 = εt

(1) Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . .connaissant le passé linéaire

de X jusqu’à l’instant t ?(2) Quelles sont les erreurs quadratiques moyennes associées ?

Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre 79

Page 82: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 4.

Soit ε un bruit blanc centré et soit X le AR(2) tel que

Xt −2

35Xt−1 −

1

35Xt−2 = εt

(1) Le bruit blanc ε est il le bruit blanc des innovations de X ? (justifier la réponse.)

(2) On note σ2 la variance de ε et γ0, γ1 et γ2 les premières autocovariances de X. Écrire les équations

de Yule-Walker et exprimer γ0, γ1 et γ2 en fonction de σ2.

Problème 5.

On dispose de deux mesures Y1 et Y2 d’une variable aléatoire X : Y1 = X + ε1 et Y2 = X + ε2 avecε1 ∼ N (0, τ2) et ε2 ∼ N (0, τ2). On supposera que les erreurs ε1 et ε2 sont mutuellement indépendanteset aussi sont indépendantes de X et que celle-ci suit elle-même une loi N (µ, σ2) dont les paramètres sontconnus.(1) Quelle est la meilleure estimation que l’on puisse faire de X sachant Y1 et Y2 ?

(2) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ2 → ∞ et de τ2 → 0.

(3) Après la première mesure Y1 quelle est la meilleure prévision que l’on puisse faire pour le résultat

de la deuxième mesure Y2 ?(4) Quelle est l’erreur quadratique associée ? Discuter en fonction de τ2.

Problème 6.

On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loiautorégressive d’ordre 1 de la forme Yt = BYt−1 + ut.(1) Quelle est la formule donnant la meilleure estimation BT possible au sens des moindres carrés pour

B lorsque T + 1 observations Y0, . . ., YT sont connues ? (on minimise∑

(Yt −BYt−1)2)

(2) Donner une formule pour la différence BT −B, lorsque l’on a réellement Yt = BYt−1 + ut.

On suppose que la série chronologique Yt suit en réalité une quasi-marche aléatoire de la forme Yt =Yt−1 +Zt avec Zt = εt + 1

2εt−1 un MA(1) (les εt étant des variables gaussiennes centrées indépendantesde variance commune σ2). Donc la vraie valeur de B est 1. On supposera pour simplifier Y0 = 0, Z0 = 0.

On définit une fonction en escalier XT (r) sur l’intervalle [0, 1] comme valant Yt−1/√T = Z0+Z1+...+Zt−1√

T

sur l’intervalle [(t− 1)/T, t/T [ pour 1 ≤ t ≤ T et valant YT /√T en r = 1.

(3) Exprimer XT (r) en fonction des εt. En déduire que lorsque T → ∞ les fonctions aléatoires XT (r)

convergent vers un mouvement Brownien standard B(r) dont on donnera la variance.(4) En déduire la loi limite de T−3/2

∑Tt=1 Yt−1.

(5) Montrer Y 2T = 2

∑Tt=1 ZtYt−1 +

∑Tt=1 Z

2t et en déduire la loi-limite de 1

T

∑Tt=1 ZtYt−1.

(6) Déterminer la loi-limite de T (BT − 1).

80 Cours : Jean-François Burnol. Travaux Dirigés : Marc Diener. Année 2000–2001, 2ème semestre

Page 83: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

NOM:

PRÉNOM:

né(e) le:

à:

Replier et agrafer

Université de Nice Année 2000-2001Département de Mathématiques Maîtrise MASS

Séries TemporellesExamen (session de septembre, le 17.09.01)

Problème 1.

Soit X = (Xt) une série chronologique stationnaire. Expliquer la notion de “bruit blanc des innovations”:définition mathématique d’une part, commentaires que cela vous inspire d’autre part. En quoi cettenotion est-elle reliée au problème de la prédiction?

Problème 2.

On se donne une modélisation AR(p) pour une série chronologique stationnaire X = (Xt).(1) Qu’appelle-t-on condition de stationnarité?

(2) On suppose connu le passé jusqu’à l’instant t. Soit e1 l’erreur quadratique moyenne associée à la

meilleure prédiction de Xt+1, et e2 pour la meilleure prédiction de Xt+2. On a e2 ≥ e1. Pourquoi?

Problème 3.

On se donne un AR(1) centré X d’équation

Xt −1

5Xt−1 = εt

(1) Quelles sont les meilleures prédictions possibles pour Xt+1,Xt+2, etc. . .connaissant le passé linéaire

de X jusqu’à l’instant t ?(2) Quelles sont les erreurs quadratiques moyennes associées ?

Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre 81

Page 84: Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice ...jf.burnol.free.fr › 990001mmass.pdf · Maîtrise MASS (1999/2000 et 2000/2001) Université de Nice – Sophia Antipolis

Problème 4.

On observe une série chronologique Yt que l’on cherche à modéliser du mieux possible avec une loiautorégressive d’ordre 1 AR(1) de la forme Yt = A · Yt−1 + ut.(1) Montrer que la formule donnant la meilleure estimation AT possible au sens des moindres carrés

pour A lorsque T + 1 observations Y0, . . ., YT sont connues est:

AT =

∑1≤t≤T Yt · Yt−1∑

1≤t≤T Y2t−1

(on minimise∑

(Yt −AYt−1)2)

On suppose pour toutes les questions qui suivent que la série chronologique Yt suit en réalité, sansqu’on le sache, un processus MA(1) de la forme Yt = εt + 1

2εt−1 (les εt étant des variables gaussiennescentrées indépendantes de variance commune σ2). On rappelle le théorème suivant, la loi forte des grandsnombres:

Soient X1, X2, . . .des variables aléatoires indépendantes, identiquement distribuées, d’espérance com-mune α. Soit Sn =

∑nk=1Xk. Alors:

Sn

nconverge pour n→ ∞ vers α avec probabilité 1

(2) En décomposant∑

1≤t≤T Y2t−1 en deux parties, d’une part la somme pour t pair, d’autre part la

somme pour t impair, montrer que avec probabilité 1 on a

limT→∞

1

T

1≤t≤T

Y 2t−1 =

5

4σ2

(3) En décomposant∑

1≤t≤T Yt · Yt−1 en trois parties, la somme pour t = 1, 4, . . ., la somme pour

t = 2, 5, . . ., et la somme pour t = 3, 6, . . ., montrer par la loi forte des grands nombres que avecprobabilité 1 on a

limT→∞

1

T

1≤t≤T

Yt · Yt−1 =1

2σ2

(4) En déduire la valeur limite presque sûre de AT lorsque T → ∞.

(5) On a fait un grand nombre T + 1 d’observations (disons T = 1000), et calculée une valeur corres-

pondante de AT (disons AT = 0.402). Comment peut-on s’apercevoir par des calculs sur les observationsY0, . . ., YT que Y n’est en fait certainement pas en réalité un AR(1) de paramètre approximativement0.4, autrement dit quel estimateur peut-on utiliser qui amènera avec une grande probabilité à rejeterl’hypothèse que Y est un AR(1) ?

82 Cours: Jean-François Burnol. Travaux Dirigés: Marc Diener. Année 2000–2001, 2ème semestre