Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346...

81
Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par Irina KOURKOVA

Transcript of Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346...

Page 1: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Simulations des phénomènes aléatoiresLM 346

Raphaël KRIKORIANUniversité Paris 6

Remis à jour pour l’année 2012-2013 par Irina KOURKOVA

Page 2: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2

Remerciements : L’auteur tient à remercier vivement Valentin KONAKOVpour sa lecture attentive et critique d’une version précédente de ce polycopié.De nombreuses erreurs et inexactitudes ont pu ainsi étre corrigées. Celles quisubsistent sont bien évidemment sous la responsabilité de l’auteur.

Attention à la remise à jour du cours et des exercices ! Ceci est lanote pour tous ceux qui sont déjà familiers avec ce document. Le polycopié aété remis à jour par rapport aux années précédentes, tous les chapitres ont étécomplétés et modifiés. Le Chapitre sur les Chaines de Markov a été modifiéde manière la plus importante. Les feuilles d’exercices ont été complétés, lafeuille sur le Chaines de Markov a changé très notablement. Irina Kourkova.

Page 3: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Table des matières

1 Rappels de théorie des probabilités 5

2 Simulations de variables aléatoires 112.1 Simulation via la fonction de répartition . . . . . . . . . . . . 12

2.1.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . 122.1.2 Application : simulation de lois binomiales . . . . . . . 132.1.3 Lois données par des fonctions de répartition . . . . . . 142.1.4 Application : simulation de la loi exponentielle . . . . . 152.1.5 Application ; simulation d’une loi de Poisson . . . . . . 16

2.2 La méthode du rejet . . . . . . . . . . . . . . . . . . . . . . . 172.2.1 Simulation de v.a.r de densité donnée . . . . . . . . . . 172.2.2 Variantes . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.3 Simulations de lois normales . . . . . . . . . . . . . . . . . . . 222.4 Loi conditionnelle (cf. Chapitre sur l’espérance conditionnelle) 24

3 Méthode de Monte Carlo 273.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.2 Description de la méthode . . . . . . . . . . . . . . . . . . . . 283.3 Variante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Rudiments de Statistiques 334.1 Sondages . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334.2 Statistiques gaussiennes . . . . . . . . . . . . . . . . . . . . . 344.3 Test du chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . 38

5 Espérance conditionnelle 415.1 Probabilités conditionnelles . . . . . . . . . . . . . . . . . . . 415.2 Espérance conditionnelle par rapport à une tribu finie . . . . . 425.3 Espérance conditionnelle suivant une v.a, cas discret . . . . . . 435.4 Cas des v.a admettant des densités . . . . . . . . . . . . . . . 455.5 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

3

Page 4: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

4 TABLE DES MATIÈRES

5.6 Tribus indépendantes . . . . . . . . . . . . . . . . . . . . . . . 495.7 Compléments . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

6 Chaînes de Markov 536.1 Chaîne de Markov et processus stochastiques . . . . . . . . . . 53

6.1.1 Propriétés de Markov . . . . . . . . . . . . . . . . . . . 576.2 Matrices de transition et lois initiales . . . . . . . . . . . . . . 586.3 Simulation d’une Chaine de Markov . . . . . . . . . . . . . . . 596.4 Classe d’états, Irréductibilité . . . . . . . . . . . . . . . . . . . 616.5 Récurrence et transience . . . . . . . . . . . . . . . . . . . . . 62

6.5.1 Temps et nombre de retours . . . . . . . . . . . . . . . 626.5.2 Temps et probabilité d’atteinte . . . . . . . . . . . . . 676.5.3 Exemple de la ruine du joueur . . . . . . . . . . . . . . 686.5.4 Marches aléatoires symétriques dans Zd . . . . . . . . . 71

6.6 Lois stationnaires . . . . . . . . . . . . . . . . . . . . . . . . . 726.6.1 Convergence vers la loi stationnaire . . . . . . . . . . . 75

6.7 Théorème ergodique . . . . . . . . . . . . . . . . . . . . . . . 80

Page 5: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 1

Rappels de théorie desprobabilités

Dans ce cours nous supposerons connues les bases du calcul des probabi-lités comme elles sont présentées dans le polycopié du cours LM345.

Espaces probabilisés, variables aléatoires, lois Un espace probabiliséest la donnée- d’un espace Ω que l’on appelle l’espace des états. Quand on modélise unesituation physique Ω est l’ensemble des états du système que l’on considère.Bien souvent cet espace gigantesque est inaccessible à l’expérience ;- d’un sous-ensemble B de P(Ω) qui est l’ensemble des événements. Dans unesituation concrète c’est l’ensemble de tous les résultats d’expériences quel’on peut effectuer sur le système. En théorie des probabilités cet ensembleB est une tribu (on dit aussi une σ-algèbre) : c’est un sous ensemble del’ensemble des parties de Ω qui contient l’ensemble vide, est stable par passageau complémentaire et par unions (donc intersections) dénombrables ;- d’une probabilité P : pour tout événement A ∈ B le réel P(A) est le degréde vraisemblance de l’événement A ; c’est un nombre compris entre 0 et 1.Mathématiquement, une probabilité est une application P : B → [0, 1] telleque P(Ω) = 1 et pour toute famille dénombrable d’événements disjoints deuxà deux Ai ∈ B, P(∪i∈NAi) =

∑i∈N P(Ai).

On dit qu’une propriété P est vraie P-presque partout sur Ω si elle est vraiepour un ensemble de ω ∈ Ω dont le complémentaire est (inclus dans) unensemble de probabilité nulle.

Mentionnons le lemme utile suivant dit de Borel Cantelli : Si A1, . . . , An, . . .est une suite d’événements telle que

∑k≥0 P(Ak) < ∞ alors P-presque tout

point de Ω n’appartient qu’à un nombre fini de Ak.

5

Page 6: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6 CHAPITRE 1. RAPPELS DE THÉORIE DES PROBABILITÉS

Une variable aléatoire réelle (resp. un vecteur aléatoire) 1 sur Ω est une ap-plication X : Ω → R (resp. X : Ω → Rm) telle que pour tout intervalle Iouvert de R (resp. pavé ouvert de Rm) X−1(I) est un événement (donc dansB)2.

La loi d’une variable aléatoire (resp. un vecteur aléatoire) est la mesurede probabilité µX définie sur R (resp. Rm) muni de sa tribu borélienne (c’est-à-dire la plus petite tribu engendrée par les ouverts de R (resp. de Rm). Defa con générale, étant donnée une partie S constituée de sous-ensembles deΩ, il existe une unique tribu B(S) qui contient les éléments de S et qui estminimale au sens de l’inclusion pour cette propriété ; on l’appelle la tribuengendrée par S. définie par µX(A) = P(X−1(A)) = P(X ∈ A). De fa conconcrète la loi d’une v.a est la donnée de toutes les probabilités P(X ∈ I)pour tous les intervalles I de R (resp. pavés de Rm).

La fonction de répartition d’une v.a X est la fonction FX : R → [0, 1]définie par FX(t) = P(X ≤ t). C’est une fonction croissante admettant 0 et1 pour limites respectives en −∞ et ∞ et continue à droite en tout point.Réciproquement, étant donnée une fonction vérifiant ces propriétés, il existeune v.a X dont c’est la fonction de répartition.

Espérance, variance Pour toute v.a.r. positive X il est possible de définirl’espérance E(X) ; c’est soit un nombre positif ou nul soit +∞. Quand X estune v.a.r. de signe quelconque (ou un vecteur aléatoire) il est possible dedéfinir l’espérance E(X) ∈ R ( E(X) ∈ Rm pour les v.a.) toutes les fois oùE(|X|) <∞. On dit dans ce cas que X est intégrable ou L1. L’espérance estune application linéaire de l’espace vectoriel des fonctions intégrables sur Rqui vérifie le théorème de convergence dominée : Soit (Xn) une suite de v.a.intégrables telles que a) limn→∞Xn(ω) = X(ω) pour tout ω ∈ Ω ; b) il existeune v.a.r. Z intégrable telle que pour tout n et tout ω on ait |Xn(ω)| ≤ Z(ω) ;alors i) X est une v.a ii) on a limn→∞E(Xn) = E(X).

On dit qu’une v.a.r. est L2 ou de carré intégrable si E(X2) < ∞. On

définit dans ce cas la variance de X : Var(X) = E

(|X − E(X)|2

). On a

aussi Var(X) = E(X2)− (E(X))2.Mentionnons le théorèmes de Markov : si X est une v.a.r. intégrable et

λ > 0 on a P(|X| > λ) ≤ E(|X|)/λ et celui de Bienaymé-Tchebychev : siX est une v.a.r. de carré intégrable et λ > 0 on a P(|X − E(X)| > λ) ≤Var(|X|)/λ2.

1nous écrirons souvent v.a.r. pour variable aléatoire réelle et v.a. pour vecteur aléatoireou variable aléatoire

2On note encore X ∈ I l’événement X−1(I) qui par définition est ω ∈ Ω : X(ω) ∈ I

Page 7: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

7

Formule de transfert, densité On dit qu’un v.a. admet une densité s’ilexiste une fonction ρX : Rm → [0,∞[ telle que pour tout pavé I ⊂ Rm on aP(X ∈ I) =

∫IρX(x1, . . . , xm)dx1 · · · dxm. Il est équivalent de dire que pour

toute fonction continue bornée φ : Rm → R on a

E(φ(X)) =

∫R

φ(x)ρX(x)dx.

C’est ce que l’on appelle dans ce cours la formule de transfert. Dans le casoù X prend ses valeurs dans un ensemble dénombrable E ⊂ R

E(φ(X)) =∑e∈E

φ(e)P(X = e).

Ces deux formules sont vraies toutes les fois où φ(X) est L1 (ce qui estéquivalent au fait que x 7→ φ(x)ρX(x) est L1 ou dans le deuxième cas que lasérie de terme général φ(e)P(X = e) est absolument convergente.

Combinée à la formule du changement de variable, cette formule permetde calculer les densités de nombreuses v.a ou vecteurs aléatoires.

Quand un vecteur aléatoireX = (X1, . . . , Xm) admet une densité ρX(x1, . . . , xm)on peut dire que les v.a Xi admettent chacune une densité ρi (appelée i-ièmedensité marginale) donnée par

ρi(xi) =

∫R

· · ·∫

R

ρX(x1, . . . , xi−1, xi, xi+1 . . . , xm)dx1 · · · dxi−1dxi+1 · · · dxm.

Fonctions génératrices, fonctions caractéristiques Si X : Ω → E ⊂N est une v.a à valeurs dans un ensemble dénombrable E ⊂ N on appellefonction génératrice de X la série définie pour 0 ≤ t < 1 par

ΦX(t) =∞∑

k=0

P(X = k)tk.

Cette fonction permet dans certains cas de calculer les moments de X (c’est-à-dire les E(Xk)), en particulier l’espérance et la variance. La v.a X estintégrable (resp. de carré intégrable) si et seulement si la dérivée (resp. ladérivée seconde) par rapport à t de ΦX(t) admet une limite quand t → 1−

et dans ce cas limt→1− Φ′X(t) = E(X) (resp. limt→1− Φ′′

X(t) = E(X(X − 1))).De faćon générale, pour toute v.a X : Ω → R on définit la fonction

caractéristique ΦX(t) de X par

ΦX(t) = E(eitX)

(i =√−1). Quand X admet une densité ρX , ΦX(t) est la transformée de

Fourier de ρX : ΦX(t) =∫RρX(x)eitxdx. La fonction caractéristique de X ca-

ractérise la loi de X : deux v.a ont même loi si et seulement si leurs fonctionscaractéristiques sont égales.

Page 8: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

8 CHAPITRE 1. RAPPELS DE THÉORIE DES PROBABILITÉS

Indépendance Une suite de v.a (resp. vecteurs aléatoires) X1, . . . , Xn, . . .est dite indépendante si pour tout n et tous intervalles de R (resp. pavés deRm) I1, . . . , In on a

P(X1 ∈ I1, . . . , Xn ∈ In) = P(X1 ∈ I1) · · ·P(Xn ∈ In).

On peut dans la définition précédente remplacer "intervalles" (resp. "pavés")par boréliens.

Dans le cadre des v.a admettant des densités, on a le résultat suivant : Levecteur aléatoire X = (X1, . . . , Xm) admet une densité et cette densité est leproduit de ses densités marginales (densités de chaque Xi) si et seulement siles v.a X1, . . . , Xm sont indépendantes.

Une proposition importante pour vérifier que des v.a. sont indépendanteset la suivante : Si l’on dispose d’une suite Y1, Y2, . . . de v.a. indépendanteset si X1 s’écrit comme une fonction f1(Y1, . . . , Yi1), X2 comme une fonctionf2(Yi1+1, . . . , Yi2) etc. Xn comme une fonction fn(Yin−1+1, . . . , Yin) (i1 < i2 <. . . < in < . . .) alors les v.a. X1, . . . , Xn sont indépendantes.

Une application de l’indépendance est : Si X1, . . . , Xn sont indépendanteset intégrables alors

E(X1 · · ·Xn) = E(X1) · · ·E(Xn).

Si en outre elles sont de carrés intégrables

Var(X1 + · · ·+Xn) = Var(X1) + · · ·+ Var(Xn).

Un autre critère d’indépendance est le suivant : X1, . . . , Xn sont indépen-dantes, si et seulement si pour tous réels t1, . . . , tn

E(eit·X) = E(eit1X1) · · ·E(eitnXn)

où on a noté t ·X = t1X1 + · · ·+ tnXn.

Convergence des v.a On dit qu’une suite de v.a X1, . . . , Xn, . . . convergepresque-sûrement (et on abrège p.s) vers une v.a X si et seulement si pourP-presque tout ω ∈ Ω limn→∞Xn(ω) = X(ω).

Elle converge en loi si par définition pour toute fonction continue bornéeφ : R → R on a E(φ(Xn)) = E(φ(X)). Il y a deux autres définitions équi-valentes. La première repose sur la fonction de répartition : La suite de v.a(Xn) converge en loi vers la v.a X si et seulement si pour tout t ∈ R quiest point de continuité de la fonction de répartition FX(t) = P(X ≤ t) de Xon a limn→∞ FXn(t) = FX(t). La deuxième se formule en termes de fonctionscaractéristiques : La suite de v.a (Xn) converge en loi vers la v.a X si etseulement si pour tout t ∈ R, la suite de fonctions caractéristiques ΦXn(t)converge vers la fonction caractéristique ΦX(t) quand n→∞. Mentionnonsenfin que la convergence presque-sûre entraîne la convergence en loi.

Page 9: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

9

Exemples classiques Loi de Bernoulli de paramètre p : C’est la loi d’unev.a à valeurs dans 0, 1. Cette loi est déterminée par p = P(X = 1). Concrè-tement elle modélise le lancer d’une pièce de monnaie (pile a la probabilitép de sortir). On a E(X) = p, Var(X) = p(1− p).Loi binomiale de paramètre (n, p) : C’est la loi d’une v.a à valeurs dans0, . . . , n telle que

P(X = k) =

(n

k

)pk(1− p)n−k.

Elle modélise par exemple la probabilité d’obtenir k pile quand on joue n foisà pile/face (où la probabilité d’obtenir pile vaut p). C’est aussi la loi d’unesomme de n v.a indépendantes suivant une loi de Bernoulli de paramètre p.On a E(X) = np, Var(X) = np(1− p).Loi géometrique de paramètre 0 ≤ a < 1 : C’est la loi d’une v.a à valeursdans N telle que

P(X = k) = (1− a)ak.

On a E(X) = a1−a

, Var(X) = a(1−a)2

.Loi de Poisson de paramètre λ > 0 : C’est la loi d’une v.a à valeurs dans Ntelle que

P(X = k) = e−λλk

k!.

On a E(X) = λ, Var(X) = λ. Si npn → λ alors la loi binomiale de paramètres(n, pn) converge en loi vers la loi de Poisson de paramètre λ.Loi uniforme sur [a, b] C’est la loi d’une v.a à valeurs dans [a, b] de densité

ρ(x) =1

b− a1[a,b](x).

On a E(X) = (a+ b)/2, Var(X) = (b− a)2/12.Loi exponentielle de paramètre θ : C’est la loi d’une v.a à valeurs dans [0,∞[de densité

ρ(x) = θe−θx1[0,∞[(x).

On a E(X) = 1/θ, Var(X) = 1/θ2.Loi normale N (µ, σ) : C’est la loi d’une v.a à valeurs dans R de densité

ρ(x) =1

2πσ2e−(x−µ)2/2σ2

.

On a E(X) = µ, Var(X) = σ2 On dit qu’elle est centrée réduite quandµ = 0, σ = 1. Une v.a X suit une loi normale centrée réduite si et seulementsi σX + µ suit une loi normale N (µ, σ2).

Page 10: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

10 CHAPITRE 1. RAPPELS DE THÉORIE DES PROBABILITÉS

Loi forte des grands nombres Si (Xn) est une suite de v.a intégrables,indépendantes et de même loi, alors la suite des moyennes (X1 + · · ·+Xn)/nconverge P− p.s vers la v.a constante E(X1).

Théorème Central Limit Si (Xn) est une suite de v.a de carrés inté-grables, indépendantes et de même loi, alors la suite

√n

σ

(X1 + · · ·+Xn

n− E(X1)

)où σ2 = Var(X1), converge en loi vers une loi normale centrée réduite.

Page 11: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 2

Simulations de variables aléatoires

Nous présentons dans ce chapitre diverses méthodes de simulations devariables aléatoires. Le contexte est le suivant : on suppose que l’on disposed’un ordinateur qui, toutes les fois que l’on fait appel à la fonction Random,produit un nombre réel compris entre 0 et 1 suivant une loi uniforme (dans lapratique ce nombre ne peut être que rationnel). On se propose alors de simulerune variable aléatoire X de loi donnée. De fa con plus mathématique, onmodélisera le k-ième appel à la fonction Random par une v.a.r Uk(ω) suivantune loi uniforme dans l’intervalle [0, 1] et on supposera que la suite de v.a.rU1, . . . , Un, . . . est indépendante. A présent, supposons que X : Ω → R soitune v.a ayant une loi donnée. Si X est à valeurs dans Z cela signifie que l’onconnaît les réels pi = P(X = i) et plus généralement si X est à valeurs réellescela signifie entre autres choses que pour tout intervalle I ⊂ R on connaîtP(X ∈ I). Comment construire X à partir de la suite U1, . . . , Un, . . . ?

Un problème plus général et plus intéressant sera de construire une suitede v.a.r Xk, indépendantes et de loi donnée.

Illustrons sur deux exemples les deux principales méthodes de simulationdont nous parlerons.

Premier exemple. On veut simuler un jeu de pile/face (1/0) avec P(X = 1) =p ; en d’autres termes, on veut simuler une variable de Bernoulli à valeurs dans0, 1. Une fa con simple de procéder est la suivante : découpons l’intervalle[0, 1] en deux intervalles I0 et I1 de longueur respectives 1 − p et p : parexemple I0 = [0, 1 − p] et I1 = [1 − p, 1] mais on pourrait également choisirI0 = [p, 1] et I1 = [0, p]. Comme la v.a.r U1 suit une loi uniforme sur [0, 1] ona

P(U1 ∈ I0) = 1− p P(U1 ∈ I1) = p.

11

Page 12: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

12 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

Si on définit X1(ω) = 1 si U1 ∈ I1X1(ω) = 0 si U1 ∈ I0

il est facile de voir que X1 est une v.a.r à valeurs 0 ou 1 et que P(X1 = 1) =P(U1 ∈ I1) = p. On a donc démontré que

X1 = 1I1 U1

est une v.a suivant la loi de Bernoulli de paramètre p.Si l’on veut simuler une suite de v.a indépendantes suivant une même loi

de Bernoulli, il suffit de poser Xk = 1I1 Uk.Second exemple : Essayons de simuler une v.a X qui suit une loi uniformesur [0, a], 0 ≤ a ≤ 1. On cherche donc X telle que

P(X ∈ I) =|I ∩ [0, a]|

a.,

où |I| désigne la longueur de I si I est un intervalle (plus généralement lamesure de Lebesgue de I si I est un borélien de R). Il est très facile devérifier que la v.a X = aU1 suit une loi uniforme sur [0, a] et par conséquentXk = aUk est une suite de v.a indépendantes suivant une loi uniforme sur[0, a].Il est possible de simuler une loi uniforme sur [0, a] d’une autre fa con. Dé-finissons Y (ω) comme étant la valeur du premier Uk(ω) qui tombe dans[0, a] ⊂ [0, 1]. De fa con plus précise : soit

Y (ω) = Uν(ω)(ω), avec ν(ω) = infk ≥ 1 : Uk(ω) ∈ [0, a].

Il n’est pas difficile de voir que Y suit une loi uniforme sur [0, a] (exercice ouvoir la section sur la méthode du rejet). Si on veut produire une suite de v.aindépendante de loi uniforme sur [0, a] on procèdera de la manière suivante :on pose comme précédemment ν1(ω) = ν(ω) = infk : Uk(ω) ∈ [0, a] etpar récurrence νr(ω) = infk > νr−1(ω) : Uk(ω) ∈ [0, a]. Puis on poseYk(ω) = Uνk(ω)(ω). La suite de v.a Yk est indépendante et chaque Yk suit uneloi uniforme sur [0, a].

2.1 Simulation via la fonction de répartition

2.1.1 Lois discrètes

Soit X : Ω → a1, . . . , ar une v.a ne prenant qu’un nombre fini devaleurs. La loi de X est déterminée par la connaissance des réels pi := P(X =

Page 13: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.1. SIMULATION VIA LA FONCTION DE RÉPARTITION 13

ai). Remarquons que pi ∈ [0, 1] et p1 + · · · + pr = 1. Soit I1, . . . , Ir unepartition de [0, 1] en intervalles de longueurs respectives p1, . . . , pr. On peut,par exemple, choisir I1 = [0, p1[, I2 = [p1, p1 + p2[, Is = [p1 + · · ·+ ps−1, p1 +· · ·+ ps[ (1 ≤ s < r), Ir = [p1 + · · ·+ pr−1, 1[. Si on pose,

X1(ω) = ai si U1 ∈ Ii

c’est-à-dire

X1 =r∑

i=1

ai1Ii U1

on voit que P(X = ai) = P(U1 ∈ Ii) = pi.De fa con plus générale si on pose

Xk =r∑

i=1

ai1Ii Uk

on voit que les Xk forment une suite de v.a indépendantes car de la formef(Uk) où f =

∑ri=1 ai1Ii

(les Uk sont indépendantes) et de même loi P(Xk =ai) = pi.

Exercice : Démontrer que le résultat précédent se généralise au cas d’unev.a prenant un nombre dénombrable de valeurs

2.1.2 Application : simulation de lois binomiales

Par définition une v.a X suit une la loi binomiale (n, p) si elle est à valeursdans 0, 1, . . . , n et

P(X = k) =

(n

k

)pk(1− p)n−k, 0 ≤ k ≤ n.

Une fa con simple de simuler une loi binomiale est d’utiliser le fait suivant :SiZ1, . . . , Zn est une suite de v.a indépendantes suivant une même loi de Ber-noulli de paramètre p (P(Zk = 1) = p), alors la v.a X = Z1 + · · · + Zn suitune loi binomiale (n, p).Exercice : Démontrer l’assertion précédente.

Ainsi, pour simuler une suite de v.a indépendantes (Xk)k≥1 suivant unemême loi binomiale (n, p) il suffira de poser

Xk =kn+n−1∑

i=kn

1[0,p](Ui).

Exercice : Pourquoi ?

Page 14: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

14 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

2.1.3 Lois données par des fonctions de répartition

Soit F une fonction de répartition c’est-à-dire une fonction F : R → [0, 1]croissante, continue à droite en tout point et admettant 0 comme limite en−∞, 1 comme limite en +∞. Cette fonction F détermine une loi : X admetF pour fonction de répartition si pour tout t, P(X ≤ t) = F (t).

Supposons pour simplifier que F soit strictement croissante et continueen tout point. Il est facile de voir que F est un homéomorphisme croissantde R sur ]0, 1[ (c’est-à-dire une bijection continue et croissante dans les deuxsens). On peut donc définir G : R →]0, 1[ par G = F−1 : G(x) = t si etseulement si F (t) = x.

Remarquons à présent que si U suit une loi uniforme sur [0, 1] on a

F (t) = P(U ∈ [0, F (t)])

car F (t) ∈ [0, 1] et par conséquent

F (t) = P(U ≤ F (t)).

Mais P(U ≤ F (t)) = P(F−1(U) ≤ t) car F est strictement croissante. On adonc démontré que la v.a X = F−1(U) admet F pour fonction de répartition.

Le résultat précédent se généralise au cas où la fonction de répartition Fn’est que croissante et continue à droite (et n’est donc pas nécessairementun homéomorphisme). Le lemme suivant indique ce qu’il faut faire :

Lemme 2.1.1 Soient F : R → [0, 1] une fonction de répartition et G :]0, 1[→ R la fonction définie par

G(u) = infs ∈ R : u ≤ F (s).

Alors,i) l’inf est en fait un min ;ii) pour tous t ∈ R, u ∈]0, 1[ on a

u ≤ F (t) ⇐⇒ G(u) ≤ t.

Démonstration.— Démontrons i). Il suffit pour cela de démontrer que pouru ∈]0, 1[ l’ensemble Eu = s ∈ R : u ≤ F (s) est un ensemble fermé, nonvide borné inférieurement (car dans ce cas l’inf est un min). Que Eu soitnon vide est clair et qu’il soit borné inférieurement résulte du fait que si cen’était pas le cas, on pourrait trouver une suite sn tendant vers −∞ et telleque F (sn) ≥ u. Mais comme la limite de F en −∞ vaut 0, on aurait u = 0 cequi est contraire à l’hypothèse u ∈]0, 1[. Pour démontrer que c’est un fermé,

Page 15: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.1. SIMULATION VIA LA FONCTION DE RÉPARTITION 15

il suffit de démontrer, u et s étant fixés, que si une suite de sn ∈ Eu convergevers un réel s on a toujours s ∈ Eu, c’est-à-dire u ≤ F (s) : s’il existe ntel que sn ≤ s c’est clair car comme F est croissante, u ≤ F (sn) ≤ F (s) ;sinon, on a pour tout n, sn > s et on peut extraire de la suite sn une sous-suite snk

qui converge vers s en décroissant. Comme F est continue à droiteF (snk

) → F (s) et en passant à la limite dans l’inégalité u ≤ F (snk) on

obtient encore u ≤ F (s).ii) Si u ≤ F (t), alors t ∈ Eu et par définition t ≥ inf Eu = G(u). Récipro-quement, si G(u) ≤ t, comme on a vu que inf Eu est un min (Eu est fermé)on peut dire que G(u) ∈ Eu. Mais par définition de Eu cela signifie queF (G(u)) ≥ u. Comme F est croissante F (t) ≥ F (G(u)) ≥ u.

2

Une conséquence du lemme précédent est le théorème suivant :

Théorème 2.1.1 Si F est une fonction de répartition et U1, . . . , Un, . . . unesuite de v.a.r indépendantes suivant une loi uniforme sur [0, 1], alors la suitede v.a.r (Xk)k≥1 où Xk = G(Uk) est indépendante et chaque Xk suit une loidont la fonction de répartition est F .

Démonstration.— Comme F (t) est dans [0, 1] et que Uk suit une loi uni-forme sur [0, 1] on a F (t) = P(Uk ≤ F (t)) ; mais d’après le lemme précédentUk ≤ F (t) = G(Uk) ≤ t si bien que F (t) = P(Xk ≤ t) ce qui signifie quechaque v.a Xk suit une loi dont la fonction de répartition est F . Les v.a.r Xk

sont bien évidemment indépendantes (puisque de la forme G(Uk) où les Uk

sont indépendantes).

2

2.1.4 Application : simulation de la loi exponentielle

La loi exponentielle de paramètre λ > 0 est la loi de densité λ1t>0(t)e−λt.

Sa fonction de répartition F (t) vaut 0 si t < 0 et si t ≥ 0

F (t) =

∫ t

0

λe−λsds = 1− e−λt.

Cette fonction est croissante et continue et sa fonction de répartition qui estun homéomorphisme de ]0,∞[ sur ]0, 1[ s’inverse facilement :

F (t) = u⇐⇒ t = −1

λlog(1− u).

Page 16: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

16 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

On voit que G(u) = − 1λ

log(1 − u). Ainsi, X = − 1λ

log(1 − U) est une v.asuivant une loi exponentielle de paramètre λ. Puisque 1− U suit égalementune loi uniforme sur [0, 1] on voit que Y = − 1

λlog(U) suit également une loi

exponentielle de paramètre λ.

2.1.5 Application ; simulation d’une loi de Poisson

Il est facile de simuler une loi de Poisson de paramètre λ > 0 (P(X = k) =e−λ(λk/k!)) en utilisant le résultat de la section précédente et le théorèmesuivant.

Théorème 2.1.2 Soit (Tk)k≥1 une suite de v.a.r indépendantes suivant unemême loi exponentielle de paramètre λ. Alors, la v.a

νt,λ = maxk ≥ 1 : T1 + · · ·+ Tk ≤ t

suit une loi de Poisson de paramètre tλ.

Démonstration.— Notons pour k ≥ 1, Sk = T1 + · · ·+ Tk. Comme la suite(Ti)i≥1 est indépendante et que chaque Ti suit une loi de densité λe−λ·1[0,∞)(·),il n’est pas difficile de voir que Sk suit une loi de densité ρSk

(t), nulle pouru ≤ 0, et donnée par

ρSk(u) := λk exp(−λu)

∫0≤u1≤u2≤...≤uk−1≤u

du1 · · · duk−1

pour u ≥ 0. En effet, pour toute f continue bornée

Ef(T1+· · ·+Tk) =

∫t1≥0,t2≥0,...,tk≥0

f(t1+· · ·+tk)λk exp(−λ(t1+· · ·+tk))dt1 · · · dtk

Par le changement de variables t1 = u1, t1 + t2 = u2, . . . t1 + · · · + tk−1 =uk−1, t1 + · · ·+ tk = u, on a t1 = u1, t2 = u2−u1, . . . , tk−1 = uk−1−uk−2, tk =u− uk−1 de Jacobien égal a 1 on a

Ef(T1 + · · ·+ Tk) =

∫u≥0

f(u)λk exp(−λu)∫

0≤u1≤···≤uk−1≤u

du1 · · · duk−1

Comme l’expression sous l’intégrale est invariante par permutation des in-dices 1, . . . , k − 1 et puisque [0, u]k−1 est l’union disjointe (aux bords près)des ensembles 0 ≤ uσ(1) ≤ uσ(2) ≤ . . . ≤ uσ(k−1) ≤ t (σ décrivant toutes les(k − 1)! permutations de 1, . . . , k − 1) on déduit que

ρSk(u) =

uk−1

(k − 1)!λke−λu.

Page 17: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.2. LA MÉTHODE DU REJET 17

L’événement νt,λ = k égale Sk ≤ t et Sk + Tk+1 > t et sa probabilitévaut E(1Sk≤t1Sk+Tk+1>t). On a

E(1Sk≤t1Sk+Tk+1>t) =

∫S≤t

∫T>t−S

Sk−1

(k − 1)!λk exp(−λS)λ exp(−λT )dSdT

=

∫ t

0

Sk−1

(k − 1)!λk exp(−λS) exp(−λ(t− S))dS

= exp(−λt)((k − 1)!)−1λk

∫ t

0

Sk−1dS = exp(−λt)(k!)−1(λt)k

2

2.2 La méthode du rejet

2.2.1 Simulation de v.a.r de densité donnée

La méthode de la section précédente ne permet de simuler que des v.adont on connaît de fa con plus ou moins explicite la fonction de répartition.Dans la pratique la description de la densité d’une v.a sera plus expliciteque celle de sa fonction de répartition et il est souhaitable d’avoir à notredisposition une méthode faisant appel à la densité de la v.a plutôt qu’à safonction de répartition.

Décrivons la méthode en faisant les hypothèses suivantes sur la densité ρde la v.a X que l’on veut simuler :Hypothèses : i) la densité ρ est à support compact dans un intervalle [a, b] :cela signifie que pour tout x ∈ R− [a, b] on a ρ(x) = 0.

ii) la densité ρ est continue (ou continue par morceaux) sur [a, b] et ma-jorée par une constante c : pour tout x ∈ [a, b], 0 < ρ(x) ≤ c.

Méthode : a) On simule une suite indépendante de vecteurs aléatoires Zk :=(Vk, V

′k) suivant une loi uniforme dans le rectangle R = [a, b]× [0, c].

Pour cela on procède de la fa con suivante : on définit pour k ≥ 1 les suites

Vk = a+ (b− a)U2k−1, V ′k = cU2k.

Exercice : i) Démontrer que la suite V1, V′1 , V2, V

′2 , . . . est indépendante et

que pour k ≥ 1 Vk, V′k suivent respectivement une loi uniforme sur [a, b] et

[0, c].

Page 18: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

18 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

ii) Démontrer que le vecteur (Vk, V′k) suit une loi uniforme sur le rectangle

[a, b]×[0, c]. ([La densité du vecteur (Vk, V′k) est (1/(b−a))1[a,b](x)(1/c)1[0,c](y)

car Vk et V ′k sont indépendants.]

Si i on pose FI = (v, v′) ∈ [a, b] × [0, c] : v ∈ I, v′ ≤ ρ(v), alors onobtient le corollaire de l’exercice :

P((Vk, V′k) ∈ FI) =

aire(FI)

aire(R)=

∫x∈I

∫ ρ(x)

0dydx

c(a− b)=

∫Iρ(x)dx

(b− a)c.

b) On définit ν(ω) comme étant le premier temps k où (Vk(ω), V ′k(ω)) tombe

dans le sous-graphe de ρ : E = (v, v′) ∈ [a, b]× [0, c] : v′ ≤ ρ(v) :

ν(ω) = infk ≥ 1 : V ′k(ω) ≤ ρ(Vk(ω)).

La fonction ν : Ω → N∪ ∞ est une variable aléatoire puisque pour tout non a en posant Zk := (Vk, V

′k)

ν = n = (Z1 ∈ Ec) ∩ · · · ∩ (Zn−1 ∈ Ec) ∩ (Zn ∈ E).

Comme les vecteurs (Zk) sont indépendants on a

P(ν = n) = P(Z1 ∈ Ec) · · ·P(Zn−1 ∈ Ec)P(Zn ∈ E)

= (1− α)n−1α

où α = P(Zk ∈ E). Puisque Zk suit une loi uniforme sur R, on a

α =:1

(b− a)c

∫ b

a

ρ(x)dx =1

(b− a)c.

On a

P(ν <∞) =∞∑

n=1

P(ν = n)

=∞∑

n=1

α(1− α)n−1

= α1

1− (1− α)

= 1.

Par conséquent ν est presque toujours finie.

c) On projette le vecteur (Vν , V′ν) sur l’axe des x ; on pose X = Vν ou de

fa con plus préciseX(ω) = Vν(ω)(ω).

Page 19: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.2. LA MÉTHODE DU REJET 19

Théorème 2.2.1 La v.a.r X suit une loi de densité ρ.

Démonstration.— Evaluons la loi de X : X est clairement à valeurs dans[a, b] et pour tout intervalle I ∈ [a, b], comme Ω est union disjointe desν = n pour n décrivant N∗

P(X ∈ I) = P

(X ∈ I ∩

⋃n≥1

ν = n)

=∑n≥1

P(X ∈ I et ν = n)

=∑n≥1

P(Vn ∈ I et ν = n)

=∑n≥1

P(Z1 ∈ Ec) ∩ · · · ∩ (Zn−1 ∈ Ec) ∩ (Zn ∈ FI))

où FI = (v, v′) ∈ [a, b] × [0, c] : v ∈ I, v′ ≤ ρ(v). Comme les vecteursZk sont indépendants et puisque (voir ci-dessus, le corollaire de l’exerciceprécédent)

P(Zn ∈ FI) =aire(FI)

aire(R)=

∫Iρ(x)dx

(b− a)c

on obtient

P(X ∈ I) =∑n≥1

(1− α)n−1

∫Iρ(x)dx

(b− a)c

=1

α

∫Iρ(x)dx

(b− a)c

=

∫I

ρ(x)dx

Cette dernière égalité, vraie pour tout intervalle I, prouve que X admet unedensité et que celle-ci égale ρ.

2

On peut également obtenir une suite de v.a.r indépendantes de densité ρ.

Théorème 2.2.2 Si on pose ν1 = ν et par récurrence

νr = infk ≥ νr−1 + 1 : V ′k ≤ ρ(Vk),

alors la suite Xk définie par Xk(ω) = Vνk(ω)(ω) est une suite de v.a.r indé-pendantes de densité ρ.

Page 20: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

20 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

Démonstration.— Calculons pour tout r et tous intervalles I1, . . . , Ir, P(X1 ∈I1, . . . , Xr ∈ Ir). A cet effet, notons pour k1 < k2 < . . . < kr, FI1,...,Ir(k1, . . . , kr),l’événement

FI1,...,Ir(k1, . . . , kr) =

( ⋂j /∈k1,...kr

(Zj ∈ Ec)

)∩

( r⋂i=1

(Zki∈ FIki

)

). (2.1)

L’événement (X1 ∈ I1) ∩ . . . ∩ (Xr ∈ Ir) est l’union disjointe de tous lesévénements de la forme

r⋂i=1

(Xi ∈ Ii) ∩r⋂

i=1

(νi = ki)

pour tous les r-uplet (k1, . . . ; kr) tels que 1 ≤ k1 < . . . < kr. Commer⋂

i=1

(Xi ∈ Ii) ∩r⋂

i=1

(νi = ki) = FI1,...,Ir(k1, . . . , kr),

on a

P((X1 ∈ I1) ∩ · · · ∩ (Xr ∈ Ir)) =∑

k1<...<kr

P(FI1,...,Ir(k1, . . . , kr)),

et puisque les Zi sont indépendants, l’équation (2.1) montre que

P((X1 ∈ I1) ∩ · · · ∩ (Xr ∈ Ir)) =∑1≤k1<...<kr

((1− α)k1−1

∫I1ρ(x)dx

(b− a)c(1− α)k2−k1−1

∫I2ρ(x)dx

(b− a)c

· · · (1− α)kr−kr−1−1

∫Irρ(x)dx

(b− a)c

).

Si on fait le changement de variables l1 = k1 − 1, l2 = k2 − k1 − 1, . . . , lr =kr − kr−1 − 1 dans la somme précédente on obtient

P((X1 ∈ I1) ∩ · · · ∩ (Xr ∈ Ir)) =

=∞∑

l1=0

(1− α)l1 · · ·∞∑

lr=0

(1− α)lr

∫I1ρ(x)dx

(b− a)c· · ·

∫Irρ(x)dx

(b− a)c

=

(1

α

)r∫

I1ρ(x)dx

(b− a)c· · ·

∫Irρ(x)dx

(b− a)c

=

∫I1

ρ(x)dx · · ·∫

Ir

ρ(x)dx

Page 21: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.2. LA MÉTHODE DU REJET 21

puisque 1/α = (b−a)c. Ceci démontre que le vecteur (X1, . . . , Xr) admet unedensité ρ(x1, . . . , , xr) = ρ(x1) · · · ρ(xr) et la forme de cette densité montresimultanément que les v.a.r X1, . . . , Xr sont indépendantes et admettent ρpour densité.

2

Quel est le temps moyen de calcul de X1 ? Celui-ci fait intervenir ν appelsà la fonction Random. Il s’agit donc de calculer E(ν) :

E(ν) =∞∑

k=0

kP(ν = k)

∞∑k=1

k(1− α)k−1α.

Le calcul de cette série s’effectue de la fa con suivante : on reconnaît α quemultiplie la dérivée par rapport à α de −

∑∞k=0(1− α)k :

∞∑k=1

k(1− α)k−1α = −α d

dα(1

α) = 1/α = (b− a)c.

Ainsi, E(ν) = α−1 = (b − a)c est l’aire du rectangle contenant le graphe dela densité. On aura donc intérêt à choisir ce rectangle le plus petit possible.

2.2.2 Variantes

Signalons les variantes suivantes de la méthode du rejet. On se proposede simuler la fonction caractéristique d’un ouvert U de Rd, par exemple dudisque de centre 0 et de rayon 1 dans le plan. Une premiêre méthode consisteà utiliser les coordonnées polaires.

Exercice : Soit U et V deux v.a indépendantes suivant une loi uniforme sur[0, 1] et posons R =

√U , Θ = 2πV . Soient

X = R cos(Θ)

Y = R sin(Θ)

Démontrer que la loi du vecteur aléatoire (X, Y ) suit une loi uniforme sur ledisque D(0, 1).

Une deuxième méthode est d’utiliser la méthode du rejet

Page 22: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

22 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

Exercice : Soit U1, . . . , Un, . . . une suite de v.a indépendantes suivant unemême loi uniforme sur [0, 1].a) Démontrer que le vecteur Zi = (2U2i−1 − 1, 2U2i − 1) (i ≥ 1) suit une loiuniforme sur le carré R = [−1, 1]× [−1, 1].b) Le disque D(0, 1) de centre 0 et de rayon 1 est inclus dans le carré R.Posons

ν = infk ≥ 1 : Zk ∈ D(0, 1),

et W (ω) = Zν(ω)(ω). Montrer que W suit une loi uniforme sur D(0, 1).c) Posons, ν0 = 0 et par récurrence

νr = infk ≥ νr−1 + 1 : Zk ∈ D(0, 1).

Montrer que les vecteurs aléatoires Wr(ω) = Zνr(ω)(ω) suit une loi uniformesur D(0, 1).d) Quel est le temps moyen de calcul de W ?

L’intérêt de la deuxième méthode est qu’elle fonctionne en toute dimension.Une conséquence est que l’on est capable de simuler des v.a admettant unedensité uniforme sur la sphère de dimension quelconque : précisons ce quecela signifie. L’aire d’un ouvert U de la sphère Sd est le volume du cône CU

s’appuyant sur U : aire(U) = vol(CU) où

CU = tx : t ∈ [0, 1], x ∈ U.

Exercice : Simuler par la méthode du rejet une suite de vecteurs aléatoiresindépendants Wk admettant une densité uniforme sur la boule euclidiennede dimension d+ 1 et de rayon 1.

On en déduit que le vecteur Sk = Wk/‖Wk‖ suit une loi uniforme surla sphère de dimension d (et de rayon 1). En effet, pour U un ouvert sur lasphère

P (Sk ∈ U) = P (Wk ∈ ‖Wk‖U),

Comme Wk est de loi uniforme sur la boule, cette derniere probabilité est levolume du cône vol(CU). Ce volume est par ce qui est écrit dessus est bienl′aire(U). Donc P (Sk ∈ U) = aire(U).

2.3 Simulations de lois normalesLes lois normales ayant une importance prépondérantes en Probabilités

et en Statistiques il est naturel de savoir les simuler facilement. Remarquons

Page 23: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.3. SIMULATIONS DE LOIS NORMALES 23

que pour simuler une v.a Y suivant loi normale N (µ, σ2) de moyenne µ et devariance σ2 il suffit de savoir simuler une v.a suivant une loi normale centréeréduiteN (0, 1) puisque la v.aX définie par Y = µ+σX suit une loiN (µ, σ2).Nous présentons dans ce qui suit une méthode pratique de simulation diteméthode de Box-Müller.

Théorème 2.3.1 Soient U, V deux v.a.r indépendantes de loi uniforme sur]0, 1]. Alors, les variables aléatoires Z et T définies par

Z =√−2 logU cos(2πV ), T =

√−2 logU sin(2πV ),

suivent toutes deux une loi normale centrée réduite. En outre, Z et T sont in-dépendantes. Par conséquent, si U1, V1, U2, V2, . . . , Un, Vn, . . . est une suite dev.a i.i.d de loi uniforme sur [0, 1], la suite de v.a Z1, T1, Z2, T2, . . . , Zn, Tn, . . .(obtenue par le procédé précédent) est une suite de v.a i.i.d de loi N (0, 1).

Démonstration.— Soit f(z, t) une fonction continue bornée de R2 dans R.On a

E(f(Z, T )) = E(f(√−2 logU cos(2πV ),

√−2 logU sin(2πV )).

Comme les v.a U et V sont indépendantes et suivent une loi uniforme sur [0, 1]la densité du vecteur (U, V ) est 1[−1,1](u)1[−1,1](v) ; la formule de transfertpermet donc d’écrire et d’après la formule de transfert

E(f(Z, T )) =

∫[0,1]2

f(√−2 log u cos(2πv),

√−2 log u sin(2πv))dudv.

Notons φ :]0, 1[2→ R2 − 0 l’application définie par

φ(u, v) = (√−2 log u cos(2πv),

√−2 log u sin(2πv)).

C’est un difféomorphisme dont l’inverse est donné par

(u, v) = φ−1(z, t) = (e−(z2+t2)/2,1

2πArcos(

z√z2 + t2

).

Le jacobien de φ−1 est 1/J(φ) φ−1 où J(φ) est le jacobien de φ :

J(φ) = det

(−1u

(−2 log u)−1/2 cos(2πv) −2π(−2 log u)1/2 sin(2πv)−1u

(−2 log u)−1/2 sin(2πv) 2π(−2 log u)1/2 cos(2πv)

)=−2π

u

Page 24: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

24 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

Ainsi,

J(φ−1)(z, t) =−1

2πe−(z2+t2)/2.

On a donc montré que pour toute fonction continue bornée f

E(f(Z, T )) =

∫R2

f(z, t)|J(φ−1)(z, t)|dzdt

=

∫R2

f(z, t)1

2πe−(z2+t2)/2dzdt.

Ceci démontre que le vecteur (Z, T ) admet une densité ρ(z, t)

ρ(z, t) =1

2πe−(z2+t2)/2 =

1√2πe−(z2/2) 1√

2πe−(t2/2).

Comme ρ(z, t) = n(z)n(t) où n est la densité d’une loi normale centréeréduite, on déduit d’une part que Z et T sont indépendantes et d’autre partqu’elle suivent chacune une loi normale centrée réduite.La dernière assertion résulte du critère d’indépendance par paquets.

2

2.4 Loi conditionnelle (cf. Chapitre sur l’espéranceconditionnelle)

Soit (Ω,B,P) un espace probabilisé et X : Ω → R une variable aléatoire.La loi de X est la mesure de probabilité µX définie sur (R, Bor(R)) définiepar µX(·) = P(X−1(·)). Si cette mesure µX admet une densité, c’est-à-dires’il existe une fonction ρ ∈ L1(R, dx) telle que pour tout intervalle de R,µX(I) =

∫Iρ(x)dx, on dit que la mesure µX , et par extension la v.a. X,

admet ρ pour densité.Supposons à présent que A ∈ B soit un événement tel que P(A) > 0. Il

est facile de définir sur B la probabilité conditionnelle par rapport é A P|A =P(·|A) c’est-à-dire telle que P(B) = P(B ∩ A)/P(A) pour tout événementB ∈ B. On peut à présent définir la loi conditionnelle µX|A de X par rapportà l’événement A en posant

µX|A = P|A(X−1(·)) = P(X−1(·)|A).

Si cette loi admet une densité ρ|A on l’appelle la loi conditionnelle par rapportà l’événement A.

Page 25: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

2.4. LOI CONDITIONNELLE (CF. CHAPITRE SUR L’ESPÉRANCE CONDITIONNELLE)25

Il est naturel de se poser la question suivante : étant donnés X,A commeprécédemment, est-il possible de construire une v.a. ZX,A sur (Ω,B,P) quiadmet pour loi/densité (par rapport à la probabilité P) la loi/densité condi-tionnelle de X par rapport à A ? En utilisant la même construction que dansla méthode du rejet, il est facile de voir que c’est bien le cas et que l’on peuten fait construire une suite Z1, . . . , Zn, . . . indépendante admettant µX|A pourloi. En effet, soit X1, . . . , Xn, . . . une suite de v.a. indépendante de même loique X. Posons ν0 = 0 et par récurrence νr = infk > νr−1 : Xk ∈ A etdéfinissons la v.a. Zr(ω) = Xνr(ω)(ω), ω ∈ Ω. Nous laissons en exercice aulecteur le résultat suivant :

Proposition 2.4.1 La suite de v.a. (Zr)r≥1 est indépendante et chaque Zr

admet µX|A pour loi.

Démonstration. Pour I ⊂ A

P (Zν1 ∈ I) =∑n≥1

P (X1 6∈ A, . . . , Xn−1 6∈ A,Xn ∈ I)

=∑n≥0

P (X1 6∈ A) · · ·P (Xn−1 6∈ A)P (Xn ∈ I)

= P (X1 ∈ I)∑n≥0

P (X1 6∈ A)n−1

= P (X1 ∈ I)1

1− P (X1 6∈ A)=P (X1 ∈ I)P (X1 ∈ A)

La suite de la démonstration est triviale du fait que X1, X2, . . . sont de mêmeloi et indépendantes.

Comme application de ce que nous venons de dire nous présentons unautre procédé pour simuler des lois normales.

Théorème 2.4.1 Soient X, Y deux v.a indépendantes et de même loi expo-nentielle de paramètre 1. Notons A l’événement Y > 1

2(1−X)2 et µX|A la

loi conditionnelle de X par rapport à A. Alors, cette loi admet une densità c©Ã c©gale à

ρX|A(x) =2√2πe−x2/21[0,∞[(x).

Si Z est une v.a. ayant pour densité la fonction précédente et si S est unev.a suivant une loi de Bernoulli à valeurs dans 1,−1 de paramètre 1/2(P(S = ±1) = 1/2) indépendante de Z, alors S · Z suit une loi N (0, 1).

Page 26: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

26 CHAPITRE 2. SIMULATIONS DE VARIABLES ALÉATOIRES

Démonstration. Pour tout I ∈]0,∞[

P (X ∈ I | Y > (1/2)(1−X)2) =P (X ∈ I, Y > (1/2)(1−X)2)

P (Y > (1/2)(1−X)2).

Le numérateur vaut ∫x∈I

∫y>(1/2)(1−x)2

exp(−x− y)dxdy

=

∫I

exp(−x− (1/2)(1− x)2)dx = exp(−1/2)

∫I

exp(−x2/2)dx

et le numérateur vaut par le même calcul avec I = [0,∞[

exp(−1/2)

∫ ∞

0

exp(−x2/2)dx = exp(−1/2)√

2π/2.

Pour simuler une v.a. de loi Normale centrée réduite, on simule une suitede v.a. indépendantes de loi exponentielle de paramètre 1 (par exemple parla méthode d’inversion de la fonction de repartition) X1, Y1, X2, Y2, . . . ,. Onpose ν = mini ≥ 1 : Yi > (1/2)(1 − Xi)

2. On simule une v.a. Z de loide Bernoulli de parametre 1/2 comme par exemple Z = 1U<1/2 − 1U≥1/2,avec U une v.a. de loi uniforme sur [0, 1]. Alors Z · Xν est de loi Normaledemandée.

Exercice Comment utiliser les résultats précédents pour simuler une suitede v.a. indépendante suivant une loi normale centrée réduite ?

Page 27: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 3

Méthode de Monte Carlo

3.1 IntroductionLa simulation de v.a indépendantes suivant une loi donnée (p.ex uniforme)

a une application importante : la calcul approché d’integrales de fonctionsen dimension grande. Pour fixer les idées, soit f : [0, 1]d → R une fonction"régulière" définie sur le cube d-dimensionnel. On se propose de calculerl’intégrale I(f) =

∫[0,1]d

f(x1, . . . , xd)dx1 · · · dxd. Quand d égale 1 et que f estcontinue, les sommes

Sn(f)

n=

n−1∑k=0

1

nf(k

n) (3.1)

constituent une approximation de f dont on peut contrôler la qualité de lafa con suivante : Si δ(·) est le module de continuité 1 de f on a

|I(f)− Sn(f)

n| ≤ δ(

1

n).

Si f est plus régulière, on peut trouver des procédés plus efficaces. Parexemple, la méthode des trapèzes consiste à approcher le graphe de f parune fonction continue affine par morceaux : On pose

Sn

n=

1

2n

((f0 + f1) + (f1 + f2) + · · ·+ (fn−1 + fn)

), fi = f(i/n)

Si f est C2

|I(f)− Sn(f)

n| ≤ C

n2.

1il est défini de la fa con suivante : δ(ε) = sup|x−y|≤ε(|f(x) − f(y)|). En particulier,|f(x)− f(y)| ≤ δ(|x− y|). Quand f est C1, δ(ε) ≤ (max[0,1] |f ′|) · ε

27

Page 28: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

28 CHAPITRE 3. MÉTHODE DE MONTE CARLO

La méthode de Simpson consiste à approcher f par une fonction continueet polynomiale de degré 2 par morceaux ; si n est pair on pose

Sn

n=

1

3n

((f0+4f1+f2)+(f2+4f3+f4)+· · ·+(fn−2+4fn−1+fn)

), fi = f(i/n);

si f est de classe C4

|I(f)− Sn(f)

n| ≤ C

n4.

En dimension supérieure (d ≥ 2) la généralisation de (3.1) est

Sn(f)

n=

1

nd

n−1∑k1=0

. . .

n−1∑kd=0

f(k1

n, . . . ,

kd

n)

et l’erreur que l’on commet dans l’évaluation de I(f) est encore de la forme(si f est C1)

|I(f)− Sn(f)

n| ≤ C

1

n.

Ainsi, pour obtenir une erreur de l’ordre de C/n ≈ ε il faut calculer les valeursde f en nd ≈ (1/ε)d points. Quand d est grand (par exemple de l’ordre de100) le temps de calcul est vite rédhibitoire. En outre, les méthodes que nousvenons de décrire nécessitent de travailler avec une fonction f suffisammentdifférentiable.

Il est en fait possible de surmonter ces deux difficultés à condition d’ac-cepter de travailler avec un algorithme probabiliste, la méthode de MonteCarlo.

3.2 Description de la méthode

Le principe repose sur la loi des grands nombres et le Théorème Cen-tral Limit. Si f est une fonction L1 sur le pavé d-dimensionnel [0, 1]d et siX1, . . . , Xn, . . . est une suite de vecteurs aléatoires uniformément distribuéssur [0, 1]d alors la suite Y1 = f(X1), . . . , Yn = f(Xn), . . . est une suite de va-riables aléatoires indépendantes et de même loi (P(f(Xi) ∈ A) = P(f(X1) ∈A) pour tout intervalle ou borélien A de R). La loi des grands nombres nousenseigne que pour P-presque tout ω ∈ Ω

limn→∞

1

n

(f(X1(ω)) + · · ·+ f(Xn(ω))

)= E(f(X1)).

Page 29: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

3.2. DESCRIPTION DE LA MÉTHODE 29

Calculons E(f(X1)). D’après la formule de transfert

E(f(X1)) =

∫Rd

f(x1, . . . , xd)ρ(x1, . . . , xd)dx1 · · · dxd

où ρ(x1, . . . , xd) = 1[0,1]d(x1, . . . , xd) est la densité de la loi uniforme sur[0, 1]d. On a donc

E(f(X1)) =

∫[0,1]d

f(x1, . . . , xd)dx1 · · · dxd = I(f)

et par conséquent P-presque sûrement

limn→∞

1

n

(f(X1(ω)) + · · ·+ f(Xn(ω))

)=

∫[0,1]d

f(x1, . . . , xd)dx1 · · · dxd.

On est donc sûr qu’avec probabilité 1 la moyenne précédente

1

nSn(f) :=

1

n

(f(X1(ω)) + · · ·+ f(Xn(ω))

)converge vers l’intégrale

I(f) =

∫[0,1]d

f(x1, . . . , xd)dx1 · · · dxd.

Il est important de savoir à quelle vitesse la convergence précédente a lieu.Supposons f de carré intégrable. Le théorème Central Limit nous fournit laréponse suivante : Puisque Y1 = f(X1), . . . , Yn = f(Xn), . . . est une suiteindépendante de v.a.r de même loi et de carré intégrable on sait que

√n

σ

(1

n

(f(X1) + · · ·+ f(Xn)

)− E(f(X1))

), σ2 = Var(f(X1))

converge en loi vers une loi normale centrée réduite. En d’autres termes, sion pose

σ2 = E(f(X1)2)− (E(f(X1)))

2

= I(f 2)− I(f)2

on a pour tout a > 0

limn→∞

P

(| 1nSn(f)− I(f)| < σa√

n

)=

∫ a

−a

1√2πe−x2/2dx.

Page 30: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

30 CHAPITRE 3. MÉTHODE DE MONTE CARLO

Observons que∫ a

−a

1√2πe−x2/2dx ≈ 0.95, pour a = 1.96 ≈ 2

et ∫ a

−a

1√2πe−x2/2dx ≈ 0.99, pour a = 2.6

En conclusion, si on sait évaluer (même grossièrement) σ on peut dire avecprobabilité grande que Sn(f)/n est une approximation de I(f) à σa/

√n-près

(a = 2 ou a = 2.6) pourvu que n soit assez grand. Par exemple, si ε est assezpetit, n = (2σ/ε)2, Sn(f)/n est une approximation de I(f) à ε-près avecprobabilité de 0.95. Remarquons que le calcul de Sn(f) nécessite le calcul de(2σ/ε)2 valeurs de f et que ce nombre est indépendant de la dimension d del’espace sur lequel on travaille. C’est un avantage considérable par rapportaux méthodes décrites dans la première section. En revanche, la faiblesse dela méthode réside dans le fait que :

1) le TCL n’est vrai qu’asymptotiquement : le "assez petit" (pour ε) ou"assez grand" (pour n) n’est a priori pas explicite ;

2) la méthode nécessite d’avoir une estimée raisonnable sur σ et supposedonc que l’on sache déjà calculer I(f) et I(f 2).

Ces deux problèmes admettent chacun une solution au moins d’un pointde vue théorique. La solution théorique du premier problème réside dans lerésultat suivant :

Théorème 3.2.1 (Berry-Essen) Soit X1, . . . , Xn, . . . une suite de v.a, i.i.d.centrées (E(Xn) = 0) telles que E(X2

1 ) = σ2 et ρ = E(|X1|3) < ∞. Si onnote Fn la fonction de répartition de Sn

σ√

non a pour tout x ∈ R∣∣∣∣Fn(x)−

∫ x

−∞

e−t2/2

√2π

dt

∣∣∣∣ ≤ 3ρ

σ3√n.

On a donc

Théorème 3.2.2 Pour tout a∣∣∣∣P(| 1nSn(f)− I(f)| < σa√

n

)−

∫ a

−a

1√2πe−x2/2dx

∣∣∣∣ ≤ 6

(|f |C0

σ

)31√n.

Pour résoudre le second problème il est naturel de remplacer σ2 par

Σ2n =

1

nSn(f 2)−

(1

nSn(f)

)2

.

Page 31: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

3.2. DESCRIPTION DE LA MÉTHODE 31

Théorème 3.2.3

limn→∞

P

(| 1nSn(f)− I(f)| < Σna√

n

)=

∫ a

−a

1√2πe−x2/2dx.

Démonstration.— Notons

Zn =

√n

σ(Sn

n− I(f)), Zn =

√n

Σn

(Sn

n− I(f)), Yn =

σ

Σn

de fa con que Zn = Yn · Zn. Puisque Σn converge p.s vers σ, il suffit dedémontrer que si Zn converge en loi vers Z et si Yn converge p.s vers 1 alorsZn · Yn converge en loi vers Z. Démontrons donc le lemme suivant :

Lemme 3.2.1 Si Un converge en loi vers U et si Vn/Un converge en loi vers1 alors Vn converge en loi vers U

Démonstration.— Comme

(Vn > t) ⊂ (Un >t

1 + ε)∪(

Vn

Un

> 1+ε), (Un > t(1+ε)) ⊂ (Vn > t)∪(Un

Vn

> 1+ε)

on a

FUn(t

1 + ε)−P(

Vn

Un

> 1+ε) ≤ FVn(t), FVn(t) ≤ FUn(t(1+ε))+P(Un

Vn

> 1+ε)

et donc puisque Un

Vnet Vn

Unconverge en loi vers 1 2et que Un converge en loi

vers U on a pour tout t et tout ε > 0 tels que t/(1 + ε), t(1 + ε) soient pointsde continuité de FU

FU(t

1 + ε) ≤ lim inf

n→∞FVn(t) ≤ lim sup

n→∞FVn(t) ≤ FU(t(1 + ε)).

Soit t un point de continuité de FU ; il est possible de trouver ε aussi petitqu’on veut de fa con que t(1+ ε)±1 soient points de continuité de FU . Faisantε → 0 sur ces ε on voit que limn→∞ FVn(t) existe et vaut FU(t) pour tout tpoint de continuité de FU : c’est la définition de la convergence en loi de Vn

vers U .

2

Le théorème résulte alors du lemme et du fait que si la suite (Yn) convergepresque sûrement vers 1 alors elle converge aussi en loi vers 1.

2

2Si Xn converge en loi vers 1 alors X−1n converge aussi en loi vers 1 : en effet pour tout

t > 0, P(Xn > t) = P(0 < X−1n < t−1), c’est-à-dire 1− FXn(t) = FX−1

n(1/t)−P(X−1

n =1/t). Donc pour s = 1/t > 0 en dehors d’un ensemble dénombrable FX−1

n(s) converge

quand n → ∞ vers 1 − 1s−1>1(s) = 1s≥1(s) et le même résultat est vrai pour s < 0(on trouve 0). Il est facile de voir que cela signifie que la fonction de répartition de X−1

n

converge vers la fonction de répartition 1t>1 de la v.a 1 en tout point t 6= 0.

Page 32: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

32 CHAPITRE 3. MÉTHODE DE MONTE CARLO

3.3 VarianteSi l’on désire à présent calculer des intégrales sur Rd (et non plus sur des

pavés compacts) on peut plus généralement procéder de la fa con suivante.SoitX1, . . . , Xn, . . . une suite indépendante de vecteurs aléatoires de même

loi donnée par une densité ρ qui est facile à simuler. On veut calculer I(f) =∫Rd f(x)dx

I(f) =

∫Rd

f(x1, . . . , xd)dx1 · · · dxd

=

∫Rd

f(x1, . . . , xd)

ρ(x1, . . . , xd)ρ(x1, . . . , xd)dx1 · · · dxd

= E(φ(X))

oùφ =

f

ρ.

On supposera ρ non nulle ou plus généralement que son support contientcelui de f . La loi des grands nombres nous dit que

Sn(φ)

n=

1

n

(φ(X1) + · · ·+ φ(Xn)

)converge presque-sûrement vers E(φ(X1)) = I(f). En procédant comme dansla section précédente on peut démontrer

Théorème 3.3.1 Si on pose

σ2n =

1

nSn(φ2)−

(1

nSn(φ)

)2

,

alors,

limn→∞

P

(I(f) ∈ [

1

nSn(φ)− σna√

n,1

nSn(φ) +

σna√n

]

)=

∫ a

−a

1√2πe−x2/2dx.

Le choix de la densité ρ est assez arbitraire mais il est naturel de vouloirminimiser la variance

σ2 = Var(φ(X)) =

∫f 2

ρdx− I(f)2

la contrainte étant∫ρ(x)dx = 1. On pourrait utiliser la méthode des multi-

plicateurs de Lagrange, dont on ne donnera pas ici le détail.

Page 33: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 4

Rudiments de Statistiques

4.1 SondagesUn sondeur veut déterminer dans une population de N individus (par

exemple N = 6.107) le nombre de personnes appartenant à une catégorie A(donc connaitre le cardinal de l’ensemble A). Pour cela il effectue un sondagesur un échantillon de n individus (p.ex n = 103) tirés au hasard. Pour simpli-fier on supposera que le sondeur procéde de la façon suivante. Il réalise n ti-rages X1, . . . , Xn qui sont autant de variables aléatoires Xi : Ω → 1, . . . , Nsuivant une loi uniforme sur 1, . . . , N. On pose alors Yi = 1A Xi et ondéfinit Zn = Y1 + · · · + Yn le nombre de personnes interrogées qui appar-tiennent à la catégorie A. Il est facile de voir que les Yi suivent une même loide Bernoulli de paramètre p (où p est la proportion de personnes dans la po-pulation ayant l’opinion A) et sont indépendantes pourvu que les Xi le soient(Exercice : Prouver ces faits). Par conséquent, Zn suit une loi de Binomiale(n, p). Dans la pratique, on utilisera l’approximation normale que donne leThéorème Central Limit : la suite de v.a (

√n/σ)(Zn − np), σ2 = p(1 − p),

converge en loi vers une loi normale centrée réduite. On peut donc écrire

P(ω ∈ Ω : p ∈ [Zn(ω)

n− cσ√

n,Zn(ω)

n+

cσ√n

]) ≈∫ c

−c

e−t2/2

√2π

.

[On rappelle que quand c ≈ 2 cette intégrale est à peu près égale à 0.95 etquand c ≈ 2.6 elle vaut à peu près 0.99.] Dans la pratique cette approximationest bonne quand par exemple np ≈ 30. Pour simplifier nous supposerons quenous sommes dans cette hypothèse asymptotique. Ainsi, si on connait l’écarttype σ on dira que l’intervalle In = [Zn

n− 2σ√

n, Zn

n+ 2σ√

n] (resp. [Zn

n− 2.6σ√

n, Zn

n+

2.6σ√n

]) est un intervalle de confiance avec une fiabilité de 95% (resp. 99%)pour la valeur de p : la probabilité pour que p se trouve dans l’intervalle ainsi

33

Page 34: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

34 CHAPITRE 4. RUDIMENTS DE STATISTIQUES

déterminé1 est de 0.95 (resp. 0.99). Malheureusement, on ne connait pas lavaleur de σ (car sinon on connaitrait déjà celle de p puisque σ2 = p(1− p)).En revanche, on a toujours l’inégalité σ =

√p(1− p) ≤ 1/2 si bien que l’on

peut écrire dès que n est assez grand

P(p ∈ [Zn

n− c

2√n,Zn

n+

c

2√n

]) ≥∼∫ c

−c

e−t2/2

√2π

.

Un intervalle de confiance à 0.95 (resp. 0.99) est donc par exemple [Zn

n−

1√n, Zn

n+ 1√

n] (resp.[Zn

n− 1.3√

n, Zn

n+ 1.3√

n])

4.2 Statistiques gaussiennesSondages gaussiens Dans l’exemple précédent, l’estimation a priori surla variance des Yi, rendue possible par le fait que les Yi suivent une loi deBernoulli, est l’élément clé pour obtenir un intervalle de confiance. Intéressonsnous à présent au problème suivant. On sait que le diamètre d’un boulonfabriqué dans une certaine usine suit une loi normale de moyenne µ et devariance σ inconnues2 . On veut avoir une estimation de µ avec une certituderaisonnable (intervalle de confiance) en effectuant un nombre n de tirages(indépendants) ce que l’on modélise par n v.a Yk, 1 ≤ k ≤ n, i.i.d suivant unemême loi normale N (µ, σ2). Puisque les Yi sont indépendantes et gaussiennesleur somme Zn = Y1 + · · · + Yn est également gaussienne (Exercice3) et ona donc l’égalité4

P(µ ∈ [Zn

n− cσ√

n,Zn

n+

cσ√n

]) =

∫ c

−c

e−t2/2

√2π

.

Malheureusement on ne connait pas σ et on ne peut donc pas préciser d’in-tervalle de confiance. Il faut procéder autrement. Un candidat naturel pouravoir une approximation de µ est la moyenne empirique

Yn =Y1 + · · ·+ Yn

n

et pour obtenir une approximation de σ2 la variance empirique

Vn =(Y1 − Yn)2 + · · · (Yn − Yn)2

n.

1Attention, cela signifie que p = #A/N étant fixé (mais inconnu) la probabilité qu’unsondage portant sur n personnes fournisse un intervalle In ne contenant pas p est inférieureà 0.05

2cette loi dépend donc de deux paramètres3On peut utiliser les fonctions caractéristiques4et pas seulement une identité asymptotique

Page 35: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

4.2. STATISTIQUES GAUSSIENNES 35

Pour formuler le théorème fondamental , on a besoin de deux définitionssuivantes.Définition. Soient X1, . . . , Xn des v.a. indépendantes de loi Gaussienne d’es-pérance 0 et de variance 1. La loi de la v.a. X2

1 + · · · +X2n est dite la loi de

chi-deux de n degrés de liberté. C’est aussi une loi gamma γ1/2,n/2 de densité

1]0,∞[(x)1

2n/2Γ(n/2)

∫ x

0

t(n/2)−1e−t/2dt.

Définition. Soient X et Y deux variables aléatoires indépendantes. La v.a.X est de loi Gaussienne d’espérance 0 et de variance 1. La v.a. Y est de loichi-deux de n− 1 degrés de liberté. La loi de la v.a.

X√n− 1√Y

est dite la loi de Student de n− 1 degrés de liberté. C’est la loi de densité

cn−11(

1 + t2

n−1

)n/2, cn−1 =

Γ(n2)√

(n− 1)πΓ(n−12

)

Cette densité tend vers la densité gaussienne réduite (1/√

2π)e−t2/2 quand ntend vers l’infini ; on a les approximations suivantes

P (|Tn| ≤ a) = 0.95 0.99si n = 10 pour a = 2.26 pour a = 3.35

20 2.09 2.8630 2.04 2.76∞ 1.96 2.58

Théorème 4.2.1 Si les v.a Y1, . . . , Yn, . . . sont i.i.d. de méme loi normaleN (µ, σ2) alors

(a) la v.a √n

σ(Yn − µ)

suit une loi normale centrï¿12e réduite N (0, 1) .

(b) Les v.a. Yn et Vn sont indépendantes et la v.a.

Zn =Yn − µ√Vn/(n− 1)

suit une loi de Student T (n− 1) à n− 1 degrés de liberté ;

Page 36: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

36 CHAPITRE 4. RUDIMENTS DE STATISTIQUES

(c) la v.anVn

σ2

suit la loi du chi-deux é n− 1 degrés de liberté χ2(n− 1).

Démonstration. (a) est évident.Notons que Zn = (

√n− 1

√n(Yn−µ)/σ)(

√nVn/σ2)−1. Il suffit de prouver

que S =√

(Yn−µ) et T = nVn

σ2 sont indépendantes, et que T soit de loi χ2(n−1). Soient Wi = (Yi − µ)/σ, i = 1, . . . , n. Les v.a. W1, . . . ,Wn sont indép.,de loi Gaussienne d’espérance 0 et de variance 1. Soit ~W = (W1, . . . ,Wn).Prenons A une matrice orthogonale dont la première ligne se compose de√n. Alors le vecteur A ~W est aussi Gaussien, d’espérance (0, . . . , 0) et de

matrice de covariances AIdAT = AAT = Id car A est orthogonale. Doncles coordonnés de A ~W sont des Gaussiennes indépendantes d’espérance 0et de variance 1. Notamment

∑ni=2((A

~W )i)2 est de loi de χ2(n − 1). Par le

choix de la premiere ligne de A on a (A ~W )1 = S. Alors S est indépendantede (A ~W )i pour i = 2, . . . , n, et donc de

∑ni=2((A

~W )i)2 qui est de loi de

χ2(n − 1). Mais une matrcie orthogonale conserve les normes de vecteurs.Donc S2 +

∑ni=2((A

~W )i)2 =

∑ni=1W

2i . Alors

∑ni=2((A

~W )i)2 =

∑ni=1W

2i −S2

ce qui est par un calcul direct nVn

σ2

Dans l’exemple qui nous intéresse on peut donc,(i) sans connaitre la valeur de σ, obtenir un intervalle de confiance pour

la moyenne µ des diamètres des boulons : la probabilité pour que l’intervalle(aléatoire)

[Yn − a

√Vn

n− 1, Yn + a

√Vn

n− 1]

contienne le réel µ (inconnu) est égale à P(|Zn| ≤ a) (on a utilisé le (b) duthéorème précédent) ;

(ii) comparer l’écart-type empirique√Vn et l’écart-type réel σ. Par exemple,

si n = 10, la probabilité que 10V10 > 16.9σ2 est à peu près inférieure à 0.05car si Fχ2(9)(·) est la fonction de répartition d’un chi-deux à 9 degrés de libertéon a 1− Fχ2(9)(16.9) ≈ 0.05. On a utilisé le (c) du théorème précédent.

Tests statistiques Il est commode à ce stade d’introduire la notion de teststatistique. Le type de probléme que l’on se propose d’étudier est le suivant :à partir d’un échantillon, c’est-à-dire une suite de v.a X1, . . . , Xn de mémeloi p qui en général est inconnue, décider si une hypothèse H0 (portant sur laloi de ces v.a) est raisonnable ou pas. Si elle ne l’est pas on la rejette, sinonon l’accepte, ce qui alors signifie seulement qu’elle est plausible. Dans ce type

Page 37: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

4.2. STATISTIQUES GAUSSIENNES 37

de discussion on introduit un seuil α qui est un réel compris entre 0 et 1 etquantifie le degré de certitude que l’on a lors de la procédure de rejet ou nonde l’hypothèse H0. La procédure est la suivante : on considère une statistiquec’est-à-dire une v.a Zn,H0 qui est une fonction des v.a X1, . . . , Xn et donton connait la loi (et donc la fonction de répartition) pourvu que l’hypothèseH0 soit vérifiée. On décide de rejeter ou d’accepter l’hypothèse au seuil α ∈(0, 1) si par exemple, les données expérimentales donnent |Zn,H0| ≥ tα oùtα est définie par PH0(|Zn,H0| ≥ tα) = α. En d’autres termes on rejettel’hypothése H0 si la réalisation ω ∈ Ω qui donne |Zn,H0(ω)| ≥ tα fait partied’un événement très peu probable.

Dans l’exemple (ii) du paragraphe précédent l’échantillon est une suite dev.a de loi N (µ, σ2) qui dépend des deux paramètres µ, et σ a priori inconnuset on veut tester l’hypothèse suivante portant sur σ :H0 : 10V10 ≥ 20σ2. Pourcela on construit une statistique, en l’occurrence la v.a Z10 = 10V10

σ2 dont onsait qu’elle suit une loi du chi-deux à 9 degrés de liberté et pour laquelle lafonction de répartition est tabulée. Au seuil α = 0.05 on rejette l’hypothèsecar

P(Z10 ≥ 20) ≤ P(Z10 ≥ tα) = P(χ29 ≥ tα)

où tα = 16.9 et P(χ29 ≥ tα) = 1 − Fχ2(9)(16.9) ≈ 0.05 est plus petite que le

seuil α = 0.05 que l’on s’était fixé.

Tests de Fisher et de Student On considère deux échantillons gaussiensX1, . . . , Xnx , Y1, . . . , Yny qui sont indépendants et suivent respectivement deslois N (µx, σ

2x) et N (µy, σ

2y). On note

X =X1 + · · ·+Xnx

nx

, Y =Y1 + · · ·+ Yny

ny

les moyennes empiriques et

Vx =(X1 − X)2 + · · ·+ (Xnx − X)2

nx

, Vy =(Y1 − Y )2 + · · ·+ (Yny − Y )2

ny

les variances empiriques. Le théorème suivant permet de tester l’hypothèseH0 : σ2

x = σ2y .

Théorème 4.2.2 Le rapport

nx

nx − 1

Vx

σ2x

ny

ny − 1

Vy

σ2y

Page 38: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

38 CHAPITRE 4. RUDIMENTS DE STATISTIQUES

suit une loi de Fisher F(nx−1, ny−1). La densité d’une loi de Fisher F(m,n)est

fm,n(t) = Cm,nt(m/2)−1(n+tm)−(m+n)/21t>0, Cm,n =

mm/2nn/2Γ((m+ n)/2)

Γ(m/2)Γ(n/2).

Remarque : nxVx/σ2x et nyVy/σ

2y suivent (d’après le Théorème 4.2.1) des lois

de Student.La statistique du test de Fisher H0 : σ2

x = σ2y est donc

nx

nx − 1Vx

ny

ny − 1Vy

Sous l’hypothése d’égalité des variances σ2x = σ2

y on peut tester l’égalité desmoyennes H0 : µx = µy

Théorème 4.2.3 Si σx = σy la v.a√nx + ny − 2√n−1

x + n−1y

(X − Y )− (µx − µy)√nxVx + nyVy

suit la loi de Student T (nx + ny − 2).

4.3 Test du chi-deuxDéterminer si un dé est pipé ou non : On veut savoir si un dé à6 faces présente chacune de ses faces de façon équiprobable. Pour cela onjette le dé n fois (n grand). Le résultat du k-ème lancer est modélisé parune v.a Xk à valeurs dans E = 1, . . . , 6 et on suppose que les v.a Xk

sont indépendantes et identiquement distribuées. Dire que le dé est pipéc’est dire que (p1, p2, p3, p4, p5, p6) 6= (1/6, 1/6, 1/6, 1/6, 1/6, 1/6) (on a notépi = P(Xk = i)). On veut donc tester l’hypothèse H0 : "la loi (pi)i∈E estuniforme". Pour fixer les idées supposons qu’on réalise 600 lancers et qu’onobtienne 60 fois le 1, 108 fois le 2, 108 fois le 3, 102 fois le 4, 108 fois le 5 et114 fois le 6. Le dé est-il pipé ou non ? Pour répondre à cette question, onutilise le théorème suivant :

Théorème 4.3.1 Soit X1, . . . , Xn, . . . une suite de v.a. i.i.d. à valeurs dansun ensemble fini E = 1, . . . , r. Nous noterons (pi) leur loi commune avecpi = P(Xn = i). Posons

N(n)i =

n∑k=1

1i Xk,

Page 39: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

4.3. TEST DU CHI-DEUX 39

la fréquence empirique de sortie de i. Alors,(a) le vecteur aléatoire

~Zn = (N

(n)1 − np1√np1

, . . . ,N

(n)r − npr√npr

)

converge en loi vers un vecteur gaussien ~Z d’espérance ~0 et de matrice decovariances B, dont les éléments bi,i = (1 − pi) pour i = 1, . . . , r, bi,j =−√pipj pour i 6= j.

(b) la suite de v.a

Tn =(N

(n)1 − np1)

2

np1

+ · · ·+ (N(n)r − npr)

2

npr

,

converge en loi quand n→∞ vers un χ2 à r − 1 degrés de liberté.

Démonstration. (a) est un corollaire direct du Thm Limite Central vectorielappliqué aux sommes de vecteurs aléatoires inépendants (11Xk, . . . ,1rXk)pour k = 1, 2, . . .. En effet, E1iXk = pi pour i = 1, . . . , r. Calculons cov(1iXk/

√pi,1i Xk/

√pj). Pour i = j c’est var(1i Xk/

√pi) = pi(1 − pi)/pi =

1−pi. Pour i 6= j on a (1i Xk) · (1i Xk) = 0 car Xk ne peut pas prendre lesvaleurs i et j en même temps. Donc c’est −E(1i Xk/

√pi)E(1i Xk/

√pj) =

−√pipj.Comme ~Zn converge en loi vers ~Z, alors pour toute fonction g conti-

nue bornée Eg(~Zn) → Eg(~Z). En particulier pour toute f continue bornéeEf(‖~Zn‖) → Ef(‖~Z‖)) car g = f ‖ · ‖ est continue bornée. Il s’en suit que‖~Zn‖ → ‖~Z‖ en loi.

Il reste à prouver que la loi de ‖~Z‖ est la loi de χ2(r−1). La matrice B estsymétrique définie positive. Elle est donc diagonalisable en base orthonormée.Il existe une matrice A orthogonale telle que ABAT est une matrice diagonaleD qui se compose de valeurs propres de B. La combinaison linéaire des lignesde B avec les coefficients√p1, . . . ,

√pr est 0. Dons une valeur propre est 0. La

matriceB−Id a toutes les lignes proportionelles. Donc 1 est une valeur proprede B de multiplicité r−1. Donc D are 1 sur la diagonale r−1 fois et 0 pour ledernier élément. Le vecteur A~Z est Gaussien d’espérance ~0 et de matrice decovariances ABAT = D. Donc la loi de ‖A~Z‖ est la loi χ2(r−1). Mais commeA est orthogonale, elle conserve la norme, par conséquent ‖~Z‖ = ‖ ~A~Z‖ estdonc de loi χ2(r − 1). Le Thm est démontré.

Ainsi, si l’hypothèse H0 est vérifiée la v.a

T600 =(N600

1 − 100)2

100+ · · ·+ (N600

6 − 100)2

100,

Page 40: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

40 CHAPITRE 4. RUDIMENTS DE STATISTIQUES

doit suivre (approximativement) une loi du chi-deux é 5 (= 6− 1) degrés deliberté. Or, pour une telle loi P(T5 ≥ 0.412) ≤ 0.005. Dans notre expérienceon a obtenu

T600(ω) =(60− 100)2

100+ · · ·+ (114− 100)2

100= 3.92

Comme l’événement 3.92 > 0.412 on décide au seuil α = 0.005 de rejeterl’hypothèse H0 (le fait d’observer T5 ≥ 0.412 est un événement rare).

De manière générale, supposons, on sait que X1, X2, . . . , Xk, . . . sont desv.a. indépendantes et de même loi discrète prenant r valeurs a1, . . . , ar. Onveut tester l’hypothèse que ces valeurs sont prises avec probabilités p1, . . . , pr.On observe la réalisation X1, X2, . . . , Xn pour n grand. On compose Nn

i =∑nk=1 1ai

Xk pour i = 1, . . . , r. On calcule la valeur de Tn =(N

(n)1 −np1)2

np1+

· · ·+ (N(n)r −npr)2

npr. Sa loi est approximativement( !) de χ2(r − 1).

On se donne un seuil de confiance α et on trouve le quantile de la loiχ2(r − 1), cad P (χ > χα,r−1) = α. Ainsi P (Tn > χα,r−1) ≈ α.

S’il se trouve de notre calcul que Tn > χα,r−1, alors un événement deprobabilité trop petite est réalisé, cet événement est jugé trop peu probablepour avoir lieu en réalité, par conséquant on se doute de notre hypothèse eton la rejete.

Si Tn < χα,r−1, ce test ne rejete pas notre hypothèse.

Page 41: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 5

Espérance conditionnelle

Dans tout ce qui suit (Ω,B,P) est un espace probabilisé fixé.

5.1 Probabilités conditionnelles

Définition 5.1.1 Si A et B sont deux événements de la tribu B et si P(B) >0 on définit la probabilité de A sachant B comme étant

P(A|B) =P(A ∩B)

P(B).

En fait, tout événement B ∈ B définit une nouvelle probabilité sur (Ω,B) :

Proposition 5.1.1 Si B ∈ B est tel que P(B) > 0, l’application PB : B →[0, 1] qui à A ∈ B associe PB(A) = P(A|B) est une probabilité.

La preuve de cette proposition est laissée en exercice au lecteur.Supposons à présent que nous ayons une partition de Ω en événements

B1, . . . , Br (c’est-à-dire que les événements B1, . . . , Br sont disjoints deux àdeux et que leur union soit égale à Ω) et que pour tout i, P(Bi) > 0. Onpeut donc définir r probabilités P(·|Bi).

Théorème 5.1.1 (Formule des causes) Sous les hypothèses précédentes

P(A) =r∑

i=1

P(A|Bi)P(Bi).

41

Page 42: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

42 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

Démonstration.— Il suffit de remarquer que A est l’union disjointe des(A ∩Bi) et donc

P(A) =r∑

k=1

P(A ∩Bi)

=r∑

i=1

P(A ∩Bi)

P(Bi)·P(Bi)

ce qui est la formule annoncée.

2

Dans la pratique un problème courant est de calculer P(Bi|A) connaissantles P(A|Bj).

Théorème 5.1.2 (Formule de Bayes) Sous les hypothèses précédentes :

P(Bi|A) =P(A|Bi)P(Bi)∑r

i=1 P(A|Bj)P(Bj).

Démonstration.— Il suffit d’écrire

P(Bi|A) =P(Bi ∩ A)

P(A)=

P(A|Bi)P(Bi)

P(A),

et d’utiliser la formule des causes.

2

5.2 Espérance conditionnelle par rapport à unetribu finie

Espérance sachant un événement Supposons fixé B ∈ B un événementtel que P(B) > 0. On sait que P(·|B) est une probablilité sur (Ω,B) eton obtient donc un espace probabilisé (Ω,B,P(·|B)). Pour toute variablealéatoire Y : Ω → R on peut définir E(Y |B) comme étant l’espérance de Ysur l’espace probabilisé (Ω,B,P(·|B)). C’est un nombre (si Y est une v.a.r.).

Dans le cas où par exemple Y prend un nombre fini de valeurs y1, . . . , ym

on a

E(Y |B) =m∑

k=1

ykP(Y = yk|B).

Page 43: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

5.3. ESPÉRANCE CONDITIONNELLE SUIVANT UNE V.A, CAS DISCRET43

Loi conditionnelle d’une v.a sachant un évènement

Définition 5.2.1 La loi conditionnelle de la v.a Y sachant B est la loi de Yvue comme v.a sur l’espace probabilisé (Ω,B,P(·|B)). C’est donc la mesurede probabilité sur (R, Bor(R)) définie par µY |B(·) = P(Y −1(·)|B). Si Y està valeurs dans un ensemble fini ou dénombrable nous la noterons souventp(y|B) :

p(y|B) = P(Y = y|B).

Espérance sachant une tribu (finie) On suppose fixée une partitionB1, . . . , Br de Ω et on fait l’hypothèse que pour tout i, P(Bi) > 0. Considé-rons F la plus petite tribu engendrée par les ensembles B1, . . . , Br.Exercice : Montrer que F est l’ensemble des 2r unions finies de Bi :

F = ⋃i∈J

Bi : J ⊂ 1, . . . , r.

Réciproquement, montrer que toute tribu finie est obtenue de la façonprécédente.

Définition 5.2.2 Si Y : Ω → R est une v.a, on définit l’espérance de Y parrapport à la tribu (finie) F comme étant la variable aléatoire E(Y |F) :Ω → R valant E(Y |Bi) sur Bi, Bi ∈ F :

E(Y |F) =r∑

k=1

E(Y |Bk) · 1Bk.

5.3 Espérance conditionnelle suivant une v.a,cas discret

Supposons à présent que X : Ω → R soit une v.a ne prenant qu’unnombre fini de valeurs x1, . . . , xr et notons Bi = X−1(xi), 1 ≤ i ≤ r. et F(ou encore F(B1, . . . , Br)) la tribu engendrée par les Bi. Nous supposeronsque pour tout i, P(X = xi) > 0.

Définition 5.3.1 On définit l’espérance conditionnelle de Y sachant X commeétant la variable aléatoire E(Y |X) : Ω → R définie par E(Y |X) =E(Y |F(X = x1, . . . , X = xr)). On a donc

E(Y |X)(ω) =r∑

k=1

E(Y |X = xk) · 1X=xk.(ω).

(C’est la fonction qui associe à ω E(Y |X = xk) si X(ω) = xk.)

Page 44: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

44 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

Dans le reste de cette section nous supposerons que X et Y sont deuxv.a. prenant un nombre fini ou dénombrable de valeurs.

Mentionnons la propriété suivante évidente mais importante

Proposition 5.3.1 Si on note ψ la fonction ψ(x) = E(Y |X = x) on a

E(Y |X) = ψ(X),

(c’est une égalité entre v.a).

Loi conditionnelle de Y sachant X (X,Y à valeurs discrètes) Pourtout x ∈ X(Ω) on peut définir la loi conditionnelle de Y sachant l’évènement(X = x).

Définition 5.3.2 On appelle loi conditionnelle de Y sachant X = x laloi conditionnelle de Y sachant l’évènement (X = x) et nous la noteronspY |X(y|x) :

pY |X(y|x) = P(Y = y|X = x) =pX,Y (x, y)

pX(x),

où on a noté pX,Y la loi du couple (X, Y ) et pX la loi de X

Relation entre espérance conditionnelle et loi conditionnelle

Proposition 5.3.2 On a

E(Y |X = x) =m∑

l=1

ylpY |X(yl|x).

Propriété de l’espérance conditionnelle On a alors

Théorème 5.3.1 On a

E(E(Y |X)) = E(Y ).

Page 45: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

5.4. CAS DES V.A ADMETTANT DES DENSITÉS 45

Démonstration.— Il suffit de calculer

E(E(Y |X)) = E(ψ(X))

=r∑

k=1

E(Y |X = xk)P(X = xk)

=r∑

k=1

( m∑l=1

ylP(Y = yl|X = xk)

)P(X = xk)

=m∑

l=1

yl

( r∑k=1

P(Y = yl|X = xk)P(X = xk)

)=

m∑l=1

ylP(Y = yl)

= E(Y )

(on a utilisé la formule des causes).

2

Remarque : L’espérance conditionnelle E(Y |X) est linéaire par rapport àY .Exercice : Démontrer que si X, Y sont des v.a ne prenant qu’un nombre finide valeurs E(f(X,Y )|X) = ψ(X) où

ψ(xk) =m∑

l=1

f(xk, yl)pY |X(yl|xk).

Exercice : Soient X et Y deux v.a indépendantes qui suivent des lois dePoisson de paramètres respectifs λ et µ. Soit S = X + Y

a) Déterminer la loi de Sb) Calculer l’espérance conditionnelle E(X|S).(Réponse : a) S suit une loi de Poisson de paramètre λ + µ ; b) E(X|S) estla variable aléatoire S · λ/(λ+ µ))

5.4 Cas des v.a admettant des densitésSupposons donnée deux v.a Y et X telles que le couple (X, Y ) admette

une densité ρX,Y . Les v.a X et Y admettent donc des densités respectives ρX

et ρY égales à :

ρX(x) =

∫ ∞

−∞ρX,Y (x, y)dy, ρY (y) =

∫ ∞

−∞ρX,Y (x, y)dx.

Page 46: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

46 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

Nous supposerons dans toute la suite que ρX(x) > 0 pour tout x.Nous allons définir l’espérance E(Y |X) en nous inspirant de la définition

5.3.2, de la proposition 5.3.2 et de la proposition 5.3.1.

Définition 5.4.1 Nous appelerons densité conditionnelle de Y sachant X =x la fonction ρY |X(y|x) définie par

ρY |X(y|x) =ρX,Y (x, y)

ρX(x).

Définition 5.4.2 L’espérance de Y sachant X = x est la fonction de x ∈ R

E(Y |X = x) =

∫R

yρY |X(y|x)dy.

Définition 5.4.3 L’espérance conditionnelle E(Y |X) est la variable aléa-toire

E(Y |X) = ψ(X),

où ψ(x) = E(Y |X = x).

Exercice : Soient X, Y deux v.a dont la loi du couple (X, Y ) admet unedensité égale à ρX,Y (x, y) = (1/x) · 1T (x, y) où T est le triangle T = 0 <y < x < 1. Calculer E(Y |X).

Solution : La densité de X se calcule en intégrant ρX,Y (x, y) par rapport ày ∈ R. On trouve ρX(x) = 1]0,1[(x) et donc pour x ∈]0, 1[

ρY |X(y|x) =1

x1]0,x[(y).

On trouve ψ(x) = E(Y |X = x) = (x/2) et donc E(Y |X) = ψ(X) = X/2.

On a encore le théorème important suivant

Théorème 5.4.1

E(E(Y |X)) = E(Y ).

Démonstration.— Notons ψ(x) = E(Y |X = x). Comme par définition

Page 47: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

5.4. CAS DES V.A ADMETTANT DES DENSITÉS 47

E(Y |X) = ψ(X), la formule de transfert donne

E(E(Y |X)) = E(ψ(X))

=

∫R

ψ(x)ρX(x)dx

=

∫R

E(Y |X = x)ρX(x)dx

=

∫R

(∫R

yρY |X(x, y)dy

)ρX(x)dx

=

∫R

(∫R

yρX,Y (x, y)

ρX(x)dy

)ρX(x)dx

et comme d’après le théorème de Fubini on peut intervertir l’ordre d’intégra-tion :

E(E(Y |X)) =

∫R

(∫R

ρX,Y (x, y)

ρX(x)ρX(x)dx

)ydy

=

∫R

(∫R

ρX,Y (x, y)dx

)ydy

=

∫R

ρY (y)ydy

= E(Y ).

2

Exercice : Démontrer que E(Y g(X)|X) = g(X)E(Y |X).

On a l’analogue suivant du théorème de transfert que nous donnons sansdémonstration (comparer avec la définition 5.4.2) :

Théorème 5.4.2 Si Z = f(X, Y ) on a E(f(X, Y )|X) = ψ(X) où

ψ(x) =

∫R

f(x, y)ρY |X(y|x)dy.

Remarque : L’espérance conditionnelle E(Y |X) est linéaire par rapport àY .

Exercice : Démontrer que si on prend l’énoncé du théorème précédentcomme définition de E(f(X, Y )|X) on a bien E(f(X, Y )) = E(E(f(X,Y )|Y )).

Page 48: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

48 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

5.5 IndépendanceConsidérons à présent le cas où les v.a X et Y sont indépendantes. Dans

ce cas on sait quepX,Y (x, y) = pX(x)pY (y),

dans le cas discret etρX,Y (x, y) = ρX(x)ρY (y)

dans le cas continu. Par conséquent

pY |X(y|x) = pY (y)

dans le cas discret etρY |X(y|x) = ρY (y)

dans le cas continu. On a donc dans les deux cas

Proposition 5.5.1 Si X et Y sont indépendantes

E(Y |X) = E(Y )

ou en d’autres termes, la variable aléatoire E(Y |X) est constante.

Dans la pratique on a souvent à calculer des espérances de v.a de la formeZ = f(X, Y ) où X et Y sont des v.a indépendantes. Il est souvent utile pourcela de conditionner Z par rapport à une des variables (disons X) c’est-à-direde faire le calcul en deux étapes :i) On introduit la v.a E(Z|X) = E(f(X, Y )|X) ;ii) On utilise ensuite la relation E(Z) = E(E(Z|X)).

Pour l’étape i) on dispose de la proposition suivante :

Proposition 5.5.2 Soient X et Y deux v.a indépendantes. Notons pour x ∈R, Yx la variable aléatoire Yx = f(x, Y ) (c’est-à-dire l’application de Ω → Rtelle que Yx(ω) = f(x, Y (ω))) et soit F : R → R l’application définie parF (x) = E(Yx) (F (x) = E(f(x, Y ))). On a

E(f(X, Y )|X) = F (X).

Démonstration.—Nous faisons la démonstration dans le cas de v.a admettant des densités

(le cas discret se traite de la même façon). Notons Z = f(X, Y ). On a d’aprèsle théorème 5.4.2

E(Z|X) = ψ(X)

Page 49: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

5.6. TRIBUS INDÉPENDANTES 49

ψ(x) =

∫R

f(x, y)ρY |X(y|x)dy

=

∫R

f(x, y)ρY (y)dy

= E(Yx)

= F (x).

On a donc bien la conclusion.

2

Exercice : Soient N,X1, . . . , Xn, . . . une famille indépendante de v.a demême loi, intégrables et à valeurs dans N∗. Soit S la v.a

S =∑

1≤i≤N

Xi.

Calculer E(S).Solution : On calcule d’abord E(S|N) et pour cela on évalue ψ(n) = E(S|N =n).

E(S|N = n) =∑

1≤i≤n

E(Xi|N = n)

=∑

1≤i≤n

E(Xi)

= nE(X1).

où dans le passage de la première à la deuxième ligne on a utilisé le fait queXi et N sont indépendantes. On a donc E(S|N) = E(X1) · N . On utiliseensuite la formule E(S) = E(E(S|N)) et on trouve E(S) = E(X1)E(N).

5.6 Tribus indépendantes

Définition 5.6.1 Une famille de tribu Fα, α ∈ E est dite indépendante sipour toute sous famille finie Fαk

, k = 1, . . . , r et tous Aαk∈ Fαk

on a

P

( r⋂k=1

Aαk

)=

r∏k=1

P(Aαk).

Page 50: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

50 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

Voyons comment cette notion se rattache à l’indépendance des v.a. Etantdonnée une suite de v.a X1, . . . , Xn, . . . on peut toujours définir la tribuF(Xi; i ≥ 1) qui est la tribu engendrée par les événements X−1

i (I) où idécrit i ≥ 1 et I décrit les intervalles de R. Il n’est pas difficile de voir quec’est la plus petite tribu qui rend simultanément mesurables les Xi. La suitede v.a. X1, . . . , Xn, . . . est indépendante si les tribus engendrées par les Xi lesont. Plus généralement on dira qu’une v.a. est indépendante d’une tribu Fsi la tribu engendrée par X est indépendante de la tribu F .

Proposition 5.6.1 a) Si les v.a U1, . . . , Un, X sont indépendantes alors Xest indépendante de la tribu F(U1, . . . , Un).b) Si U1, . . . , Un sont des v.a. et X est une v.a de la forme X = F (U1, . . . , Un)alors F(U1, . . . , Un, X) ⊂ F(U1, . . . , Un).

Démonstration.— Pour a) il suffit de démontrer

Lemme 5.6.1 Si Aα, α ∈ E est une famille d’événements indépendants (i.eles fonctions indicatrices le sont) et si (E1, E2) est une partition de E, alorsles tribus F1,F2 sont indépendantes où on a noté Fi la tribu engendrée parles événements (Aα)α∈Ei

.

Démonstration.— Notons C l’ensemble des A pour lesquels, pour tout B ∈Aα, α ∈ E2 on ait

P(A ∩B) = P(A)P(B). (5.1)

Il est facile de voir que c’est une tribu qui contient Aα, α ∈ E1 et doncque l’égalité (5.1) est vraie pour tout A ∈ F1 et tout B de la forme Aα,α ∈ E2. A présent notons D l’ensemble des B pour lesquels (5.1) soit vraiepour tout A ∈ F1 : c’est une tribu qui contient Aα, α ∈ E2 et donc F2. Parconséquent, (5.1) est vraie pour tout A ∈ F1 et tout B ∈ F2.

2

Le point b) est quant à lui clair puisque tout événement de la forme X−1(I)appartient à F(U1, . . . , Un).

2

On a aussi la proposition simple suivante

Proposition 5.6.2 La v.a X est indépendante de la tribu F si et seulementsi pour toute fonction continue bornée

E(φ(X)|F) = E(φ(X)).

Page 51: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

5.7. COMPLÉMENTS 51

5.7 ComplémentsLe lecteur aura remarqué que la construction que nous avons donnée de

l’espérance conditionnelle dans les cas (des v.a. prenant des valeurs dansun ensemble) discret ou continu n’est pas la mÃame, ce qui n’est pas trèssatisfaisant. En fait, une façon unifiée d’introduire cette notion est la suivante.On démontre qu’il est possible d’associer à toute v.aX ∈ L1(Ω,B,P) et toutetribu F ⊂ B, une v.a. E(X|F) ∈ L1(Ω,F ,P) (donc mesurable par rapport àla tribu F) que l’on appelle l’espérance conditionnelle de X par rapport à latribu F qui est définie de façon unique (mod 0) par la propriété suivante :Y ∈ L∞(Ω,F ,P) (donc F -mesurable) et toute v.a X ∈ L1(Ω,B,P) on a

E(X · Y ) = E

(E(X|F) · Y

).

Si X est de carré intégrable (X ∈ L2(Ω,B,P)) cette espérance conditionnelleest facilement définie comme étant la v.a dans L2(Ω,F ,P) qui est la projec-tion orthogonale sur X ∈ L2(Ω,F ,P) ⊂∈ L2(Ω,B,P). Dans le cas général,on utilise que toute fonction dans X ∈ L1(Ω,B,P) se laisse approcher L1 pardes fonctions dans X ∈ L2(Ω,B,P). Il est alors possible de vérifier que parexemple :

1) Pour toute v.a. Y ∈ L∞(Ω,F ,P) (donc F -mesurable) et toute v.aX ∈ L1(Ω,B,P) on a

E(X · Y |F) = Y · E(X|F);

2) Si F1 ⊂ F2 et X ∈ L1(Ω,B,P) on a

E

(E(X|F1)|F2

)= E(X|F2).

3) Si X ∈ L1(Ω,B,P),

E(X|B) = X et E(X|∅,Ω) = E(X).

4) Si la v.a X ∈∈ L1(Ω,B,P) est indépendante de la tribu F

E(X|F) = E(X).

Page 52: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

52 CHAPITRE 5. ESPÉRANCE CONDITIONNELLE

Page 53: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

Chapitre 6

Chaînes de Markov

6.1 Chaîne de Markov et processus stochastiquesUn processus stochastique est une collection de variables aléatoires (X(t)(·), t ∈

T ), X(t)(·) : Ω → E où la variable t est interprétée comme un temps. L’en-semble E s’appelle l’espace des états du processus. Le temps peut être discretauquel cas T = N ou Z (on parle alors de processus à temps discret) oucontinu auquel cas T sera un intervalle (fini ou infini) de R (on parle alors deprocessus à temps continu). Des exemples de tels processus sont par exemplele temps qu’il fait le jour t = n (X(t) prend ses valeurs dans beau,mauvais)ou le nombre X(t) de clients arrivés à un guichet avant le temps t, ou encorela position au temps t d’une molécule dans un gaz etc. Comprendre un telprocessus c’est connaître pour tout n et tous s1 < . . . < sn la loi du vecteur(Xi1 , . . . , Xin) 1

On dit qu’un processus est stationnaire si pour tout n et tous temps t,s1, . . . , sn la loi du vecteur aléatoire (Xt+s1 , . . . , Xt+sn) est indépendante det (mais évidemment dépend de s1, . . . , sn). En d’autres termes, un processusest stationnaire s’il est invariant par translation temporelle. L’objet de cechapitre est essentiellement de démontrer qu’un processus de Markov raison-nable se stabilise asymptotiquement, c’est-à-dire converge dans un certainsens vers un processus stationnaire.

Une chaîne de Markov est un cas particulier important de processus sto-chastique. Nous ne parlerons dans la suite que de chaînes de Markov homo-gène à temps discret. Nous noterons Xn au lieu de X(t) les v.a du processusassocié.

Définition 6.1.1 Une chaîne de Markov à temps discret est un processus1en fait pour connaître la loi de tous ces vecteurs aléatoires, il suffit de connaître la loi

des vecteurs de la forme (X0, . . . , Xn)

53

Page 54: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

54 CHAPITRE 6. CHAÎNES DE MARKOV

stochastique à temps discret X0, X1, . . . , Xn, . . . qui vérifie : pour tout n ettous états i0, i1, . . . , in−1, i, j ∈ E la probabilité conditionnelle

P(Xn+1 = j|Xn = i,Xn−1 = in−1 . . . X0 = i0) = P(Xn+1 = j|Xn = i)

ne dépend que de i et de j et de n. On dit que la chaîne de Markov esthomogène si cette quantité ne dépend que de i, j et pas de n. En d’autrestermes pour une chaîne de Markov homogène, l’état du systême dans le futur(au temps n + 1) ne dépend que de son état dans le présent (temps n) etpas des états antérieurs dans le passé (temps 0 ≤ k ≤ n − 1). On notepij = P(Xn+1 = j|Xn = i) et on appelle ce nombre la probabilité de transitionde i à j. La loi de X0 s’appelle la loi initiale de la chaîne.

N.B. Dans la suite nous ne considérons que des chaînes de Markov discrèteshomogènes avec un nombre fini ou dénombrable d’états.

On note indifféremment F(Xi, i ≥ 0) ou σ(Xi, i ≥ 0) la tribu engen-drée par les événements (Xi ∈ Ii), i ≥ 0, Ii intervalle ouvert de R. Noussupposerons dans la suite que les Xi prennent un nombre fini r de valeurs.

En fait, une chaîne de Markov est déterminée par la loi µ de X0 et lesprobabilités de transitions pij = P(Xn+1 = j|Xn = i) dans la mesure oùla connaissance de ces lois permet de connaître la loi du vecteur aléatoire(Xs1 , . . . , Xsn) pour tout n et tous temps s1 < . . . < sn. En effet,

Théorème 6.1.1 a) Notons p(n)j = P(Xn = j) la loi de Xn et p(n) le vecteur

ligne associé. Si on note P la matrice de transitions de la chaîne c’est-à-direla matrice r× r dont les coefficients sont les pij = P(Xn+1 = j|Xn = i) on apour tout k

p(n+k) = p(k)P n.

Ainsi, la loi de X0 et les probabilités de transitions déterminent la loi de Xn.b) Pour tous i1, . . . , in

P(Xsn = isn , . . . , Xs1 = is1) =

P(Xsn = isn|Xsn−1 = isn−1) · · ·P(Xs2 = is2|Xs1 = is1)P(Xs1 = is1). (6.1)

Par conséquent, (cf. a)) la loi du vecteur aléatoire (Xs1 , . . . , Xsn) est déter-minée par la loi de X0 et les probabilités de transitions.

! ! Le corollaire de ce Thm pour faire les exercices est ce que pour calculerla probabilité ci-dessus il faut calculer les puissances de la matrice P . Alorscette probabilité s’exprime en terme d’un produit :

P(Xsn = isn , . . . , Xs1 = is1) = (P sn−sn−1)isn−1 ,isn· · · (P s2−s1)is1 ,is2

(µP s1)is1,

Page 55: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.1. CHAÎNE DE MARKOV ET PROCESSUS STOCHASTIQUES 55

µ étant le vecteur ligne composé de µi = P(X0 = i), i ∈ E.Démonstration.— a) Il suffit de remarquer que

p(n+1)j =

r∑k=1

P(Xn+1 = j,Xn = k)

=r∑

k=1

P(Xn+1 = j|Xn = k)P(Xn = k)

=r∑

k=1

p(n)k Pkj

ce qui s’écrit matriciellement p(n+1) = p(n)P . En itérant cette dernière formuleon obtient a).b) Démontrons le lemme suivant :

Lemme 6.1.1 Si A est un événement dans F(X0, . . . , Xn−1) alors

P(Xn+k = in+k|Xn = in, A) = P(Xn+k = in+k|Xn = in).

Démonstration.— On sait que cette formule est vraie quand k = 1 etque A est de la forme C = Xn−1 = in−1 . . . X0 = i0 (c’est la définitiond’une chaîne de Markov). Tout événement de F(X0, . . . , Xn−1) est une uniondisjointe finie d’événements Cl de cette forme C : A =

⋃l Cl. Comme

P(Xn+1 = in+1|Xn = in, A) =P(Xn+1 = in+1, Xn = in, A)

P(Xn = in, A)

=∑

l

P(Xn+1 = in+1, Xn = in, Cl)

P(Xn = in, A)

=∑

l

P(Xn+1 = in+1|Xn = in, Cl)

P(Xn = in, A)P(Xn = in, Cl)

=∑

l

P(Xn+1 = in+1|Xn = in)

P(Xn = in, A)P(Xn = in, Cl)

= P(Xn+1 = in+1|Xn = in)∑

l

P(Xn = in, Cl)

P(Xn = in, A)

= P(Xn+1 = in+1|Xn = in),

le passage de la troisième à la quatrième ligne étant justifié par le fait évoquéplus haut que le lemme est vrai quand k = 1 et pour des événements de laforme Cl. Nous avons donc démontré que le lemme est vrai pour k = 1. Pour

Page 56: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

56 CHAPITRE 6. CHAÎNES DE MARKOV

k quelconque on raisonne par récurrence : supposons le lemme vrai pour ket montrons qu’il est vrai pour k + 1. Comme précédemment,

P(Xn+(k+1) = in+k+1|Xn = in, A)

=∑j∈E

P(Xn+k+1 = in+k+1|Xn+1 = j,Xn = in, A)P(Xn+1 = j|Xn = in, A)

On applique l’hypothèse de récurrence avec n + 1 à la place de n et A′ =Xn = in ∩ A à la place de A (A′ ∈ F(X0, . . . , Xn−1, Xn)), ce qui donnepour tout j ∈ E

P(Xn+k+1 = in+k+1|Xn+1 = j,Xn = in, A) = P(Xn+k+1 = in+k+1|Xn+1 = j, A′)

= P(Xn+k+1 = in+k+1|Xn+1 = j)

et on applique l’hypothèse de récurrence avec k = 1, n et A pour obtenir

P(Xn+1 = j|Xn = in, A) = P(Xn+1 = j|Xn = in).

Finalement

P(X(n+1)+k) = i(n+1)+k|Xn = in, A)

=∑j∈E

P(X(n+1)+k = i(n+1)+k|Xn+1 = j)P(Xn+1 = j|Xn = in)

et par conséquent

P(Xn+(k+1) = in+(k+1))|Xn = in, A) = P(Xn+(k+1) = in+(k+1)|Xn = in).

2

Pour démontrer b) il suffit d’écrire

P(Xsn = isn , Xsn−1 = isn−1 , . . . , Xs1 = is1) =

P(Xsn = isn|Xsn−1 = isn−1 , . . . , Xs1 = is1)

P(Xsn−1 = isn−1|Xsn−2 = isn−2 . . . Xs1 = is1) · · ·· · ·P(Xs2|Xs1 = is1)P(Xs1 = is1)

et d’appliquer le lemme.

2

Page 57: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.1. CHAÎNE DE MARKOV ET PROCESSUS STOCHASTIQUES 57

6.1.1 Propriétés de Markov

Nous démontrons dans cette section deux théorèmes qui seront d’un usageconstant dans la suite.

Théorème 6.1.2 Soient n ≥ 1, A ∈ F(X0, . . . , Xn−1) et B ∈ F(Xn+1, Xn+2, · · · ).Pour tout i ∈ E on a

P(B|Xn = i, A) = P(B|Xn = i).

Cette propriété signifie que le futur ne dépend du passé qu’à travers le présent.

Démonstration.— Le lemme 6.1.1 montre que le théorème est vrai pour toutévénement B de la forme Xn+k = j. Montrons qu’il est vrai pour toutesleurs intersections finies Xn+k1 = j1∩(Xn+k2 = j2∩· · ·∩(Xn+kp = jp :

P(Xn+kp = jp, . . . , Xn+k1 = j1|Xn = i, A)

= P(Xn+kp = jp|Xn+kp−1 = jp−1 . . . , Xn+k1 = j1, Xn = i, A) · · ·· · ·P(Xn+k2 = j2|Xn+k1 = j1, Xn = i, A)P(Xn+k1 = j1|Xn = i, A)

et l’utilisation du lemme 6.1.1 démontre que

P(Xn+kp = jp, . . . , Xn+k1 = j1|Xn = i, A) = P(Xn+kp = jp|Xn+kp−1 = jp−1) · · ·· · ·P(Xn+k2 = j2|Xn+k1 = j1)P(Xn+k1 = j1|Xn = i)

c’est-à-dire en vertu du lemme 6.1.1

P(Xn+kp = jp, . . . , Xn+k1 = j1|Xn = i, A)

= P(Xn+kp = jp, . . . , Xn+k1 = j1|Xn = i).

Ce qui précéde démontre que le théorème est vrai pour les événements Bqui sont intersections finies d’événements de la forme (Xk = i), k ≥ n + 1et donc pour tout événement dans la tribu F(Xn+1, . . . , Xn+p). On constateque si Bl est une suite croissante d’événement de B pour lesquels le théo-rème est vrai, alors

⋃l Bl vérifie encore le théorème. Un argument facile (de

classe monotone) montre que tout événement de la tribu engendrée par lesF(Xn+1, . . . , Xn+p), pour tout p ≥ 0, vérifie le théorème. Or, cette tribu estF(Xk : k ≥ n+ 1).

2

Page 58: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

58 CHAPITRE 6. CHAÎNES DE MARKOV

Opérateur de translation Notons F la tribu F(Xk : k ≥ 0).

Proposition 6.1.1 Pour tout T ∈ N, il existe une application θT : (Ω,F) →(Ω,F) (F-mesurable) définie de manière unique de la fa con suivante : pourtous n, s1 < . . . < sn et tous i1, . . . , in ∈ E

θ−1T (Xs1 = i1, . . . , Xsn = in) = Xs1+T = i1, . . . , Xsn+T = in.

On appelle θT l’application de translation. C’est aussi l’unique applicationθT : (Ω,F) → (Ω,F) (F-mesurable) telle que Xn θT = Xn+T pour tout n.

Il est facile de voir que θT = θT := θ · · · θ (T fois) où θ = θ1. Remar-quons que θ−1

T F(X0, . . . , Xn) = F(XT , . . . , Xn+T ). On peut faire agir cetteapplication de translation sur les v.a : Si Y est une v.a on peut définir la v.aY θT .

Exemple : Si B = X5 = a,X3 = b ∪ X1 = c,X3 = d alors θ−3B =X8 = a,X6 = b ∪ X4 = c,X6 = d.

Théorème 6.1.3 Pour tous événements B ∈ F(Xk : k ≥ m), i ∈ E

P(θ−n1 B|Xm+n = i) = P(B|Xm = i).

6.2 Matrices de transition et lois initiales

Définition 6.2.1 On dit qu’une matrice r× r à coefficients réels P est sto-chastique si pour tous 1 ≤ i, j ≤ r on aa) 0 ≤ Pij ≤ 1.b) pour tous i,

∑rj=1 Pij = 1 (somme sur les lignes).

Proposition 6.2.1 Soit P une matrice stochastique. Pour toute loi de pro-babilité µ sur l’espace des états E il existe un espace probabilisé (Ω,F ,Pµ) etune suite de v.a (Xn)n≥0 telle que (Xn) soit une chaîne de Markov admettantP comme matrice de transitions et µ comme loi initiale.

Démonstration.— Nous donnons seulement une idée de la démonstration.L’espace des états Ω est l’ensemble des suites e = (ek)k≥0 ∈ EN telles quepour tout k ≥ 0, Pek,ek+1

> 0. L’espace des événements est la tribu engendréepar les cylindres

C(j0, . . . , jn) = (ek)k≥0 ∈ Ω : e0 = j0, . . . , en = jn

Page 59: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.3. SIMULATION D’UNE CHAINE DE MARKOV 59

où n parcourt N et j1, . . . , jn parcourt En. On peut alors démontrer2 qu’ilexiste une unique mesure de probabilité Pµ définie sur F telle que pour toutcylindre C(j0, . . . , jn)

P(C(j0, . . . , jn)) = µj0Pj0j1 · · ·Pjn−1jn .

Si on définit Xn : Ω → E par Xn(e) = en on voit facilement que les Xn sontdes v.a et que la suite (Xn)n≥0 est une chaîne de Markov de loi initiale µ etde matrice de transitions P .

2

6.3 Simulation d’une Chaine de MarkovUne autre fa con de définir une chaîne de Markov discrète est de la définir

comme une suite de variables aléatoires (Xn)n≥0 définie par

Xn+1 = F (Xn, Un), X0

où la suite de variables aléatoires X0, U0, U1, . . . , Un, . . . est indépendanteles variables aléatoires Ui étant à valeurs dans un ensemble B et F : E ×B → E est une application (mesurable). Montrons l’équivalence de ces deuxdéfinitions. Nous aurons besoin du lemme suivant dont la preuve est uneconséquence immédiate de la proposition 5.6.1

Lemme 6.3.1 Un est indépendant de la tribu F(Xn, . . . , X0) ⊂ F(X0, U0, U1, . . . , Un−1).

Notons alors pour i, j ∈ E

Ti→j = b ∈ B,F (i, b) = j.

On a

P(Xn+1 = j|Xn = i) =P(Xn+1 = j,Xn = i)

P(Xn = i)

=P(Un ∈ Ti→j, Xn = i)

P(Xn = i)

=P(Un ∈ Ti→j)P(Xn = i)

P(Xn = i)

= P(Un ∈ Ti→j)

2Il s’agit d’un théorème de Kolmogorov (cf. aussi théorème de prolongement de Cara-théodory )

Page 60: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

60 CHAPITRE 6. CHAÎNES DE MARKOV

où on a utilisé le fait que Un et Xn sont indépendants. Calculons à présent

P(Xn+1 = j|Xn = i,Xn−1 = in−1, . . . , X0 = i0) =

P(Xn+1 = j,Xn = i,Xn−1 = in−1, . . . , X0 = i0)

P(Xn = i,Xn−1 = in−1 . . . X0 = i0).

Si on note A l’événement A = (Xn = i,Xn−1 = in−1, . . . , X0 = i0), on peutécrire

P(Xn+1 = j|Xn = i,Xn−1 = in−1, . . . , X0 = i0) =P(Xn+1 = j,Xn = i, A)

P(A)

=P(Un ∈ Ti→j, A)

P(A)

et puisque Un est indépendant de la tribu F(Xn, . . . , X0) on a

P(Xn+1 = j|Xn = i,Xn−1 = in−1, . . . , X0 = i0) = P(Un ∈ Ti→j.

On a donc démontré que pour tous i, j ∈ E

P(Xn+1 = j|Xn = i,Xn−1 = in−1, . . . , X0 = i0) = P(Xn+1 = j|Xn = i),

ce qui signifie que (Xn) est une chaîne de Markov.

Démontrons la réciproque : toute chaîne de Markov (avec un nombre finid’états) peut se représenter sous la forme d’un système dynamique stochas-tique. Introduisons les probabilités de transitions

pij = P(Xn+1 = j|Xn = i),

et la loi p(0) de X0. Nous assimilerons notre chaîne de Markov à ces données.Nous allons en fait démontrer qu’étant données une telle famille de proba-bilités de transitions et la loi de X0, on peut construire un espace B, unefonction F et des v.a. U1, . . . , Un, . . . telles que : X0, U1, . . . , Un, . . . soientindépendantes et Xn+1 = F (Xn, Un). Pour cela définissons B comme étantl’ensemble des r-uplets u = (u(1), . . . , u(r)) (r = #E) où u(i) ∈ E et soitF : E × B → E définie par F (i, u) = u(i) si i ∈ E et u = (u(1), . . . , u(r)).D’après un théorème général de probabilités, on sait qu’étant données des loisde probabilités p(i), il est toujours possible de construire un espace de pro-babilité (Ω,B,P) et des v.a Ui indépendantes admettant les (p

(i)j )j∈E comme

lois (nous supposerons les Ui indépendantes de X0 également). Définissonspar récurrence Xn+1 = F (Xn, Un), X0 étant donné. On a alors,

(Xn+1 = j,Xn = i) = (U (i)n = j) ∩ (Xn = i);

Page 61: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.4. CLASSE D’ÉTATS, IRRÉDUCTIBILITÉ 61

on sait que Un et Xn sont indépendantes (lemme 6.3.1) et donc,

P(Xn+1 = j|Xn = i) =P((Xn+1 = j,Xn = i)

P(Xn = i)= P(U (i)

n = j) = pij.

Ce résultat est particulièrement utile en simulation. Supposons qu’on veutsimuler une suite de v.a. X0, X1, . . . , Xn, . . . sur un espace E qui est unechaine de Markov de matrice de transition P . D’abord on simule X0 de loiinitiale donnée. Lorsque X0, . . . , Xn sont simulés, on simule Xn+1 de manièresuivante. Si Xn = i, on divisie le segment [0, 1] en segments ∆i

k de longueurpi,k pour k ∈ E. La somme des longueurs

∑k∈E |∆i

k| =∑

k∈E pi,k = 1. Onsimule une v.a. Un+1 de loi uniforme sur [0, 1] indépendante des précédentesU1, . . . , Un. On pose alors Xn+1 = j si Un+1 ∈ ∆i

j. Alors P (Xn+1 = j | Xn =i) = P (Un+1 ∈ ∆i

j) = pi,j.

6.4 Classe d’états, Irréductibilité

Définition 6.4.1 On dit qu’un état i conduit à un état j s’il existe n tel que(P n)ij > 0 c’est-à-dire s’il existe n tel que P(Xn = j|X0 = i) > 0.

! ! Pour le voir de manière pratique, sans calculer les puissances de P ,remarquons que i mène à j ssi ils existent des états j1, j2, . . . , jk tels que leproduit des éléments de la matrice P : Pi,j1Pj1,j2 · · ·Pjk,j > 0, cad tous leséléments de ce produit sont > 0.

On dit que i et j sont dans la même classe et on écrit iRj si i conduità j et j conduit à i. C’est une relation d’équivalence et il est pertinent deconsidérer ses classes d’équivalence disjoints de E.

Définition 6.4.2 Une classe d’états C ⊂ E est dite fermée si pour tout étatj tel que il existe un état i ∈ C qui conduit à j, on a j ∈ C.

Autrement dit, une classe C est fermée, si la chaine de Markov quittecette classe avec probabilité 0.

Définition 6.4.3 Lorsque l’espace d’états se compose d’une seule classe (for-cément fermée), cad tous les états communiquent, la Chaine de Markov estdite irréductible.

Définition 6.4.4 Un état i tel que pi,i = 1 est dit absorbant.

Page 62: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

62 CHAPITRE 6. CHAÎNES DE MARKOV

6.5 Récurrence et transience

6.5.1 Temps et nombre de retours

Définition 6.5.1 Si A ⊂ E, on appelle(a) Temps d’entrée dans A la v.a TA : Ω → N ∪ ∞ définie par TA :=

infn ≥ 0 : Xn ∈ A (donc TA = 0 si X0 ∈ A).(b) Temps de retour dans A la v.a SA : Ω → N ∪ ∞ définie par SA :=

infn ≥ 1 : Xn ∈ A.(c) Temps de retours successifs dans A les v.a S(0)

A = 0 et par récurrence

S(k+1)A = infn > S

(k)A : Xn ∈ A.

(d) Nombre de visites du processus à A la v.a

NA =∞∑

k=0

1A Xk. = #k ≥ 0 : Xk ∈ A.

Proposition 6.5.1 Les v.a SA, TA et S(k)A sont des temps d’arrêt c’est-à-

dire que pour tout n les événements SA = n (resp. TA = n, S(k)A = n)

appartiennent à Fn = σ(X0, . . . , Xn).

Démonstration.— Démontrons le par exemple pour SA : l’événement SA =k est X0 ∈ A,X1 /∈ A, . . . , Xk−1 /∈ A,Xk ∈ A qui est bien dans Fk.

2

On note dans la suite S(i) = Si, S(k)(i) = S(k)i et N(i) = Ni.

Définition 6.5.2 On dit que l’état i ∈ E est récurrent si a(i) = Pi(S(i) <∞) = 13 , transient si a(i) = Pi(S(i) <∞) < 1.

Le résultat important est alors

Théorème 6.5.1 (a) Si i ∈ E est récurrent alors Pi(N(i) = ∞) = 1 tandisque si i est transient Pi(N(i) = ∞) = 0 (c’est-à-dire Pi(N(i) <∞) = 1).

b) Si i ∈ E est transient alors sous Pi la v.a N(i) suit une loi géometriquede paramètre a(i) : Pi(N(i) = k|X0 = i) = (1− a(i))a(i)k−1.

Démonstration.— Soit donc une chaîne de Markov de loi initiale δi (cequi signifie P(X0 = i) = 1). Notons R(n, i) l’événement S(n)(i) < ∞ :"il y a au moins n retours en i" et R(n − 1, i, t) l’événement S(n−1)(i) <

3la notation Pi est seulement là pour rappeler que la chaîne de Markov que l’on consi-dère admet δi pour loi initiale ; en d’autres termes Pi(A) = P(A|X0 = i)

Page 63: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.5. RÉCURRENCE ET TRANSIENCE 63

∞, S(n−1)(i) = t : "il y a au moins n − 1 retours en i et le (n − 1)-ième alieu au temps t". Ce dernier événement appartient à Ft. Par conséquent, sion note St(i) = infn ≥ t+ 1 : Xn = i on a

P(R(n, i)) =∞∑

t=0

P(R(n− 1, i), S(n−1)(i) = t,Xt = i, St(i) <∞)

=∞∑

t=0

P(St(i) <∞|R(n− 1, i, t), Xt = i)P(R(n− 1, i, t), Xt = i)

et d’après les théorèmes 6.1.2 et 6.1.3 (on remarque que R(n−1, i, t) ⊂ Xt =i, St(i) <∞ ∈ F(Xt+1, Xt+2, . . .))

P(R(n, i)) =∞∑

t=0

P(St(i) <∞|Xt = i)P(R(n− 1, i, t), Xt = i)

=∞∑

t=0

P(S0(i) <∞|X0 = i)P(R(n− 1, i, t)) (Th. 6.1.3)

= P(S(i) <∞|X0 = i)∞∑

t=0

P(R(n− 1, i, t))

= P(S(i) <∞|X0 = i)P(R(n− 1, i))

Si on note a(i) = Pi(S(i) <∞) on a donc

P(R(n, i)) = a(i)n.

Par conséquent, si a(i) = 1 chaque événement R(n, i) a une probabilité égaleà 1 et il en est donc de même de l’intersection dénombrable ∩n≥1R(n, i) quin’est rien d’autre que l’événement "il y a une infinité de retours en i". Enrevanche, si a(i) < 1, on a Pi(N(i) > n) = Pi(R(n, i)) = a(i)n et Pi(N(i) =n) = Pi(N(i) > n− 1)−Pi(N(i) > n) = (1− (a(i))a(i)n−1. Ainsi, N(i) suitune loi géométrique et Pi(N(i) = ∞) = 0 (car

∑∞n=1 Pi(N(i) = n) = 1).

2

Proposition 6.5.2 Notons Ni = Ni. On a Ei(Ni) = Vii où V est la ma-trice r × r

V = I + P + P 2 + · · · =∞∑

k=0

P k.

Page 64: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

64 CHAPITRE 6. CHAÎNES DE MARKOV

Démonstration.— Le nombre Ni de visites à i est la v.a Ni =∑

k≥0 1iXk

et son espérance est

E(Ni) =∑k≥1

E(1i Xk)

=∑k≥0

P(Xk = i)

=∑k≥0

P(Xk = i|X0 = i) (P(X0 = i) = 1)

=∑k≥0

(P k)ii.

Ainsi, si on pose

V = I + P + P 2 + · · · =∞∑

k=0

P k

on aEi(Ni) = Vii.

2

Corollaire 6.5.1 L’état i ∈ E est récurrent (Ei(Ni) = ∞) si et seulementsi ∑

k≥0

(P k)ii = ∞.

Proposition 6.5.3 Si E est fini, il existe au moins un état récurrent.

Exercice : Définissons Nij le nombre de visites en j d’une chaîne com-men cant en i.

a) Démontrer queE(Nij) = Vij.

b) Prouver queVij = Pi(Sj <∞)Vjj.

Remarque. Remarquons que une classe d’états qui communiquent conte-nant un état récurrent i (

∑∞k=0(P

k)ii = ∞) est composé d’états récurrentspuisque si (P k)ij > 0, (P l)ji > 0 et (Pm)ii > 0

(P k+l+m)jj ≥ (P l)ji(Pk)ii(P

m)ij.

Page 65: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.5. RÉCURRENCE ET TRANSIENCE 65

On a donc∞∑

k=0

(P k)jj ≥∞∑

k=0

(P k+l+m)jj ≥ (P l)ji(Pm)ij

∞∑k=0

(P k)ii = ∞

car i est récurrent. D’après le critère de récurrence j est également récurrent.De même, la classe C(i) d’un état transient i ne contient que des états

transients puisque si dans le cas contraire un tel élément j ∈ C(i) était ré-current sa classe ne contiendrait que des éléments récurrents et en particulieri serait récurrent.Corollaire. Dans une classe d’états qui communiquent, tous les états sontrécurrents ou tous sont transients.

Proposition 6.5.4 L’espace des états E se décompose en deux types declasses : les classes récurrentes et les classes transitoires. Si C est une classeet i ∈ C alors,– si C est récurrente elle est fermée c’est-à-dire que tout élément de i restedans C P-p.s :

Pi(∃n ≥ 1 : Xn /∈ C) = 0.

– si C est transiente et finie , P-p.s tout élément quitte C définitivement àpartir d’un certain temps :

Pi(∃N, ∀n ≥ N : Xn /∈ C) = 1.

Démonstration.—a) Supposons C récurrente et i ∈ C. L’événement Xn /∈ C implique (i.e estinclus dans) l’événement

⋂k≥nXk /∈ C (ce qui signifie qu’une fois sorti de

C on n’y revient plus jamais). En effet, dans le cas contraire, il existe j /∈ C,i′ ∈ C, 0 < n < n′ tels que l’événement X0 = i,Xn = j,Xn′ = i′ est deprobabilité positive. Ceci implique que i conduit à j et que j conduit à i′.Comme i et i′ sont dans la même classe cela signifie que j conduit à i et iconduit à j : mais alors j ∈ C ce qui est une contradiction. Maintenant, si laclasse est récurrente on sait que Pi-p.s. Xn visite une infinité de fois C et parconséquent pour tout n l’événement

⋂k≥nXk /∈ C est de probabilité nulle

au même titre que Xn /∈ C. L’union sur n de ces événements est encore deprobabilité nulle.b) On a vu que

E(Ni) = E(∞∑

k=0

1i Xk) = ViiP(X0 = i).

Page 66: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

66 CHAPITRE 6. CHAÎNES DE MARKOV

où Vii =∑∞

k=0(Pk)ii. On sait en outre que l’état i est transient si et seulement

si Vii est fini Par conséquent, comme 1C =∑

i∈C 1i

E(NC) =∑i∈C

ViiP(X0 = i),

et on voit que si la classe C est transiente (donc composée uniquement d’étatstransients) cette somme est finie. Ceci démontre que NC est P-p.s fini.

2

! ! Par conséquent, pour une Chaine de Marlkov finie, une classe d’étatsfermée est récurrente, une classe non fermée est transiente. Une Chaine deMarkov finie( !) irréductible se compose d’une seule classe fermée, elle estdonc récurrente.

Il n’est pas difficile de voir que

Corollaire 6.5.2 Si une chaîne de Markov est finie, P-p.s. tout état aboutità une classe récurrente.

En effet, tout état transient est visité un nombre fini de fois p.s. Commedans un espace d’états fini, il y a un nombre fini d’états transients, l’ensembled’états transients ne peut pas être visité une infinité de fois avec probabilitépositive. Par conséquent, la chaine de Markov aboutit à une classe récur-rente p.s. Les probabilités avec lesquelles elle aboutit a des différentes classesrécurrentes, ainsi que l’espérance de ce temps seront le sujet de la sectionsuivante.

Un autre corollaire est

Corollaire 6.5.3 (i) La restriction de la chaîne aux seuls états d’une classerécurrente (ou plus généralement close) est encore de Markov, ce qui signifieque la matrice Pij = Pij, i, j ∈ C est stochastique.

(ii) Si la Chaine de Markov se retrouve dans cette classe récurrente, ellevisite chaque état de cette classe une infinité de fois p.s.

Démonstration.— Pour (i) il suffit de vérifier que si i ∈ C∑

j∈C pij = 1, cequi résulte de P(X1 /∈ C|X0 = i) = pij = 0 si i ∈ C et j /∈ C.

Pour prouver (ii) , comme tout état est récurrent dans cette classe, ilsuffit de montrer que P(T j < ∞ | X0 = i) = 1 pour tous i et j dans cetteclasse. On choisit m avec (Pm)i,j > 0. On a

1 = P(Xn = j pour une infinité de n | X0 = j) ≤ P(Xn = j pour un n ≥ m+1 | X0 = j)

=∑k∈I

P(Xn = j pour un n ≥ m+ 1 | Xm = k,X0 = j)P(Xm = k | X0 = j)

Page 67: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.5. RÉCURRENCE ET TRANSIENCE 67

=∑k∈I

P(T j <∞ | X0 = k)(Pm)j,k

où la dernière égalité vient de la propriété de Markov. Comme∑

k∈I(Pm)j,k =

1, (Pm)j,k ≥ 0 et (Pm)i,j > 0, on doit avoir P(Tj <∞ | X0 = i) = 1.

2

6.5.2 Temps et probabilité d’atteinte

Si A ⊂ E rappelons que le temps d’atteinte (ou d’entrée) de A est lav.a. TA := infn ≥ 0 : Xn ∈ A. Nous définirons également la probabilitéd’atteinte de A à partir de i ∈ E de la fa con suivante :

νA(i) = P(∃n ≥ 0 : Xn ∈ A|X0 = i).

Théorème 6.5.2 Les fonctions ν : E → R et (i 7→ Ei(TA)) : E 7→ Rvérifient pour i /∈ A les équations

(∆ν)(i) = 0, ∆(Ei(TA))(i) = −νA(i)

où (∆f)(i) = −f(i) +∑

j∈E Pijf(j)

Démonstration.— Notons pourm < n,Anm(i) l’événement Xm = i,Xm+1 /∈

A, . . . , , Xn−1 /∈ A,Xn ∈ A. On a si i /∈ A

νA(i) =∞∑

n=1

Pi(An0 (i))

=∞∑

n=2

∑j∈E−A

P(An1 (j), X1 = j,X0 = i)

P(X0 = i)+

∑j∈A

P(X1 = j|X0 = i)

=∞∑

n=2

∑j∈E−A

P(An1 (j)|X1 = j,X0 = i)P(X1 = j|X0 = i) +

∑j∈A

Pij

=∑

j∈E−A

∞∑n=2

P(An1 (j)|X1 = j)Pij +

∑j∈A

Pij

=∑

j∈E−A

∞∑n=1

P(An−10 (j)|X0 = j)Pij +

∑j∈A

Pij

=∑

j∈E−A

PijνA(j) +∑j∈A

Pij

Page 68: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

68 CHAPITRE 6. CHAÎNES DE MARKOV

Comme∑

j∈A PijνA(j) =∑

j∈A Pij (car νA(j) = 1 si j ∈ A) on a bienpour i /∈ A

νA(i) =∑j∈E

PijνA(j).

De même si i /∈ A

Ei(TA) =∞∑

k=0

kPi(TA = k)

=∞∑

k=1

∑j∈E−A

kP(TA = k,X1 = j|X0 = i) +∑j∈A

1 ·P(TA = 1, X1 = j|X0 = i)

=∞∑

k=1

∑j∈E−A

kP(TA = k,X1 = j,X0 = i)P(X1 = j|X0 = i) +∑j∈A

Pij

et donc

Ei(TA) =∞∑

k=1

∑j∈E−A

kP(TA = k|X1 = j)Pij +∑j∈A

Pij

=∞∑

k=1

∑j∈E−A

(k − 1 + 1)P(TA = k − 1|X0 = j)Pij +∑j∈A

Pij

=∞∑l=0

∑j∈E−A

lP(TA = l|X0 = j)Pij +∑

j∈E−A

∞∑k=1

P(TA = k − 1|X0 = j)Pij +∑j∈A

Pij

=∑

j∈E−A

Ej(TA)Pij +∑

j∈E−A

PijνA(j) +∑j∈A

PijνA(j) (car νA(j) = 1 si j ∈ A)

=∑j∈E

Ej(TA)Pij +∑j∈E

PijνA(j) (car TA = 0 si j ∈ A)

=∑j∈E

Ej(TA)Pij + νA(i) (d’après (∆νA)(i) = 0)

2

6.5.3 Exemple de la ruine du joueur

Il s’agit de la chaîne de markov sur E = 0, 1, . . . , r avec barrières ab-sorbantes : les transitions sont p0j = δ0,j, pr,j = δr,j et pour i /∈ 0, rpi,j = pδp,p+1 + (1 − p)δp,p−1. Elle modélise le jeu suivant. Le joueur arriveau casino avec 0 ≤ k ≤ r euros et mise euro par euro ; s’il gagne, la banquelui donne un euro, sinon il perd le sien, la probabilité de gain à chaque

Page 69: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.5. RÉCURRENCE ET TRANSIENCE 69

mise étant p et celle de perte 1 − p. Le jeu s’arrête quand le joueur arriveà 0 euro (ruine) ou à une somme de r euros (victoire). La probabilité ν0(k)(resp. νr(k)) d’atteinte de 0 (resp. r) à partir de k est la probabilité de ruine(resp. victoire) d’un joueur dont la mise initiale est de k. La probabilitéν∞(k) = 1 − (ν0(k) + νr(k)) est la probabilité qu’il n’y ait ni ruine ni gain,et donc jeu infini : elle est en fait nulle comme nous allons le voir.

D’après le théorème précédent, on a pour tout k 6= 0, r l’équation

ν0(k) = pν0(k + 1) + (1− p)ν0(k − 1)

à laquelle il faut adjoindre les conditions aux limites ν0(0) = 1, ν0(r) = 0(cette dernière condition étant claire puisque r est absorbant). On aura demême

νr(k) = pνr(k + 1) + (1− p)νr(k − 1), νr(0) = 0, νr(r) = 1.

Démontrons que la probabilité ν∞(k) d’un jeu infini est nulle pour tout k.

Lemme 6.5.1 Si une suite de nombre réels vérifie pour tout k 6= 0, r l’équa-tion (∆x)k := −xk + pxk+1 + (1− p)xk−1 = 0 avec les conditions aux limitesx0 = 0, xr = 0 alors pour tout k = 0, . . . , r xk = 0.

Démonstration.— La preuve repose sur le "principe du maximum" : Si lasuite n’est pas nulle, alors le maximum xk∗ de xk, k ∈ E est non nul et atteinten k∗ 6= 0, r. On a alors

|xk∗| ≤ p|xk∗+1|+ (1− p)|xk∗−1| ≤ max(|xk∗+1|, |xk∗−1|) ≤ |xk∗|

si bien que |xk∗| = |xk∗+1| = |xk∗−1| et itérant l’argument avec k∗ ± 1 etc. onvoit que pour tout k ∈ E, |xk| = |xk∗|. En particulier, 0 = |x0| = |xk∗| 6= 0 :une contradiction.

2

Ainsi, ν∞(k) = 0 pour tout k.

Calculons à présent ν0(k). Commencons par le cas particulier où p = 1/2.On doit dans ce cas résoudre en posant xk = ν0(k)

xk =1

2xk+1 +

1

2xk−1, 1 ≤ k ≤ r − 1, x0 = 1, xr = 0.

On constate que yk = xk− (r− k)/r vérifie ∆y = 0 mais avec conditions auxlimites nulles. Le lemme permet de conclure que yk = 0 c’est-à-dire

ν0(k) = xk =r − k

r.

Page 70: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

70 CHAPITRE 6. CHAÎNES DE MARKOV

Si p 6= 1/2 la méthode est moins élégante : on voit que xk satisfait l’équationaux différences secondes

xk+1 =1

pxk −

1− p

pxk−1 0 ≤ k ≤ r − 1

ce qu’on peut récrire (xk+1

xk

)=

(1p−1−p

p

1 0

) (xk

xk−1

)

ou encore si on note Xk =

(xk+1

xk

)

Xk = AkX0, A =

(1p−1−p

p

1 0

).

Les valeurs propres de A sont 1 et (1 − p)/p. Puisqu’elles sont distinctesA est diagonalisable et il est facile de voir que xk est de la forme xk =a + b[(1 − p)/p]k où a, b sont à déterminer. Comme x0 = 1, xr = 0 on endéduit

b = 1− a =1

1−(

1−pp

)r ,

soit

xk =( p

1−p)r−k − 1

( p1−p

)r − 1.

On peut également calculer le temps moyen de jeu avant arrêt (c’est-à-direruine ou victoire) τ(i) = Ei(T0,r). Comme ν0,r(k) = ν0(k) + νr(k) = 1pour tout k, on a à présent,

∆τ = −1, τ(0) = τ(r) = 0.

Si p = 1/2 cette équation se résout de la fa con suivante : on constate que∆(kr− k2) = −1 et donc en notant yk = τ(k)− k(r− k) on voit que ∆y = 0et y(0) = y(r) = 0 si bien que y est identiquement nul :

τ(k) = k(r − k).

Le cas p 6= 1/2 est plus fastidieux à traiter mais ne pose aucune difficulté.

Page 71: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.5. RÉCURRENCE ET TRANSIENCE 71

6.5.4 Marches aléatoires symétriques dans Zd

L’espace des états est E = Zd et la matrice de transition est Pij = 1/2d

si∑d

s=1 |is − js| = 1 (c’est-à-dire si i et j sont voisins). On peut voir unetelle marche comme le système dynamique stochastique Xn+1 = Xn +Un oùU1, . . . , Un, . . . est une suite de vecteurs aléatoires à valeurs dans 1,−1d

indépendants et de même loi uniforme. Il est clair que tous les états com-muniquent et il n’y a donc qu’une seule classe. Comme E est infini on nepeut pas conclure que cette classe est récurrente. En fait, on va voir que celadépend de la dimension d. Puisque tous les états communiquent, pour dé-terminer si l’unique classe est récurrente, il suffit de déterminer le caractèrerécurrent ou transient de 0, ce qui est équivalent à la divergence ou la conver-gence de

∑∞k=0(P

k)00. Estimons pour cela (P k)00, la probabilité de retour en0 en exactement n pas ; c’est aussi la probabilité pour que U1 + · · ·+Un = 0et c’est donc la probabilité de l’événement

d⋂s=1

U (s)1 + · · ·+ U (s)

n = 0

où U (s)l est la s-ième composante du vecteur Ul. Comme les composantes des

vecteurs U1, · · · , Un sont également indépendantes (Pourquoi ?) on peutécrire

(P n)00 = P(U(1)1 + · · ·+ U (1)

n = 0)d.

La v.a Yn = U(1)1 + · · ·+U

(1)n est une somme de n v.a de Bernoulli (à valeurs

dans 1,−1 indépendantes et par conséquent, (Yn + n)/2 suit une loi Bino-miale (n, 1/2). Ainsi, si n est impair P(Yn = 0) = 0 tandis que si n = 2m estpair

P(Y2m = 0) =

(2m

m

)(1

4)m,

et la formule de Stirling n! ∼ nne−n√

2πn montre que

P(Y2m = 0) ∼ 1√πm

.

Par conséquent,

(P 2m)00 ∼(

1√πm

)d

.

Ainsi,(a) si d = 1 ou d = 2 on a d/2 ≤ 1 et la série

∑n≥0(P

n)00 diverge : 0 estrécurrent au même titre que tout point de Zd

(b) si d ≥ 3 (d/2 > 1) la série∑

n≥0(Pn)00 converge et 0 est transient

comme tout autre point de Zd.

Page 72: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

72 CHAPITRE 6. CHAÎNES DE MARKOV

6.6 Lois stationnairesDéfinition 6.6.1 On dit qu’une loi µ sur E est stationnaire (ou encore in-variante)pour la matrice stochastique P si µP = µ.

Proposition 6.6.1 La loi µ est stationnaire pour P si et seulement si lachaîne de Markov de loi initiale µ et de matrice de transitions P vérifie pourtous n, j

P(Xn = j) = µ(j),

(cela signifie que la loi de Xn est également µ).

Proposition 6.6.2 Soit une chaîne de Markov admettant une loi station-naire µ. Alors, tout état i tel que µ(i) > 0 est récurrent. Si en outre lachaîne est irréductible elle est récurrente.

Démonstration.— On a µP k = µ pour tout entier k ≥ 0 et donc µ(I +· · · + P n−1) = nµ. Par conséquent

∑j∈E µjVji = ∞ pour i tel que µ(i) > 0.

On a vu précédemment (cf. exercice après la proposition 6.5.3) que pour tousi, j on a Vji ≤ Vii si bien que

∑j∈E µjVji ≤ Vii car

∑j∈E µ(j) = 1. On a donc

Vii = ∞ et l’état i est donc récurrent.

2

Théorème 6.6.1 Si l’espace des états est fini, toute chaîne de Markov surE (de matrice stochastique P ) admet au moins une loi stationnaire.

Démonstration.— Si µ0 est une loi quelconque sur E, par exemple la loi δi,notons µn = µP n la loi de Xn où (Xn) est la chaîne de Markov de matrice Pet de loi initiale µ0. Notons encore µn la loi (µ0 + · · ·+ µn−1)/n si bien que

µn =1

n(µ0 + µ0P + · · ·+ µ0P

n−1).

Il existe une sous-suite nk telle que pour tout i ∈ E µnk(i) converge vers un

réel π(i). Il est clair que les π(i) sont dans [0, 1] et vérifient∑

i∈E π(i) = 1 :π est bien une loi de probabilité. Elle est stationnaire. En effet,

πP = limnk→∞

1

nk

(µ0 + µ0P + · · ·+ µ0Pnk−1)P

= limnk→∞

1

nk

(µ0P + µ0P2 + · · ·+ µ0P

nk)

= limnk→∞

(1

nk

(µ0 + µ0P + · · ·+ µ0Pnk−1) +

1

nk

(µ0Pnk − µ0)

)= π

Page 73: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.6. LOIS STATIONNAIRES 73

2

Quand l’espace des états est infini, l’existence d’une telle loi de probabilitéinvariante n’est pas garantie. L’unicité n’est pas toujours vraie même si Eest fini. On peut préciser un peu le théorème précédent :

Proposition 6.6.3 Si la chaîne de Markov est irréductible (et finie) alorstoute mesure de probabilité stationnaire a pour support l’espace des états. 4

En particulier, si i est un état récurrent il existe une mesure stationnaire µdont le support est la classe C(i) de i.

Démonstration.— Soit l un état où µ(l) > 0 (un tel état existe toujourspuisque

∑k µ(k) = 1.) Si j est un état quelconque on sait qu’il existe n tel

que p(n)lj > 0. Or, d’après l’invariance

µj =∑k∈E

µk(Pn)kj ≥ µl(P

n)lj > 0.

La dernière partie de la proposition résulte du fait que si i est récurrent ilest contenu dans une classe close et on peut se ramener au cas irréductible.

2

Théorème 6.6.2 Si une chaîne de Markov est finie alors les assertions sui-vantes sont équivalentes : (a) elle est irréductible ; (b) elle admet une uniquemesure de probabilité stationnaire.

Démonstration.— Supposons la chaîne irréductible et faisons l’hypothèsequ’il existe deux mesures de probabilités µ1, µ2 différentes telles que µ1 = µ1Pet µ2 = µ2P . Si on appelle x le vecteur ligne x = µ1 − µ2 on a x = xP et∑

i∈E xi = 0 ; en particulier il existe deux indices i, j tels que xi et xj sont designes opposés. Puisque la matrice P est irréductible il existe un exposant mtel que (Pm)ij > 0. Ecrivons x = xPm puis,∑

j∈E

|xj| =∑j∈E

|∑k∈E

xk(Pm)kj|

≤∑j∈E

∑k∈E

|xk||(Pm)kj|

≤∑k∈E

∑j∈E

|xk|(Pm)kj

≤∑k∈E

|xk|

4Le support d’une mesure de probabilité µ sur E est l’ensemble de j où µ(j) > 0.

Page 74: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

74 CHAPITRE 6. CHAÎNES DE MARKOV

puisque la matrice P est stochastique (∑

j∈E(Pm)ij = 1). Or, cette dernièreinégalité est une égalité ; par conséquent dans la suite d’inégalités que nousavons écrites nous avions en fait déjà des égalités. Il en résulte que pour toutj,

|xj| = |∑k∈E

xk(Pm)kj| =

∑k∈E

|xk|(Pm)kj,

ce qui n’est possible que si les |xk|(Pm)kj, sont tous de même signe quand kvarie dans le sous-ensemble de E constitué des k pour lesquels |xk|(Pm)kj estnon nul. Puisque xi 6= 0 et que par définition de m le coefficient (Pm)ij > 0,ceci entraîne que xj est de même signe que xi ce qui est une contradiction.Supposons à présent que la mesure de probabilité stationnaire soit unique etsupposons qu’il y ait deux classes C1, C2. Puisque les mesures de probabilité nechargent pas les classes transientes (cf. proposition 6.6.2), on peut supposerque C1 et C2 sont récurrentes. Mais alors, on sait que si i ∈ C1 et j ∈ C2

on peut trouver deux mesures de probabilités stationnaires µ1, µ2 qui ontpour supports respectifs C1 et C2 (proposition 6.6.3) ; en particulier ellessont différentes.

2

! ! Pour chercher une loi stationnaire, il faut chercher le vecteur ligneµ = (µi)i∈E avec µi ≥ 0 et

∑i∈E µi = 1 qui vérifie µ = µP .

Dans le cas d’une chaine de Markov irréductible finie la solution de l’équa-tion µ = µP est unique a une constante près. Pour avoir la loi de probabilitéstationnaire, il faut la normaliser par la constante

∑i∈E µi.

Dans le cas d’une chaine de Markov finie et non irreductible µi = 0 pourtout i transient. Alors le systeme µ = µP va se decomposer en systemesplus petites de type µC = µcPC où PC est la restriction de P pour une classerecurrente C. La solution de chaque système est unique à une constante près.Leur combinaison va donner les lois stationnaires, voir les exercices.

Finallement, il est utile de se souvenir du Thm suivant.

Théorème 6.6.3 Pour une chaine de Markov irréductible finie de loi deprobabilité stationnaire µ, on a E(T i | X0 = i) = (µi)−1.

Démonstration.— Pour raccourcir les notations, on va écrire ici E(· | X0 =i) = Ei(·) et P(· | X0 = i) = Pi(·)

On va prouver que le vecteurγi avec γij = Ei

∑T i−1k=0 1j Xk pour j ∈ E

vérifie l’équation γiP = γi. Alors

∑j∈E

γij =

∑j∈E

Ei

T i−1∑k=0

1j Xk = Ei

T i−1∑k=0

∑j∈E

1j Xk = Ei

T i−1∑k=0

1 = EiTi.

Page 75: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.6. LOIS STATIONNAIRES 75

Donc l’unique loi stationnaire µj = γij/EiT

i. Comme γii = 1, le Thm serait

prouvé.Pour prouver l’égalité γk = γkP , notons d’abord que T k < ∞ p.s. pour

tout k. Nous pouvons donc écrire

γkj = Ek

T k∑n=1

1Xn=j + Pk(X0 = j)−Pk(XT k = j) = Ek

T k∑n=1

1Xn=j (6.2)

car Pk(X0 = j)−Pk(XT k = j) est 1−1 = 0 si j = k et 0−0 = 0 si j 6= k. (Sila CM n’avait pas été récurrente, on aurait eu P(T k <∞) < 1 et on n’auraitpas pu considérér XT k !) Alors,

γkj = Ek

∞∑n=1

1Xn=j,n≤T k =∞∑

n=1

Pk(Xn = j, n ≤ T k). (6.3)

Par la propriété de Markov

Pk(Xn−1 = i,Xn = j, T k ≥ n) = Pk(Xn = j | Xn−1 = i, T k ≥ n)Pk(Xn−1 = i, T k ≥ n)

= Pk(Xn = j | Xn−1 = i,X1, . . . , Xn−2 6= k)Pk(Xn−1 = i, T k ≥ n)

= Pk(Xn = j | Xn−1 = i)Pk(Xn−1 = i, T k ≥ n) = Pi,jPk(Xn−1 = i, T k ≥ n).(6.4)

Alors

γkj =

∞∑n=1

Pk(Xn = j, n ≤ T k) =∞∑

n=1

∑i∈I

Pk(Xn−1 = i,Xn = j, n ≤ T k)

=∑i∈I

Pi,j

∞∑n=1

Pk(Xn−1 = i, n ≤ T k) =∑i∈I

Pi,jEk

∞∑m=0

1Xm=i,m≤T k−1

=∑i∈I

Pi,jEk

T k−1∑m=0

1Xm=i =∑i∈I

γki Pi,j.

2

6.6.1 Convergence vers la loi stationnaire

On a vu dans la section précédente que si le nombre d’états de notrechaîne de Markov est finie, tout élément atteint une classe récurrente avecprobabilité 1. Cela ne signifie pas que l’état asymptotique de tout état soitconstant à partir d’un certain moment car cette classe récurrente peut être

Page 76: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

76 CHAPITRE 6. CHAÎNES DE MARKOV

constituée de plusieurs états. Pour comprendre la loi asymptotique de notrechaîne, il suffit de comprendre les lois asymptotiques des chaînes irréductibles.Nous entendons par cela la chose suivante : calculer limn→∞P(Xn = j|X0 =i) si la limite existe ou en d’autres termes, calculer limn→∞ P n. Il est facile devoir qu’une telle limite n’existe pas forcément. Par exemple, si on considèreune chaîne à deux états 1, 2 de matrice de transition p11 = p22 = 0, p12 =p21 = 1 on voit facilement que P 2k = I2 et P 2k+1 = P si bien que la suite P n

admet deux valeurs d’adhérence. En revanche cette suite évaluée sur certainessous-suites de temps (ici pairs ou impairs) convergent. Nous verrons que c’estun fait général.

On a d’abord besoin de la définition suivante.Definition. Le pgcdn > 0 : P n

i,i > 0 est dit la période de l’état i. Si d = 1,l’état i est apériodique.

Théorème 6.6.4 Si d est la période de i, alors il exsite N ≥ 0 tel queP nd

i,i > 0 pour tout n > N .Soit P irréductible, apériodique. Alors pour tout i, j ∈ I il existe N =

N(i, j) tel que P ni,j > 0 pour tout n > N .

Preuve. Soit d la prériode de i et l’ensemble S = n > 0 : P(nd)i,i > 0.

Alors, par définition de la période, pgcdS=1. Alors, ils existent n1, . . . , nk ∈S et z1, . . . , zk ∈ Z tels que

∑kj=1 zjnj = 1. Soit N = n1(

∑kj=1 |zj|nj). Alors,

pour tout n ≥ N il existe h ∈ Z+ et r ∈ 0, 1, . . . , n1 − 1 tels que

n = N+hn1+r =k∑

j=1

n1|zj|nj+hn1+( k∑

j=1

zjnj

)r = hn1+

k∑j=1

(n1|zj|+rzj)nj.

Comme n1, . . . , nk ∈ S, P dn1×h1i,i > 0, . . . , pdnk×hk

i,i > 0 pour tout h1, . . . , hk ∈Z+. En particulier, pour n ≥ N

P ndi,i = pdn1×h

i,i

k∏j=1

Pdnj×(n1|zj |+rzj)i,i > 0,

donc n ∈ S pour tout n ≥ N .Si P est irréductible, apériodique, il existe N(i) tel que P (n)

i,i > 0 pourtout n > N(i) et il existe k = k(i, j) tel que P (k)

i,j > 0, d’où P(n)i,j > 0 pour

tout n ≥ N(i) + k(i, j). 2

Théorème 6.6.5 Tous les états d’une classe d’états qui communiquent Cont la même période.

Page 77: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.6. LOIS STATIONNAIRES 77

Preuve. Soient i, j ∈ C, di, dj leurs périodes. Si r, s sont tels que P ri,j > 0,

P sj,i > 0, alors, P (r+s)

i,i ≥ P(r)i,j P

(s)j,i > 0 et di donc divise r + s. D’autre part,

pour tout n tel que P (n)j,j > 0

P(r+n+s)i,i ≥ P

(r)i,j P

(n)j,j P

(s)i,j > 0,

donc di divise r + s + n. Donc di divise tout n tel que P (n)j,j > 0 et donc di

divise dj. Par la symétrie, dj doit aussi diviser di, d’où dj = di. 2.Exemple. Une CM irréductible de matrice 0 1 0

0 0 11 0 0

a la période 3. Une CM de matrice 0 1 0

0 1/2 1/21 0 0

est apériodique.Rémarque utile. Si Pi,i > 0, alors l’état i a la période 1. En effet, ceciimplique P n

i,i ≥ Pi,i · · ·Pi,i > 0 pour tout n > 0. Donc, si dans une matricede transition d’une CM irréductible, un élément sur la diagonale est positif,alors, tous les états ont la période 1, la CM est apériodique. L’inverse n’estpas vraie !

Le Thm suivant est central dans le cours.

Théorème 6.6.6 Soit une chaîne irréductible, finie, apériodique. Alors, pourtoute mesure de probabilité ν (non nécessairement stationnaire) on a

limn→∞

νP n = µ

où µ est l’unique mesure stationnaire.

Démonstration.— Notons M0 l’ensemble des vecteurs lignes x tels que∑i∈E xi = 0. Définissons pour x ∈M0 la norme suivante :

‖x‖ =1

2

∑i∈E

|xi| =∑i∈E

(xi)+.

(Avec la notation z+ = max(0, z)). L’application x 7→ xP envoie M0 danslui même. On a le lemme suivant

Page 78: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

78 CHAPITRE 6. CHAÎNES DE MARKOV

Lemme 6.6.1 Soit Q une matrice stochastique telle que α = mini,j∈E Qij >0. Alors, Q est une (1− α)-contraction : pour tout x ∈M0

‖xQ‖ ≤ (1− α)‖x‖.

Démonstration.— On a

‖xQ‖ =∑

i:(xQ)i>0

(xQ)i

=∑

i:(xQ)i>0

∑k∈E

xk(Q)ki

≤∑

i:(xQ)i>0

∑k:xk>0

|xk|(Q)ki

≤∑

k:xk>0

∑i:(xQ)i>0

xk(Q)ki

Comme xQ ∈M0 on a∑

i∈E(xQ)i = 0 et l’ensemble des i ∈ E pour lesquels(xQ)i > 0 n’est pas E tout entier. Par conséquent,∑

i:(xQ)i>0

(Q)ki =∑i∈E

(Q)ki −∑

i:(xQ)i≤0

(Q)ki

= 1−∑

i:(xQ)i≤0

(Q)ki

≤ (1− α).

Revenant aux inégalités précédentes

‖xQ‖ ≤ (1− α)‖x‖.

2

Puisque P est apériodique, pour tout i, j ∈ E il existe N(i, j) tel que P ni,j > 0

pour tout n ≥ N(i, j). Comme l’espace E est fini, alors il existe un entierm = maxN(i, j) tel que Q = Pm soit à coefficients strictement positifs.L’application x 7→ xPm de (M0, ‖ · ‖) dans lui même est donc une (1 − α)-contraction et par conséquent pour tout entier l, ‖xP lm‖ ≤ (1−α)l‖x‖. Si µest l’unique mesure de probabilité stationnaire et ν une mesure de probabilitéµ− ν ∈M0 et donc pour tous entiers l, c

‖(µ− ν)P lm+c‖ ≤ (1− α)l‖(µ− ν)P c‖

Page 79: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.6. LOIS STATIONNAIRES 79

ce qui s’écrit (en utilisant µP n = µ)

‖µ− νP lm+c‖ ≤ (1− α)l‖(µ− ν)P c‖.

Comme tout entier n s’écrit de fa con unique n = lm + c avec 0 ≤ c < m,l ≥ n/m (division euclidienne de n par m) et comme 0 ≤ (1 − α) < 1, lasuite µ− νP n converge vers 0 exponentiellement vite.

2

! ! Ce Thm nous dit que si P est irréductible, apériodique et finie, pourtoute loi initiale ν

P(Xn = j) → µj, n→∞.

Donc au bout d’un tres grand temps la chaine de Markov sera dans un étataléatoire, cet état est j avec probabilité approximative µj. Indépendamentde la loi initiale ν !

Notamment si ν = δi, cad l’état initiale est i, on a

Corollaire 6.6.1 Soit une chaîne irréductible finie apériodique. Alors, pourtout i, j ∈ E la limite suivante existe et est indépendante de i

limn→∞

(P n)ij = µj,

où µ est l’unique mesure de probabilité stationnaire.

! ! Donc P n converge vers une matrice dont la jeme ligne se compose demêmes éléments µj.

L’hypothèse d’apériodicité est cruciale dans ce Thm. En effet, on peutconsidérer une CM irréductible de deux états avec P12 = 1 et P21 = 1 quin’est pas apériodique. Elle a une mesure invariante (1/2, 1/2). Néanmoins, siX0 = 1, alors P(Xn = 1) = 1 pour n pair et P(Xn = 1) = 0 pour n impair,donc P(Xn = 1) ne converge pas vers 1/2, n→∞.

Si la Chaine de Markov est périodique, cette limite généralement n’existepas.

! !Et si la CM est finie mais pas irréductible ? Comment calculer limn→∞P(Xn =j | X0 = i) ?

Premierement, si j est transient, il est visité un nombre fini de fois p.s.,et par conséquent cette limite vaut 0.

Supposons que j appartient à une classe de récurrence C. Si i appartientaussi à C, alors la matrice P restreinte a cette classe PC possède l’uniqueloi de probabilité stationnaire µC . Si de plus C est apériodique (il faut levérifier !) on a P(Xn = j | X0 = i) → µC

j par le Thm.

Page 80: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

80 CHAPITRE 6. CHAÎNES DE MARKOV

Si i appartient à une autre classe récurrente P(Xn = j | X0 = i) = 0pour tout n ≥ 0.

Finallement, si i est transient et C est apériodique P(Xn = j | X0 = i) →νi(C)µC

j avec νi(C) la probabilité d’absorption dans C.

6.7 Théorème ergodiqueLe Thm suivant est appellé aussi la loi de grands nombres pour les chaines

de Markov.

Théorème 6.7.1 Soit (Xn)∞n=0 une chaine de Markov de matrice de transi-tion P irréductible finie de loi stationnaire µ. Alors∑n−1

k=0 1i Xk

n→ µi, n→∞, p.s.

De plus pour toute fonction f : E → R

1

n

n−1∑k=0

f(Xk) →∫

I

fdπ =∑i∈E

µif(i), n→∞, p.s.

Remarque. Ce Thm est vrai pour les CM autant périodiques qu’apério-diques ! Il n’y a pas d’hypothèse d’apériodicité dans l’énoncé.Démonstration.— On note

∑n−1k=0 1Xk=i = Ni(n) le nombre de visites dans

i avant l’instant n. Soit∑∞

k=0 1Xk=i = Ni est le nombre total de visites dansi.

Comme pour une CM irréductible finie P(T i < ∞) = 1, il suffit deconsidérer une CM de mesure initiale δi. Soient Qi

r = S(i)(r) − S(i)(r−1) lesintervalles de temps entre le rème et le (r−1)ème visite dans i. Les variablesaléatoires Qi

1, Qi2, Q

i3, . . . sont indépendantes de même loi et E(Qi

r | X0 =i) = E(T i | X0 = i). On a

Qi1 +Qi

2 + · · ·+QiNi(n)−1 ≤ n− 1

où Qi1 + Qi

2 + · · · + QiNi(n)−1 est l’instant de la dernière visite dans i avant

l’instant n. On a aussi

Qi1 +Qi

2 + · · ·+QiNi(n) ≥ n

où Qi1 + Qi

2 + · · · + QiNi(n) est l’instant de la première visite dans i après

l’instant n− 1. On obtient

Qi1 +Qi

2 + · · ·+QiNi(n)−1

Ni(n)≤ n

Ni(n)≤Qi

1 +Qi2 + · · ·+Qi

Ni(n)

Ni(n). (6.5)

Page 81: Simulations des phénomènes aléatoires LM 346...Simulations des phénomènes aléatoires LM 346 Raphaël KRIKORIAN Université Paris 6 Remis à jour pour l’année 2012-2013 par

6.7. THÉORÈME ERGODIQUE 81

Par la loi des grands nombres

Qi1 +Qi

2 + · · ·+Qin

n→ E(T i | X0 = i) n→∞, p.s.

Comme P est récurrente,

P(Ni(n) →∞, n→∞) = 1,

d’où dans (6.5)

n

Ni(n)→ E(T i | X0 = i), n→∞, p.s.

Il reste a rappeller que E(T i | X0 = i) = 1/µi pour terminer la preuve dupremier résultat énoncé dans le Thm.

Toute f : E → R s’écrit comme une combinaison linéaire finie∑

i∈E f(i)1i.Ceci implique tout de suite le résultat énoncé pour f .

2

! ! Ce Thm dit que la proportion du temps qu’une chaine de Markovirréductible finie passe dans un état i est asymptotiquement la loi stationnaireµi.

Il n’y a pas d’apériodicité dans les hypothèses ! !Si une chaine de Markov finie n’est pas irréductible, et i ∈ C est dans une

classe récurrente C, le Thm reste vraie avec µCi qui est la loi stationnaire de

la restriction PC . Si i est transient, cette limite vaut 0.Ce Thm peut être utile pour simuler la loi stationnaire d’une chaine de

Markov. S’il est difficile de résoudre µ = µP par ordinateur pour P grande,on simule une trajectoire X0, X1, X2, . . . et on calcule la proportion du tempspassé dans chaque état, ceci donne approximativement la loi stationnaire.