Download - Recueil corrige (7)

Transcript
Page 1: Recueil corrige (7)

Licence 3 Probabilités

Exercices corrigés de TD

Cécile Mercadier, Johannes Kellendonk, Laurent Tournier

Associés au cours de Stéphane Attal

Année universitaire : 2008-2009

Page 2: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 1

Dénombrement

Exercice 1

Trois cartes sont tirées d'un jeu de 52 cartes. Calculer les probabilités des événementssuivants :(i) Trois piques (ii) Aucun pique (iii) Un pique et deux "non-piques"(iv) Au moins un pique (v) Trois cartes de la même famille (vi) Trois cartes de famillesdiérentes(vii) Trois as (viii) Aucun as (ix) Trois cartes rougeslorsque :1. On suppose que les cartes sont, l'une après l'autre, tirées au hasard et remises dans lejeu.2. On suppose que les cartes sont tirées simultanément au hasard.

Exercice 2 Soit n et p deux entiers non nuls.1. De combien de façons peut-on répartir p enveloppes identiques dans n boîtes auxlettres ?2. En déduire le cardinal de l'ensemble E1 = (x1, . . . , xn) ∈ Nn, x1 + . . .+ xn = p.3. Supposons p ≥ n. De combien de façons peut-on répartir p enveloppes identiques dansn boîtes aux lettres de sorte qu'aucune boîte aux lettres ne reste vide ?4. De quel ensemble E2 (construit de façon similaire à E1) peut-on en déduire le cardinal ?5. De combien de façons peut-on répartir p enveloppes distinctes dans n boîtes auxlettres ?

Exercice 3 Soit n et p deux entiers non nuls.1. Déterminer le cardinal de l'ensemble des suites croissantes (au sens strict) de p élémentsde 1, . . . , n.2. Déterminer le cardinal de l'ensemble des suites croissantes (au sens large) de p élémentsde 1, . . . , n.

Caractérisation d'une loi de probabilité

Exercice 4 Soit X une variable aléatoire à valeurs dans N ou Z dénie sur l'espace deprobabilité discret (Ω,P). Démontrer que sa fonction de répartition, notée FX , dénie par

∀x ∈ R, FX(x) = P(X ≤ x)

vérie les propriétés suivantes :1. FX est croissante avec limx→−∞ FX(x) = 0 et limx→−∞ FX(x) = 1.

Page 3: Recueil corrige (7)

2. FX est continue à droite en tout point et admet des limites à gauche en tout point. Deplus limy→x− FX(y) = P(X < x).3. FX caractérise la loi de X.

Exercice 5 Soit X une variable aléatoire à valeurs dans N dénie sur l'espace de proba-bilité discret (Ω,P). On dénit sa fonction génératrice par

GX(s) = E(sX) =∑k∈N

P(X = k)sk.

1. Montrer que GX est bien dénie sur [−1, 1].2. Montrer que GX caractérise la loi de X.3. Supposons que X et X2 sont intégrables. Notons G′X et G′′X les dérivées première etseconde de GX . Montrer que E(X) = G′X(1) et E(X2) = G′′X(1) + G′X(1). En déduirel'expression de Var(X).

Page 4: Recueil corrige (7)

Correction feuille de TD 1

Référence

Introduction aux probabilitésDelmas, Jean-PierreEllipsesBU Maths 19.2 DEL

Rappel de cours : Dénombrement

Le nombre d'applications d'un ensmble à p éléments vers un ensemble à n élémentsest np.

Le nombre de permutations d'un ensemble à n éléments bijections de cet ensembledans lui-même est n!.

Le nombre d'arangements injections d'un ensmble à p éléments dans un ensemble

à n éléments est Apn =n!

(n− p)!.

Le nombre de combinaisons ou sous-ensembles à p éléments dans un ensemble à

n éléments (≥ p) est Cpn =

n!

p!(n− p)!.

Rappel de cours : Probabilités sur un ensemble ni

On convient de représenter une expérience aléatoire E , c'est-à-dire, une expérience soumiseau hasard, par Ω l'ensemble des résultats possibles. Une réalisation ω, un élément de Ωest aussi appelé expérience élémentaire.Un événement aléatoire A est l'ensemble des expériences élémentaires ω qui réalisent A.Comme Ω est ni, la probablité P sur Ω dénie par P(ω) = 1/card(Ω) s'appelle laprobablité uniforme sur Ω. C'est la probabilité qui rend toutes les expériences élémentaires

ω équiprobables. On a alors P(A) =card(A)

card(Ω)= ”

nombre de cas favorablesnombres de cas possibles

”.

Exercice 1 On peut décider qu'un jeu de cartes est l'ensemble 1, . . . , 52 avec parexemple 1, . . . , 13 les piques, puis les trèes, puis les coeurs, puis les carreaux.1. L'univers Ω est 1, . . . , 523 donc card(Ω) = 523.Comme les tirages sont faits au hasard, on peut munir Ω de la probabilité uniforme : tousles événements élémentaires E ont la même probabilité : 1/523. Plus généralement, onsait que la probabilité d'un événement A quelconque se calcule comme card(A)/card(Ω).(i) 1/64 car à chaque fois un pique soit 133 cas favorables(ii) 27/64 car il s'agit de faire cette expérience sur 52−13 = 39 cartes, autrement dit, 393

cas favorables(iii) 27/64 car on a 3× 13× 392 cas favorables(iv) 37/64 complémentaire de (ii)(v) 1/16 car 3× 133 cas favorables(vi) 3/8 car 52× 39× 26 cas favorables(vii) 1/2197 car 43 cas favorables(viii) 1728/2197 car 483 cas favorables(ix) 1/8 car 263 cas favorables2. Dans cette expérience, Ω est l'ensemble des combinaisons de 3 éléments parmi 52.

Page 5: Recueil corrige (7)

Son cardinal vaut donc C352. Comme les tirages sont faits au hasard, on peut munir Ω de

la probabilité uniforme : tous les événements élémentaires E ont la même probabilité :1/C3

52. Plus généralement, on sait que la probabilité d'un événement A quelconque secalcule comme card(A)/card(Ω).(i) C3

13/C352 (ii) C3

39/C352 (iii) C1

13C239/C

352 (iv) 1− C3

39/C352 (v) 4C3

13/C352

(vi) 4(C113)3C3

52 (vii) 4/C352 (viii) C3

48/C352 (ix) C3

26/C352

Exercice 2 1. On peut modéliser les n boîtes aux lettres à l'aide de n − 1 séparateursdonc une conguration est un ensemble de n − 1 + p éléments qui est déterminée parexemple par la position des séparateurs, soit en tout Cn−1

n+p−1 possibilités.2. On peut voir ce problème comme le nombre de répartitions de p enveloppes dans nboîtes aux lettres avec xi le nombre d'enveloppes dans la boîte aux lettres i. On a bienxi ∈ N et x1 + . . .+ xn = p. Donc Card(A) = Cn−1

n−1+p.3. On commence par mettre une enveloppe par boîte aux lettres. Il s'agit alors de calculerle nombre de façons de répartir p − n enveloppes dans n boîtes aux lettres soit Cn−1

p−1

possibilités.4. E2 = (x1, . . . , xn) ∈ (N?)n, x1 + . . .+ xn = p.5. Pour chaque enveloppe on attribue une boîte aux lettres, soit np possibilités.

Exercice 3 1. L'ensemble des suites strictements croissantes de p éléments de 1, . . . , nest en bijection avec l'ensemble des parties à p éléments de 1, . . . , n. En eet, on peutassocier à toute suite strictement croissante (s1, . . . , sp) une partie s1, . . . , sp à p élémentsde 1, . . . , n, et l'application réciproque consiste à ordonner les éléments d'une parties1, . . . , sp. Le cardinal recherché est donc le nombre de combinaisons de p élémentsparmi n, soit Cp

n.2. Se donner une suite croissante (au sens large) de p éléments de 1, . . . , n revient à sedonner, pour i = 1, . . . , n, le nombre xi d'éléments de la suite égaux à i, avec la condition∑n

i=1 xi = p et xi ≥ 0. On voit ainsi que l'on est ramené à la question 1 de l'exercice 2,donc la réponse est Cn−1

n−1+p.Autre solution : on se ramène à la question précédente par la bijection

φ : (x1, x2 . . . , xp) 7→ (x1, x2 + 1, . . . , xp + p− 1),

qui envoie les suites croissantes (au sens large) de p éléments de 1, . . . , n dans l'ensembledes suites strictement croissantes de p éléments de 1, . . . , n+p−1. Pour le voir, noter quesi (y1, . . . , yn) est strictement croissante à valeurs dans 1, . . . , n+p−1, alors yi ≥ yi−1+1et yi ≥ i pour tout i (par récurrence). L'image par φ de notre ensemble est l'ensembledécrit dans la question précédente dans lequel n devient n+p−1 donc le cardinal recherchéest Cp

n+p−1 = Cn−1n−1+p éléments.

Exercice 4 1. FX est croissante puisque si x < y, FX(y) = FX(x) + µX(]x, y]) ≥ FX(x).limn→+∞] −∞,−n] = ∩n∈N] −∞,−n] = ∅ comme limite d'une suite décroissante d'en-sembles et limn→+∞] −∞, n] = ∩n∈N] −∞, n] = R comme limite d'une suite croissanted'ensembles Par continuité de l'application probabilité, on a limn→−∞ FX(n) = P(∅) = 0et limn→∞ FX(n) = P(R) = 1.2. FX est continue à droite car limn→∞]−∞, x+ 1/n] = ∩n∈dN ]−∞, x+ 1/n] =]−∞, x].De plus, limn→∞]−∞, x− 1/n] = ∩n∈dN ]−∞, x− 1/n] =]−∞, x[.3. On a FX(x)− FX(x−) = µX(x). En particulier, on retrouve toutes les probabilités

µX(k) = P(X = k) = P(X−1(k)) = P(ω,X(ω) = k).

Page 6: Recueil corrige (7)

Exercice 5 1. La série∑

P(X = n)sn est absolument convergente pour |s| ≤ 1 car|P(X = n)sn| ≤ P(X = n) et

∑P(X = n) = 1. La fonction est bien dénie sur [−1, 1].

2. GX est la somme de la série entière de terme général P(X = n)sn. Elle est doncindéniment dérivable sur ] − 1, 1[. De plus, on sait que ses dérivées s'obtiennent pardérivation terme à terme de la série. On a donc G(k)

X (s) =∑∞

n=k n(n − 1) . . . (n − k +

1)P (X = n)sn−k et G(k)X (0) = k!P(X = k). On peut donc reconstruire la loi de X à l'aide

de la formule suivante : P(X = k) = G(k)X (0)/k!.

3. Si X est intégrable, par dénition la série∑nP (X = n) est convergente. La série∑

nP (X = n)sn−1 est normalement convergente pour |s| ≤ 1 car sups |nP (X = n)sn−1| =nP (X = n). Par conséquent, sa somme est la dérivée de la somme de la série

∑P(X =

n)sn = GX(s), autrement dit G′X(s). En résumé G′X(s) =∑∞

n=1 nP (X = n)sn−1 et G′Xest bien dénie sur [−1, 1].On montre de la même manière que si E(X(X − 1)) existe alors G′′X(s) =

∑∞n=2 n(n −

1)P (X = n)sn−2 et G′′X bien dénie sur [−1, 1].Pour s = 1, G′X(1) =

∑∞n=1 nP (X = n) = E(X) et G′′X(1) =

∑∞n=2 n(n− 1)P (X = n) =

E(X(X − 1)). On en déduit que Var(X) = G′′X(1) +G′X(1)−G′X(1)2.

Page 7: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 2

Rappels : Lois usuelles discrètes

Bernoulli(p) avec p ∈ [0, 1] : P(X = 0) = 1− p et P(X = 1) = p.Binomiale(n, p) avec n > 0 et p ∈ [0, 1] : P(X = k) = Ck

npk(1−p)n−k pour k = 0, . . . , n.

Géométrique(p) avec p ∈ [0, 1] : P(X = k) = p(1− p)k pour k ∈ N?.

Poisson(λ) avec λ > 0 : P(X = k) = e−λλk

k!pour k ∈ N.

Lois discrètes usuelles

Exercice 1 Donner l'expression et "tracer" les fonctions de répartitions de loi de Bernoullide paramètre 2/3 puis de loi géométrique de paramètre 3/4.

Exercice 2

1. Rappeler la formule du binôme de Newton.2. En déduire que la loi binomiale de paramètres n ∈ N? et p ∈ [0, 1] dénit bien une loide probabilité puis calculer sa moyenne et sa variance.3. Rappeler le comportement des séries

∑n≥0 a

n,∑

n≥1 nan−1 et

∑n≥2 n(n − 1)an−2

lorsque |a| < 1.4. En déduire que la loi géométrique de paramètre p ∈ ]0, 1[ dénit bien une loi de pro-babilité puis calculer sa moyenne et sa variance.

Exercice 3 Au cours d'une expérience un certain événement E se réalise avec une pro-babilité p ∈ ]0, 1[. On répète de façon indépendante l'expérience jusqu'à obtenir r fois E.Soit X la variable aléatoire associée au nombre de réalisations de Ec. Déterminer la loide X.

Exercice 4 Calculer la fonction génératrice de X lorsque X est une variable aléatoire1. de loi de Bernoulli de paramètre p ∈ [0, 1] ;2. de loi binomiale de paramètres n ∈ N? et p ∈ [0, 1] ;3. de loi de Poisson de paramètre λ > 0 ;4. de loi géométrique de paramètre p ∈ ]0, 1[.5. En déduire l'espérance et la variance de X dans chacun des cas.

Inégalités

Exercice 5

1. Soit X une variable aléatoire intégrable. Montrer que pour tout a ∈ R+?

(Markov) P(|X| ≥ a) ≤ E(|X|)a

.

Page 8: Recueil corrige (7)

2. En déduire que si X est de carré intégrable alors pour tout a ∈ R+?

(Tchebyche) P(|X − E(X)| ≥ a) ≤ V ar(X)

a2.

Exercice 6 Soit n ∈ N∗. On extrait n fois avec remise une boule dans une urne composéede 2 boules vertes et 6 boules blanches. Soit Xn la variable aléatoire associée au nombrede boules vertes obtenues lors des n tirages. On pose Fn = Xn/n.1. Donner la loi de Xn. En déduire l'espérance et la variance de Xn puis de Fn.2. On suppose dans cette question que n = 10 000. A l'aide de l'exercice précédent, don-ner une borne inférieure pour la probabilité de l'événement Fn ∈ ]0.22, 0.26[.3. Donner une estimation du nombre minimal n de tirages nécessaires pour que la pro-babilité de l'événement Fn ∈ ]0.22, 0.26[ soit au moins 0.99.

Page 9: Recueil corrige (7)

Correction feuille de TD 2

Exercice 1 Si X suit la loi de Bernoulli de paramètre p = 2/3, X est à valeurs dans0, 1, donc FX(x) = P (X ≤ x) = 0 si x < 0 et FX(x) = 1 si x ≥ 1. De plus, si 0 ≤ x < 1,FX(x) = P (X ≤ x) = P (X = 0) = 1− p = 1/3. Faire le dessin correspondant.

SoitX une variable aléatoire de la loi géométrique de paramètre p = 3/4. CommeX està valeurs dans N∗, on a FX(x) = 0 pour tout x < 1. De plus, FX(x) = P (X = 1) = 3/4si x ∈ [1, 2[, FX(x) = P (X = 1) + P (X = 2) = 3/4 + 3/16 = 15/16 si x ∈ [2, 3[,FX(x) = FX(2) + P (X = 3) = 15/16 + 3/64 si x ∈ [3, 4[,. . .

Exercice 2 1. Pour x, y réels (ou dans un quelconque anneau commutatif) et n ∈ N, la

formule du binôme de Newton s'écrit (x+ y)n =n∑k=0

Cknx

kyn−k.

2. Pour vérier que P (X = k) = ak (où k ∈ N et ak ∈ R) dénit bien une mesurede probabilités sur N, il faut vérier ak ≥ 0 et

∑∞k=0 ak = 1. Pour la loi binomiale de

paramètres n et p, la positivité est évidente, et la seconde condition résulte de la formuledu binôme :

∑nk=0C

knp

k(1− p)n−k = (p+ 1− p)n = 1.À l'aide des formules kCk

n = nCk−1n−1 et k(k−1)Ck−1

n = n(n−1)Ck−2n−2 (la première se vérie

via la dénition des Ckn et la deuxième se déduit de la première), et de la formule du

binôme, on calcule :

E(X) =n∑k=1

kCknp

k(1− p)n−k = nn∑k=1

Ck−1n−1p

k(1− p)n−k = npn−1∑k=0

Ckn−1p

k(1− p)n−1−k = np

E(X(X− 1)) =n∑k=2

k(k− 1)Cknp

k(1− p)n−k =n∑k=2

n(n− 1)Ck−2n−2p

k(1− p)n−k = n(n− 1)p2,

d'où Var(X) = E(X2)−E(X)2 = E(X(X−1))+E(X)−E(X)2 = n(n−1)p2 +np−n2p2 =np(1− p).

3. Si a 6= 1 on a, pour tout n,∑n

k=0 ak =

1− an+1

1− a. Pour |a| < 1, limn a

n+1 = 0,

donc la série géométrique est alors convergente avec∑

k≥0 ak =

1

1− a. Par propriété de

dérivation des séries entières dans leur intervalle ouvert de convergence, on en déduit∑k≥1 ka

k−1 =d

da

(1

1− a

)=

1

(1− a)2et∑

k≥2 k(k− 1)ak−2 =d2

da2

(1

1− a

)=

2

(1− a)3.

4. Si pour tout k ≥ 1 on a P(X = k) = p(1− p)k−1, alors∑

k≥1 P(X = k) = p∑

k≥0(1−p)k = 1. Ceci montre que la loi géométrique de paramètre p est bien une loi de probabilités.On calcule :

E(X) =∑k≥1

kP(X = k) = p∑k≥1

k(1− p)k−1 =1

p

E(X(X − 1)) =∑k≥2

k(k − 1)P(X = k) = p(1− p)∑k≥2

k(k − 1)(1− p)k−2 = 21− pp2

Var(X) = E(X(X − 1)) + E(X)− E(X)2 = 21− pp2

+1

p− 1

p2=

1− pp2

.

Page 10: Recueil corrige (7)

Exercice 3 On a Ω = E,EcN. L'événement E, . . . , E,Ec, . . . , Ec, . . . où E apparaitr fois et Ec apparait n fois dans les r + n premiers termes a une probabilité pr(1 − p)n.Pour trouver la probabilité P(X = n) il faut calculer le nombre de manières de construiredes r + n uplets se terminant par E, et contenant r fois E. C'est donc le nombre decombinaisons de r−1 éléments parmi r+n−1 puisque un des éléments ainsi que sa positionest imposée, soit encore Cr−1

r+n−1. Donc pour tout n ∈ N on a : P(X = n) = Cr−1n+r−1p

r(1−p)n.Il s'agit de la loi binomiale négative de paramètres r ∈ N? et p ∈]0, 1].

Exercice 4 1. Loi de Bernoulli de paramètre p. On a, pour s ∈ R,

GX(s) = E[Xs] = (1− p) + ps,

donc G′X(s) = p et G′′X(s) = 0. Il suit G′X(1) = p et G′′X(1) = 0. Par conséquent (cf. feuille1, exercice 5 et remarque à la n du corrigé), E(X) = p et Var(X) = p− p2 = p(1− p).2. Loi binomiale de paramètres n et p. Pour s ∈ R, la formule du binôme donne :

GX(s) =n∑k=0

skCknp

k(1− p)n−k =n∑k=0

Ckn(sp)k(1− p)n−k = (1− p+ sp)n.

On obtient G′X(s) = np(1 − p + sp)n−1 et G′′X(s) = n(n − 1)p2(1 − p + sp)n−2, d'oùG′X(1) = np et G′′X(1) = n(n− 1)p2.

3. Loi de Poisson de paramètre λ > 0. Rappelons que dans ce cas P(X = n) =λn

n!e−λ

pour n ∈ N. Le développement en série de l'exponentielle eλ =∑∞

n=0λn

n!(et le fait que

λn

n!e−λ ≥ 0) montre qu'il s'agit bien d'une probabilité. Ce même développement fournit,

pour tout s ∈ R :

GX(s) =∞∑n=0

snλn

n!e−λ = eλse−λ = eλ(s−1),

donc G′X(s) = λeλ(s−1) et G′′X(s) = λ2eλ(s−1). G′X(1) = λ et G′′X(1) = λ2 impliquentE(X) = λ et Var(X) = λ.

4. Loi géométrique de paramètre p. On a, pour tout s ∈]− 1

1− p,

1

1− p[,

GX(s) =∞∑k=1

sk(1− p)k−1p =sp

1− s(1− p).

Pour ces valeurs de s, on en déduit queG′X(s) =p

(1− s(1− p))2 etG′′X(s) =2p(1− p)

(1− s(1− p))3 .

En particulier, G′X(1) = 1pet G′′X(1) =

2(1− p)p2

, d'où E(X) = 1pet Var(X) =

2(1− p)p2

+

1

p−(

1

p

)2

=1− pp2

.

Remarque 1. Pour déduire le calcul de l'espérance et de la variance, on utilise à vraidire une réciproque partielle de la question 5.3 de la feuille 1. À savoir : si G′X(1) < ∞(c'est-à-dire, si la série dérivée converge en s = 1), alors X est intégrable, et E(X) =G′X(1). Et si G′′X(1) < ∞ (idem pour la série dérivée seconde), alors X est de carré in-tégrable et E(X2) = E(X(X − 1)) + E(X) = G′′X(1) + G′X(1). La preuve est quasiment

Page 11: Recueil corrige (7)

la même puisque par exemple les propriétés X est intégrable et G′X(1) < ∞ se tra-duisent exactement par la même condition de convergence :

∑k kP(X = k) <∞.

Remarque 2. Dès que le rayon de convergence de GX est strictement plus grand que1 (ce qui est le cas dans les exemples précédents), GX est de classe C∞ en 1, donc X estintégrable, X2 aussi et, de façon plus générale, Xk est intégrable pour tout k (considérerla dérivée k-ième de GX).

Exercice 5 Voir page 13 du cours.

Exercice 6 1. Xn est de loi binomiale de paramètres n et p = 2/8 = 1/4. Donc E(Xn) =n/4 et V ar(Xn) = 3n/16. On obtient alors E(Fn) = 1/4 et V ar(Fn) = 3/(16n).2. P(Fn ∈ ]0.22, 0.26[) = P(Fn − E(Fn) ∈ ]− 0.03, 0.01[) > P(|Fn − E(Fn)| < 0.01) doncP(Fn ∈ ]0.22, 0.26[) > 1−P(|Fn−E(Fn)| ≥ 0.01) ≥ 1−V ar(Fn)/0.012 = 1−3/16 = 13/16.3. P(Fn ∈ ]0.22, 0.26[) > P(|Fn − E(Fn)| < 0.01) donc si P(|Fn − E(Fn)| < 0.01) > 0.99alors on auraP(Fn ∈ ]0.22, 0.26[) > 0.99. Il sut de chercher n tel que P(|Fn − E(Fn)| ≥ 0.01) < 0.01.Or P(|Fn − E(Fn)| > 0.01) < V ar(Fn)/0.012 donc n > 3/(16 0.013) = 187500.

Page 12: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 3

Exercice 1 Fonctions indicatricesSoit (Ω,P) un espace de probabilité discret. Si A ⊂ Ω est un événement, on note 1A :Ω→ 0, 1 la fonction indicatrice de A :

pour tout ω ∈ Ω, 1A(ω) =

1 si ω ∈ A0 si ω /∈ A.

1. Pour des événements A et B, exprimer 1Ac et 1A∩B en fonction de 1A et 1B.2. Vérier que, pour tout événement A, P(A) = E[1A].3. Montrer que si X est une variable aléatoire intégrable à valeurs dans N, alors :

E[X] =∞∑n=1

P(X ≥ n).

Indépendance

Exercice 2 Indépendance entre 3 événementsOn jette deux dés (non pipés), l'un après l'autre. On note respectivement A, B et C lesévénements Le chire du premier dé est pair, Le chire du deuxième dé est pair etLes deux chires ont même parité.1. Montrer que les événements A, B et C sont deux à deux indépendants.2. Montrer que A, B et C ne sont pas indépendants dans leur ensemble.

Exercice 3 Indépendance et passage au complémentaireSoit (Ω,P) un espace de probabilité discret, et A1, . . . , An des événements indépendants.1. Montrer que Ac1, A2, . . . , An sont indépendants aussi.2. En déduire par récurrence la propriété plus générale : pour tousB1 ∈ A1, A

c1, . . . , Bn ∈

An, Acn, les événements B1, . . . , Bn sont indépendants.3. Démontrer que les événements A1, . . . , An sont indépendants si, et seulement si lesvariables aléatoires 1A1 , . . . ,1An sont indépendantes.

Exercice 4 Soit X et Y des variables aléatoires réelles indépendantes, dénies sur unespace de probabilité discret (Ω,P).1. Montrer que, pour toutes fonctions f et g de R dans R, f(X) et g(Y ) sont des variablesaléatoires indépendantes.2. On suppose X et Y intégrables. Montrer que XY est intégrable et E[XY ] = E[X]E[Y ].3. On suppose X2 et Y 2 intégrables. Montrer que Var(X + Y ) = Var(X) + Var(Y ).4. Généraliser ces résultats à n variables aléatoires X1, . . . , Xn indépendantes.

Exercice 5 Si X est une variable aléatoire indépendante de Y et si Y est indépendantede Z, est-ce que X est indépendante de Z ?

Page 13: Recueil corrige (7)

Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuellesOn considère une suite d'expériences indépendantes dont l'issue est un succès avec pro-babilité p et un échec avec probabilité 1− p.1. Montrer que le nombre de succès parmi les n premières expériences suit une loi bino-miale de paramètres n et p.2. Montrer que l'instant où a lieu le premier succès suit une loi géométrique de paramètrep.

Exercice 7 SoitX, Y des variables aléatoires indépendantes suivant des lois géométriquesde paramètres respectifs pX et pY . On dénit Z = min(X, Y ).1. Calculer les fonctions de répartition de X, Y , Z.2. En déduire la loi de Z.

Conditionnement

Exercice 8 Formule de Bayes1. Soit (Ω,P) un espace de probabilité discret, et (H1, . . . , Hn) une partition de Ω en névénements de probabilité non nulle. Montrer que, pour i = 1, . . . , n, si A est un événementde probabilité non nulle :

P(Hi|A) =P(A|Hi)P(Hi)∑nj=1 P(A|Hj)P(Hj)

.

2. Une maladie M aecte une personne sur 1000 dans une population donnée. On disposed'un test sanguin qui détecte M avec une abilité de 99% lorsque cette maladie est eec-tivement présente. Cependant, on obtient aussi un résultat faussement positif pour 0,2%des personnes saines testées. Quelle est la probabilité qu'une personne soit réellementmalade lorsque son test est positif ?

Exercice 9

Soient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètresλ1 et λ2 respectivement.1. Calculer la loi de X1 +X2.2. Calculer la loi conditionnelle de X1 sachant X1 +X2. Identier une loi connue.

Page 14: Recueil corrige (7)

Correction de la feuille de TD 3

Exercice 1 Fonctions indicatrices1. On a facilement 1Ac = 1− 1A et 1A∩B = 1A1B.2. D'après les dénitions,

E[1A] =∑ω∈Ω

1A(ω)P(ω) =∑ω∈A

P(ω) = P(A).

3. On remarque que : pour tout ω ∈ Ω,

X(ω) =

X(ω)∑k=1

1 =∞∑k=1

1X≥k(ω),

d'où par théorème de convergence dominée (les sommes partielles sont inférieures à X,intégrable) (ou convergence monotone) :

E[X] =∞∑k=1

E[1X≥k] =∞∑k=1

P(X ≥ k).

Indépendance

Exercice 2 Indépendance entre 3 événementsL'espace des épreuves est Ω = 1, . . . , 62, où la première composante représente la valeurdu premier dé, et la seconde celle du second dé. Les couples de résultats sont équiprobables,donc on munit Ω de la loi uniforme P.1. On a Card(A) = 3 · 6 = 18 = Card(B) et Card(C) = 6 · 3 = 18 donc P(A) = P(B) =P(C) = 1/2. D'autre part, on voit que A∩C = deux lancers pairs = B ∩C = A∩B etP(A ∩B) = (3 · 3)/36 = 1/4.2. On a : A ∩B ∩ C = A ∩B donc P(A ∩B ∩ C) = 1/4 6= 1/8 = P(A)P(B)P(C).

Exercice 3 Indépendance et passage au complémentaire1. Pour tous 2 ≤ i1 < . . . < ik ≤ n, on a :

P(Ac1 ∩ Ai1 ∩ · · · ∩ Aik) = P(Ai1 ∩ · · · ∩ Aik)− P(A1 ∩ Ai1 ∩ · · · ∩ Aik) = (1− P(A1))P(Ai2) · · ·P(Ain)

= P(Ac1)P(Ai2) · · ·P(Aik)

et P(Ai1 ∩ · · · ∩ Aik) = P(Ai1) · · ·P(Aik).2. On raisonne par récurrence : on sait que les événements B1, A2, . . . , An sont indépen-dants grâce à la question 1 (ou trivialement si B1 = A1), donc on peut leur appliquer laquestion 1 pour voir que B1, B2, A3, . . . , An sont indépendants, etc.3. Supposons les variables aléatoires 1A1 , . . . ,1An indépendantes. Alors, pour tous 1 ≤i1 < · · · < ik ≤ n,

P(Ai1 ∩ · · ·Aik) = E[1Ai1∩···∩Aik ] = E[1Ai1 ] · · ·E[1Aik ]

= P(Ai1) · · ·P(Aik)

Page 15: Recueil corrige (7)

d'où l'indépendance des événements. Supposons réciproquement les événementsA1, . . . , Anindépendants. Pour tout événement A, lorsque x parcourt R, l'événement 1A = x estou bien égal à A ou à Ac. Il apparaît donc que l'événement Ai1 = c1, . . . , Aik = ck estde la forme de ceux considérés dans l'exercice 3, d'où :

P(1Ai1 = c1, . . . ,1Aik = ck) = P(Bi1) · · ·P(Bik) = P(1Ai1 = c1) · · ·P(1Aik = ck),

où Bi = Ai si ci = 1, Bi = Aci si ci = 0. D'où l'indépendance de 1A1 , . . . ,1An .

Exercice 4

1. On a, pour a, b ∈ R (ou ∈ f(X(Ω)) et g(Y (Ω)) :

P(f(X) = a, g(Y ) = b) = P(X ∈ f−1(a), Y ∈ g−1(b)) = P(X ∈ f−1(a))P(Y ∈ g−1(b)) = P(f(X) = a)P(g(Y ) = b).

2. On a : (on peut changer l'énoncé et prendre X et Y à valeurs dans Z pour coller aucours)

E[|XY |] =∑

k∈X(Ω),l∈Y (Ω)

|kl|P(X = k, Y = l) =∑

k∈X(Ω),l∈Y (Ω)

|kl|P(X = k)P(Y = l)

=∑

k∈X(Ω)

|k|P(X = k)∑l∈Y (Ω)

|l|P(Y = l) = E[|X|]E[|Y |] <∞

donc XY est intégrable, et en refaisant le calcul sans les valeurs absolues (justié parFubini), on trouve E[XY ] = E[X]E[Y ].3. On a :

Var(X+Y ) = E[(X+Y )2]−E[X+Y ]2 = E[X2+Y 2+XY ]−(E[X]+E[Y ])2 = E[X2]−E[X]2+E[Y 2]−E[Y ]2

en développant et en utilisant la question précédente.4. Pas de vraie diculté pour généraliser, sinon dans l'écriture. On remarque que laquestion ci-dessus requiert juste l'indépendance des variables 2 à 2.

Exercice 5 Prendre un contre-exemple.

Lois usuelles et indépendance

Exercice 6 Interprétation des lois usuellesOn considère une suite de variables aléatoires X1, X2, . . . indépendantes, telle que P(Xi =1) = p (on représente le succès par 1) et P(Xi = 0) = 1− p (et l'échec par 0).1. On note S le nombre de succès parmi les n premières expériences. Pour tout k ∈1, . . . , n :

P(S = k) =∑

S⊂1,...,n,Card(S)=k

P(∀i ∈ S,Xi = 1,∀i /∈ S,Xi = 0)

=∑

S⊂1,...,n,Card(S)=k

pk(1− p)n−k =

(n

k

)pk(1− p)n−k.

Page 16: Recueil corrige (7)

2. L'instant N de premier succès est tel qu'il est précédé de N − 1 échecs, d'où, pourk ≥ 1 :

P(N = k) = P(X1 = 0, . . . , Xk−1 = 0, Xk = 1) = (1− p)kp.

Autrement dit, N suit la loi géométrique de paramètre p.

Exercice 7 Soit k un entier non nul.1. P(X ≤ k) = 1 − P(X > k) = (1 − pX)k donc FX(x) = 1 − (1 − pX)k si x > 0 etk ≤ x < k + 1 ; 0 sinon.De même FY (y) = 1− (1− pY )k si y > 0 et k ≤ y < k + 1 ; 0 sinon.P(Z ≤ z) = 1 − P(Z > z) = 1 − P(X > z, Y > z) = 1 − P(X > z)P(Y > z) =1− (1− pX)k(1− pY )k si z > 0 et k ≤ z < k + 1 ; 1 sinon.2. Z est de loi Géométrique de paramètre pZ = 1− (1− pX)(1− pY ) = pX + pY − pXpY .

Page 17: Recueil corrige (7)

Conditionnement

Exercice 8 Formule de Bayes.1. On a, en remarquant que A est la réunion disjointe des événements A∩H1, . . . , A∩Hn :

P(Hi|A) =P(Hi ∩ A)

P(A)=

P(A ∩Hi)∑j P(A ∩Hj)

=P(A|Hi)P(Hi)∑j P(A|Hj)P(Hj)

.

2. Ici, Ω est la population considérée, dont une partie E est atteinte par la maladie M,et dont une partie T a une réaction positive au test. Par hypothèse, P(E) = 1/1000,P(T |E) = 0, 99 et P(T |Ec) = 0, 002, d'où (cas particulier de la formule de Bayes pour lapartition de Ω en E et Ec) :

P(E|T ) =P (E)P (T |E)

P (E)P (T |E) + P (Ec)P (T |Ec)=

1/1000 · 0, 99

1/1000 · 0, 99 + 0, 999 · 2/1000' 0, 33

Ainsi, le test a deux chances sur trois de donner une réponse positive à une personnesaine, ce qui est loin d'être négligeable !

Exercice 9

1. Si X (resp. Y ) suit la loi de Poisson de paramètre λ1 (resp. λ2), alors :

GX+Y (s) = GX(s)GY (s) = eλ1(1−s)eλ2(1−s) = e(λ1+λ2)(1−s),

donc X + Y suit la loi de Poisson de paramètre λ1 + λ2.

Méthode directe : P(X + Y = k) =∑k

j=0 P(X = j)P(Y = k − j) =∑k

j=0

λj1j!e−λ1

λj2j!e−λ2

= (λ1 + λ2)k/k!e−(λ1+λ2). C'est bien la loi de Poisson de paramètre la somme des para-mètres de X et Y .

2. P(X = j|X+Y = k) =P(X = j)P(Y = k − j)

P(X + Y = k)=λj1j!e−λ1

λk−j2

(k − j)!e−λ2

k!

(λ1 + λ2)ke−(λ1+λ2)

= Cjk

(λ1

λ1 + λ2

)j (λ1

λ1 + λ2

)k−jPar conséquent, la loi deX sachantX+Y = k suit la binomiale de paramètre (k,

λ1

λ1 + λ2

).

Page 18: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 Soit (Ω,P) un espace de probabilité discret, et X, Y deux variables aléatoiresindépendantes dénies sur Ω, à valeurs dans N.1. Exprimer la loi de X + Y en fonction de celles de X et Y .2. Montrer que, pour tout s ∈ [−1, 1], GX+Y (s) = GX(s)GY (s). (on pourra donner deuxpreuves)3. Généraliser ce qui précède au cas de n variables aléatoires indépendantes X1, . . . , Xn.4. Quelle est la loi de la somme de n variables aléatoires indépendantes de loi de Bernoullide paramètre p ? Retrouver alors l'espérance et la variance de cette loi.5. Quelle est la loi de la somme de :

deux variables aléatoires indépendantes de loi binomiale de paramètres (n, p) et(m, p) ?

deux variables aléatoires indépendantes de loi de Poisson de paramètre λ et µ ?

Exercice 2 Dés truqués1. Quelle est la fonction génératrice de la loi uniforme sur 2, . . . , 12 ?2. Soit X1 et X2 des variables aléatoires indépendantes à valeurs dans 1, . . . , 6. Enétudiant les racines du polynôme GX1GX2 , montrer que la loi de X1 +X2 ne peut pas êtrela loi uniforme sur 2, . . . , 12.Indication : on remarquera que GXi(s) = sϕi(s) où ϕi est un polynôme à coecients réelsde degré impair, qui admet donc une racine réelle (pourquoi ?).3. Peut-on piper deux dés indépendants de façon à rendre toutes les sommes entre 2 et12 équiprobables ?

Lois continues usuelles

Exercice 3 Calculer l'espérance et la variance de X lorsque X est une variable aléatoire1. de loi uniforme U([a, b]) sur l'intervalle [a, b] ⊂ R ;2. de loi normale N (m,σ) de paramètre m ∈ R, σ > 0 ;3. de loi exponentielle E(λ) de paramètre λ > 0.

Exercice 4 Soit X une variable aléatoire de densité f(x) = aπ(a2+x2)

avec a > 0. La loi deX est appelée loi de Cauchy de paramètre a.Vérier que f est bien une densité. Pour quelles valeurs de α ∈ R la variable |X|α est-elleintégrable ?

Exercice 5 Une variable aléatoire positive X est sans mémoire si

P(X > t+ s|X > t) = P(X > s), ∀t, s ≥ 0.

Page 19: Recueil corrige (7)

Montrer qu'une variable aléatoire positive dont la loi admet une densité est sans mémoiresi, et seulement si elle suit une loi exponentielle.

Exercice 6 Soit X une variable aléatoire réelle.1. Supposons queX a pour densité f . Quel lien y a-t-il entre f et la fonction de répartitionFX ?2. Réciproquement, donner une condition sur FX pour que la loi de X admette unedensité.3. Soit r un réel > 0. On suppose X à valeurs positives. Montrer que

E[Xr] =

∫ ∞0

rxr−1P(X > x)dx,

où les deux membres sont nis ou innis. On pourra donner une preuve dans le cas àdensité (à l'aide de ce qui précède), et une preuve dans le cas général (dans l'esprit de laquestion 1.3 de la feuille 3).

Exercice 7 Soit X1, . . . , Xn des variables aléatoires indépendantes de loi E(λ) de para-mètre λ > 0.1. Calculer la loi de maxi=1,...,nXi. (Indication : calculer la fonction de répartition.)2. Calculer la loi de mini=1,...,nXi.

Page 20: Recueil corrige (7)

Correction de la feuille de TD 4

Somme de v.a. indépendantes et fonction génératrice

Exercice 1 Somme de v.a. indépendantes et fonctions génératrices

1. L'événement X + Y = n est la réunion disjointe des X = k, Y = l pour k, l ∈ Ntels que k + l = n, d'où :

P(X + Y = n) =∑

k,l∈N,k+l=n

P(X = k, Y = l) =∑k+l=n

P(X = k)P(Y = l),

soit : µX+Y (n) =∑n

k=1 µX(k)µY (n− k).2. On reconnaît dans la formule précédente l'expression des coecients de la série en-tière produit de GX et GY . Comme ces deux séries entières convergent sur [−1, 1], ona donc, pour tout s ∈ [−1, 1], GX+Y (s) = GX(s)GY (s). Autre méthode : X et Y sontindépendantes, donc sX et sY aussi, et celles-ci sont intégrables pour s ∈ [−1, 1], d'où :

GX+Y (s) = E[sX+Y ] = E[sXsY ] = E[sX ]E[sY ] = GX(s)GY (s).

3. La généralisation à n variables ne pose pas de problème.4. SoitX1, . . . , Xn des variables de Bernoulli indépendantes de paramètre p. On aGX1(s) =· · · = GXn(s) = p+ (1− p)s, d'où, pour tout s :

GX1+···+Xn(s) = GX1(s) · · ·GXn(s) = (p+ (1− p)s)n = GS(s),

où S est une variable aléatoire de loi binomiale de paramètres n et p. Comme la fonctiongénératrice caractérise la loi, Y = X1 + · · ·+Xn suit une loi binomiale de paramètres n etp. En particulier, l'espérance de cette loi est : E[Y ] = E[X1+· · ·+Xn] =

∑ni=1 E[Xi] = np,

et sa variance est (vu l'indépendance) : Var(Y ) = Var(X1 + · · ·+Xn) =∑n

i=1 Var(Xi) =np(1 − p). Remarquons que l'exercice précédent donnait déjà la loi loi binomiale commesomme de Bernoullis indépendantes.5.

Si X (resp. Y ) suit la loi binomiale de paramètres n et p (resp. m et p), alors :

GX+Y (s) = GX(s)GY (s) = (p+ (1− p)s)n(p+ (1− p)s)m = (p+ (1− p)s)m+n,

donc X+Y suit la loi binomiale de paramètres m+n et p (ce qui se comprend bienpar l'interprétation précédente).

Si X (resp. Y ) suit la loi de Poisson de paramètre λ (resp. µ), alors :

GX+Y (s) = GX(s)GY (s) = eλ(1−s)eµ(1−s) = e(λ+µ)(1−s),

donc X + Y suit la loi de Poisson de paramètre λ+ µ.

Page 21: Recueil corrige (7)

Exercice 2 Dés truqués1. Soit X une variable de loi uniforme sur 2, . . . , 12. Pour s ∈ [−1, 1] (ou R),

GX(s) =12∑i=2

1

11si =

s

11

1− s11

1− s.

2. Supposons que l'on ait GX1GX2 = GX (donné ci-dessus). Remarquons que, pour i =1, 2,

GXi(s) =6∑j=1

P(Xi = j)sj = sϕi(s),

où ϕi est un polynôme, à coecients réels, et que la condition P(X1 + X2 = 12) = 1/11implique 1/11 = P(X1 = 6, X2 = 6) = P(X1 = 6)P(X2 = 6) et donc que ϕi est de degré5, impair. Par un argument de valeurs intermédiaires, les polynômes ϕ1 et ϕ2 ont doncchacun au moins une racine réelle. Or :

11sϕ1(s)ϕ2(s) =1− s11

1− s,

et le polynôme du membre de droite a pour racines les racines onzièmes de l'unité autresque 1, dont aucune n'est réelle : contradiction.3. Tant que les dés sont indépendants, on ne peut donc les piper (i.e. modier leur loi)de façon à rendre toutes les sommes entre 2 et 12 équiprobables.

Lois continues usuelles

Exercice 3 UNIFORME la densité est1[a,b](x)

b− aet la f.r. est F (x) =

x− ab− a

1[a,b[(x) +

1[b,∞[(x).

Pour tout r > 0, la fonction |x|rfX(x) est bornée parmax(|a|, b)r

b− aintégrable sur [a, b] donc

X admet des moments de tout ordre. En particulier E(X) =a+ b

2et V ar(X) =

(b− a)2

12.

On peut également noter que si X ∼ U(0, 1) alors Y = (b − a)X + a ∼ U(a, b). On endéduit facilement les moment de Y à partir de ceux de X.

NORMALE La densité est fm,σ(x) =exp(−(x−m)2/(2σ2)√

2πσ, la fonction de répartition

n'a pas d'expression explicite, seulement la forme intégrale∫ x−∞ fm,σ(y)dy.

C'est bien une loi de proba : I =∫∞−∞ fm,σ(y)dy =

∫∞−∞ f0,1(y)dy =

2√π

∫∞0e−x

2dx par

changement de variable x− >x−mσ

, la parité puis le changement de variable x− >√

2x.

D'autre part :(∫R+ e

−x2dx)2

=∫∫

R+×R+ e−x2−y2dxdy =

∫∫R+×[0,π/2]

e−r2rdrdθ =

(∫∞0e−r

2rdr)(∫ π/2

0dθ)

=

1/2×π/2 = π/4. Donc I =2√π

√π/4 = 1. Cette loi admet des moments de tous les ordres.

En eet, pour tout r > 0, on a |x|rfm,σ(x) est intégrable.

Page 22: Recueil corrige (7)

On peut également montrer que si X ∼ N(m,σ) alors Y =X −mσ

∼ N(0, 1). On en

déduit facilement que E(X) = m+E(Y )σ et V ar(X) = σ2V ar(Y ). Il sut de calculer lesmoments de la N(0, 1). Par parité, on a que pour tout m entier impair, E(Y m) = 0. Soitmaintenant un entier pair. On a E(Y m) =

∫ym−1yf0,1(y)dy = (m− 1)

∫ym−2f0,1(y)dy en

intégrant par parties. Donc on obtient la relation E(Y m) = (m − 1)E(Y m−2) lorsque mest pair.

Comme E(Y 2) = 1 on obtient E(Y m) = 1 . . . 3 . . . (m− 1) =(2k)!

2kk!en posant m = 2k.

EXPONENTIELLE La densité est fλ(x) = λe−λx1x∈R+ . Donc la f.r. est Fλ(x) = 1 −e−λx1x∈R+ . La loi exponentielle sert à modéliser les durées de vie. On a E(X) = 1/λ etV ar(X) = 1/λ2.

Exercice 4

1.a|x|α

π(a2+x2)est intégrable ssi α− 2 < −1, i.e. α < 1.

2.∫e−|t|eiξtdt =

∫ 0

−∞ e−t(1+iξ)dt+

∫∞0e−t(1+iξ)dt =

1

1− iξ+

1

1 + iξ=

2

1 + ξ2.

3. On déduit de la question précédente et de la transformée de fourier inverse que

e−|t| =1

∫ 2

1 + ξ2eiξtdξ. En particulier, la fonction caractéristique de Y une variable

de loi de cauchy de paramètre 1 est e−|t|.De plus, il faut noter que si X est de loi cauchy de paramètre a alors Y = X/a est de loicauchy de paramètre 1.En eet, P(X/a ≤ x) = P(X ≤ ax) =

∫ ax−∞

aπ(a2+x2)

dx =∫ x−∞

aπ(a2+(ay)2)

ady =∫ x−∞

1π(1+y2)

dy.

E(eitX) = E(eitaa−1X) = E(eitaY ) = e−|ta| = e−a|t|.

Exercice 5 Soit f la densité de notre variable et posons F (x) = 1 − F (x) =∫∞xf(t)dt.

F est diérentiable avec dérivée F′(x) = −f(x). La propriété sans mémoire s'écrit

F (s + t) = F (t)F (s). Dériver cette equation par rapport à t en t = 0 donne l'equationdiérentielle

F′(s) = −f(0)F (s)

qui a comme solution F (s) = ce−f(0)s. Donc f(t) = cf(0)e−f(0)t et c = 1 est déterminépar la normalisation. On obtient donc les lois exponentielles.

Exercice 6 Soit X une variable aléatoire à valeurs dans R+ de densité f et r > 0.∫ ∞0

rxr−1P(X > x)dx =

∫ ∞0

∫ ∞y

rxr−1f(y)dydx =

∫ ∞0

∫ y

0

rxr−1f(y)dxdy =

∫ ∞0

xrf(y)dy = E(Xr).

On peut justier l'échange d'intégration dans le cas où E(Xr) est ni car cette nitudeest l'hypothèse dans le Thm de Tonelli.Si E(Xr) est ni alors

E(Xr) = limb→∞

∫ b

0

xrFdx = −br(1− F (b)) +

∫ b

0

rbr−1(1− F (x))dx

en appliquant avec G = 1− F la formule∫ b

a

u(x)Gdx = u(b)G(b)− u(a)G(a)−∫ b

a

u′(x)G(x)dx.

Page 23: Recueil corrige (7)

On sait que lim∫xrFdx nie donc

∫∞bxrFdx ≥ br(1− F (b)) permet de déduire que

la limite du terme de droite vaut 0. Il suit le résultat. On a d'autre part∫ b

0xrFdx ≤∫ b

0rbr−1(1− F (x))dx car pour b positif on a br(1− F (b)) positif. Donc lorsque E(Xr) est

inni alors il en est de même de∫∞

0rbr−1(1− F (x))dx.

Exercice 7 Pour une loi exponentielle de paramètre λ > 0, on a une densité f(x) =λe−λx1x>0 et une fonction de répartition F (x) = 1− e−λx si x > 0 et F (x) = 0 sinon.Il suit P(maxi=1,...,nXi ≤ x) = P(X ≤ x)n = (1− e−λx)n.D'autre part, P(mini=1,...,nXi ≤ x) = 1 − P(mini=1,...,nXi > x) = 1 − P(X > x)n =1− e−nλx.

Page 24: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 5

Obtenir une loi à partir d'une autre

Exercice 1 Soit X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonctionmesurable. Soit Y la variable aléatoire dénie par Y = f(X).1. On suppose que X admet une densité et que f est injective et C1 par morceau.Déterminer la densité de Y à l'aide d'un changement de variable.2. On suppose que la loi de X est uniforme sur [0, 1] et f(x) = − lnx. Quelle est la loide Y ?3. Si X est de loi normale N (m,σ), trouver une fonction f telle que Y est de loi normaleN (0, 1).4. Soit U une variable aléatoire de loi uniforme sur [0, π]. Donner la loi de sin(U).5. Soit U une variable aléatoire de loi uniforme sur [−1, 1]. Donner la loi de

(a) |U | (b) U2 (c)1

2ln

1 + U

1− U.

Exercice 2 Soit X, Y deux variables aléatoires indépendantes de loi normale N (0, 1).1. Calculer la loi de la variable X

Y.

2. En déduire la loi de Z−1 si Z est une variable aléatoire de loi de Cauchy.

Exercice 3 Soit X et Y deux variables aléatoires indépendantes de loi normale N (m,σ2).Calculer, en fonction de m et σ, l'espérance E[(X + Y )2].

Quelques inégalités

Exercice 4 Soit X et Y des variables aléatoires positives de carré intégrable sur (Ω,A,P).1. A quelle condition a-t-on E(X2) = 0 ? On exclut cette possibilité dans la suite.2. En considérant la fonction λ 7→ E [(X + λY )2], retrouver l'inégalité de Cauchy-Schwarz

E(XY )2 ≤ E(X2)E(Y 2).

3. Montrer que pour tout a ∈ [0, 1] :

(1− a)E(X) ≤ E(X1[aE(X),∞[(X)

).

4. En déduire que pour tout a ∈ [0, 1] :

P(X ≥ aE(X)) ≥ (1− a)2 E(X)2

E(X2).

Page 25: Recueil corrige (7)

Exercice 5 L'inégalité de JensenSoit f : E ⊂ R → R une fonction convexe dénie sur un intervalle E qui contient lesvaleurs d'une variable aléatoire X. On suppose que X et f(X) sont intégrables. Montrerque

f(E(X)) ≤ E(f(X)).

Montrer que si f est strictement convexe, alors l'égalité f(E(X)) = E(f(X)) impliqueque X est constante sur un événement presque sûr (c'est-à-dire de mesure 1 pour P).

Exercice 6 Soit Ω un ensemble ni.L'entropie d'une probabilité P sur Ω est H(P ) = −

∑ω∈Ω

P (ω) log2 P (ω), où log2 est

le logarithme en base 2 et on adopte la convention 0 log2 0 = 0. Pour P,Q probabi-lités sur Ω avec Q(ω) > 0 pour tout ω ∈ Ω, leur entropie relative est D(P‖Q) =∑ω∈Ω

P (ω) log2

(P (ω)Q(ω)

).

1. Montrer à l'aide de l'inégalité de Jensen que D est positive et que D(P‖Q) = 0 im-plique P = Q.2. En déduire que, parmi les probabilités sur Ω, l'entropie est maximale pour la loi uni-forme sur Ω et uniquement pour celle-ci.

Entropie

Soit (Ω,P) un espace de probabilité ni. L'entropie (sur la base b) de la distributionP est la valeur

Hb(P) := −∑ω∈Ω

P(ω) logb(P(ω))

où b > 0 est la base du logarithme. Ici on dénit 0 logb(0) = 0.Remarque : En théorie de l'information on utilise surtout b = 2, c'est l'entropie binairequ'on va noter H. Autrement dit, l'entropie binaire H est l'espérance de la variable aléa-toire Z(ω) = − log2(P(ω)). L'entropie binaire de la loi µX d'une variable aléatoire nieX est notée H(µX) ou bien H(X) .

Exercice 7 On considère un jeux de 32 cartes et la variable aléatoire X dénie par

X(carte) =

a si la carte est noirb si la carte est un coeurc si la carte est le 7, 8, 9, 10 de carreaud pour les autres cartes

où a, b, c, d sont quatre réels distincts.1. Déterminer H(X).2. Alice et Bob jouent au jeu suivant : Alice tire une carte C et demande Bob de déterminerla valeur X(C) en posant des questions de type X(C) appartient-il à A ? où A est unepartie de a, b, c, d. Supposons que Bob choisit les questions X(C) = a ?, X(C) = b ?et X(C) = c ? dans cet ordre. Montrer que la valeur moyenne du nombre de questionsque Bob à besoin de poser vaut H(X).

Page 26: Recueil corrige (7)

Exercice 8 Soit maintenant P et P′ deux probabilités sur Ω. L'entropie relative notéeD(P‖P′) est dénie comme l'espérance de la variable ω → log2(P(ω)) − log2(P′(ω))par rapport à P :

D(P‖P′) =∑ω∈Ω

P(ω) log2(P(ω)P′(ω)

).

1. Montrer à l'aide de l'inégalité de Jensen que D est positif et que D(P‖P′) = 0 impliqueP = P′.2. Soit u la distribution uniforme sur Ω. Montrer que

D(P‖u) = H(u)−H(P).

3. En déduire que l'entropie binaire d'une distribution sur Ω prend ses valeurs entre 0 etlog2 |Ω| et que la distribution uniforme est l'unique point maximal de H.

Page 27: Recueil corrige (7)

Correction de la feuille de TD 5

Obtenir une loi à partir d'une autre

Exercice 1 Soit X une variable aléatoire à valeurs dans E ⊂ R et f : E → R une fonctionmesurable. Soit Y = f(X).1. P(Y ∈ A) = P(f(X) ∈ A) = P(X ∈ f−1(A)). En particular P(Y ∈ R) = P(X ∈ R) = 1et les autres axiomes.2. Soit ρX la densité de X. On regarde le cas où f est injective et C1.P(Y ∈ A) =

∫1A(f(t))ρX(t)dt =

∫1A(s) ρX(f−1(s))

|f ′(f−1(s))|ds.

Donc ρY (s) = ρX(f−1(s))|f ′(f−1(s))| (ou ρY = |f−1′|ρX f−1).

3. ρX = 1[0,1], f−1(s) = e−s, f−1′(s) = −e−s. Donc ρY (s) = e−s1[0,∞[(s), ce qui est la loiexponentielle de paramètre 1.4. Réponse : f(x) = σ−1(x−m).5. Par application du théorème du transfert, si g est une fonction mesurable bornée de Rdans R, alors

E(g(sin(U))) =

∫Rg(sin(u))µU(du)

et

E(g(sin(U))) =

∫Rg(t)µsin(U)(dt).

On sait que U a pour densité par rapport à la mesure de Lebesgue 1/π1[0,π](u). Donc∫Rg(sin(u))µU(du) =

1

π

∫ π

0

g(sin(u))du =2

π

∫ π/2

0

g(sin(u))du.

En posant t = sin(u) on a u = arcsin(t) et

E(g(sin(U))) =2

π

∫ 1

0

g(t)1√

1− t2dt.

Par conséquent, µsin(U)(dt) =2

π

1√1− t2

1[0,1](t)dt, donc la densité de sin(U) au point t par

rapport à la mesure de Lebesgue est2

π

1√1− t2

1[0,1](t).

6. Pour |U | et U2, il est plus direct de passer par la fonction de répartition. On trouve que|U | est de loi uniforme sur [0, 1], U2 a pour densité au point t par rapport à la mesure de

Lebesgue1

2√t1[0,1](t). Pour la transformation par h(u) :=

1

2ln

1 + u

1− u, on peut remarquer

que cette fonction est strictement croissante de ]−1, 1[ vers R. On peut leur faire appliquer

ce qui precede, on obtient une densité au point t donnée par2e2t

(e2t + 1)2.

Page 28: Recueil corrige (7)

Exercice 2 Soit X, Y deux variables aléatoires indépendantes de loi normale N (0, 1).1. La densité de (X, Y ) est ρ(t1, t2) = 1

2πe−

12

(t21+t22). Alors

P(X

Y∈ A) =

∫R2

1A(t1t2

)1

2πe−

12

(t21+t22)dt1dt2 =

∫R2

1A(s)1

2πe−

12

(s2+1)t22ds|t2|dt2.

Par Fubini on peut evaluer

1

∫Re−

12

(s2+1)t22|t2|dt2 =1

π(1 + s2)

ce qui est donc la densité de la loi de Y .2. Si Z est une variable aléatoire de loi de Cauchy alors sa loi est la même que celle deXY. Par symmetrie Y

Xa la même loi que X

Y. Donc Z−1 a la même loi que Z.

Exercice 3 On trouve E[(X+Y )2] = E[X2]+E[Y 2]+2E[XY ] = m2+σ2+m2+σ2+2m2 =4m2 + 2σ2.

Quelques inégalités

Exercice 4 SoitX et Y des variables aléatoires positives de carré intégrables sur (Ω,A,P).1. La variable aléatoire X2 est positive ou nulle donc E(X2) = 0 si et seulement si X2

est nulle presque sûrement ou encore si et seulement si X est nulle presque sûrement.2. La fonction λ → E [(X + λY )2] = E(X2) + 2λE(XY ) + λ2E(Y 2) est un trinôme dusecond degré toujours positif. Par conséquent son discriminant est négatif : 4E(XY )2 −4E(X2)E(Y 2) ≤ 0 autrement dit, E(XY )2 ≤ E(X2)E(Y 2).3. Comme X est une variable positive on a 1[aE(X),∞[(X) = 1− 1[0,aE(X)[(X).Or E(X1[0,aE(X)[(X)) ≤ aE(X) donc E(X1[aE(X),∞[(X)) ≥ E(X)− aE(X).4. En utilisant les deux questions précédentes on a :

(1− a)2E(X)2 ≤ E(X1[aE(X),∞[(X))2 ≤ E(X2)P(X ≥ aE(X)).

Exercice 5 L'inégalité de Jensen A faire

Exercice 6 1. Appliquer Jensen à− ln et la mesure P :∑P (ω)(− log Q(ω)

P (ω)) ≥ − log

∑P (ω)Q(ω)

P (ω)=

0, ou alors à x 7→ x lnx qui est strictement convexe (dérivée lnx+1 strictement croissante)et à la mesure Q :

∑ P (ω)Q(ω)

(− log Q(ω)P (ω)

)Q(ω) ≥ (∑

PQQ) ln(

∑PQQ) = 0. Le cas dégalité cor-

respond à PQconstant Q-p.s., c'est-à-dire pour tout ω car Q > 0. La constante doit être 1

puisque ce sont des probas.2. Prendre pour Q la mesure uniforme : l'inégalité devient 0 ≤

∑P (ω) log P (ω)

1/|Ω| =

−H(P ) + log |Ω| = −H(P ) + H(u) (u proba uniforme), d'où H(P ) ≤ H(u) et l'éga-lité donne une égalité dans la question d'avant donc P = u.

Entropie

Exercice 7 On considère un jeux de 32 cartes avec la variable aléatoire X où

X(carte) =

a si la carte est noirb si la carte est coeurc si la carte est carreau 7, 8, 9, 10d pour les autres cartes

Page 29: Recueil corrige (7)

où a, b, c, d sont quatre nombres diérents.1. H(X) = −

∑i∈a,b,c,d P(X = i) log2(P(X = i)) = 1

2log2(2) + 1

4log2(4) + 21

8log2(8) =

1, 75.2. Alice et Bob jouent un jeu : Alice tire une carte C et demande Bob de déterminer lavaleur X(C) en posant des questions de type X(C), appartient-il à A ? où A est unepartie de a, b, c, d. Supposons que Bob choisit les questions X(C) = a ?, X(C) = b ?,X(C) = c ?, dans cet ordre. Déterminer la valeur moyenne de nombre de questions queBob à besoin de poser.Soit L la variable aléatoire de nombre de questions Bob a du demander pour connaître leresultat. Alors E(L) = 1

21 + 1

42 + 1

83 + 1

83 = 1, 75 = H(X).

Exercice 8 Voir copie de l'an passe.

Page 30: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 6

Exercice 1 Généralisation d'inégalités du coursSoit X une variable aléatoire réelle de carré intégrable sur (Ω,A,P).1. Soit g : R→ R+ telle que g(x) ≥ b > 0 pour tout x ∈ I ⊂ R. Montrer que

P(X ∈ I) ≤ b−1E(g(X)).

2. Retrouver à l'aide du résultat précédent les inégalités de Markov et Tchebyche.3. En utilisant la fonction g(x) = (x + c)2 pour c > 0 montrer que si E(X) = 0 etVar(X) = σ2 alors pour tout t > 0,

P(X > t) ≤ σ2

σ2 + t2.

Exercice 2 Loi GammaPour a > 0 et λ > 0, on dénit la loi γa,λ par sa densité relativement à la mesure deLebesgue :

fa,λ(x) =λa

Γ(a)exp(−λx)xa−11R+(x).

1. Vérier que cette fonction dénit bien une densité.2. Déterminer l'espérance de cette loi.

Soit V1, V2, . . . , Vn des variables aléatoires réelles indépendantes de loi E(λ).3. Montrer par récurrence que la loi de la somme V1 + · · ·+ Vn est la loi γn,λ.

Soit X et Y deux variables aléatoires réelles indépendantes de loi γa,λ.4. Déterminer la loi de λX.5. Montrer que X + Y et X/Y sont des v.a. indépendantes dont on calculera les lois.6. Montrer que X + Y et X/(X + Y ) sont des v.a. indépendantes. Calculer la loi deX/(X + Y ).

Soit X et Y deux variables aléatoires réelles indépendantes de loi γa,λ et γb,λ respecti-vement.7. Déterminer la loi de X + Y .

Soit Z1, Z2, . . . , Zn des variables aléatoires réelles indépendantes de loi N (0, 1).8. Montrer que Z2

1 suit une loi γ1/2,1/2.9. Montrer que Z2

1 + · · · + Z2n suit une loi γn/2,1/2. (La loi γn/2,1/2 est également appelée

loi χ2(n)).

Exercice 3 Loi NormaleSoit X et Y deux variables aléatoires réelles indépendantes de loi N (0, 1).1. Notons ΦX(t) = E(eitX) la fonction caractéristique de X. Donner Re (ΦX(t)) et

Page 31: Recueil corrige (7)

Im (ΦX(t)) puis montrer à l'aide d'intégrations par parties que Φ′X(t) = −tΦX(t). Endéduire l'expression de ΦX .2. Soit θ ∈ [0, 2π]. Déterminer la loi de Xθ = X cos(θ) + Y sin(θ) et Yθ = −X sin(θ) +Y cos(θ).3. Les variables Xθ et Yθ sont-elles indépendantes ?

Exercice 4 Extrait du partiel d'avril 20081. Soient X et Y deux variables aléatoires indépendantes de loi N(m,σ2) et N(m′, σ′2).Quelle est la loi de X + Y ?2. SoientX1, . . . , Xn des variables aléatoires indépendantes, toutes de loiN(m,σ2). Quelle

est la loi de Xn =X1 + · · ·+Xn

n?

3. Montrer que

√n

σ(Xn −m) suit une loi N(0, 1).

4. Soit α ∈]0, 1[, montrer qu'il existe (sans l'expliciter) un unique nombre réel positif φαtel que ∫ φα

−φαe−x

2/2 dx√2π

= 1− α.

5. En déduire qu'il existe un intervalle Iα = [m− t,m + t], avec t à préciser en fonctiondes constantes de l'exercice, tel que P (Xn ∈ Iα) = 1− α.6. En déduire que pour tout t > 0 on a limn→∞ P (|Xn −m| > t) = 0.7. On applique 5) au cas où m = 1/2, σ = 1/2, n = 1000 et α = 0, 05. On a φα = 1, 96dans ce cas. Que peut-on dire de P(Xn ≤ 0, 45) ?

Page 32: Recueil corrige (7)

Correction de la feuille de TD 6

Exercice 1 Généralisation d'inégalités du coursSoit X une variable aléatoire réelle de carré intégrable sur (Ω,A,P).1. g positive donne E(g(X)1X/∈I) ≥ 0 et g minorée par b sur I donne E(g(X)1X∈I) ≥bP(X ∈ I).2. Markov : X positive, t > 0, g(x) = x et I = [t,∞[.Tchebyche : t > 0, g(x) = (x− E(X))2 et I =]−∞,E(X)− t] ∪ [E(X) + t,+∞[.3. Pour g(x) = (x + c)2 pour c > 0, on a bien g(x) ≥ 0 pour tout x et g(x) ≥ (t + c)2

pour x ≥ t > 0. Donc

P(X ≥ t) ≤ 1

(t+ c)2E[(X + c)2

].

Si E(X) = 0 et E(X2) = σ2, cela donne :

P(X ≥ t) ≤ σ2 + c2

(t+ c)2.

Le terme de droite est une fonction en c qui atteint son minimum au point c = σ2/t > 0et donne le résultat attendu.

Exercice 2 Loi Uniforme

Exercice 3 Loi Gamma1. Direct.2. On utilise le fait que Γ(a + 1) = aΓ(a) pour obtenir que l'espérance de cette loi esta/λ.3. Pour n = 1, ok. Supposons n ≥ 2 et S := V1 + . . . + Vn−1 de loi γn−1,λ. Soit g unefonction mesurable bornée de R dans R. On a

E(g(V1 + . . .+ Vn)) = E(g(S + Vn)) =

∫Rg(x+ y)µ(S,Vn)(dx, dy)

et

E(g(V1 + . . .+ Vn)) =

∫Rg(t)µV1+...+Vn(dt).

Comme f(v1, . . . , vn−1) = v1 + . . .+ vn−1 et g(vn) = v2n mesurables on en déduit que S et

Vn sont indépendantes car (V1, . . . , Vn−1) et Vn le sont,∫Rg(x+ y)µ(S,Vn)(dx, dy) =

∫ ∞0

dx

∫ ∞x

dtg(t)λn−1

Γ(n− 1)e−λtxn−2

=

∫ ∞0

g(t)λn−1

Γ(n− 1)e−λt

[xn−1/(n− 1)

]t0dt

=

∫Rg(t)

λn

Γ(n)exp(−λt)tn−11R+(t)dt

4. On peut utiliser la fonction de répartition. Avec un changement de variable on voit

Page 33: Recueil corrige (7)

que λX ∼ γa,1.5. Soit g une fonction mesurable bornée de R2 dans R2. On a

E(g(X + Y,X/Y )) =

∫R2

g(u, v)µ(X+Y,X/Y )(du, dv)

et

E(g(X + Y,X/Y )) =

∫R2

g f(x, y)µ(X,Y )(dx, dy)

où f(x, y) = (x+ y, x/y) dénie de (R∗+)2 vers (R∗+)2. Comme les variables X et Y sontindépendantes, le couple (X, Y ) a pour densité µX(dx)µY (dy) par rapport à la mesure deLebesgue sur R2.On fait alors le changement de variable u = x+ y, v = x/y, pour x > 0 et y > 0 ;Ceci est équivalent à x = uv/(v + 1) et y = u/(v + 1) pour u > 0 et v > 0.

On a de plus |J(u, v)| =∣∣∣∣ v/(v + 1) u/(v + 1)

1/(v + 1) −u/(v + 1)2

∣∣∣∣ =u

(v + 1)2. Il suit

E(g(X + Y,X/Y )) =

∫R2

g(u, v)u2a−1e−λu1u>0va−1

(v + 1)2a1v>0

λ2a

Γ(a)2dudv.

Les variables sont indépendantes, µX+Y (du) =λ2a

Γ(2a)u2a−1e−λu1u>0du et µX/Y (dv) =

Γ(2a)

Γ(a)2

va−1

(v + 1)2a1v>0dv.

6. Soit g une fonction mesurable bornée de R2 dans R2. On a

E(g(X + Y,X/(X + Y ))) =

∫R2

g(u, v)µ(X+Y,X/(X+Y ))(du, dv)

et

E(g(X + Y,X/(X + Y ))) =

∫R2

g f(x, y)µ(X+Y,X/(X+Y ))(dx, dy)

où f(x, y) = (x + y, x/(x + y)) dénie de (R∗+)2 vers (R∗+)2. Comme les variables X etY sont indépendantes, le couple (X, Y ) a pour densité µX(dx)µY (dy) par rapport à lamesure de Lebesgue sur R2.On fait alors le changement de variable u = x+ y, v = x/(x+ y), pour x > 0 et y > 0 ;Ceci est équivalent à x = uv et y = u(1− v) pour u > 0 et v ∈ (0, 1).

On a de plus |J(u, v)| =∣∣∣∣ v u

1− v −u

∣∣∣∣ = u. Il suit

E(g(X+Y,X/(X+Y ))) =

∫R2

g(u, v)λ2a

Γ(2a)u2a−1e−λu1u>0

Γ(2a)

Γ(a)2(v(1− v))a−1 10<v<1dudv.

Les variables sont indépendantes et on a de plus µX/(X+Y )(dv) =Γ(2a)

Γ(a)2(v(1− v))a−1 10<v<1dv.

7. Le seul point délicat est de calculer∫ t

0xa−1(t−x)b−1dx = ta+b−1

∫ 1

0ya−1(1− y)b−1dy =

ta+b−1Ca,b. La constante Ca,b est forcément égale à Γ(a)Γ(b)/Γ(a + b) en tenant comptede la normalisation.8. Si Z1 est de loi N (0, 1) et g une fonction mesurable bornée de R dans R. On a

E(g(X2)) =

∫Rg(u)µX2(du) E(g(X2)) =

∫Rg(x2)µX(dx) =

1√2π

∫Rg(x2)e−x

2/2dx.

Page 34: Recueil corrige (7)

Par parité de x 7→ g(x2)e−x2/2 on a E(g(X2)) =

2√2π

∫∞0g(x2)e−x

2dx =

2√2π

∫∞0g(y)e−y/2

dy

2√y

donc µX2(dx) =1√2πe−y/2y−1/21R+(y).

9. On le montre par récurrence. Pour n = 1 c'est vrai. Supposons que Sn−1 = Z21 +

. . . + Z2n−1 ∼ γn−1

2, 12et Zn ∼ N (0, 1). On a Sn = Sn−1 + Z2

n. Comme f(z1, . . . , zn−1) =

z21 + . . .+ z2

n−1 et g(xn) = z2n mesurables on en déduit que Sn−1 et Z2

n sont indépendantescar (Z1, . . . , Zn−1) et Zn le sont. On utilise ensuite la question 7 et 8 donnant Sn suit uneγn−1

2+ 1

2, 12

= γn2, 12.

Exercice 4 Loi NormaleSoit X et Y deux variables aléatoires réelles indépendantes de loi N (0, 1).1. On montre avec les indications que Φ′X(t) = −tΦX(t). En utilisant le fait que ΦX(0) = 1on obtient que log(ΦX(t)) = −t2/2 et ΦX(t) = exp(−t2/2).2. En utilisant l'indépendance et la question précédente on trouve ΦXθ(t) = ΦYθ(t) =exp(−t2/2). Ces variables sont donc de loi N (0, 1).3. On dénit hθ(x, y) = (x cos(θ) + y sin(θ),−x sin(θ) + y cos(θ)) sur R2. Par applicationdu théorème du transfert, si g est un fonction mesurable bornée de R2 dans R2, alors

E(g(Xθ, Yθ)) =

∫R2

g(u, v)µ(Xθ,Yθ)(du, dv)

et

E(g(Xθ, Yθ)) = E(g hθ(X, Y )) =

∫R2

g hθ(x, y)µ(X,Y )(dx, dy).

X et Y sont indépendantes donc (X, Y ) a pour densité e−(x2+y2)/2/(2π) par rapport à lamesure de Lebesgue sur R2. On fait le changement de variable u = x cos(θ) + y sin(θ),v = −x sin(θ) + y cos(θ) pour (x, y) ∈ R2. Ceci est équivalent à x = u cos(θ)− v sin(θ) ety = u sin(θ) + v cos(θ) pour (u, v) ∈ R2.

Le jacobien vaut |J(u, v)| =

∣∣∣∣ cos(θ) − sin(θ)sin(θ) cos(θ)

∣∣∣∣ = 1. On obtient, en utilisant le fait que

x2 + y2 = u2 + v2,

E(g hθ(X, Y )) =

∫R2

g(u, v)e−(u2+v2)/2/(2π)dudv.

Par conséquent, µ(Xθ,Yθ) = µXθ ⊗ µYθ . Ces deux variables aléatoires sont indépendantes.

Exercice 5 Voir Test partiel du 11 avril 2008

Page 35: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 7

Fonction caractéristique

Exercice 1 Lois symétriques, fonction caractéristiqueLa loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont mêmeloi.1. À quelle condition une loi de densité f par rapport à la mesure de Lebesgue est-ellesymétrique ?2. Soit X et Y des variables aléatoires indépendantes de même loi. Exprimer en fonctionde la fonction caractéristique ΦX de X les fonctions caractéristiques suivantes : Φ−X ,ΦX+Y , ΦX−Y .3. Montrer que la loi d'une variable aléatoire réelle X est symétrique si, et seulement si,pour tout t ∈ R, ΦX(t) ∈ R.4. Soit Y une v.a. réelle, et Z une v.a. indépendante de Y et de loi donnée par :

P(Z = 1) =1

2= P(Z = −1).

Montrer que la loi de X = ZY est symétrique et calculer sa fonction caractéristique (enfonction de ΦY ). Si Y admet une densité f , quelle est la loi de X ?

Exercice 2 Calculs de fonctions caractéristiques1. Calculer ΦX où X suit la loi E(λ). En déduire ΦZ où Z suit la loi γn,λ pour n ∈ N∗.2. Soit X une variable aléatoire suivant la loi de Laplace, c'est-à-dire que la loi de X apour densité x 7→ 1

2e−|x| sur R. Montrer que, pour t ∈ R, ΦX(t) = 1

1+t2. (on pourra utiliser

la dernière question de l'exercice précédent)3. En déduire la fonction caractéristique d'une variable aléatoire suivant une loi de Cauchyde paramètre 1 (densité f(x) = 1

π(1+x2)). Quelle est la loi de la moyenne de deux variables

aléatoires de loi de Cauchy de paramètre 1 indépendantes ?4. Soit X1, X2, X3, X4 des variables aléatoires indépendantes de loi N (0, 1). Rappeler lavaleur de ΦXi(t). Calculer ΦX1X2 (en utilisant le théorème de Fubini), puis ΦX1X2+X3X4 ,et en déduire la loi de X1X2 +X3X4.

Loi conditionnelle (cas général, cas à densité)

Exercice 3 Soit X et Y deux variables aléatoires réelles indépendantes. Quelle est la loiconditionnelle de X sachant Y ? Plus généralement, pour ϕ : R2 → R mesurable, quelleest la loi conditionnelle de ϕ(X, Y ) sachant Y ?

Exercice 4 Soit X et Y deux variables aléatoires indépendantes de loi N (0, 1). Détermi-ner la loi du couple (X,X + Y ), et en déduire la loi conditionnelle de X sachant X + Y .

Page 36: Recueil corrige (7)

Exercice 5 Soit X, Y des variables aléatoires indépendantes de loi N (0, 1).1. Déterminer la loi du couple (X,Z) = (X,X2 + Y 2).2. En déduire la loi de X2 + Y 2 puis la loi conditionnelle de X sachant X2 + Y 2.3. Calculer E[ |X| |X2 + Y 2].4. On note R =

√Z et on dénit Θ ∈ [0, 2π[ par les équations X = R cos Θ et

Y = R sin Θ. Déterminer la loi du couple (R,Θ). Ces variables sont-elles indépendantes ?Retrouver alors rapidement le résultat de la question précédente.

Page 37: Recueil corrige (7)

Exercice 6 Loi conditionnelle autour de la loi de PoissonSoient X1 et X2 des variables aléatoires, indépendantes, de loi de Poisson de paramètreλ1 et λ2 respectivement.1. Calculer la loi de X1 +X2.2. Calculer la loi conditionnelle de X1 sachant X1 + X2. Identier une loi connue puisinterpréter.

Exercice 7 Loi conditionnelle autour de la loi de BernoulliSoient X1, . . . , Xn des variables aléatoires de Bernoulli indépendantes toutes de même loi :P(Xi = 1) = p, P(Xi = 0) = 1− p pour un p ∈]0, 1[. Soit Sn = X1 + . . .+Xn.1. Quelle est la loi de Sn ?2. Quelle est la loi du couple (X1, Sn) ?3. Quelle est la loi conditionnelle de X1 sachant Sn ?4. Quelle est la loi de conditionnelle de Sn sachant X1 ?

Exercice 8 Loi conditionnelle autour de la loi exponentielleSoient T1 et T2 des variables aléatoires, indépendantes, de loi Exp(λ).1. Calculer la loi de T1 + T2.2. Calculer la probabilité conditionnelle P(T1 ∈ [a, b]|T1 ≤ t ≤ T1 + T2) : Qu'en concluez-vous ?

Page 38: Recueil corrige (7)

Correction de la feuille de TD 7

Fonction caractéristique

Exercice 1 Lois symétriques, fonction caractéristiqueLa loi d'une variable aléatoire réelle X est dite symétrique lorsque X et −X ont mêmeloi.1. X de loi f(x)dx. Il faut et il sut que f soit paire (ou plutôt, soit égale Lebesgue-presque-partout à une fonction paire) pour que la loi de X soit symétrique. En eet laloi de −X est de densité −f ; et si deux densités f et g fournissent la même loi, ellessont telles que

∫Af(x)dx =

∫Ag(x)dx pour tout borélien A, d'où 0 =

∫f−g>0(f − g) −∫

f−g<0(f − g) =∫

R |f(x)− g(x)|dx et donc f(x) = g(x) dx-presque partout.

2. Φ−X(t) = ΦX(−t) = ΦX(t) (car X(ω) ∈ R), ΦX+Y = (ΦX)2, ΦX−Y = |ΦX |2.3. ΦX(t) ∈ R ssi ΦX(t) = ΦX(t) ssi ΦX(t) = Φ−X(t).4. La variable Z est symétrique, et est indépendante de Y . Donc le couple (−Z, Y ) amême loi que (Z, Y ). Donc −ZY et ZY ont même loi. Et, en découpant selon les valeursde Z, ΦX(t) = 1

2(E[eitY ] + E[e−itY ]) = Re(ΦY (t)). Si Y a pour densité f , −Y a pour

densité y 7→ f(−y), donc ΦX(t) = 12(ΦY (t) + Φ−Y (t)) =

∫eity f(y)+f(−y)

2dy pour tout t, ce

qui montre que X a pour densité f(y)+f(−y)2

.

Exercice 2 Calculs de fonctions caractéristiques1. Si X suit la loi E(λ), ΦX(t) = λ

λ−it . Comme (voir che 4) la loi γn,λ est la loi de lasomme de n variables de loi exponentielle indépendantes,

ΦZ(t) = (ΦX(t))n =

λ− it

)n.

2. On peut voir que, si on note f(x) = e−x1R+(x) la densité de la loi exponentielle deparamètre 1, alors 1

2e−|x| = f(x)+f(−x)

2, donc X se déduit d'une variable Y de loi E(1) de

la même façon qu'à la n de l'exercice 1. Ainsi, on a ΦX(t) = Re( 11−it) = 1

1+t2.

3. Comme ΦX est intégrable sur R on a, par la formule d'inversion de Fourier (ou Corol-laire II.14 du cours 7), 1

2e−|x| = 1

∫e−itxΦX(t)dt où X est comme à la question d'avant.

En réécrivant cette égalité, on a∫e−itx dt

π(1+t2)= e−|x|, c'est-à-dire ΦY (t) = e−|t| si Y

est de loi de Cauchy de paramètre 1. Soit X1, X2 de loi de Cauchy de paramètre 1.ΦX1+X2

2(t) = E[ei

t2

(X1+X2)] = ΦX1(t/2)2 = e−|t| = ΦX1(t). Donc la loi deX1+X2

2est celle de

X1.4. On a :

ΦX1X2(t) =

∫ (∫e−itxye−

y2

2dy√2π

)e−

x2

2dx√2π

=

∫ΦX2(tx)e−

x2

2dx√2π

=

∫e−(t2+1)x

2

2dx√2π

=1√

1 + t2.

Page 39: Recueil corrige (7)

Puis ΦX1X2+X3X4(t) = 1√1+t2

, et la question précédente montre que X1X2 + X3X4 suit la

loi 12e−|t|dt.

Lois conditionnelles

Exercice 3 examen de rattrapage du 25 juin 2008. Pour toute f : R → R mesurablebornée, on a :

E[f(ϕ(X, Y ))] =

∫f(ϕ(x, y))dµ(X,Y )(x, y) =

∫ (∫f(ϕ(x, y))dµX(x)

)dµY (y)

=

∫ (∫f(φ)dµϕ(X,y)(φ)

)dµY (y),

donc la loi conditionnelle de ϕ(X, Y ) sachant Y = y est la loi de ϕ(X, y).

Exercice 4 On trouve (X,Z) = (X,X + Y ) de densité e−x2

2 e−(z−x)2

21

2π, et comme Z a

pour loi N (0, 2), la loi de X conditionnellement à Z a pour densité e−x2

2− (z−x)2

2+ z2

41√πet

l'exposant s'écrit −(x2 − zx+ z2/4) = −(x− z2)2, donc c'est la loi N ( z

2, 2).

Exercice 5 Loi conditionnelle autour de la loi normaleSoit X, Y des variables aléatoires indépendantes de loi N (0, 1).1. Pour toute fonction bornée f : R2 → R, on a :

E[f(X,Z)] =

∫R

∫Rf(x, x2 + y2)e−x

2/2e−y2/2dx dy

= 2

∫R

∫ ∞0

f(x, x2 + y2)e−x2/2e−y

2/2dy dx

= 2

∫R

∫ ∞x2

f(x, z)e−z/2dz

2√z − x2

dx

=

∫R

∫Rf(x, z)1z≥x2

e−z/2

2π√z − x2

dx dz,

donc la loi du couple (X,Z) est de densité f(X,Z)(x, z) = e−z/2

2π√z−x21z≥x2 par rapport à la

mesure de Lebesgue sur R2.2. Alors la loi de Z est de densité :

fZ(z) =

∫Rf(X,Z)(x, z)dx = 1R+(z)

e−z/2

∫ √z−√z

dx√z − x2

=1

2e−z/21R+(z)

(en reconnaissant la dérivée de arcsin x√zdans l'intégrale), autrement dit Z suit la loi

exponentielle de paramètre 1/2. Donc la loi conditionnelle de X sachant Z est p(z, dx) =fX|Z=z(x)dx où, pour z > 0 :

fX|Z=z(x) =f(X,Z)(x, z)

fZ(z)=

1|x|≤√z√z − x2

1

π,

Page 40: Recueil corrige (7)

et fX|Z=x(x) = 0 si z ≤ 0.3. Alors :

E[ |X| |Z] =

∫R|x|fX|Z(x)dx

=2

π

∫ √Z0

x√Z − x2

dx

=2

π

[−√Z − x2

]√Zx=0

=2√Z

π.

4. Voir corrigé de l'examen, ou : On note φ : (x, y) 7→ (r, θ) l'application de passage encoordonnées polaires ; c'est un C1-diéo de R2 \ (R+ × 0) dans ]0,+∞[×]0, 2π[, avec|Jφ−1(r, θ)| = r. Pour toute fonction mesurable bornée f : R2 → R, on a donc :

E[f(R,Θ)] = E[f(φ(X, Y ))] =

∫R

∫Rf(φ(x, y))e−(x2+y2)/2dx dy

=

∫ ∞0

∫ 2π

0

f(r cos θ, r sin θ)e−r2/2r dr

2π,

donc (R,Θ) a pour densité re−r2/21]0,+∞[(r)

1]0,2π[(θ)

2π. R et Θ sont indépendantes, de lois

respectives re−r2/21]0,+∞[(r)dr et la loi uniforme sur [0, 2π]. La loi conditionnelle de X

sachant Z est la loi conditionnelle de R cos Θ =√Z cos Θ sachant Z. Or Z et Θ sont

indépendantes car R =√Z et Θ le sont. Par l'exercice 3, la loi de X sachant Z = z est

donc la loi de√z cos Θ. Notamment, on a donc :

E[ |X| |Z = z] =√z E[ | cos Θ| ] = 4

√z

∫ π/2

0

cos θdθ

2π=

2√z

π,

comme obtenu plus haut. On pourrait aussi retrouver la densité fX|Z=z(x).

Exercice 6 Loi conditionnelle autour de la loi de Poissonexamen du 9 juin 2008

Exercice 7 Loi conditionnelle autour de la loi de bernoullitest partiel du 11 avril 2008

Exercice 8 Loi conditionnelle autour de la loi de exponentielleexamen de rattrapage du 25 juin 2008

Page 41: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 8

Modes de convergence et lemme de Borel-Cantelli

Quelques Rappels

Par dénitionlim inf

nAn =

⋃n≥1

⋂k≥n

Ak,

donc ω ∈ lim infnAn ⇔ il existe n tel que ω ∈ Ak pour tout k ≥ n. lim infnAn contientles éléments ω ∈ Ω qui appartiennent à tous les An à partir d'un certain rang. D'autrepart

lim supn

An =⋂n≥1

⋃k≥n

Ak

donc ω ∈ lim supnAn ⇔ pour tout n, il existe k(n) ≥ n tel que ω ∈ Ak(n) donc lim supnAncontient les éléments ω ∈ Ω qui appartiennent à une innité de An.On savait déjà que pour une suite d'événements (An)n :

* P(∪∞n=1An) ≤∑∞

n=1 P(An) avec une égalité dans le cas où les An sont deux à deuxdisjoints.

* limn→∞ P(An) = P(∪∞n=1An) lorsque (An)n est croissante.

* limn→∞ P(An) = P(∩∞n=1An) lorsque (An)n est décroissante.

Posons In = ∩k≥nAk et Jn = ∪k≥nAk. On a donc P(lim supnAn) = limn→∞ P(∪k≥nAk) =limn→∞ P(Jn) et P(lim infnAn) = limn→∞ P(∩k≥nAk) = limn→∞ P(In).De plus pour tout n

In ⊂ An ⊂ Jn

et par conséquent

P(lim infn

An) = limn→∞

P(In) ≤ lim infn

P(An) ≤ lim supn

P(An) ≤ limn→∞

P(Jn) = P(lim supn

An).

Borel-Cantelli :

*∑

n P(An) <∞⇒ P(lim supnAn) = 0.

* (An) mutuellement indépendants et∑

n P(An) =∞⇒ P(lim supnAn) = 1.

Exercice 1 Soit (Xn)n≥0 une suite de variables aléatoires indépendantes de loi exponen-tielle de paramètre λ > 0. On pose

Y = lim supn

Xn

lnn.

Page 42: Recueil corrige (7)

Le but est de montrer que Y = 1λpresque surement.

1. Montrer que

P(

lim supn

Xn

lnn≥ 1

λ

)≤ P

(lim sup

n

Xn

lnn≥ 1

λ

).

2. Montrer que P(lim supn

Xnlnn≥ 1

λ

)= 1. En déduire que P(Y ≥ 1

λ) = 1.

3. Montrer que, pour tout ε > 0,

P(

lim supn

Xn

lnn>

1 + ε

λ

)≤ P

(lim sup

n

Xn

lnn>

1 + ε

λ

).

4. Montrer que P(lim supn

Xnlnn

> 1+ελ

)= 0. En déduire que P(Y > 1+ε

λ) = 0.

5. En déduire que P(Y = 1λ) = 1.

6. Montrer que Xnlnn

converge vers 0 en probabilité. Cette suite converge-t-elle presquesûrement vers 0 ?

Exercice 2 Soit (pn)n≥1 une suite dans [0, 1] qui tend vers 0. Soit (Xn)n≥1 une suite devariables aléatoires indépendantes de loi Bernoulli de paramètre pn : P(Xn = 1) = pn =1− P(Xn = 0).1. Montrer que Xn converge vers 0 en probabilité.2. Sous quelle condition sur la somme

∑n pn la suite (Xn)n≥1 converge-t-elle aussi presque

sûrement vers 0 ?

Exercice 3 Soit (Un)n∈N une suite de variables aléatoires indépendantes de loi de Ber-noulli de paramètre p (i.e. qui valent 1 avec probabilité p et 0 avec probabilité q = 1− p).Pour tout n, on note Yn = UnUn+1, puis Sn = Y1 + . . .+ Yn.1. Pour tout n, quelle est la loi de Yn ?2. A quelle condition sur n et m tels que 1 ≤ n < m les variables aléatoires Yn et Ymsont-elles indépendantes ?3. Calculer E[YnYm] puis calculer E[Sn/n].4. Montrer qu'il existe une constante C telle que, pour tout n, Var[Sn] ≤ Cn.5. Démontrer que la suite Sn/n converge en probabilité vers une constante à préciser.

Page 43: Recueil corrige (7)

Correction de la feuille de TD 8

Exercice 1

1. Decoule de l' implication suivante Soit (xn)n≥0 une suite de nombres réels. On rappelleque lim supn xn = limn supk≥n xk. Alors on peut montrer que

xn ≥ 0 pour une innité de n =⇒ lim supn

xn ≥ 0

2. On a P(Xnlnn≥ 1

λ

) = P(

Xn ≥ lnn

λ

) = e− lnn = n−1. Donc

∑n

P(

Xn

lnn≥ 1

λ

) =

∑n

1

n=∞.

Comme les variables sont indépendantes, Borel Cantelli implique P(lim supnXnlnn≥ 1

λ

) =

1 et donc avec 1. P(Y ≥ 1λ) = 1.

3. Decoule de l' implication suivante Soit (xn)n≥0 une suite de nombres réels. On rappelleque lim supn xn = limn supk≥n xk. Alors on peut montrer que

lim supn

xn > 0 =⇒ xn > 0 pour une innité de n.

4. Maintenant ∑n

P(

Xn

lnn>

1 + ε

λ

) =

∑n

n−(1+ε) <∞.

Borel Cantelli nous dit alors que P(lim supnXnlnn

> 1λ(1 + ε)

) = 0. Avec 3. P(Y > 1

λ(1 +

ε)) = 0.5. On laissant tendre ε vers 0 on obtient par σ-continuité que P(Y > 1

λ) = limε→0 P(Y >

1+ελ

) = 0. Donc P(Y = 1λ) = P(Y ≥ 1

λ)− P(Y > 1

λ)=1-0=1.

6. On a P(Xnlnn≥ a) = P(X1 ≥ alnn)→ 0.

Exercice 2

1. On a pour tout ε > 0 que P(Xn ≥ ε) ≤ pnn→∞−→ 0.

2. On pose Λn = Xn = 1. Λ = lim supn Λn =⋂n

⋃k≥n Λk est l'ensemble des points

ω ∈ Ω pour lesquelles Xn(ω) ne converge pas vers 0. D'après Borel-Cantelli P(Λ) = 0 ssi∑n P(Λn) <∞. Donc (Xn)n converge prèsque surement vers 0 ssi

∑n pn <∞.

Exercice 3 Voir examen du 9 juin 2008

Page 44: Recueil corrige (7)

Correction de l'exercice 1 du Td 8

1. Montrons que lim supXnlnn≥ 1/λ ⊂ lim sup

Xn

lnn≥ 1/λ.

Soit ω ∈ lim supXnlnn≥ 1/λ. Alors ω appartient à une innité d'événements Xn

lnn≥ 1/λ

c'est-à-dire que l'ensemble n ∈ N, Xn(ω)lnn≥ 1/λ est inni.

Par conséquent, lim sup Xn(ω)lnn≥ 1/λ ; soit encore ω ∈ lim sup Xn

lnn≥ 1/λ.

2. On a P(Xnlnn≥ 1

λ

) = P(

Xn ≥ lnn

λ

) = e− lnn = n−1. Donc

∑n

P(

Xn

lnn≥ 1

λ

) =

∑n

1

n=∞.

Comme les variables sont indépendantes, Borel Cantelli impliqueP(lim supn

Xnlnn≥ 1

λ

) = 1 et donc avec la question 1. P(Y ≥ 1

λ) = 1.

3. Montrons que lim supXn

lnn> 1+ε

λ ⊂ lim supXn

lnn> 1+ε

λ.

Soit ω ∈ lim supXn

lnn> 1+ε

λ on a alors lim sup

Xn(ω)

lnn> 1+ε

λ.

Or il existe une sous-suite de

(Xn(ω)

lnn

)n∈N

qui converge vers lim supXn(ω)

lnn.

Donc l'ensemble n ∈ N, Xn(ω)lnn

> 1+ελ est inni.

Ce qui signie que ω ∈ lim supXnlnn

> 1+ελ.

4. Maintenant ∑n

P(

Xn

lnn>

1 + ε

λ

) =

∑n

n−(1+ε) <∞.

Borel Cantelli nous dit alors que P(lim supnXnlnn

> 1λ(1 + ε)

) = 0.

Avec la question 3. P(Y > 1λ(1 + ε)) = 0.

5. En laissant tendre ε vers 0 on obtient par σ-continuité queP(Y > 1

λ) = limε→0 P(Y > 1+ε

λ) = 0. Donc P(Y = 1

λ) = P(Y ≥ 1

λ)− P(Y > 1

λ)=1-0=1.

6. On a P(Xnlnn≥ ε) = P(X1 ≥ εlnn)→ 0.

Autrement dit, il est clair que cette variable converge en probabilité vers 0.On peut montrer qu'elle ne converge pas ps vers 0 en utilisant l'équivalence

Yn →ps Y si et seulement si ∀ε > 0 P(lim supn|Yn − Y | > ε) = 0.

En eet, pour Yn = Xn/ lnn et Y = 0 ici, on voit très rapidement apparaître une contrac-diction avec le résultat de la question 5.

Page 45: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 9

Exercice 1 Soit X et Y deux variables aléatoires indépendantes de lois respectives E(λ)avec λ > 0 et E(µ) avec µ > 0. On note Z = min(X, Y ).1. Calculer la fonction de répartition de Z.2. Calculer P(X ≤ Y ).3. Montrer que les variables Z et 1Z=X sont indépendantes.Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0, 1[et E(λ) avec λ > 0. On note Z = min(X, Y ).4. Calculer les fonctions de répartition de X et Y .5. Calculer P(X ≤ Y ).6. Pour k ∈ N?, calculer P(Z = k).7. Pour ` ∈ N, a et b deux réels tels que ` < a < b < `+ 1, calculer P(a < Z < b).

Exercice 2

1. Soit X0, X1, . . . , Xn des variables aléatoires indépendantes et identiquement distri-buées. SoitN une variable aléatoire de loi binomiale B(n, p) indépendante deX0, X1, . . . , Xn.On pose

U =N∑i=0

Xi.

Exprimer la fonction caractéristique de U en fonction de celle de X0.2. Soit (Xn)n≥1 une suite de variables aléatoires indépendantes et de même loi de Bernoullide paramètre p. Soit N une variable aléatoire de loi de Poisson de paramètre λ > 0indépendante de (Xn)n≥1. On pose

V =

0 si N = 0,∑N

i=1 Xi si N ≥ 1.

Calculer la fonction génératrice de V . Quelle loi reconnaissez-vous ?

Exercice 3

1. Soit (Xn)n≥1 une suite de variables aléatoires indépendantes et de même loi N (0, 1).

Montrer que la suite de terme général1

n

∑ni=1X

2i e

Xi converge presque sûrement lorsque

n tend vers l'inni vers une limite que l'on précisera.2. Soit (Yn)n≥1 et (Zn)n≥1 des variables aléatoires indépendantes et de même loi uniformesur [0, 1]. Déterminer le comportement lorsque n tend vers l'inni de la suite de terme

général1

n

∑ni=1 1Yi+Zi≤1.

3. NotonsMn = max(Y1, . . . , Yn). Déterminer la loi deMn puis montrer queMn convergeen probabilité vers 1.

Page 46: Recueil corrige (7)

Correction de la feuille de TD 9

Exercice 1 Soit X et Y deux variables aléatoires indépendantes de lois respectives E(λ)avec λ > 0 et E(µ) avec µ > 0. On note Z = min(X, Y ).1. Z est une variable positive. Pour z > 0, on a P(Z ≤ z) = 1 − P(X > z, Y > z) =1 − P(X > z)P(Y > z) = 1 − e−(λ+µ)z donc Z suit une loi exponentielle de paramètreλ+ µ.

2. P(X ≤ Y ) =∫

R2 1x≤yµ(X,Y )(dx, dy) =Tonelli

∫∞0

(∫∞xµe−µydy

)λe−λxdx =

λ

λ+ µ.

3. Il est susant de montrer que pour A ⊂ R borélien : P(Z ∈ A,1Z=X = 1) = P(Z ∈A)P(1Z=X = 1). On a

P(Z ∈ A,1Z=X = 1) = P(X ≤ Y,X ∈ A)

=

∫A

(∫ ∞x

µe−µydy

)λe−λx1R+(x)dx

= λ

∫A

e−(λ+µ)x1R+(x)dx.

D'autre part, P(Z ∈ A)P(1Z=X = 1) = P(Z ∈ A)P(X ≤ Y ) =∫A

(λ+µ)e−(λ+µ)z1R+(z)dzλ

λ+ µ.

Soit X et Y deux variables aléatoires indépendantes de lois respectives G(p) avec p ∈]0, 1[et E(λ) avec λ > 0. On note Z = min(X, Y ).4. X est une variable à valeurs dans N? et pour x ≥ 1, on a :

P(X ≤ x) = P(X ≤ [x]) =

[x]∑k=1

p(1− p)k−1 = 1− (1− p)[x].

Pour Y on a pour tout y : P(Y ≤ y) = (1− e−λy)1R+(y).5.

P(X ≤ Y ) =∞∑k=1

P(X ≤ Y,X = k) =∞∑k=1

P(Y ≥ k)P(X = k) =∞∑k=1

p(1−p)k−1e−λk =pe−λ

1− e−λ(1− p).

6. Pour k ∈ N?, P(Z = k) = P(X = k, Y > k) car Y est à densité donc P(Z = k) =p(1− p)k−1e−λk.7. Pour ` ∈ N, a et b deux réels tels que ` < a < b < `+ 1, on a :P(a < Z < b) = P(a < Y < b,X ≥ ` + 1) = P(a < Y < b)P(X ≥ ` + 1) = P(a < Y <b)(1− P(X ≤ `)) = (e−λa − e−λb)(1− p)`.

Exercice 2

1. On pose U =∑N

i=0Xi. φU(t) = E[eitU ] = E[eitU (∑n

k=0 1N=k)] =∑n

k=0 E[eitPkj=0Xj ]P(N =

k) on trouve alors facilement que φU(t) = φX0(t) (pφX0(t) + 1− p)n.2. On pose V =

(∑Ni=1Xi

)1N≥1.GV (s) = E[sV ] = E[sV (

∑∞k=0 1N=k)] =

∑∞k=0 E[sV 1N=k] =

P(N = 0)+∑∞

k=1 E[sPkj=1Xj1N=k] = e−λ+

∑∞k=1(1−p+sp)ke−λ

λk

k!= eλp(s−1). On reconnait

la loi de Poisson de paramètre λp.

Page 47: Recueil corrige (7)

Exercice 3

1. E[X2eX ] = 2e1/2. On a des variables aléatoires indépendantes de même loi intégrablesdonc d'après la loi forte des grands nombres on a la convergence ps vers 2e1/2.2. E[1Y+Z≤1] = 1/2. On a des variables aléatoires indépendantes de même loi intégrablesdonc d'après la loi forte des grands nombres on a la convergence ps vers 1/2.3. Notons Mn = max(Y1, . . . , Yn). On a pour x < 0 P(Mn ≤ x) = 0 et pour x > 1P(Mn ≤ x) = 1. Pour x ∈ [0, 1], on a P(Mn ≤ x) = P(Y1 ≤ x)n = xn.P(|Mn − 1| > ε) = (1− ε)n10<ε≤1. Donc cette probabilité tend vers 0 pour tout ε > 0.

Page 48: Recueil corrige (7)

Université Claude Bernard Lyon 1 Probabilités

Année universitaire 2008-2009

Feuille de TD 10

Exercice 1

Montrer que, dans une suite de lancers indépendants de pièces de monnaie identiques, laséquence PFPFF (Pile, Face) apparaît une innité de fois. Préciser ce résultat à l'aide dela loi forte des grands nombres.

Exercice 2

Soit (Xn)n≥1 une suite de variables aléatoires indépendantes, de même loi. On note X =X1. On suppose E[X] = 0 et E[X4] <∞. Le but de l'exercice est de démontrer la loi fortedes grands nombres pour la suite (Xn)n. On note, pour tout n, Sn = X1 + · · ·+Xn.1. Montrer que, pour tout n, E[S4

n] = nE[X4] + 3n(n− 1)E[X2]2.2. En déduire que, pour tout ε > 0,

∑n P(|Sn| > nε) converge.

3. Conclure.

Exercice 3 Soit (Xn)n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).1. Montrer la convergence en probabilité suivante :

1

lnnmax

1≤k≤nXk

(p)−→n

1

λ.

2. Démontrer que la suite de terme général max1≤k≤nXk − lnnλ

converge en loi vers unelimite à déterminer.

Exercice 4

1. Montrer que si (Xn)n converge en loi vers une variable aléatoire constante c, alors laconvergence a lieu en probabilité.2. Donner un exemple de suite (Xn)n≥0 qui converge en loi mais pas en probabilité (etdonc pas presque sûrement). Indication : utiliser par exemple X de loi N (0, 1) et −X,qui a même loi.

Exercice 5 Soient X1, . . . , Xn des variables aléatoires indépendantes de loi exponentielle

de paramètre λ > 0. On pose Xn =X1 + · · ·+Xn

net Zn = 1/Xn.

1. Montrer que Zn converge presque sûrement vers λ quand n tend vers ∞.2. En supposant n susamment grand pour que cela se justie, par quelle loi gaussiennepeut-on approcher la loi de Xn ?3. Soit N une variable aléatoire de loi N(0, 1), montrer qu'il existe un unique φ ∈ R+ telque P(|N | ≤ φ) = 0, 95.4. En déduire un intervalle de la forme I = [1/λ − β, 1/λ + β], avec β à déterminer, telque P(Xn ∈ I) = 0, 95.5. En déduire ensuite un intervalle de la forme J = [α1λ, α2λ], avec α1, α2 à déterminer,tel que P(Zn ∈ J) = 0, 95.6. Application numérique : calculer J , en fonction de λ inconnu, pour n = 10000 etφ = 1, 96.

Page 49: Recueil corrige (7)

Correction de la feuille de TD 10

Exercice 1 (Xn)n≥0 suite i.i.d. de loi P(Xn = F ) = 1/2 = 1− P(Xn = P ). On appliqueBorel-Cantelli aux événements indépendants

A5n = (X5n, X5n+1, X5n+2, X5n+3, X5n+4) = (P, F, P, F, F )

qui ont tous même proba de sorte que la série∑

n P (A5n) diverge grossièrement. La loi desgrands nombres donne quant à elle la fréquence asymptotique d'apparition de la séquence :presque-sûrement,

1

n]1 ≤ k ≤ n|(Xk, Xk+1, Xk+2, Xk+3, Xk+4) = (P, F, P, F, F ) =

1

n

∑1≤5k≤n

1A5k+· · ·+ 1

n

∑1≤5k+4≤n

1A5k+4−→n

1

25

(on découpe l'ensemble selon le résidu de k modulo 5 de façon à avoir des v.a. indépen-dantes).

Exercice 2

Soit (Xn)n≥1 une suite de variables aléatoires indépendantes, de même loi. On note X =X1. On suppose E[X] = 0 et E[X4] <∞. Le but de l'exercice est de démontrer la loi fortedes grands nombres pour la suite (Xn)n.1. Montrer que, pour tout n, E[S4

n] = nE[X4] + 3n(n− 1)E[X2]2. (développer...)2. Pour tout ε > 0,

P(|Sn| > nε) = P(|Sn|4 > n4ε4) ≤ E[S4n]

n4ε4∼n

3E[X2]2

n2ε4.

3. Pour tout p ∈ N∗, en prenant ε = 1/p, par Borel-Cantelli, il existe p.s. n0 tel que,pour n ≥ n0,

|Sn|n≤ 1

p. Comme une intersection dénombrable d'événements presque sûrs

est presque sûre, on a : p.s., pour tout p ∈ N∗, il existe n0 tel que, pour n ≥ n0,|Sn|n≤ 1

p,

c'est à dire que la suite (Sn/n)n converge vers 0.

Exercice 3 Soit (Xn)n≥1 une suite de variables aléatoires indépendantes, de loi E(λ).1. Soit ε > 0. On a :

P(1

lnnmax

1≤k≤nXk −

1

λ> ε) = P(Xk > (

1

λ+ ε) lnn)n

= exp(−n(1 + λε) lnn)→n 0

et, si ε < 1/λ :

P(1

lnnmax

1≤k≤nXk −

1

λ< −ε) = (1− exp(−(1− λε) lnn))n = exp(n ln(1− 1

n1−ελ ))→n 0,

et cette proba est nulle si ε > 1/λ.2. Pour t ≤ 0, P(Zn ≤ t) = 0 et on a, pour tout t > 0 :

P(Zn ≤ t) = P(Xk −lnn

λ≤ t)n

= (1− e−λt

n)n →n e

−e−λt .

Page 50: Recueil corrige (7)

Donc Zn converge en loi vers la loi ayant pour fonction de répartition F (t) = e−e−λt

1[0,+∞[(t).En dérivant, on voir que c'est aussi la loi de densité λe−λte−e

−λt1[0,+∞[(t). Il s'agit d'une

loi de Gumbel.

Exercice 4

1. Si (Xn)n converge en loi vers la variable aléatoire constante c, alors : pour tout ε > 0,

P(|Xn − c| > ε) = 1− P(c− ε < Xn < c+ ε)→n 0

par convergence des fonctions de répartition aux points de continuité de la limite (ici,partout sauf en c).2. X de loi N (0, 1). Alors −X a même loi, donc la suite Xn = (−1)nX converge en loivers X ; or Xn−X = 0 si n est pair et −2X si n est impair donc la suite P(|Xn−X| > 1)ne converge pas vers 0.

Exercice 5

1. Par la loi des grands nombres (X1 integrable) on a Xn →ps E[X1] = 1/λ. DoncZn →ps λ.2. Par le T.C.L. si Sn = nXn alors

Sn − nE[X1]√n

∼ N(0, σ(X1))

donc X ∼ N(1/λ,1√nλ

).

3. La fonction x 7→∫ x−x e

−t2/2dt/√

2π est continue, croissante de 0 à 1 donc le théorème desvaleurs intermédiaires (si I intervalle de R et f dénie sur I à valeurs réelles et continuealors f(I) est un intervalle.)4.√nλ(X − 1/λ) ∼ N(0, 1) donc

P(√nλ|X − 1/λ| < φ) = 0.95

c'est à dire P(|X − 1/λ| < φ/(√nλ)) = 0.95 donc β = φ/(

√nλ).

5. P(1/λ+ φ/(√nλ) ≤ X ≤ 1/λ+ φ/(

√nλ)) = 0.95 est equivalent à

P(λ(1/(1 + φ/√n)) ≤ Zn ≤ λ(1/(1− φ/

√n))) = 0.95

donc on poseα1 = λ(1/(1 + φ/

√n)) et α2 = λ(1/(1− φ/

√n)).

6. φ/√n = 0.0196 donc α1 = 0.98 et α2 = 1.02 d'ou J = [0.98λ, 1.02λ].