Table des matières...= lim n!1P k+n i=k B i = lim n!1p n+1 = 0. Ainsi B est une union dénombrable...

59
Sorbonne Université M2 Agrégation Collection d’exercices Solution. 4 décembre 2020 Table des matières 1 Manipulation d’événements, indépendance 2 1.1 À savoir faire/classiques .............................. 2 1.2 Pour pratiquer ................................... 4 2 Variables aléatoires, calculs de lois, moments 6 2.1 Exercices généraux ................................. 6 2.2 Variables discrètes, les classiques ......................... 7 2.3 Variables discrètes, pour pratiquer ........................ 10 2.4 Variables réelles, les classiques ........................... 13 2.5 Variables réelles, pour pratiquer .......................... 17 2.6 Fonction caractéristique, les classiques ...................... 24 3 Convergence de variables aléatoires 27 3.1 Convergence, quelques classiques ......................... 27 3.2 Borel-Cantelli, loi des grands nombres : les classiques .............. 31 3.3 Pour pratiquer ................................... 32 4 Exercices supplémentaires 44 1

Transcript of Table des matières...= lim n!1P k+n i=k B i = lim n!1p n+1 = 0. Ainsi B est une union dénombrable...

  • Sorbonne Université M2 Agrégation

    Collection d’exercicesSolution. 4 décembre 2020

    Table des matières

    1 Manipulation d’événements, indépendance 21.1 À savoir faire/classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.2 Pour pratiquer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

    2 Variables aléatoires, calculs de lois, moments 62.1 Exercices généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2 Variables discrètes, les classiques . . . . . . . . . . . . . . . . . . . . . . . . . 72.3 Variables discrètes, pour pratiquer . . . . . . . . . . . . . . . . . . . . . . . . 102.4 Variables réelles, les classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.5 Variables réelles, pour pratiquer . . . . . . . . . . . . . . . . . . . . . . . . . . 172.6 Fonction caractéristique, les classiques . . . . . . . . . . . . . . . . . . . . . . 24

    3 Convergence de variables aléatoires 273.1 Convergence, quelques classiques . . . . . . . . . . . . . . . . . . . . . . . . . 273.2 Borel-Cantelli, loi des grands nombres : les classiques . . . . . . . . . . . . . . 313.3 Pour pratiquer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    4 Exercices supplémentaires 44

    1

  • 1 Manipulation d’événements, indépendance

    1.1 À savoir faire/classiques

    Exercice 1.1. On considère une suite (Ak)k≥1 d’événements. Montrer quea) si P(Ak) = 0 pour tout k, alors P

    (⋃k≥1Ak

    )= 0 ;

    b) si P(Ak) = 1 pour tout k, alors P(⋂

    k≥1Ak)

    = 1.

    Solution.a) Par sous-additivité, on a

    P( ⋃k≥1

    Ak)≤∞∑k=1

    P(Ak) = 0 .

    b) En passant au complémentaire, on a

    1− P( ⋂k≥1

    Ak)

    = P( ⋃k≥1

    Ack)≤∞∑k=1

    P(Ack) = 0 .

    Exercice 1.2. Soit n un entier naturel non nul. En considérant un groupe de n personneset en supposant que chaque année comporte 365 jours et que les jours de naissances sonttous équiprobables, on veut calculer la probabilité que deux personnes aient la même dated’anniversaire.

    a) Proposer un espace probabilisé pour décrire cette expérience aléatoire.b) Calculer la probabilité que deux personnes au moins soient nées le même jour.c) Montrer que si n ≥ 23, cette probabilité est supérieure à 1/2.

    Solution.a) On prend Ω = {1, . . . , 365}n : un élément ω = (ω1, . . . , ωn) ∈ Ω décrit les dates d’anni-

    versaire des n personnes (ωi est la date d’anniversaire de la i-ème personne). On munitΩ de la tribu P(Ω) et de la probabilité uniforme ; noter que |Ω| = 365n.

    b) L’événement “deux personnes au moins soient nées le même jour” a pour complémentaire{ω ∈ Ω, ωi 6= ωj pour tout i 6= j

    }, qui est de cardinal 365 · 364 · · · (365− n+ 1) (car il

    y a 365 choix pour ω1, puis 364 choix pour ω2, etc. puis 365− n+ 1 choix pour ωn).Ainsi, la probabilité recherchée est

    pn = 1−1

    365n

    n−1∏i=0

    (365− i) = 1−n−1∏i=1

    (1− i

    365

    ).

    c) On peut le vérifier numériquement avec la formule précédente. Sinon, en utilisant le faitque 1− x ≤ e−x pour tout x ∈ R, on a l’inégalité

    pn ≥ 1−n−1∏i=1

    e−i/365 = 1− exp((n− 1)n

    730

    )où on a utilisé que

    ∑n−1i=1 i =

    (n−1)n2 . Pour n = 23 on a

    (n−1)n730 ≈ 0, 76 et exp(−

    (n−1)n730 ) ≈

    0, 47.

    2

  • Exercice 1.3. On effectue des lancers successifs et indépendants d’une pièce qui tombe surpile avec probabilité p et sur face avec probabilité 1− p.

    a) On note An l’événement “Il n’y a que des Face lors des n premiers lancers”. Interpréterl’événement A =

    ⋂nAn, et calculer P(A).

    b) On noteBi l’événement “Le ième lancer est Pile”. Interpréter l’événementB =⋃k≥1

    ⋂i≥k Bi

    et Bc, et montrer que P(B) = 0.

    Solution.a) A est l’événement “on obtient que des face”. La suite (An)n≥1 étant décroissante, on a

    P(A) = limn→∞ P(An) = limn→∞(1− p)n = 0.b) B est l’événement “il y a n’y a qu’un nombre fini de pile” et Bc est l’événement “il y

    a une infinité de pile”. On a, pour tout k ≥ 1, P(⋂

    i≥k Bi)

    = limn→∞ P(⋂k+n

    i=k Bi)

    =

    limn→∞ pn+1 = 0. Ainsi B est une union dénombrable d’événements de probabilité

    nulle ; il est donc de probabilité nulle.

    Exercice 1.4. (Faux positifs). Une maladie M affecte une personne sur 1000 dans une po-pulation donnée. Un test sanguin permet de détecter cette maladie avec une fiabilité de 99%(lorsque cette maladie est effectivement présente). En revanche, pour un individu sain, laprobabilité que le test soit positif est de 0, 1% (on dit que 0, 1% est le taux de faux positifs).

    a) Un patient fait le test, qui est positif. Quelle est la probabilité (conditionnelle) quel’individu soit réellement malade ?

    b) Le même patient refait le test, qui est de nouveau positif. Quelle est la probabilité quel’individu soit malade ?

    Solution. On choisit comme espace des états Ω l’ensemble des individus de la population. Onappelle M l’événement “l’individu est malade”, et P1 l’événement “le test est positif”. Alors,l’énoncé nous dit que

    P(M) =1

    1000; d’où P(M c) =

    999

    1000; P(P1 |M) =

    99

    100; P(P1 |M c) =

    1

    1000.

    a) On cherche

    P(M | P1) =P(M ∩ P1)

    P(P1)=

    P(P1 |M)P(M)P(P1 |M)P(M) + P(P1 |M c)P(M c)

    =990

    990 + 999≈ 0, 5.

    Si le test est positif, la probabilité que l’individu soit réellement malade est ≈ 0, 5. Doncattention avant de tirer des conclusions trop hâtives.

    b) On note maintenant P2 l’événement “le 2ème test est positif”. On cherche à déterminer

    P(M | P1 ∩ P2) =P(M ∩ P1 ∩ P2)

    P(P1 ∩ P2)=

    P(M)P(P1 ∩ P2 |M)P(M)P(P1 ∩ P2 |M) + P(M c)P(P1 ∩ P2 |M c)

    .

    On suppose que : (i) si l’individu est malade alors les tests seront positifs avec probabilité 0,99indépendamment l’un de l’autre ; (ii) si l’individu n’est pas malade alors les tests seront positifsavec probabilité 0,001 indépendamment l’un de l’autre. Autrement dit, on a les identitésP(P1 ∩ P2 |M) = (99/100)2 et P(P1 ∩ P2 |M c) = (1/1000)2. Ainsi,

    P(M | P1 ∩ P2) =1

    1000(99100)

    2

    11000(

    99100)

    2 + 9991000(1

    1000)2

    =992

    992 + 999100≈ 0, 999 .

    3

  • Exercice 1.5. Un chimpanzé tape à la machine à écrire en appuyant chaque seconde sur unetouche choisie au hasard. Quelle est la probabilité qu’il parvienne à écrire le texte complet deHamlet (pas forcément du premier coup), c’est-à-dire qu’à un certain moment il écrive d’unetraite le texte de cette pièce ?Solution. Soit n la longueur, en caractères, de la pièce Hamlet. La probabilité p qu’il tapela pièce du premier coup est faible, mais strictement positive. Pour tout entier naturel k, ondéfinit une variable aléatoire Xk qui vaut 1 si les caractères nk+1 à n(k+1) correspondent autexte de la pièce, et 0 sinon. Les Xk sont des bernouillis indépendantes de paramètre p > 0 :ce sont les mêmes que dans un jeu de pile ou face biaisé. Or on sait dans ce cas qu’il finira parsortir un pile, ce qui correspond ici à écrire le texte de la pièce d’une traite. La probabilité quele chimpanzé écrive Hamlet au bout d’un certain nombre (aléatoire, mais fini) de tentativesvaut donc 1.

    1.2 Pour pratiquer

    Exercice 1.6. Soit Ω un ensemble. Soit (Xn)n≥1 une suite de fonctions à valeurs réellesdéfinies sur Ω.

    a) Décrire en français et sans utiliser les expressions "quel que soit" ni "il existe" les partiessuivantes de ΩA =

    ⋃a∈N

    ⋃b∈N

    ⋂n≥1{ω ∈ Ω , a ≤ Xn(ω) ≤ b} ;

    B =⋃N≥1

    ⋂n≥N

    ⋂m≥n{ω ∈ Ω , Xn(ω)−Xm(ω) ≥ 0} ;

    C =⋃k∈N

    ⋂N≥1

    ⋃n≥N

    ⋃m≥N

    {ω ∈ Ω , |Xn(ω)−Xm(ω)| > 1k

    }.

    b) Faire l’opération de traduction inverse pour les parties suivantes de Ω

    l’ensemble des ω ∈ Ω tels que la suite (Xn(ω))n≥1...D ... ne soit pas bornée supérieurement ,E ... tende vers +∞ ,F ... vérifie lim infn→+∞Xn ≤ 1 .

    Solution.a) A est l’ensemble des ω tels que la suite (Xn(ω))n≥1 soit bornée ;

    B ... soit décroissante à partir d’un certain rang ;C ... ne soit pas de Cauchy (comme on est dans R, cela équivaut à ne pas converger).

    b)

    D =⋂M≥0

    ⋃n≥1{ω ∈ Ω;Xn(ω) ≥M};

    E =⋂M≥0

    ⋃n≥1

    ⋂m≥m{ω ∈ Ω;Xm(ω) ≥M}.

    Exercice 1.7. On lance simultanément un dé à n faces et un dé à m faces. Quelle est laprobabilité que le premier dé donne un résultat (strictement) supérieur au premier.

    Exercice 1.8. Une urne contient N boules numérotées de 1 à N . On tire successivement(sans remise) n boules de l’urne, avec 1 ≤ n ≤ N . Les boules numérotées de 1 àM sont rouges

    4

  • (M < N) et les boules numérotées deM+1 àN sont blanches. Soit Ak l’événement {La k-ièmeboule tirée est rouge}.

    a) Calculer P(Ak).b) Calculer P(Ak ∩Am).

    Solution. L’espace probabilisé associé à cette expérience peut s’écrire :

    Ω = {(a1, a2, · · · , an) : ai ∈ {1, · · · , N}, ai 6= ai, si i 6= j} .

    Le cardinal de cet ensemble est : card(Ω)=AnN = N(N − 1) · · · (N − n + 1). Celui-ci étantmuni de la probabilité uniforme, on a pour tout A ∈ P(Ω),

    P(A) =∑ω∈A

    P({ω}) = card(A)card(Ω)

    .

    a) Ak s’écrit : Ak = {(a1, · · · , an) ∈ Ω : ak ∈ {1, 2, · · · ,M}}. On doit dénombrer Ak. Onpropose 2 solutions :- l’application

    Ak −→ A1(a1, · · · , ak, · · · , an) 7→ (ak, a2, · · · , ak−1, ak+1, · · · , an)

    est une bijection de Ak dans A1, d’où card(Ak)=card(A1). Le cardinal de A1 est :card(A1)=M(N − 1) · · · (N − n+ 1).- On peut aussi dénombrer directement l’ensemble Ak. On a M choix pour la boule k.Une fois la boule k choisie, le nombre de choix pour les boules restantes est donné par lenombre de choix ordonnés de n− 1 éléments distincts pris parmi N − 1, à savoir An−1N−1.On obtient card(Ak)=MAn−1N−1.

    On a donc P(Ak) = M/N . (Remarquons que la probabilité de l’événement Ak ne dépendpas de k et est égale à la proportion de boules rouges dans l’urne). On propose une autresolution pour calculer P(Ak). NotonsXk le numéro de la boule k. C’est donc une variablealéatoire. Par symétrie, on a P(Xk = 1) = P(Xk = 2) = . . . = P(Xk = N), donc vu que∑N

    i=1 P(Xk = i) = 1, on obtient que P(Xk = i) =1N pour tout i ≤ n. On remarque que

    P(Ak) = P(Xk ≤M) =∑M

    i=1 P(Xk = i) =MN .

    b) Si k = m alors P(Ak ∩ Am) = M/N . Supposons que k 6= m. De même qu’à la questionprécédente, on peut établir une bijection entre Ak ∩ Am et A1 ∩ A2, d’où : P(Ak ∩Am) = P(A1 ∩A2). Enfin il est facile de voir que le cardinal de A1 ∩A2 est : card(A1 ∩A2)=M(M − 1)(N − 2) · · · (N − n+ 1), soit P(Ak ∩Am) = M(M − 1)/[N(N − 1)]. Onpeut encore donner une autre solution : On a M choix pour la boule k puis M −1 choixpour la boule m. Une fois ces deux boules choisies, il s’agit de compter le nombre dechoix ordonnésde n−2 éléments pris parmi N−2, donc card(Ak∩Am)=M(M−1)An−2N−2puis P(Ak ∩Am) = M(M − 1)

    An−2N−2AnN

    .

    Exercice 1.9. On effectue des lancers successifs de dés : pour le ne lancer, on utilise un déà n faces équiprobables.

    5

  • a) On note An l’événement “le ne dé tombe sur 1”. On note A =⋃n≥2An. Interpréter

    l’événement A et montrer que P(A) = 1.b) On note B =

    ⋂k≥1

    ⋃n≥k An. Interpréter l’événement B et montrer que P(B) = 1.

    Exercice 1.10. On tire un nombre dans [0, 1] uniformément au hasard.

    a) Pour x ∈ [0, 1], on note Ax l’événement “le nombre tiré vaut x”. Que vaut P(Ax) ? Quevaut P(

    ⋃x∈[0,1]Ax) ?

    b) On note B l’événement “le nombre tiré est algébrique”. Exprimer l’événement B enfonction des événements Ax, et montrer que P(B) = 0.

    c) Un nombre calculable est un réel pour lequel il existe un algorithme (ou une machinede Turing) permettant de donner n’importe quelle décimale de ce nombre. Par exemple,π est un nombre calculable : on peut écrire un programme pi, tel que pi(n) renvoiela nème décimale de π. On note C l’événement “le nombre tiré est calculable” : montrerque P(C) = 0. En déduire qu’il existe des nombres non calculables.

    Exercice 1.11. On propose un QCM à un étudiant : 5 réponses possibles sont proposées.L’étudiant connaît (et donne) la bonne réponse avec probabilité p, et s’il ne la connaît pas, ilchoisit une des 5 possibilités au hasard.

    a) Quelle est la probabilité que la réponse donnée par l’étudiant soit la bonne ?

    b) Le correcteur, une fois la copie en main, voit que l’étudiant a donné la bonne réponse.Quelle est la probabilité que l’étudiant connaissait en effet la bonne réponse ?

    Solution.

    a) On décompose la probabilité :

    P(bonne réponse) = P(connaît) + P(ne connaît pas mais choisit la bonne par hasard)

    = p+ (1− p)15

    =4p+ 1

    5

    b) On cherche

    P(connaît | bonne réponse) = P(connaît ∩ bonne réponse)P(bonne réponse)

    =5p

    4p+ 1

    2 Variables aléatoires, calculs de lois, moments

    2.1 Exercices généraux

    Exercice 2.1. Montrer qu’une v.a. X positive dont l’espérance est nulle est nulle p.s.Solution. Comme X est une variable aléatoire positive, on a d’après l’inégalité de MarkovP(X > ε) ≤ 1εE(X) = 0 pour tout ε > 0. Ainsi, on a

    P(X > 0) = P( ⋂ε>0,ε∈Q

    {X > ε})

    = 0 .

    6

  • Ce qui nous donne P(X = 0) = 1− P(X > 0) = 1.

    Exercice 2.2. Soient X,Y, Z trois variables aléatoires à valeurs dans R. On suppose que Xet Y ont même loi. Soit f : R→ R une fonction. Est-il vrai que f(X) et f(Y ) ont même loi ?Est-il vrai que X + Z et Y + Z ont même loi ?

    Exercice 2.3. Soit X une v.a. réelle, de fonction de répartition F : R → [0, 1]. On définitl’inverse généralisée de F : pour tout y ∈ ]0, 1[ , par F−1(y) := inf{x, F (x) ≥ y} . Soit U ∼U([0, 1]). Montrer que F−1(U) suit la même loi que X.Solution. Posons Y = F−1(U), et calculons la fonction de répartition FY (t) = P(Y ≤ t) =P(F−1(U) ≤ t) pour tout t ∈ R. La clé est que l’on a l’égalité d’événements

    {F−1(U) ≤ U} = {F (t) ≥ X} ,

    qui vient du fait que F−1(x) ≤ t si et seulement si F (x) ≥ t. En effet, si F (t) ≥ x, il découleimmédiatement de la définition de F−1 que F−1(x) ≤ t. Réciproquement, si F (t) < x, commeF est une fonction continue à droite, il existe � > 0 tel que F (t + �) < x ; par monotonie,F (y) < x pour tout y ≤ t+ � et donc F−1(x) ≥ t+ �, en particulier F−1(x) > t.

    Ainsi, on a FY (t) = P(F−1(U) ≤ t) = P(U ≤ F (t)), pour tout t ∈ R. Si U ∼ U([0, 1])P(U ≤ F (t)) = 0 si F (t) = 0, et P(U ≤ F (t)) = P(U ∈ ]0, F (t)]) = F (t) si F (t) > 0. Celamontre que FY (t) = F (t) pour tout t ∈ R, ce qui conclut la démonstration.

    Exercice 2.4.(Inégalité de Paley-Zygmund). Soit Z une variable aléatoire réelle positive telleque P(Z > 0) > 0. Montrer que pour tout θ ∈ [0, 1],

    P(Z ≥ θE[Z]) ≥ (1− θ)2E[Z]2

    E[Z2].

    Solution. Par l’inégalité de Cauchy-Schwarz (cf question 3 de l’exercice 12), on a

    E(|Z|1{Z≥θE(Z)}) ≤ E(Z2)1/2P(Z ≥ θE(Z))1/2.

    Comme Z est positive, on a E(|Z|1{Z≥θE(Z)}) = E(Z1{Z≥θE(Z)}). On remarque que

    E(Z1{Z≥θE(Z)}) = E(Z)− E(Z1{Z

  • Solution. Tout d’abord, la v.a. bnUc est bien à valeurs dans {0, . . . , n − 1}. Ensuite, pourtout k ∈ {0, . . . , n− 1} on a

    P(bnUc = k

    )= P

    (nU ∈ [k, k + 1[

    )= P

    (nU ∈

    [kn,k + 1

    n

    [ )=k + 1

    n− kn

    =1

    n.

    Ainsi, bnUc suit une loi uniforme sur {0, . . . , n− 1}.

    Exercice 2.6. Absence de mémoire pour la loi géométrique.a) Soit T une v.a. géométrique de paramètre θ. Calculer P(T > n) pour tout entier naturel,

    puis montrer que P(T > n+ p |T > n) = P(T > p).b) Soit T une v.a. à valeurs dans N∗. On suppose que pour tous entiers non nuls n et p,

    on a P(T > n) > 0 et P(T > n + p |T > n) = P(T > p). Montrer que T suit une loigéométrique.

    Solution.a) Un calcul facile donne P(T > n) = (1− θ)n. Et

    P(T > n+ p |T > n) = P(T > n+ p)P(T > n)

    =(1− θ)n+p−1

    (1− θ)n−1= (1− θ)p = P(T > p).

    b) Par définition de la probabilité conditionnelle, on a

    P(T > n+ p |T > n) = P(T > n+ p, T > n)P(T > n)

    =P(T > n+ p)P(T > n)

    car {T > n + p} ⊂ {T > n}. Par hypothèse, P(T > n + p |T > n) = P(T > p), ce quidonne P(T > n+ p) = P(T > n)P(T > p). Avec p = 1, on obtient que P(T > n+ 1) =P(T > n)P(T > 1). Posons a = P(T > 1). On trouve par récurrence que P(T > n) = an.On vérifie que a > 0 car P(T > n) > 0 par hypothèse. De plus, on remarque que{T > n} sont des évènements décroissants en n et

    ⋂n>1{T > n} = {T = ∞}. Par

    convergence monotone, on a P(T = ∞) = limn→∞ P(T > n). Comme P(T = ∞) = 0,on a nécessairement a < 1. La loi de T est alors donnée par P(T = n) = P(T >n)− P(T > n+ 1) = (1− a)an, n > 0. T suit une loi géométrique de paramètre a.La loi géométrique est dite sans mémoire. Supposons que T modélise le temps d’attenteà un arrêt de bus . Sachant qu’on a attendu plus de n minutes, la probabilité d’attendrep minutes de plus ne dépend pas de n.

    Exercice 2.7. SoitX et Y deux v.a. indépendantes, de loi de Poisson de paramètres respectifsλ1 et λ2. Calculer la loi de X + Y .Solution. On calcule

    P(X + Y = n) =n∑k=0

    P(X = k, Y = n− k

    ) indép.=

    n∑k=0

    (λk1k!e−λ1

    )×( λn−k2

    (n− k)!e−λ2

    )=

    1

    n!e−(λ1+λ2)

    n∑k=0

    n!

    k!(n− k)!λk1λ

    n−k2 =

    (λ1 + λ2)n

    n!e−(λ1+λ2) .

    Exercice 2.8. (Indépendance et indépendance deux à deux). On suppose données, sur unespace de probabilité (Ω,F ,P) deux variables de Bernoulli �1 et �2, indépendantes, à valeursdans {−1,+1} avec P(�i = +1) = P(�i = −1) = 12 , (i = 1, 2).

    8

  • a) Montrer que la v.a. �1�2 est indépendante d’une part de �1, et d’autre part de �2.

    b) La v.a. �1�2 est-elle indépendante du couple (�1, �2) ?

    Solution.

    a) On vérifie que P(�1 = η) = P(�2 = η) = P(�1�2 = η) = 1/2 pour η = 1 ou −1.On vérifieaussi que P(�1�2 = η1, �1 = η2) = 1/4 pour (η1, η2) = (1, 1); (1,−1); (−1, 1) ou (−1;−1).Donc �1�2 est indépendante de �1. De même, �1�2 est indépendante de �2.

    b) On remarque que P(�1�2 = 1, (�1, �2) = (−1, 1)) = 0. Or P(�1�2 = 1) = 1/2 etP((�1, �2) = (−1, 1)) = 1/4 et 12

    14 6= 0 donc �1�2 n’est pas indépendante de (�1, �2)

    dans ce cas.

    Exercice 2.9. Montrer que, si X est une v.a. à valeurs dans N, alors E[X] =∑

    k≥0 P(X > k).Solution. On écrit

    ∑k≥0

    P(X > k) =∑k≥0

    ∑i≥k+1

    P(X = i) =∑i≥1

    i−1∑k=0

    P(X = i) =∑i≥1

    iP(X = i) = E[X].

    Exercice 2.10. Une truite pond des oeufs au fond du torrent. Leur nombre N suit une loide Poisson de paramètre a > 0. Chaque oeuf survit avec une probabilité p ∈ ]0, 1[, indépen-damment des autres. On note M le nombre d’oeufs qui survivent.

    a) Donner la loi jointe de (N,M). Donner la loi marginale et l’espérance de M .

    b) M et N −M sont-elles indépendantes ?

    Exercice 2.11. Calculer la fonction génératrice des lois de Bernoulli(p), Binomiale(n, p),Géométrique(p) et de Poisson(λ).

    Exercice 2.12. Soient X et Y deux v.a. indépendantes, suivant une loi de Poisson, deparamètres respectifs λ1 et λ2. Calculer la fonction génératrice de X + Y . Qu’en déduire ?Solution.

    a) On écrit

    E[rX ] =∑k≥0

    rkP(X = k) =∑k≥0

    rkλk1k!e−λ1 = erλ1e−λ1 .

    b) Par indépendance, on a E[rX+Y ] = E[rX ]E[rY ] = erλ1e−λ1erλ2e−λ2 = e(r−1)(λ1+λ2). Onreconnaît la fonction génératrice d’une loi de Poisson de paramètre λ1 + λ2. Comme lafonction génératrice caractérise la loi d’une variable aléatoire, on obtient que X+Y suitune loi de Poisson de paramètre λ1 + λ2.

    Exercice 2.13. Soit (Xi)i≥1 des variables aléatoires i.i.d. et soit N une variable aléatoire àvaleurs dans N indépendante de (Xi)i≥1. On pose Y =

    ∑Ni=1Xi (et Y = 0 si N = 0).

    a) Montrer que la fonction génératrice de Y satisfait GY (s) = GN (GX1(s))

    b) En déduire E[Y ] et Var(Y ) en fonction de E[X1],E[N ] et Var(X1),Var(N).c) Reprendre l’exercice 10 : donner la fonction génératrice de M , et retrouver la loi de M .

    9

  • Exercice 2.14.(La ruine du joueur). Un joueur va au casino avec une somme d’argent a ∈ N.À chaque partie, il peut gagner 1 euro avec une probabilité p et perdre 1 euro avec uneprobabilité 1 − p. Le but du joueur est de jouer jusqu’à l’obtention de la fortune N ≥ a,N ∈ N. Cependant, il doit s’arrêter s’il est ruiné. On note qN (a) sa probabilité de succès(atteindre N avant la ruine).

    a) Donner qN (0) et qN (N).b) Soit a > 0. En raisonnant sur ce qui s’est passé à la première partie, montrer la relation

    qN (a) = pqN (a+ 1) + (1− p)qN (a− 1) .

    c) Déduire la valeur de qN (a) pour tout a ∈ {0, . . . , N} si p = 1/2 ; si p 6= 1/2.

    2.3 Variables discrètes, pour pratiquer

    Exercice 2.15. On lance deux dés à 6 faces numérotés de 1 à 6. On note X et Y les variablesaléatoires correspondant aux résultats des deux dés. On pose W = X + Y et Z = X − Y .

    a) Les variables W et Z sont-elles indépendantes ? Calculer Cov(W,Z).b) Donner la loi jointe et les lois marginales de (W,Z).

    Exercice 2.16. Soit λ > 0 un réel. Soit X une variable aléatoire de loi de Poisson deparamètre λ. Montrer que pour tout entier k ≥ 1, la variable aléatoire X(X−1) . . . (X−k+1)est intégrable et calculer son espérance. Calculer E[Xm] pour m ∈ {1, 2, 3, 4} et vérifier quepour chacune de ces valeurs de m, E[Xm] est le nombre de partitions d’un ensemble à méléments lorsque λ = 1. On peut démontrer que cette assertion est vraie pour tout m ≥ 1.

    Exercice 2.17. (Urne de Polya). Une urne contient initialement une boule blanche et uneboule noire. À chaque tour, une boule est prélevée de l’urne, et est remplacée par deux boulesde la même couleur (que celle que l’on vient de prélever). On souligne qu’après n tours, il y an+ 2 boules dans l’urne. On note Bn le nombre de boules blanches dans l’urne après n tours,et on cherche à déterminer la loi de Bn pour tout n ≥ 1.

    a) Donner la loi de B1 et de B2.b) Pour n ≥ 1, donner P(Bn = k | Bn−1 = k) et P(Bn = k + 1 | Bn−1 = k), pour

    k ∈ {1, . . . , n}.c) En déduire par récurrence sur n que P(Bn = k) = 1n+1 pour tout k ∈ {1, . . . , n+ 1}.

    Exercice 2.18. Soit S une variable aléatoire à valeurs dans⋃∞n=1 Sn, c’est-à-dire une per-

    mutation aléatoire dont la taille n est elle aussi aléatoire. On suppose que la loi de S estdonnée par

    P(S = σ) =1

    `(σ)!(1− p)`(σ)−1p , ∀σ ∈

    ∞⋃n=1

    Sn ,

    où p ∈ ]0, 1[ et où `(σ) désigne la taille de σ, c’est-à-dire l’entier n tel que σ ∈ Sn.a) Vérifier que cela définit bien la loi d’une variable aléatoire discrète.b) Donner la loi de `(S). Donner la loi de S sous la probabilité conditionnelle P(· | `(S) = n).c) Calculer la probabilité de l’événement A = “S n’a aucun point fixe”.

    10

  • Solution.a) Notons S =

    ⋃∞n=1 Sn. Comme `(σ) = n si σ ∈ Sn, on a∑

    σ∈SP(S = σ) =

    ∞∑n=1

    ∑σ∈Sn

    1

    n!(1− p)n−1p =

    ∞∑n=1

    (1− p)n−1p = 1 .

    b) La variable aléatoire `(S) est à valeurs dans N∗. Pour tout n ∈ N∗ on a `(S) = n si etseulement si S ∈ Sn, de sorte que

    P(`(S) = n) = P(S ∈ Sn) =∑σ∈Sn

    P(S = σ) =∑σ∈Sn

    1

    n!(1− p)n−1p = (1− p)n−1p .

    Ainsi, `(S) suit une loi géométrique de paramètre p.De plus, sous la probabilité conditionnelle P(· | `(S) = n), S est à valeurs dans Sn. Ona, pour tout σ ∈ Sn (d’où `(σ) = n)

    P(S = σ | `(S) = n) = P(S = σ)P(`(S) = n)

    =1

    n!.

    Ainsi, sous la probabilité conditionnelle P(· | `(S) = n, S est de loi uniforme sur Sn.c) On décompose A suivant la partition {`(S) = n} : on a

    P(A) =∞∑n=1

    P(`(S) = n)P(A | `(S) = n)

    =∞∑n=1

    (1− p)n−1pP(S n’a aucun point fixe | `(S) = n) .

    Pour la dernière probabilité, on utilise le résultat du problème du dérangement. Si σ estune permutation aléatoire choisie de manière uniforme dans Sn, alors par une formuled’inclusion/exclusion, on a

    P(σ a au moins un point fixe) =n∑k=1

    (−1)k+1∑

    1≤i1

  • On en conclut que P(A) = 11−p(e−(1−p) − p

    ).

    Notons que l’on a e−x ≥ 1 − x pour tout x, de sorte que e−(1−p) ≥ p donc on a bientrouvé une probabilité positive. De même e−x ≤ 1 − x + 12x

    2 pour tout x ≥ 0, donce−(1−p) − p ≤ 12(1− p)

    2 et on a P(A) ≤ 1/2 (avec P(A)→ 1/2 lorsque p→ 1).

    Exercice 2.19. Soient 2n personnes, n hommes et n femmes, réparties de manière aléatoiredans deux groupes de n personnes. On note X le nombre de femmes dans le premier groupe.

    a) Donner la loi de X.

    b) Calculer E[X]. Indic. Écrire X =∑N

    i=1 1Ai où Ai =“la ième femme est dans le premier groupe”.

    c) Calculer Var(X) .d) Montrer que pour tout x > 0 on a P(|X − n2 | > x

    √n) ≤ 1

    4x2.

    Exercice 2.20. On considère n personnes sur un réseau social : on suppose que les per-sonnes i et j sont reliées avec probabilité p, indépendamment des autres relations du réseau.Plus formellement, on considère (X{i,j}){i,j}⊂{1,...,n} des variables aléatoires indépendantes deBernoulli de paramètre p, représentant les liens entre les personnes du réseau : les personnesi et j sont reliées si et seulement si X{i,j} = 1. On souhaite savoir s’il y a des personnes“isolées” dans le réseau : on note Ai l’événement “la ie personne n’est reliée à personne”, etWn =

    ∑ni=1 1Ai le nombre de personnes isolées (parmi les n personnes).

    a) Calculer P(Ai) et E(Wn).b) Montrer que Cov(1Ai ,1Aj ) = p(1− p)2n−3 pour i 6= j. Calculer Var(Wn), et en déduire

    que Var(Wn) ≤ n(1− p)n−1[1 + np(1− p)n−2].On suppose dans la suite que p = α lnnn , pour un α > 0.

    c) Montrer que l’on a limn→∞ E(Wn) = 0 si α > 1, et limn→∞ E(Wn) = +∞ si α < 1.d) Soit {Wn ≥ 1} l’événement qu’il existe au moins une personne isolée. Montrer que si

    α > 1, alors limn→∞ P(Wn ≥ 1) = 0.

    e) Montrer que P(Wn = 0) ≤ P(|Wn − E(Wn)| ≥ E(Wn)

    )≤ Var(Wn)E(Wn)2 . En déduire que si

    α < 1, on a limn→∞ P(Wn = 0) = 0, c’est-à-dire limn→∞ P(Wn ≥ 1) = 1.

    Solution.

    a) La i-ème personne n’est reliée à personne si X{i,j} = 0 pour tout j 6= i : on a donc, parindépendance des X{i,j}

    P(Ai) = P(X{i,j} = 0, pour j ∈ {1, . . . , n}, j 6= i

    )= (1− p)n−1 .

    Par linéarité de l’espérance, on a E(Wn) =∑n

    i=1 P(Ai) = n(1− p)n−1.b) On a, pour i 6= j, Cov(1Ai ,1Aj ) = P(Ai∩Aj)−P(Ai)P(Aj). Pour calculer P(Ai∩Aj), on

    remarque que pour que la i-ème et la j-ème personne soient isolées, il faut que X{i,k} = 0etX{j,k} = 0 pour tout k ∈ {1, . . . , n}\{i, j}, et queX{i,j} = 0 : comme il y a 2(n−2)+1variables aléatoires X{a,b} qui doivent être nulles, on a P(Ai ∩Aj) = (1− p)2n−3. On enconclut donc que

    Cov(1Ai ,1Aj ) = (1− p)2n−3 − (1− p)n−1(1− p)n−1 = p(1− p)2n−3.

    12

  • On peut alors calculer la variance de Wn,

    Var(Wn) = Var( n∑i=1

    1Ai

    )=

    n∑i=1

    Var(1Ai) +n∑

    i,j=1,i 6=jCov(1Ai ,1Aj )

    ≤ n(1− p)n−1 + n2p(1− p)2n−3 = n(1− p)n−1[1 + np(1− p)n−2

    ].

    où on a utilisé que Var(1Ai) = P(Ai)(1 − P(Ai)) ≤ P(Ai) = (1 − p)n−1, et qu’il y an(n− 1) ≤ n2 termes dans la deuxième somme.

    c) En reprenant la première question, et en prenant p = α lnnn , on a, en faisant un déve-loppement limité,

    E(Wn) = n(1− p)n−1 = exp(

    (n− 1) ln(

    1−α lnnn

    )+ lnn

    )= exp

    ((1−α) lnn+ o(1)

    ).

    On voit donc que limn→∞ E(Wn) = 0 si 1−α < 0, et limn→∞ E(Wn) = +∞ si 1−α > 0.d) En appliquant l’inégalité de Markov, on obtient que P(Wn ≥ 1) ≤ E(Wn), qui tend vers

    0 quand n→∞ si α > 1.e) On a {Wn = 0} = {Wn ≤ 0} car on sait que Wn ≥ 0. Maintenant, on a

    {Wn ≤ 0} = {Wn − E(Wn) ≤ −E(Wn)} ⊂ {|Wn − E(Wn)| ≥ E(Wn)} ,

    car {|Wn − E(Wn)| ≥ E(Wn)} = {Wn − E(Wn) ≤ −E(Wn)} ∪ {Wn − E(Wn) ≥ E(Wn)}On en déduit donc que

    P(Wn = 0) ≤ P(|Wn − E(Wn)| ≥ E(Wn)

    )≤ Var(Xn)

    E(Wn)2,

    où pour la dernière inégalité on a appliqué l’inégalité de Bienaymé-Tchebychev. Enutilisant la valeur de E(Wn) et la majoration de Var(Wn) obtenues plus haut, on obtient

    P(Wn = 0) ≤1 + np(1− p)n−2

    n(1− p)n−1=

    1

    E(Wn)+

    p

    1− p.

    Comme p = α lnnn → 0, et que E(Wn)→∞ si α < 1, on en déduit que limn→∞ P(Wn =0) = 0. Comme P(Wn ≥ 1) = 1 − P(Wn = 0), on a donc limn→∞ P(Wn ≥ 1) = 1 siα < 1.

    En conclusion, la probabilité qu’il y ait au moins une personne isolée tend vers 0 si α > 1, etvers 1 si α < 1.

    2.4 Variables réelles, les classiques

    Exercice 2.21. Calculer les espérances et variance des variables U([a, b]), Exponentielle(λ),Normale, de Cauchy, Gamma(a, λ).

    Exercice 2.22. Montrer qu’une v.a. X est indépendante d’elle-même si et seulement si elleest p.s. constante. Indication : déterminer sa fonction de répartition.Solution. FX(x) = P(X ≤ x) = E[1X≤x] = E[12X≤x] = E[1X≤x]× E[1X≤x] = (FX(x))2

    13

  • Donc la fonction de répartition vaut soit 0 soit 1. C’est la fonction de répartition d’unemesure de Dirac, c’est-à-dire que X est constante p.s.

    Exercice 2.23. Soit U une v.a. de loi U([0, 1]). Donner la loi de − 1a lnU pour a > 0.Solution. Tout d’abord, on remarque que − 1a logU est à valeur dans [0,+∞].

    - Méthode 1 : on calcule la fonction de répartition F (t) = P(−frac1a logU ≤ t). Déjà,F (t) vaut 0 pour t < 0, et on calcule donc F (t) uniquement pour t ≥ 0. On utilise que lafonction de répartition de U est P(U ≤ t) = t pour t ∈ [0, 1], pour avoir

    F (t) = P(log1

    U≤ at) = P( 1

    U≤ eat) = P(U ≤ e−at) = 1− e−at.

    C’est la fonction de répartition d’une variable exponentielle de paramètre 1, donc − logU estune variable exponentielle de paramètre 1.

    - Méthode 2 : on exprime E[f(− 1a logU)] pour tout f mesurable bornée

    E[f(− 1a logU)] =∫ 1

    0f(− 1a log u)du

    x=− 1a log u;u=e−ax

    =

    ∫ +∞0

    f(x)ae−axdx .

    La densité de X = − 1a logU est donc ae−ax1[0,+∞), donc X est une variable exponentielle de

    paramètre 1.

    Exercice 2.24. On suspend un laser à 1 m au dessus du sol. L’angle qu’il forme avec laverticale est aléatoire, notée Θ, et suit la loi uniforme sur [−π2 ,

    π2 ]. On note X le point marqué

    au sol par le laser (voir la Figure ci-dessous). Donner la densité de la loi de X.

    R

    1

    0 X

    Θ

    Solution. Le point X est donné par X = tan(Θ). On calcule donc facilement la fonction derépartition de X :

    F (x) = P(X ≤ x) = P(tanΘ ≤ x) = P(Θ ≤ arctan(x)) = 1π

    (π2

    + arctan(x))

    où dans la dernière égalité, on a utilisé le fait que Θ est une variable uniforme sur [−π2 ,π2 ], de

    sorte que pour θ ∈ [−π2 ,π2 ], P(Θ ≤ θ) =

    1π (

    π2 + θ).

    La densité de X est donc f(x) = F ′(x) = 1π1

    1+x2: c’est une variable de Cauchy.

    Exercice 2.25. Soit X et Y des variables aléatoires indépendantes, chacune suivant une loiexponentielle de paramètres respectifs λ et µ. Déterminer les lois de min(X,Y ) et max(X,Y ).

    Exercice 2.26. Soit (X1, X2) un couple de v.a. admettant la densité de probabilité :

    f(x1, x2) =1

    2π√

    1− ρ2exp

    (− 1

    2(1− ρ2)(x21 − 2ρx1x2 + x22)

    ),

    où ρ ∈ [0, 1[. Vérifier que f est une densité de probabilité sur R2 et trouver les densitésmarginales de X1 et X2. A quelle condition les v.a. X1 et X2 sont-elles indépendantes ?Solution.

    14

  • a)

    fX1(x1) =

    ∫R

    1

    2π√

    1− ρ2exp(− 1

    2(1− ρ2)((x2 − ρx1)2 + (1− ρ2)x21))dx2

    = exp(−x21

    2)

    (∫R

    1

    2π√

    1− ρ2exp(− x

    2

    2(1− ρ2)dx

    )=

    1√2π

    exp(−x21/2).

    X1 et X2 sont donc des gaussiennes centrées de variance 1. Si X1 et X2 sont indépen-dantes f(x1, x2) est le produit des densités marginales de X1 et X2 ; on devrait donc

    avoir f(X1,X2)(x1, x2) =1

    2πe−x

    21+x

    22

    2 ce qui ne peut être le cas que pour ρ = 0.b) Pour toute fonction g mesurable bornée,

    E[g(R,Φ)] =∫R+×[0,2π]

    1

    2π√

    1− ρ2g(r, ϕ) exp(− r

    2

    2(1− ρ2)(1− ρ sin(2ϕ))rdrdϕ.

    Ainsi, la densité du couple vaut f(R,Φ)(r, ϕ) = r2π√

    1−ρ2exp(− r2

    2(1−ρ2)(1−ρ sin(2ϕ))1R+×[0,2π](r, ϕ).

    La densité marginale de Φ vaut

    fΦ(ϕ) =

    ∫R+f(r, ϕ)dr =

    √1− ρ22π

    1

    (1− ρ sin 2ϕ)1[0,2π](ϕ).

    Exercice 2.27. (Box-Müller). Soit U , V deux variables aléatoires indépendantes, uniformessur [0, 1]. On pose

    X =√−2 lnV × cos(2πU), Y =

    √−2 lnV × sin(2πU)

    Montrer que X et Y sont deux variables N (0, 1) indépendantes.Solution. Soit f continue bornée sur R2, et prenons X,Y des VA indépendantes suivantN (0, 1). Par définition :

    E(f(X,Y )) =∫R2f(x, y)

    �−x2+y2

    2

    2πdxdy.

    Passons en coordonnées polaires : Considérons la bijection C1 :

    ϕ R∗+ × ]0, 2π[ −→ R2 \ (R+ × {0})(r, θ) 7−→ (r cos(θ), r sin(θ))

    On a Jac(r,θ)ϕ =∣∣∣∣ cos(θ) sin(θ)−r sin(θ) r cos(θ)

    ∣∣∣∣ = r 6= 0 donc ϕ est bien un difféomorphisme, etE(f(X,Y )) =

    ∫r∈R∗+

    ∫θ∈]0,2π[

    f(r cos(θ), r sin(θ))r�−r

    2/2

    2πdrdθ .

    15

  • Posons alors un nouveau changement de variable, défini par la bijection C1 :

    Ψ ]0, 1[2 −→ R+ × ]0, 2π[(u, v) 7−→ (

    √−2 ln(u), 2πv) = (r, θ)

    On a : Jac(u,v)Ψ =

    ∣∣∣∣∣−2/u

    2√−2 ln(u)

    0

    0 2π

    ∣∣∣∣∣ = 2πu√−2 ln(u) 6= 0 donc Ψ est bien un difféomorphisme,et

    E(f(X,Y ))

    =

    ∫ 10

    ∫ 10f(√−2 ln(v) sin(2πu),

    √−2 ln(v) cos(2πu)

    )√−2 ln(u) u

    u√−2 ln(u)

    dudv

    =

    ∫ 10

    ∫ 10f(√−2 ln(v) sin(2πu),

    √−2 ln(v) cos(2πu)

    )dudv

    = E(f(√−2 ln(V ) cos(2πU),

    √−2 ln(V ) sin(2πU)

    )).

    Exercice 2.28. Soient X1, X2, · · · , Xn des v.a. indépendantes de même loi exponentielle deparamètre λ, λ > 0. On pose S0 = 0 et pour tout k = 1, 2, · · · , n, Sk = X1 +X2 + · · ·+Xk.

    a) Calculer la loi de (S1, · · · , Sn).b) Montrer que Sn = X1 +X2 + · · ·+Xn admet la densité de probabilité

    fn(t) = λne−λt

    tn−1

    (n− 1)!1]0,+∞[(t) .

    c) Que vaut la fonction caractéristique de Sn ?d) Calculer de deux manières E(Sn) et Var (Sn).

    Solution.

    a) Notons A =

    1 · · · (0)... . . . ...1 · · · 1

    , de sorte queS1...Sn

    = AX1...Xn

    , qu’on note S = AX.Soit g borélienne bornée. Par indépendance de la famille (X1, · · · , Xn) :

    E(g(S)) = E(g(AX)) =∫Rng(Ax)λn�−λx11x1>0 · · · �−λxn1xn>0dx1 · · · dxn

    La matrice A permet de réaliser une bijection de classe C1 donnée par :

    ϕ (R∗+)n −→ ∆ = {0 < x1 < · · · < xn}(x1, · · · , xn) 7−→ (x1, x1 + x2, · · · , x1 + · · ·+ xn)

    E [g(AX)] =︸︷︷︸(s1,··· ,sn)=AX

    ∫Rng (s1, · · · , sn)λn�−λsn1Ω(s1, · · · sn)

    1

    det(A)ds1 · · · dsn

    Le vecteur (S1, · · · , Sn) a pour densité : f(t1, . . . , tn) = λn�−λtn10

  • b) D’après le théorème de transfert, pour toute g mesurable positive,

    E [g(Sn)] =∫g(tn)λ

    n�−λtn10

  • b) En déduire que P(X1 ≤ X2 ≤ . . . ≤ Xn) = P(X1 < · · · < Xn), et calculer cette quantité.c) Calculer P(Xn > max1≤i≤n−1Xi).

    Solution.

    a) On a pour i, j ∈ N, i 6= j, P(Xi = Xj) = P((Xi, Xj) ∈ D) où D = {(x, y), x = y}.Comme D est de mesure de Lebesgue nulle et que Xi, Xj sont indépendantes de densitéf , on a P(Xi = Xj) =

    ∫D f(x)f(y)dxdy qui est egale a zero car D est de mesure de

    Lebesgue nulle. Par suite,

    P(X1 ≤ X2 ≤ · · · ≤ Xn) = P(X1 < X2 < · · · < Xn).

    b) Soit Sn l’ensemble des permutations des indices {1, . . . , n}. Comme les variables aléa-toires sont indépedantes et de même loi, pour toute permutation σ ∈ Sn, le n-uplet(X1, X2, . . . , Xn) a même loi que (Xσ(1), Xσ(2), . . . , Xσ(n)). Ainsi, P(X1 < X2 < · · · <Xn) = P(Xσ(1) < Xσ(2) < · · · < Xσ(n)) pour toute permutation σ. On remarque que

    Ω =⋃σ∈S{Xσ(1) < Xσ(2) < · · · < Xσ(n)} ∪ {∃ i 6= j : Xi = Xj}.

    La nullité de P(Xi = Xj) pour i et j distincts donne que l’évènement {∃ i 6= j : Xi = Xj}est de probabilité nulle. Donc ,(en utilisant que la probabilité d’une union disjointe estla somme des probabilités)

    1 =∑σ∈S

    P(Xσ(1) < Xσ(2) < · · · < Xσ(n)) = Card(S)P(X1 < X2 < · · · < Xn).

    Comme Card(Sn) = n!, on a

    P(X1 < X2 < · · · < Xn) =1

    n!.

    Autre solution. On note X(1) < X(2) < . . . < X(n) les (Xi)1≤i≤n rangés dans l’ordrecroissant (on ne se place pas forcément sur l’évènement X1 < X2 . . . < Xn. Pour i ∈{1, . . . , n}, on note σX(i) l’indice j tel que Xj = X(i). On a donc σX qui est unepermutation (aléatoire). De plus, par symétrie, σX est uniformément distribuée parmitoutes les permutations (il y en a n!). En effet soit σ ∈ Sn. Alors P(σX = σ) = P(Xσ(1) <. . . < Xσ(n)) = P(X1 < . . . < Xn) qui ne dépend pas du choix de σ. On a donc,

    P(X1 < X2 < · · · < Xn) = P(σ(i) = i ∀i ≤ n) =1

    Card(Sn)=

    1

    n!.

    c) En raisonnant similairement,

    P( max1≤i≤n

    Xi = Xn) = P(X1, . . . , Xn−1 < Xn

    )=

    ∑σ∈Sn, σ(n)=n

    P(Xσ(1) < . . . < Xσ(n)

    )= (n− 1)!× 1

    n!=

    1

    n.

    18

  • Exercice 2.30. Soit X une variable aléatoire réelle à valeurs dans l’intervalle réel ]0, π/2[ dedensité fX et soit Y = sin(X). On suppose que Y suit une loi uniforme sur ]0, 1[. Quelle estla densité de X ?

    Exercice 2.31. Soit Z = (X,Y ) une variable aléatoire uniforme sur le disque unité D ={(x, y), x2 + y2 ≤ 1}. Donner les lois marginales de X et Y .

    Exercice 2.32. Soient X1 et X2 deux v.a. indépendantes de même loi uniforme sur [0, 1].Déterminer les loi des v.a. U = min(X1, X2) et V = max(X1, X2). En déduire les densités deprobabilité correspondantes. Que vaut E(|X1 −X2|) ?Solution. On rappelle que la fonction de répartition de la loi uniforme sur [0, 1] au point test égale à t si t ∈ [0, 1], 0 si t ≤ 0 et 1 si t ≥ 1.

    a) Pour t < 0 P(min(X1, X2) ≤ t) = 0 et pour t ≥ 1 P(min(X1, X2) ≤ t) = 1. Ensuite,pour t ∈ [0, 1[ on a

    P(min(X1, X2) ≤ t) = 1− P(min(X1, X2) > t)= 1− P(X1 > t)P(X2 > t) = 1− (1− t)2 = −t2 + 2t.

    Ainsi la loi de U a une densité égale à fU (x) = 2(1− x)1[0,1](x).b) Pour t < 0 P(max(X1, X2) ≤ t) = 0 et pour t ≥ 1 P(max(X1, X2) ≤ t) = 1. Ensuite,

    pour t ∈ [0, 1]

    P(max(X1, X2) ≤ t) = P(X1 ≤ t,X2 ≤ t) = P(X1 ≤ t)P(X2 ≤ t) = t2.

    Ainsi la loi de V admet une densité égale à fV (x) = 2x1[0,1](x).

    c) Enfin, E[|X1 −X2|] = E[V − U ] = E[V ]− E[U ] =∫ 1

    0 2x2dx−

    ∫ 10 2x(1− x)dx = 1/3.

    Exercice 2.33. Soient X,Y deux variables aléatoires indépendantes, de loi uniforme sur[0, 1]. Déterminer la loi de Z = XY .Solution. Pour la loi de Z, on calcule, pour g mesurable bornée

    E[g(Z)] = E[g(XY )] =∫ +∞−∞

    ∫ +∞−∞

    g(xy)f(x, y)dxdy =

    ∫ 10

    ∫ 10g(xy)dxdy.

    Méthode 1. On fait un changement de variable y → u = xy à l’intérieur de l’intégrale eny (y = u/x, dy = du/x) :

    E[g(Z)] =∫ 1x=0

    ∫ xu=0

    g(u)1

    xdudx =

    ∫ 1u=0

    ∫ 1x=u

    g(u)1

    xdudx

    =

    ∫ 1u=0

    g(u) [− lnu]︸ ︷︷ ︸densité de Z

    du.

    On a utilisé que le domaine D = {(x, u), x ∈ [0, 1], 1 ≤ u ≤ x} peut aussi s’écrire D ={(x, u), u ∈ [0, 1], u ≤ x ≤ 1} pour intervertir les intégrales.

    On en conclut que la variable aléatoire Z a pour densité (− lnu)1[0,1].

    19

  • Méthode 2. On connait les changements de variables bi-dimensionnels. On effectue unchangement de variable : on pose (u, v) = (xy, y), (x, y) = (u/v, v), et la matrice jacobienneassociée est (

    ∂x∂u

    ∂y∂u

    ∂x∂v

    ∂y∂v

    )=

    (1v 0− uv2

    1

    ),

    qui est de déterminant 1v . On a bien que (x, y) 7→ (u, v) est une bijection de classe C1, de

    ]0, 1[2 dans D = {0 < u < v < 1}. En appliquant le changement de variable, on a donc

    E[g(Z)] =∫ 1u=0

    ∫ 1v=u

    g(u)1

    vdvdu =

    ∫ 10g(u) [− lnu]︸ ︷︷ ︸

    densité de Z

    du.

    La variable aléatoire Z a donc pour densité − lnu1[0,1].

    Exercice 2.34. Soient X et Y deux variables aléatoires indépendantes, de loi N (0, 1). Dé-terminer la loi de Y/X.

    Solution. La densité de X et Y est f(x) = 1√2πe−

    12x2 . Comme X et Y sont indépendantes, la

    densité du couple (X,Y ) est f(X,Y )(x, y) = fX(x)fY (y) = 12πe− 1

    2(x2+y2). Pour toute fonction

    g borélienne et bornée, on a donc

    E[g(Y/X)] =∫R×R

    g(y/x)1

    2πe−

    12

    (x2+y2) dy dx.

    On utilise un changement de variable (u, v) = (x, y/x), c’est-à-dire (x, y) = (u, uv), quiest un C1 difféomorphisme de R∗ × R vers R∗ × R. Sa matrice jaobienne est(

    ∂x∂u

    ∂y∂u

    ∂x∂v

    ∂y∂v

    )=

    (1 v0 u

    ),

    de déterminant u. On obtient donc

    E[g(Y/X)] =∫R∗×R

    g(v)|u|2πe−

    12u2(1+v2) du dv.

    Maintenant, on a∫R∗

    |u|2πe−

    12u2(1+v2) du =

    1

    π

    ∫R∗+ue−

    12u2(1+v2) du =

    1

    π(1 + v2),

    de sorte que

    E[g(Y/X)] =∫Rg(v)

    1

    π(1 + v2)dv .

    On en conclut que Y/X admet pour densité 1π(1+v2)

    et suit donc de loi de Cauchy.

    Exercice 2.35. Soit L une v.a. positive admettant une densité de probabilité f et X unev.a. de loi uniforme sur [0, 1], indépendante de L. On définit deux v.a. L1 et L2 par L1 = XLet L2 = (1−X)L, (cela modélise par exemple la rupture d’une chaîne moléculaire de longueurinitiale aléatoire L).

    a) Déterminer la loi du couple (L1, L2) ainsi que les lois de L1 et L2.

    20

  • b) Que peut-on dire lorsque f(x) = λ2x exp(−λx)1[0,+∞[(x), (λ > 0) ?c) Déterminer la loi de Z = min(L1, L2) dans ce cas.

    Solution.a) Pour toute fonction g, de R2 dans R, mesurable bornée,

    E[g(L1, L2)] = E[g(XL, (1−X)L)] =∫

    [0,1]×R+g(xl, (1− x)l)f(l)dxdl

    On fait le changement de variable (l1, l2) = (xl, (1 − x)l). On doit multiplier par lejacobien. Détaillons. On a l = l1 + l2 et x = l1l1+l2 . On construit ensuite la matricejacobienne associée : (

    ∂x∂l1

    ∂l∂l1

    ∂x∂l2

    ∂l∂l2

    )=

    (l2

    (l1+l2)21

    − l1(l1+l2)2

    1

    )

    Son déterminant est 1l1+l2 . On a donc dxdl =∣∣∣ 1l1+l2 ∣∣∣dl1dl2. Il faut maintenant changer

    les bornes. On vérifie que (x ∈ [0, 1], ` ≥ 0)⇔ (`1 ≥ 0, `2 ≥ 0). (Détails : L’implication⇒ est immédiate. Pour ⇐, on remarque que si `1, `2 ≥ 0, alors ` = `1 + `2 ≥ 0 puisx = `1/(`1 + `2) ∈ [0, 1]). On obtient

    E[g(L1, L2)] =∫R2+g(l1, l2)

    f(l1 + l2)

    l1 + l2dl1dl2.

    Ainsi le couple (L1, L2) a une loi de densité f(L1,L2) =f(l1+l2)l1+l2

    1R2+(l1, l2).On cherche maintenant la loi de L1. Si le couple (X,Y ) admet une densité f(X,Y )(x, y),la loi de X a une densité donnée par fX(x) =

    ∫y∈R f(X,Y )(x, y)dy. On a donc que

    FL1 suit une loi de densité fL1(l) =∫ +∞

    0f(x+l)x+l dx1R+(l) qu’on peut réécrire fL1(l) =∫ +∞

    lf(x)x dx1R+(l). La loi de L2 admet la même densité.(En particulier, L1 et L2 ont la

    même loi.)b) Dans ce cas, on trouve que f(L1,L2)(l1, l2) = λ

    2 exp(−λ(l1 + l2))1R2+(l1, l2). L1 et L2suivent donc des lois exponentielles de paramètre λ, indépendantes. (Si (X,Y ) a unedensité de la forme f(X,Y )(x, y) = g(x)h(y), alors nécessairement X et Y sont indépen-dantes, et fX(x) = 1∫

    R g(z)dzg(x) et fY (y) = 1∫

    R h(z)dzh(y).)

    c) On rappelle que si X suit une loi exponentielle de paramètre a, on a P(X ≤ t) = 1−e−at.∀t < 0,P(Z ≤ t) = 0∀t ≥ 0,P(Z ≤ t) = 1 − P(Z > t) = 1 − P(L1 > t)P(L2 > t) = 1 − exp(−2λt) ; Onreconnaît alors la fonction de répartition d’une loi exponentielle de paramètre 2λ.

    Exercice 2.36. On appelle variable Gamma de paramètre a > 0 une variable à valeurs dansR+ dont la loi admet la densité : e−tta−1/Γ(a).

    a) Soit Za une v.a. gamma de paramètre a. Calculer explicitement les moments entiers :E((Za)n), en fonction de a et de n ∈ N.

    b) Soient Za et Zb deux variables gamma indépendantes de paramètres respectifs a et b.Montrer que les variables Za/(Za + Zb) et Za + Zb sont indépendantes et expliciter laloi de Za/(Za + Zb).

    21

  • Solution.

    a) Soit Za de loi Gamma(a, 1). Appliquons le théorème de transfert :

    E [Zna ] =∫Rzn

    1

    Γ(a)�−zza−11R+(z)dz =

    1

    Γ(a)

    ∫ +∞0

    �−zza+n−1dz =Γ(n+ a)

    Γ(a).

    b) Posons X = Za + Zb et Y =Za

    Za + Zb, avec Za, Zb des Γ(a, 1),Γ(b, 1) indépendantes.

    Soit h borélienne bornée, il vient :

    E [h(X,Y )] =∫

    (R+)2h

    (za + zb,

    zaza + zb

    )f(Za,Zb)(za, zb)dzadzb

    =︸︷︷︸Za⊥Zb

    ∫(R+)2

    h

    (za + zb,

    zaza + zb

    )fZa(za)fZb(zb)dzadzb

    =

    ∫(R+)2

    h

    (za + zb,

    zaza + zb

    )1

    Γ(a)�−zaza−1a

    1

    Γ(b)�−zbzb−1b dzadzb

    Posons le changement de variables

    Ψ R+ × R+ −→ R+ × [0, 1](za, zb) 7−→

    (za + zb,

    zaza+zb

    )= (c, y)

    qui définit bien un C1 difféomorphisme, de réciproque donnée ∗ par

    Ψ−1 R+ × [0, 1] −→ R+ × R+(x, y) 7−→ (xy, x(1− y))

    et alors on obtient Jac(x,y)Ψ−1 =

    ∣∣∣∣∣∣∣∂za∂x

    ∂za∂y

    ∂zb∂x

    ∂zb∂y

    ∣∣∣∣∣∣∣ =∣∣∣∣ y x1− y −x

    ∣∣∣∣ = −x, ce qui nous donneE [h(X,Y )] =

    ∫ +∞0

    ∫ 10h(x, y)

    1

    Γ(a)�−xy(xy)a−1

    1

    Γ(b)�−x(1−y)xb−1(1− y)b−1xdxdy

    =

    ∫ +∞0

    ∫ 10h(x, y)

    1

    Γ(a)Γ(b)�−xxa+b−1ya−1(1− y)b−1dxdy .

    Ceci assure alors que la densité du couple (X,Y ) est donnée par :

    f(X,Y )(x, y) =1

    Γ(a)Γ(b)�−xxa+b−1ya−1(1− y)b−11R+(x)1[0,1](y) .

    Comme fX,Y (x, y) est de la forme g1(x)g2(y), on a l’indépendance de X et Y . Mais onpeut être plus précis, en explicitant les lois marginales :

    ∗. On résout juste le petit système :

    {x = za + zb

    y = zaza+zb

    ⇐⇒

    {za = xy

    zb = x(1− y)

    22

  • • Posons g1(x) = �−xxa+b−11R+(x). On a∫R g(x)dx = Γ(a + b) par définition de la

    fonction Gamma, donc en intégrant sur x on obtient la densité marginale de Y , qui estdonc fY (y) =

    Γ(a+b)Γ(a)Γ(b)y

    a−1(1 − y)b−11[0,1](y). Il s’agit d’une loi bêta β(a, b) †, et on amontré au passage que β(a, b) :=

    ∫ 10 y

    a−1(1− y)b−1dy = Γ(a)Γ(b)Γ(a+b) .• La densité marginale de X est fX(x) = 1Γ(a+b)�

    −xxa+b−11R+(x).

    Exercice 2.37. Entropie et loi normale. Pour un vecteur aléatoire X à valeurs dans R dedensité fX , on définit l’entropie de (la loi de) X par

    HX := −∫Rn

    log(fX(x))fX(x)dx = −E(

    log fX(X)),

    si fX | log fX | est intégrable (par convention 0 log 0 = 0).

    a) Exprimer HaX+b en fonction de HX , pour a 6= 0, b ∈ R.b) Soit X ∼ N (0, 1). Calculer HX .c) Soit Y une variable aléatoire à densité, d’espérance nulle et de variance 1. Montrer que

    HY ≤ HX où X ∼ N (0, 1). Indication. Noter que l’on a l’identité HX = −E(log fX(Y )).Autrement dit, la variable aléatoire N (0, 1) est celle qui maximise l’entropie parmi lesvariables aléatoires centrées réduites.

    Solution.a) On montre facilement (par un changement de variable) que l’on a faX+b(x) = 1|a|fX(

    x−ba ).

    Ainsi,

    HaX+b = −∫Rn

    log( 1|a|fX(

    x−ba )) 1|a|fX(

    x−ba )dx

    = log |a|∫Rn

    1

    |a|fX(

    x−ba )dx−

    ∫Rn

    log(fX(

    x−ba )) 1|a|fX(

    x−ba )dx

    = log |a| −∫Rn

    log(fX(t)

    )fX(t)dt = log |a|+HX ,

    où on a fait un changement de variable t = (x− b)/a et utilisé que∫R fX(x) = 1.

    b) Si X ∼ N (0, 1), comme fX(x) = 1√2πe−x2/2, on a

    HX = −E(log fX(X)) = −E(

    log(

    1√2π

    )− 1

    2X2)

    =1

    2

    (log(2π) + 1

    )c) Notons que X ∼ N (0, 1), donc on a toujours fX(x) = 1√2πe

    −x2/2. Ainsi, si E(Y ) = 0 etE(Y 2) = 1, on a comme ci-dessus

    −E(

    log fX(Y ))

    = −E(

    log(

    1√2π

    )− 1

    2Y 2)

    =1

    2

    (log(2π) + 1

    )= HX .

    †. Voir Garet-Kurtzmann, page 146

    23

  • On peut donc écrire (les intégrales ne porte en réalité que sur l’ensemble {y, fY (y) > 0}, maison utilise la convention 0 log 0 = 0)

    HX −HY = −E(log fX(Y )) + E(log fY (Y )) = E(

    logfY (Y )

    fX(Y )

    )=

    ∫R

    (log

    fY (y)

    fX(y)

    )fY (y)dy

    =

    ∫R

    fY (y)

    fX(y)

    (log

    fY (y)

    fX(y)

    )fX(y)dy = E

    (fY (X)fX(X)

    logfY (X)

    fX(X)

    ).

    La fonction x 7→ x log x étant convexe sur R+, on a d’après l’inégalité de Jensen

    HX −HY ≥ E(fY (X)fX(X)

    )logE

    (fY (X)fX(X)

    )par Jensen. De plus, par un calcul immédiat,

    E(fY (X)fX(X)

    )=

    ∫R

    fY (x)

    fX(x)× fX(x)dx =

    ∫RfY (x)dx = 1 .

    On a donc montré que HX −HY ≥ 1 log 1 = 0.

    2.6 Fonction caractéristique, les classiques

    Exercice 2.38. Montrer que X est une variable aléatoire symétrique (i.e. X et −X ont lamême loi) si et seulement si ϕX est à valeurs réelles.Solution. On remarque que ϕX(t) = E[eitX ] = E[e−itX ] = ϕ−X(t). Donc ϕX(t) est réelle siet seulement si ϕ−X(t) = ϕX(t) pour tout t ∈ R, c’est à dire si la loi de X est symétrique.

    Exercice 2.39. (loi de Cauchy). Donner la fonction caractéristique :a) si X suit une loi exponentielle de paramètre λ > 0 ;b) si Y possède la densité f(y) = λ2 e

    −λ|y| (exponentielle symétrique) ;

    c) si Z suit une loi de Cauchy de paramètre λ, c’est-à-dire si X a pour densité λπ(λ2+x2)

    (Indication : on pourra utiliser la question précédente).

    Solution.a) On calcule ϕX(t) =

    ∫ +∞0 e

    itxλe−λxdx = λλ−it .b) De même

    ϕY (t) = E[eitY ] =∫ +∞

    0eitx λ2 e

    −λxdx+

    ∫ 0−∞

    eitx λ2λeλxdx

    2

    ( 1λ− it

    +1

    λ+ it

    )=

    λ2

    t2 + λ2.

    c) Avec la question précédente, et en utilisant la formule d’inversion de Fourier (on aϕY (t) = f̂(t)), on obtient que

    f(y) =1

    ∫Rf̂(t)e−itydt =

    1

    ∫Re−ity

    λ2

    t2 + λ2dt =

    λ

    2E[e−iyZ

    ].

    24

  • Comme Z est symétrique, on a (voir exercice suivant) E[eiyZ

    ]= E

    [e−iyZ

    ]= f(y).

    On a donc, si Z ∼ Cauchy(λ) on a ϕZ(y) = e−λ|y| pour tout y ∈ R.

    Exercice 2.40. Soit X ∼ N (0, σ2), et ϕ(t) sa fonction caractéristique.a) Montrer que ϕ′(t) = −tσ2ϕ(t) pour tout t ∈ R.b) En déduire ϕ(t) pour tout t ∈ R.

    Solution.

    a) On a, en dérivant sous l’intégrale,

    Φ′(t) =

    ∫Rixeitx

    1√2πσ2

    e−x2

    2σ2 dx

    (IPP )=

    1√2πσ2

    [ieitx(−σ2)e−

    x2

    2σ2

    ]+∞−∞

    + iσ2(it)

    ∫R

    eitx√2πσ2

    e−x2

    2σ2 dx.

    b) En résolvant l’équation diférentielle, et en utilisant que Φ(0) = 1, on trouve Φ(t) =e−σ

    2t2/2.

    Exercice 2.41. Montrer, en utilisant la fonction caractéristique, quea) la somme de deux v.a. de Poisson indépendantes est une v.a. de Poisson ;b) la somme de deux v.a. Gaussiennes indépendantes est une v.a. Gaussienne ;c) la somme de deux v.a. de Cauchy indépendantes est une v.a. de Cauchy.

    Solution.

    a) Avec le calcul fait dans l’exercice 1, on a, si X ∼ Poisson(λ1), Y ∼ Poisson(λ2)indépendantes,

    ϕX+Y (t) = ϕX(t)ϕY (t) = eλ1(eit−1)eλ2(e

    it−1) = e(λ1+λ2)(eit−1),

    et comme la fonction caractéristique caractérise la loi, X + Y ∼ Poisson(λ1 + λ2).b) Si X ∼ N (µ1, σ21) et Y ∼ N (µ2, σ22) indépendantes,

    ϕX+Y (t) = ϕX(t)ϕY (t) = eitµ1−σ21t2/2eitµ2−σ

    22t

    2/2eit(µ1+µ2)−(σ21+σ

    22)t

    2/2,

    et comme la fonction caractéristique caractérise la loi, X + Y ∼ N (µ1 + µ2, σ21 + σ22).c) Si X ∼ Cauchy(a) et Y ∼ Cauchy(b) indépendantes,

    ϕX+Y (t) = ϕX(t)ϕY (t) = e−a|t|e−b|t| = e−(a+b)|t|,

    et comme la fonction caractéristique caractérise la loi, X + Y ∼ Cauchy(a+ b).

    Exercice 2.42. (TCL). On considère (Xn)n≥1 une suite de v.a. indépendantes de même loi.On suppose que E[X1] = 0 et Var(X1) = σ2 et on note ϕ(t) la fonction caractéristique de X.On considère la variable aléatoire Yn := 1√n(X1 + · · ·+Xn).

    a) Donner la fonction caractéristique de Yn, Φn(t), en fonction de ϕ, t et n.b) Montrer que, lorsque x→ 0, on a ϕ(x) = 1− 12σ

    2t2 + o(t2).

    25

  • c) En déduire que, pour tout t ∈ R, log Φn(t) → −12σ2t2, et donc que Φn(t) → Φ(t) où

    Φ(t) est la fonction caractéristique d’une loi que l’on précisera.

    Solution.a) On a

    Φn(t) = E[ei t√

    n(X1+···+Xn)

    ]= E

    [ei t√

    nX1]n

    = ϕ(t/√n)n .

    b) Un développement de Taylor donne ϕ(x) = ϕ(0) + ϕ′(0)x + ϕ′′(0)x2/2 + o(x2) quandx→ 0. Maintenant, on a ϕ(0) = 1, ϕ′(0) = E[X] = 0, ϕ′′(0) = E[X2] = σ2.

    c) On a log Φn(t) = n logϕ(t/√n). Pour tout t ∈ R, t/

    √n → 0, donc logϕ(t/

    √n) =

    −12σ2t2/n+ o(1/n), et log Φn(t)→ −12σ

    2t2. Ainsi, Φn(t)→ e−σ2t2/2, qui est la fonction

    caractéristique de la loi gaussienne N (0, σ2).

    Exercice 2.43. Fonction caractéristique de la loi de Cauchy. Soit X une variable aléatoirede loi Cauchy(a, b), c’est-à-dire de densité x 7→ fX(x) = 1π

    b(x−a)2+b2 . Montrer que la fonction

    caractéristique de X est donné par : ϕX(t) = eiate−b|t|.Indication : Considérer la fonction f : z ∈ C \ {±i} → R définie par f(z) = eitz

    1+z2et appliquer

    le théorème des résidus avec le contour suivant

    •O

    •R•−R

    •i

    γR

    Solution. Soulignons qu’il suffit de traiter le cas où a = 0 et b = 1 (X ∼ C(0, 1)). En effet, siX a pour densité fX(x) = 1π

    1(x−a)2+b2 , alors Y :=

    1b (X−a) a pour densité bfX(bx+a) =

    1x2+1

    .On pourra alors utiliser que comme X = bY + a on a ϕX(t) = eiatϕY (bt). On supposera doncdans la suite que a = 0 et b = 1, de sorte que l’on souhaite calculer ϕX(t) =

    ∫R

    11+x2

    eitxdxpour t ∈ R.

    On suppose pour l’instant t > 0 et R > 1. L’ensemble Ω est convexe (donc étoilé), lafonction f : est holomorphe sur Ω \ {i} et le chemin γR reste dans Ω, en évitant i. D’après lethéorème des résidus, on a

    1

    2iπ

    ∫γR

    f(z)dz = Res(f, i)× IndγR(i) ,

    où IndγR(i) =1

    2iπ

    ∫γR

    dωω−i = 1. Calculons maintenant le résidu de f en i : on a pour h → 0

    (h ∈ C),

    f(i+ h) =eit(i+h)

    1 + (i+ h)2=

    e−teith

    1 + (−1 + 2ih+ h2)=

    1

    h

    e−teith

    2i+ h∼ 1h

    e−t

    2i.

    Ainsi, 12iπ∫γRf(z)dz = e

    −t

    2i .D’autre part, on a ∫

    γR

    f(z)dz =

    ∫ R−R

    f(t)dt+

    ∫ π0f(Reiθ)Reiθdθ .

    26

  • Montrons que la deuxième intégrale tend vers 0 quand R→∞. Notons que l’on a

    |f(Reiθ)Reiθ| = R|eitReiθ |

    |1 +R2e2iθ|≤ Re

    −tR sin(θ)

    |1−R2|≤ RR2 − 1

    ,

    qui tend bien vers 0 quand R→∞. Cela prouve que∫ +∞−∞ f(z)dz =

    ∫γRf(z)dz = πe−t, pour

    t > 0.La loi C(0, 1) est symétrique (invariante par le changement X 7→ −X) on a ϕX(−t) =

    ϕX(t) : on en déduit que ϕX(t) = e−|t| pour t ∈ R (car on a toujours ϕX(0) = 1).

    Exercice 2.44. Soit α ∈ ]0, 2[ fixé.a) On pose ψ(t) := 1−(1−cos t)α/2 pour t ∈ R. Montrer que ψ(t) =

    ∑∞k=1 ck(cos t)

    k où lesck sont positifs et vérifient

    ∑∞k=1 ck. En déduire que ψ(t) est la fonction caractéristique

    d’une variable aléatoire réelle.b) Soit ψn(t) := ψ(

    √2n−1/αt)n. Montrer que ψn(t) est la fonction caractéristique d’une

    variable aléatoire Xn. Montrer que limn→∞ ψn(t) = e−|t|α pour tout t ∈ R. En déduire

    que ϕα(t) = exp(−|t|α) est la fonction caractéristique d’une variable aléatoire réelle.Une variable aléatoire réelle de fonction caractéristique e−|t|α est dite de loi α-stablesymétrique ; noter que pour α = 2 on retrouve une loi normale. Sa densité n’est pasexplicite mais donnée par la formule fα(x) = 12π

    ∫e−itx−|t|

    αdt ; on peut montrer qu’elle

    vérifie f(x) ∼ c|x|−(1+α) quand |x| → ∞.c) Montrer que si (Xk)k≥1 sont des variables aléatoires i.i.d. de loi α-stable symétrique

    alors pour tout n ≥ 1 n−1/α(X1 + · · ·+Xn) est de loi α-stable symétrique.Considérons la réciproque. Soit X est une v.a. symétrique telle que, pour (Xk)k≥1 desv.a. indépendantes de même loi que X, pour tout n n−1/α(X1 + · · ·+Xn) est de mêmeloi que X. Montrer qu’alors X est de loi α-stable symétrique.

    3 Convergence de variables aléatoires

    3.1 Convergence, quelques classiques

    Exercice 3.1. Soit (Xn) une suite de v.a. de loi géométrique, Xn ∼ Geom(pn), avec pn → 0.Montrer que (pnXn)n converge en loi vers une variables exponentielle de paramètre 1.

    Exercice 3.2. Soit (Xn) une suite de v.a. de loi Binomiale de paramètres (n, λ/n). Montrerque (Xn)n converge en loi vers une variable de Poisson de paramètre λ.

    Exercice 3.3. SoitX1, X2, . . . une suite de v.a. positives indépendantes de densité e−x1R+(x).On pose Mn = max1≤k≤nXk.

    a) Déterminer la fonction de répartition de Mn.b) Déterminer la fonction de répartition de Tn := Mn − log n.c) Montrer que la fonction de répartition de Tn converge, et donner sa limite F .d) F est-elle la fonction de répartition d’une variable aléatoire ? Si oui, cette variable aléa-

    toire possède-t-elle une densité ? Si oui, la donner.

    Solution.

    27

  • a) Pour t ≤ 0 on a P(Mn ≤ t) = 0, et pour t > 0 on a

    P(Mn ≤ t

    )= P

    (X1 ≤ t, . . . ,Xn ≤ t

    ) indep.= P(X1 ≤ t)n = (1− e−t)n .

    b) En utilisant que FTn(t) = P(Mn ≤ t+ log n), on obtient

    FTn(t) =

    {0 si t ≤ − log n ,(1− e−(t+logn))n =

    (1− 1ne

    −t)n si t > − log n .c) Pour tout t ∈ R, on a que pour n suffisamment grand t > − log n, donc

    limn→∞

    FTn(t) = limn→∞

    (1− 1ne

    −t)n = e−e−t .d) La fonction F (t) = e−e−t est continue, croissante sur R, et limt→−∞ F (t) = 0, limt→+∞ F (t) =

    1 : il s’agit bien de la fonction de répartition d’une variable aléatoire, et comme F estdérivable de dérivée continue, la variable aléatoire possède une densité, donnée parf(t) = F ′(t) = e−te−e

    −t . (Une telle variable aléatoire est dite de Gumbel.)

    Exercice 3.4. Pour tout n ∈ N, on note fn la fonction définie sur R par :

    fn(x) = 1− cos 2nπx , si x ∈ ]0, 1[fn(x) = 0 , sinon.

    Pour tout n ∈ N, on définit Xn, une v.a. de densité fn. Montrer que la suite (Xn) convergeen loi, bien que la suite de fonctions (fn) ne converge pas.Solution. Il est clair que fn ne converge pas dans [0, 1]. Pour x ∈ [0, 1], la fonction derépartition de Xn est donnée par

    Fn(x) =

    ∫ x0

    (1− cos(2nπy))dy = x− sin(2nπx)2nπ

    ,

    qui converge vers x quand n tends vers∞. Donc Xn converge en loi vers X, une variable avecloi uniforme dans [0, 1].

    Exercice 3.5. (Pas de Césaro pour la convergence en probabilité). Soit (Xn)n≥1 une suite dev.a. indépendantes. La fonction de répartition de Xn est donnée par

    Fn(x) = 0 si x ≤ 0 et Fn(x) = 1−1

    x+ nsi x > 0.

    Montrer que (Xn)n≥1 converge en probabilité vers 0, mais pas Yn = 1n∑n

    i=1Xi.Solution. Les v.a. Xn étant p.s. positives, on a, pour tout � > 0, P(|Xn| > �) = 1−Fn(�) =

    1�+n , et donc limn→∞ P(|Xn| > �) = 0. Donc la suite (Xn)n≥1 converge vers 0 en probabilité.

    Soit Mn = max(X1, . . . , Xn). Alors Mn ≤∑n

    i=1Xi p.s., et donc pour tout � > 0, on aP(Mnn > �) ≤ P(Yn > �). Par indépendance des Xn, on a pour tout x > 0,

    P(Mn ≤ x) = P( ⋂

    1≤i≤n{Xi ≤ x}

    )=

    n∏i=1

    P(Xi ≤ x)

    =n∏i=1

    (1− 1

    x+ i

    )≤(

    1− 1x+ n

    )n.

    28

  • On obtient donc1−

    (1− 1

    n(�+ 1)

    )n≤ P

    (Mnn

    > �)≤ P(Yn > �),

    d’où,

    limn→∞

    P(Yn > �) ≥ 1− exp(− 1�+ 1

    )> 0,

    et donc Yn ne converge pas vers 0 en probabilité.

    Exercice 3.6. Soit (Xn)n≥1 une suite de variables aléatoires. Montrer que si la suite (Xn)n≥1converge dans L2 vers une variable aléatoire X, alors la suite (X2n)n≥1 converge dans L1

    vers X2. La réciproque est-elle vraie ?Solution. Il suffit d’écrire |X2n−X2| = |Xn +X||Xn−X|. Ainsi, par l’inégalité de Cauchy–Schwarz on a

    E[|X2n −X2|] ≤ E[|Xn +X|2]1/2E[|Xn −X|2]1/2 ≤(‖Xn‖2 + ‖X‖2

    )‖Xn −X‖2 .

    Ce terme converge vers 0 car supn ‖Xn‖2 < +∞ et ‖Xn −X‖2 → 0.La réciproque est fausse. Par exemple, Xn est une suite de variables aléatoires de même

    loi P(Xn = +1) = P(Xn = −1) = 12 , et X = 1. On a alors X2n = X

    2 = 1 pour tout n, doncX2n converge dans L2 vers X2 = 1, mais Xn ne converge pas vers X (ni dans L1, ni même enloi).

    Exercice 3.7. Montrer que Xn converge vers X en probabilité si et seulement si

    limn→∞

    E[ |Xn −X|

    1 + |Xn −X|

    ]= 0 .

    Exercice 3.8. Montrer que Xn converge presque sûrement vers X si et seulement si pourtout � > 0 on a P(supn≥N |Xn −X| > �)→ 0 quand N →∞.

    Exercice 3.9. (Lemme de Slutsky). On considère (Xn)n≥1 une suite de v.a. qui converge enloi vers X, et (Yn)n≥1 qui converge en loi vers une constante a.

    a) Montrer que (Yn)n≥1 converge en probabilité vers a.b) Montrer que (Xn, Yn) converge en loi vers (X, a).c) Donner un exemple où Xn → X, Yn → Y en loi, mais où (Xn, Yn) ne converge pas en

    loi vers (X,Y ).d) On suppose que (Xn) est une suite de v.a. i.i.d., d’espérance nulle, et admettant un

    moment d’ordre 2. On pose Vn := 1n∑n

    i=1X2i . Donner la limite en loi de

    1√nVn

    n∑i=1

    Xi .

    Solution.a) Soit � > 0. On a que

    P(|Yn − a| > �) = P(Yn < a− �) + P(Yn > a+ �)≤ P(Yn ≤ a− �) + 1− P(Yn ≤ a+ �)= FYn(a− �) + 1− FYn(a+ �) .

    29

  • Comme Yn → a en loi, on a que FYn(t)→ Fa(t) pour tout t ∈ R point de continuité deFa : on obtient que FYn(x)→ 0 pour tout x < a et FYn(x)→ 1 pour tout x > a. On enconclut donc que pour tout � > 0,

    P(|Yn − a| > �) ≤ FYn(a− �) + 1− FYn(a+ �)→ 0

    quand n→∞.b) Travaillons avec les fonctions caractéristiques : montrons que pout tous (s, t) ∈ R,

    ϕ(Xn,Yn)(s, t)→ ϕ(X,a)(s, t) = eitaϕX(s). On écrit∣∣∣E[eisXneitYn ]−eitaE[eisX ]∣∣∣≤∣∣∣E[eisXneitYn − eitaE[eisXn]∣∣∣+ ∣∣∣eitaE[eisXn ]− eitaE[eisX ]∣∣∣

    ≤ E[∣∣eisYn − eita∣∣]+ ∣∣ϕXn(s)− ϕX(s)∣∣ .

    Comme Xn → X en loi, on a que ϕXn(s) → ϕX(s), et le deuxième terme tend vers 0.On se concentre donc sur le premier terme. On fixe � > 0, et on écrit

    E[∣∣eisYn − eita∣∣] = E[∣∣eisYn − eita∣∣1{|Yn−a|>�}]+ E[∣∣eisYn − eita∣∣1{|Yn−a|≤�}]

    ≤ 2P(|Yn − a| > �) + �P(|Yn − a| ≤ �) ,

    où on a utilisé que y 7→ eity est 1-Lipschitz, de sorte que si |y−a| ≤ � alors |eity−eita| ≤ �.Au final, comme Yn → a en probabilité, on a E[|eisYn − eita|] ≤ 2� si n est suffisammentgrand. Comme � est arbitraire, cela montre bien que E[|eisYn − eita|]→ 0.

    c) Voilà un exemple : (Xn)n≥1 et (Yn)n≥1 sont toutes indépendantes, de loi N (0, 1). AlorsXn → X et Yn → X en loi, avec X ∼ N (0, 1). Mais le vecteur (Xn, Yn) converge enloi vers (X,Y ) où X,Y ∼ N (0, 1) sont indépendantes, et n’a donc pas la même loi que(X,X).

    d) D’après la loi forte des grands nombres appliquée aux variables X2i (qui admettent uneespérance finie), on a que

    Vn :=1

    n

    n∑i=1

    X2ip.s.−−→ E[X21 ] = σ2 .

    D’autre part, le Théorème Central Limite donne que

    1√nσ2

    n∑i=1

    Xi(loi)−−→ Z ∼ N (0, 1) .

    D’après le lemme de Slutsky, on a que (√

    σ2

    Vn, 1√

    nσ2

    ∑ni=1Xi) converge en loi vers (1, Z),

    et en particulier,

    1√nVn

    n∑i=1

    Xi =

    √σ2

    Vn× 1√

    nσ2

    n∑i=1

    Xi(loi)−−→ 1× Z ∼ N (0, 1) .

    30

  • 3.2 Borel-Cantelli, loi des grands nombres : les classiques

    Exercice 3.10. Soit (Xn)n une suite de v.a. indépendantes, telle que Xn ∼ Bern(pn).a) Montrer que si

    ∑n pn < +∞, alors Xn → 0 p.s.

    b) Montrer que si∑

    n pn = +∞, alors p.s. Xn ne converge pas vers 0.

    Exercice 3.11. (Loi des grands nombres L4). Soit (Xn)n≥1 une suite de variables aléatoiresi.i.d. avec E[Xn] = 0, et admettant un moment d’ordre 4 fini. On note m4 := E[(X1)4] < +∞,et σ2 = E[(X1)2] < +∞. On pose Sn = X1 + . . .+Xn.

    a) Calculer E[(Sn)4].b) En déduire une majoration de P

    (| 1nSn| ≥ �

    )pour tout � > 0.

    c) Conclure que pour tout � > 0, P(

    lim supn→∞ | 1nSn| > �)

    = 0, et en déduire que P-p.s.limn→∞

    1nSn = 0 (= E[X1]).

    Exercice 3.12. Soit (Xn)n≥1 une suite de variables aléatoires indépendantes et identiquementdistribuées. On suppose que E[|X1|] = +∞. On veut montrer que presque sûrement, la suite( 1n∑n

    i=1Xi)n≥1 n’a pas de limite réelle.

    a) Montrer que si une suite (xn)n≥1 de réels est telle x1+...+xnn converge vers une limiteréelle, alors limn→∞ xnn = 0.

    b) Montrer que∞∑n=0

    P(|Xn| ≥ n) = +∞ et conclure.

    Solution.a) Soit ` = limn→∞ x1+···+xnn ∈ R. On écrit pour n ≥ 2

    x1 + · · ·+ xnn

    =xnn

    +x1 + · · ·+ xn−1

    n− 1n− 1n

    ,

    et en prenant la limite quand n→∞, on obtient que limn→∞ xnn = `− ` = 0.b) On utilise la formule suivante : pour toute v.a. Y ≥ 0, on a

    E[Y ] =∫ ∞

    0P(Y > t)dt

    (que l’on montre en écrivant Y =∫∞

    0 1[0,Y [(t)dt, en prenant l’espérance et en appliquantFubini). Ainsi, en l’appliquant à Y = |X| ≥ 0, on a

    E[|X|] =∫ ∞

    0P(|X| > t)dt =

    +∞∑n=0

    ∫ n+1n

    P(|X| > t)dt ≤+∞∑n=0

    P(|X| ≥ n) ,

    où on a utilisé que P(|X| > t) ≤ P(|X| ≥ n) pour tout t > n (par décroissance deP(|X| > t)). Les Xi ayant tous la même loi, on a P(|X| ≥ n) = P(|Xn| ≥ n). On a

    donc bien montré que∞∑n=0

    P(|X| ≥ n) = +∞ : comme les événements {|Xn| ≥ n} sont

    indépendants, on a d’après Borel-Cantelli que

    p.s. il y a une infinité de n pour lesquels |Xn| ≥ n.

    31

  • Cela démontre que p.s., il y a une infinité de n pour lesquels 1n |Xn| ≥ 1, et en particulier1n |Xn| ne peut pas converger vers 0. D’après la question précédente, cela montre quepresque sûrement la suite

    (X1+...+Xn

    n

    )n≥1 n’a pas de limite réelle.

    3.3 Pour pratiquer

    Exercice 3.13. Considérons une suite (Xn)n≥1 de v.a. telle queXn suive une loi exponentiellede paramètre λn. On suppose que limn→∞ λn = 0. Soit Zn = Xn − [Xn], où [x] désigne lapartie entière du réel x. Montrer que Zn converge en loi vers une variable aléatoire U([0, 1]).Solution. On a {[Xn] = k} = {Xn ∈ [k, k + 1)}, et Zn ∈ [0, 1] p.s. Donc P(Zn ≤ x) = 0pour x ≤ 0, et P(Zn ≤ x) = 1 pour x > 1. Soit x ∈ [0, 1], alors

    P(Zn ≤ x) =∑k≥0

    P(Zn ≤ x, [Xn] = k) =∑k≥0

    P(Zn ≤ x,Xn ∈ [k, k + 1))

    =∑k≥0

    P(Xn ∈ [k, k + x]) =∑k≥0

    λn

    ∫ k+xk

    e−λntdt

    =∑k≥0

    (e−λnk − e−λn(k+x)

    )=(

    1− e−λnx)∑k≥0

    e−λnk

    =1− e−λnx

    1− e−λn=λnx+O(λ

    2n)

    λn +O(λ2n).

    On obtient donc,limn→∞

    FZn(x) = limn→∞P (Zn ≤ x) = x

    Donc Zn converge en loi vers une variable uniforme dans [0, 1].

    Exercice 3.14. Soit (Xn)n≥1 des v.a. indépendantes de loi de Poisson de paramètre λ > 0.

    a) Quelle est la loi de X1 + · · ·+Xn ? Que vaut P(X1 + · · ·+Xn ≤ n) ?b) Utiliser le théorème central limite pour montrer que

    limn→+∞

    e−nn∑k=0

    nk

    k!=

    1

    2.

    Solution.

    a) On montre facilement en calculant sa fonction génératrice que X1 + · · ·+Xn suit une loi

    de Poisson de paramètre nλ. On en déduit que P (X1 + · · ·+Xn ≤ n) =n∑k=0

    (nλ)k

    k!e−nλ.

    b) Pour λ = 1, d’après le théorème central limite, (X1 + · · ·+Xn−n)/√n tend vers une loi

    N (0, 1). En particulier, la suite des fonctions de répartition de (X1 + · · ·+Xn−n)/√n,

    tend vers 1/2 au point 0 (car∫ 0−∞

    1√2πe−x

    2/2dx = 1/2). Donc d’après la question 1),

    P ((X1 + · · ·+Xn−n)/√n ≤ 0) = P (X1 + · · ·+Xn ≤ n) =

    n∑k=0

    (n)k

    k!e−n → 1/2, lorsque

    n tend vers +∞.

    32

  • Exercice 3.15. Soit (Xn)n≥1 une suite de v.a. indépendantes, et de même loi de Bernoullide paramètre p, (0 < p < 1). On pose, pour tout n ≥ 1, Yn = XnXn+1, et Vn = Y1 + · · ·+Yn.Montrer que 1nVn converge p.s. vers p

    2.Solution. Notons que Yi suit une loi Bern(p2). Notons aussi que l’on ne peut pas appliquerla loi des grands nombres directement car Yi est Yi+1 ne sont pas indépendantes.

    Cependant, par indépendance par paquet, les variables aléatoires (Y2i)i∈N sont indépen-dantes, et les variables aléatoires (Y2i+1)i∈N sont indépendantes (chaque Yi dépendant deXi, Xi+1, les paquets étant disjoints dans chacune des deux suites). On peut donc appliquerla loi des grands nombres aux deux suites :

    1

    k

    k∑i=1

    Y2ip.s.−−→ p2 1

    k

    k∑i=1

    Y2i+1p.s.−−→ p2 , quand k →∞.

    On écrit alors

    1

    n

    n∑i=1

    Yi =1

    n

    bn/2c∑i=1

    Y2i +1

    n

    b(n−1)/2c∑i=1

    Y2i+1 =bn2 cn

    1

    bn2 c

    bn/2c∑i=1

    Y2i +bn−12 cn

    1

    bn−12 c

    b(n−1)/2c∑i=1

    Y2i+1 ,

    dont on déduit que 1n∑n

    i=1 Yi converge p.s. vers12p

    2 + 12p2 = p2.

    Exercice 3.16. Soit (θn)n≥1 une suite de réels strictement positifs telle que limn→∞ θn =∞.Soit (Xn)n≥1 une suite de variables aléatoires indépendantes telle que pour tout n ≥ 1, Xnsuive la loi exponentielle de paramètre θn.

    a) Étudier la convergence en probabilité de la suite (Xn)n≥1. Quelle hypothèse n’a-t-onpas utilisée ?

    b) Reprendre la question précédente avec la convergence dans L1.

    c) Étudier, dans le cas où θn = n puis dans le cas où θn = lnn, la convergence presquesûre de la suite (Xn)n≥1.

    Solution.

    a) Pour tout ε > 0, on a

    P(|Xn| > ε) = P(Xn > ε) =∫ ∞ε

    θne−θnxdx = e−θnε

    n→∞−−−→ 0 ,

    car θn →∞. On n’a pas utilisé l’indépendance, mais simplement la loi de Xn.b) On a E[|Xn|] = E[Xn] = 1θn (espérance d’une variable aléatoire exponentielle de para-

    mètre θn). On a donc limn→∞ E[|Xn|] = 0, c’est-à-dire que Xn converge dans L1 vers0.

    c) Si θn = n, alors pour tout ε > 0 fixé on a

    ∞∑n=1

    P(|Xn| > ε) =∞∑n=1

    e−εn < +∞ .

    Ainsi, en appliquant Borel-Cantelli, on obtient que Xn → 0 p.s.

    33

  • Si θn = n, alors pour ε ∈ (0, 1) fixé on a

    ∞∑n=1

    P(|Xn| > ε) =∞∑n=1

    e−ε lnn =∞∑n=1

    n−ε = +∞ .

    Ainsi, en appliquant Borel-Cantelli, on obtient que p.s. il y a une infinité de n tels que|Xn| > ε (par exemple avec ε = 1/2). On en conclut que p.s. Xn ne converge pas vers 0.Remarque : on peut en réalité montrer que Xn → 0 p.s. si et seulement si pour toutε > 0 on a

    ∑∞n=1 e

    −εθn < +∞.

    Exercice 3.17. Soit (Xi)i≥1 une suite de v.a. indépendantes. On suppose que Sn :=∑n

    i=1Xiconverge en loi. On note ϕn(t) la fonction caractéristiue de Sn.

    a) Montrer qu’il existe δ > 0 tel que ϕn(t) 6= 0 pour tout n ≥ 1 et |t| ≤ δ.b) Soit (nk)k≥1 une suite d’entiers strictement croissante. On note ψk(t) la fonction carac-

    téristique de Snk − Snk−1 . Montrer que pour |t| ≤ δ on a ψk(t) = ϕnk(t)/ϕnk−1(t).c) Montrer que limk→∞ ψk(t) = 1 pour tout |t| ≤ δ, puis que limk→∞ ψk(t) = 1 pour tout

    t ∈ R. En déduire que Snk − Snk−1 converge en loi (et donc en probabilité) vers 0.d) En déduire que (Sn) est une suite de Cauchy pour la convergence en probabilité, et

    conclure que Sn converge en probabilité vers une variable aléatoire S.On a ainsi montré que, pour une somme de variables aléatoires indépendantes, laconverge en loi est équivalente à la convergence en probabilité. En réalité, un théorèmede Lévy assure que dans ce cas elle est aussi équivalente à la convergence presque sûre...cf. Quéffelec-Zuily Théorème II.21.

    e) Application. Soit (αk)k≥1 une suite décroissante de réels telle que limk→∞ αk = 0 ;notons que par le critère des séries alternées,

    ∑nk=1(−1)kαk converge. Soit (Yk)k≥1 une

    suite de v.a. indépendantes, de loi P(Yk = +1) = P(Yk = −1) = 1/2. On pose Sn :=∑nk=1 αkYk. Montrer que Sn converge en loi si et seulement si

    ∑∞k=1 α

    2k < +∞. Donner

    la fonction caractéristique de la limite. En conclure que Sn converge en probabilité si etseulement si

    ∑∞k=1 α

    2k < +∞.

    Solution.

    a) D’après la convergence en loi, on sait que limn→∞ ϕn(t) = ϕ(t) pour tout t ∈ R, oùϕ est une fonction caractéristique, qui est notamment continue en 0. Ainsi, il existeun δ > 0 tel que pour tout |t| ≤ δ on a ϕ(t) 6= 0. Alors pour tout n ≥ 1 on aϕn(t) 6= 0 pour tout |t| ≤ δ : en effet si on avait ϕn(t) = 0 pour un n ∈ N∗, alorsparindépendance des Xi on aurait ϕn+m(t) = ϕn(t)E[eit(Sm−Sn)] = 0 pour tout m ≥ 1 etdonc ϕ(t) = limn→∞ ϕn(t) = 0.

    b) Par indépendance des Xi on a ϕnk(t) = ϕnk−1(t)ψk(t) pour tout t ∈ R. Ainsi, pour|t| ≤ δ, comme ϕnk−1(t) 6= 0 on a ψk(t) = ϕnk(t)/ϕnk−1(t).

    c) Comme limk→∞ ϕnk(t) = ϕ(t) 6= 0 pour tout |t| ≤ δ, on a limk→∞ ψk(t) = 1 pour tout|t| ≤ δ. Mais on peut maintenant utiliser une propriété des fonctions caractéristiques :si Φ est une fonction caractéristique d’une v.a. réelle X, on a

    |Φ(t+ h)− Φ(t)| ≤ E[|eihX − 1|] ≤ E[(eihX − 1)2]1/2 = (1− 2Φ(h) + Φ(2h))1/2.

    34

  • où on a utilisé l’inégalité de Cauchy–Schwarz pour la deuxième inégalité. Ainsi, si |t| ≤ δet |2h| ≤ δ on a ψk(t) → 1 et ψk(h), ψk(2h) → 1 donc l’inégalité précédente montreque limk→∞ ψk(t + h) = 1. On a donc étendu la convergence limk→∞ ψk(t) = 1 à tout|t| ≤ 32δ. De proche en proche, on a donc la convergence limk→∞ ψk(t) = 1 pour toutt ∈ R.De la montre que Snk −Snk−1 converge en loi vers 0 (qui a pour fonction caractéristiqueψ ≡ 1), et elle converge donc en probabilité vers 0.

    d) On a montré que pour toute extractrice (nk)k≥1 la suite (Snk − Snk−1) converge vers 0en probabilité. Ainsi, la suite (Sn)n≥1 est de Cauchy pour la convergence en probabilité,c’est-à-dire pour la distance d(X,Y ) = E[|X−Y |∧1]. Comme L0 muni de cette distanceest complet, la suite (Sn)n≥1 converge en probabilité, vers une variable aléatoire S.

    e) On peut facilement calculer la fonction caractéristique Φn de Sn. On a

    ϕn(t) =

    n∏k=1

    E[eitαkYk ] =n∏k=1

    cos(αkt) ,

    où on a utilisé que E[eitαkYk ] = 12eitαk + 12e

    −itαk .La convergence de ϕn(t) est équivalente à la convergence de son logarithme, c’est-à-direà la convergence de

    ∑nk=1 ln cos(αkt). Maintenant, comme αk → 0, pour tout t ∈ R,

    il existe un entier n0 = n0(t) tel que |αkt| ≤ 1 pour tout k ≥ n0. Notons pour toutx ∈ [−1, 1] on a 1 − 12x

    2 ≤ cos(x) ≤ 1 − 14x2 et ainsi −x2 ≤ ln cos(x) ≤ −14x

    2. On adonc

    n∑k=1

    ln cos(αkt) =

    n0−1∑k=1

    ln cos(αkt) +n∑

    k=n0

    ln cos(αkt)

    avec

    −12t2

    n∑k=n0

    α2k ≤n∑

    k=n0

    ln cos(αkt) ≤ −1

    4t2

    n∑k=n0

    α2k .

    Ainsi, la série∑n

    k=1 ln cos(αkt) converge si∑∞

    k=n0α2k < +∞ et tend vers −∞ si∑∞

    k=n0α2k = +∞ et t 6= 0.

    En conclusion, si∑∞

    k=n0α2k = +∞ on a limn→∞ ϕn(t) = 0 si t 6= 0 (et ϕn(0) = 1

    pour tout n) : la fonction 1{0}(t) n’est pas continue en 0 et n’est donc pas la fonctioncaractéristique d’une variable aléatoire réelle. Dans ce cas, la suite Sn ne converge doncpas en loi, et donc pas en probabilité.D’autre part, si

    ∑∞k=n0

    α2k < +∞, la limite ϕ(t) := limn→∞ ϕn(t) =∏∞k=1 cos(αkt)

    existe et est non triviale, pour tout t ∈ R. De plus, pour tout |t| ≤ 1/α1 on a |αkt| ≤ 1pour tout k ≥ 1, de sorte qu’avec l’encadrement précédent, on a

    −12t2

    n∑k=1

    α2k ≤n∑k=1

    ln cos(αkt) ≤ −1

    4t2

    n∑k=1

    α2k .

    Ainsi pour tout n ≥ 1 et |t| ≤ 1/α1 on a

    exp(− 1

    2t2

    n∑k=1

    α2k

    )≤ ϕn(t) ≤ exp

    (− 1

    4t2

    n∑k=1

    α2k

    ),

    35

  • de sorte que ϕ(t) vérifie le même encadrement. On en conclut que ϕ(t) =∏∞k=1 cos(αkt)

    est continue en 0, ce qui d’après le théorème de Lévy assure qu’il s’agit de la fonctioncaractéristique d’une variable aléatorie et que Sn converge en loi. Le fait que Sn convergeen probabilité découle de la question précédente.

    Exercice 3.18. Soit (Xn)n≥1 une suite de variables aléatoire indépendantes, de loi exponen-tielle de paramètre 1.

    a) Montrer que, pour tout � > 0,∑

    n≥1 P(Xn > �) = +∞. En déduire que presque sûre-ment, lim infn→∞Xn = 0.

    b) Étudier selon les valeurs de α la convergence de la série∑

    n≥1 P(Xn ≥ α log n).

    c) En déduire que presque sûrement on a, lim supn→∞(Xn

    logn

    )= 1.

    Solution.

    a) P(Xn ≤ �) = 1 − e−�, qui n’est donc pas sommable. En utilisant le Lemme de Borel-Cantelli, comme les événements sont indépendants, on a que P-p.s., {n,Xn ≤ �} estinfini. D’où lim infn→∞Xn ≤ � P-p.s. et en prenant � = 1/k avec k → ∞, on obtientque lim infn→∞Xn = 0 P-p.s. (Xn ≥ 0).

    b) On a P(Xn ≥ t) = e−t pour tout t ≥ 0. Donc

    P(Xn ≥ α log n) = n−α,

    et la série est convergente si α > 1, et divergente si α ≤ 1.c) Posons A(α)n = {Xn ≥ α log n}.

    Par le lemme de Borel-Cantelli, pour tout α > 1, on a P(lim supnA(α)n ) = 0. Autrement

    dit : pour tout α > 1,

    P(

    lim supn

    ( Xnlog n

    )≤ α

    )≥ P

    ( Xnlog n

    < α à partir d’un certain rang)

    = 1.

    Notons Bα = {lim supn(Xn

    logn

    )≤ α} : on a montré quepour tout α > 1 on a P(Bα) =

    1. Ainsi, P(⋂k≥1B1/k) = 1. Or l’événement

    ⋂k≥1B1/k est exactement l’événement

    {lim supn(Xn

    logn

    )≤ 1} : on a donc montré que p.s. lim supn

    (Xn

    logn

    )≤ 1.

    D’autre part, pour α = 1, la série∑

    n P(A(1)n ) est divergente. Comme ces événements

    sont indépendants, on obtient par le lemme de Borel Cantelli que p.s., Xn ≥ log ninfiniment souvent, c’est-à-dire que p.s., lim supn

    (Xn

    logn

    )≥ 1.

    Exercice 3.19. Soit (Xn)n≥1 une suite de variables aléatoires i.i.d. et telles que E[Xn] = 0,σ2 := Var(Xn) < +∞. On pose Sn =

    ∑nk=1Xk. On cherche à montrer que p.s. supn Sn = +∞

    et infn Sn = −∞.

    a) Montrer que P(Sn ≥ n1/4)→ 1/2 quand n→ +∞. (Indication : TCL)En déduire que P(supn Sn = +∞) ≥ 1/2.

    b) En utilisant la loi du 0-1, montrer que P(supn Sn = +∞) = 1. Conclure que p.s.supn Sn = +∞ et infn Sn = −∞.

    Solution.

    36

  • a) Le TCL nous donne que 1√nσ2

    Sn converge en loi vers Z ∼ N (0, 1). Pour tout � > 0, sin est suffisamment grand, on a 0 ≤ n1/4 ≤ �

    √n : on a alors

    P(Sn ≤ �√n) ≤ P(Sn ≤ n1/4) ≤ P(Sn ≥ 0) ,

    et d’après le TCL on en conclut que

    1

    2= P(Z ≥ 0) ≤ lim inf

    n→∞P(Sn ≤ n1/4) ≤ lim sup

    n→∞P(Sn ≤ n1/4) ≤ P(Z ≥ �)

    Comme P(Z ≥ �)→ 12 quand �→ 0, on obtient bien que limn→∞ P(Sn ≤ n1/4) = 12 .

    Maintenant, notons que l’on a l’égalité d’événements

    {supnSn = +∞} =

    ⋂k≥1{sup

    nSn ≥ k1/4} .

    On obtient que P(supn Sn = +∞) = limk→∞ P(supn Sn ≥ k1/4). Mais on a l’inéga-lité suivante : P(supn Sn ≥ k1/4) ≥ P(Sk ≥ k1/4). D’après ce qui précède, on a doncP(supn Sn = +∞) ≥ 12 .

    b) L’événement {supn Sn = +∞} appartient à la tribu queue Q =⋂k≥1Qk, où Qk :=

    σ(Xn, n ≥ k). En effet, on a supn Sn = +∞ si et seulement si supn≥k Sn = +∞, siet seulement si supn≥k(Sn − Sk) = +∞ : on a donc l’égalité d’événements {supn Sn =+∞} = {supn≥k(Sn − Sk) = +∞}, ce dernier événement étant clairement dans latribu Qk. On a donc montré que {supn Sn = +∞} ∈ Qk pour tout k ≥ 1, donc{supn Sn = +∞} ∈ Q : d’après la loi du 0-1 on a que P(supn Sn = +∞) vaut soit 0 soit1. La question précédente montre que cette probabilité ne peut pas être égale à 0. Onen conclut donc que p.s. supn Sn = +∞.On montre de la même manière que p.s. infn Sn = −∞ (car P(Sn ≤ −n1/4) → 12).Comme l’intersection de deux événements de probabilitée 1 est aussi de probabilité 1,on a donc obtenu que p.s. supn Sn = +∞ et infn Sn = −∞.

    Exercice 3.20. Soient X1, X2, . . . des variables aléatoire réelles indépendantes, de loi expo-nentielle de paramètre λ. On pose Yn =

    ∏ni=1Xi, et Wn =

    ∑nk=1 Yk.

    a) Montrer que p.s., W∞ := limn→+∞Wn existe (mais peut valoir +∞).b) Montrer que si λ > 1, alors E[W∞] < +∞, et en dédurie que W∞ < +∞ p.s.c) Montrer que limn→∞(Yn)1/n = 1λe

    −γ p.s., où γ = −∫∞

    0 (lnx)e−xdx = −Γ′(1) est la

    constante d’Euler-Mascheroni. En déduire que W∞ < +∞ si λ > e−γ et W∞ = +∞ siλ < e−γ .

    d) Considérons maintenant le cas λ = e−γ . En appliquant l’Exercice 3.19, montrer quesupn∈N∗ Yn = +∞ p.s., et en déduire que W∞ = +∞.

    Solution.

    a) Wn est une série de termes positifs, donc la suite (Wn)n≥1 est croissante et admet unelimite, potentiellement égale à +∞. Ainsi, Wn converge presque sûrement vers W∞.

    37

  • b) Par convergence monotone (et linéarité), on a E[W∞] = limn→∞ E[Wn] =∑∞

    k=1 E[Yn ]̨.De plus, par indépendance des Xi, on a E[Yk] =

    ∏ki=1 E[Yk] = (1/λ)k (une variable

    aléatoire de loi exponentielle de paramètre λ a pour espérance 1/λ). Ainsi, si λ > 1 ona E[W∞] < +∞. On en déduit que W∞ = +∞ p.s.

    c) En appliquant la loi des grands nombres à la suite de v.a. (lnXi)i≥1 (qui sont i.i.d. etintégrables), on a

    1

    nlnYn =

    1

    n

    n∑i=1

    lnXip.s.−−→ E[lnX1] =

    ∫ ∞0

    (lnx)λe−λxdx =

    ∫ ∞0

    (lnu)e−udu− lnλ ,

    en ayant fait le changement de variable u = λx pour la dernière égalité. La fonctiony 7→ ey étant continue, on obtient que

    (Yn)1/n = e

    1n

    lnYn p.s.−−→ eγ−lnλ = 1λe−γ .

    Si λ > e−γ alors p.s. on a limn→∞(Yn)1/n = 1λe−γ < 1 et la série de terme général Yn

    converge, c’est-à-dire W∞ < +∞ p.s.Si λ < e−γ alors p.s. on a limn→∞(Yn)1/n = 1λe

    −γ > 1 et la série de terme général Yndiverge, c’est-à-dire W∞ = +∞ p.s.

    d) Dans le cas λ = e−γ , on a E[lnX1] = 0 ; notons que l’on a aussi E[(lnX1)2] < +∞. Enposant Sn =

    ∑nk=1 lnXk, on peut appliquer l’Exercice 3.19 pour en dé