Yves caumel (auth.) probabilites et processus

308
Probabilités et processus stochastiques

Transcript of Yves caumel (auth.) probabilites et processus

Page 1: Yves caumel (auth.) probabilites et processus

Probabilités et processusstochastiques

Page 2: Yves caumel (auth.) probabilites et processus

SpringerParisBerlinHeidelbergNew YorkHong KongLondresMilanTokyo

Page 3: Yves caumel (auth.) probabilites et processus

Yves Caumel

Probabilités et processus stochastiques

Page 4: Yves caumel (auth.) probabilites et processus

Yves CaumelISAE-ENSICA1, place Émile Blouin31056 Toulouse Cedex

�SBN 978-2-8178-0162-9 Springer Paris Berlin Heidelberg New York

© Springer-Verlag France, 2011

Imprimé en FranceSpringer-Verlag France est membre du groupe Springer Science + Business Media

Cet ouvrage est soumis au copyright. Tous droits réservés, notamment la reproduction et la représentation, la traduction, la réimpression, l’exposé, la reproduction des illustrations etdes tableaux, la transmission par voie d’enregistrement sonore ou visuel, la reproduction par microfilm ou tout autre moyen ainsi que la conservation des banques de données. La loi françaisesur le copyright du 9 septembre 1965 dans la version en vigueur n’autorise une reproductionintégrale ou partielle que dans certains cas, et en principe moyennant les paiements des droits.Toute représentation, reproduction, contrefaçon ou conservation dans une banque de donnéespar quelque procédé que ce soit est sanctionnée par la loi pénale sur le copyright.L’utilisation dans cet ouvrage de désignations, dénominations commerciales, marquesde fabrique, etc., même sans spécification ne signifie pas que ces termes soient libres de la législation sur les marques de fabrique et la protection des marques et qu’ils puissent être utiliséspar chacun.La maison d’édition décline toute responsabilité quant à l’exactitude des indications de dosage et des modes d’emplois. Dans chaque cas il incombe à l’usager de vérifier les informationsdonnées par comparaison à la littérature existante.

Maquette de couverture : Jean-François MontmarchéDétail du tableau : © Bloc Images

DANGERLE

PHOTOCOPILLAGE

TUE LE LIVRE

Page 5: Yves caumel (auth.) probabilites et processus

Aurore DelaigleDépartement de mathématiqueset de statistiqueUniversité de MelbourneVictoria 3010Australie

Christian GenestDépartement de mathématiqueset de statistiqueUniversité McGillMontréal H3A 2K6Canada

Marc HallinUniversité libre de BruxellesCampus de la PlaineCP 2101050 BruxellesBelgique

Ludovic LebartTélécom-ParisTech46, rue Barrault75634 Paris Cedex 13France

Christian MazzaDépartement de mathématiquesUniversité de FribourgChemin du Musée 23CH-1700 FribourgSuisse

Stephan MorgenthalerÉcole Polytechnique Fédérale de LausanneDépartement de Mathématiques1015 Lausanne Suisse

Louis-Paul RivestDépartement de mathématiqueset de statistiqueUniversité LavalQuébec G1V ���Canada

Gilbert SaportaConservatoire nationaldes arts et métiers292, rue Saint-Martin75141 Paris Cedex 3France

CollectionStatistique et probabilités appliquées

dirigée par Yadolah Dodge

Professeur HonoraireUniversité de Neuchâtel

[email protected]

Comité éditorial :

Page 6: Yves caumel (auth.) probabilites et processus

Dans la même collection :

– Statistique. La théorie et ses applicationsMichel Lejeune, avril 2004

– Optimisation appliquéeYadolah Dodge, octobre 2004

– Le choix bayésien. Principes et pratiqueChristian P. Robert, novembre 2005

– Régression. Théorie et applicationsPierre-André Cornillon, Éric Matzner-Løber, janvier 2007

– Le raisonnement bayésien. Modélisation et inférenceÉric Parent, Jacques Bernier, juillet 2007

– Premiers pas en simulationYadolah Dodge, Giuseppe Melfi, juin 2008

– Génétique statistiqueStephan Morgenthaler, juillet 2008

– Maîtriser l’aléatoire. Exercices résolus de probabilités et statistique, 2e éditione

Eva Cantoni, Philippe Huber, Elvezio Ronchetti, septembre 2009

– Pratique du calcul bayésienJean-Jacques Boreux, Éric Parent, décembre 2009

– Statistique. La théorie et ses applications, 2e éditione

Michel Lejeune, septembre 2010

– Le logiciel RPierre Lafaye de Micheaux, Rémy Drouilhet, Benoît Liquet, novembre 2010

Page 7: Yves caumel (auth.) probabilites et processus

Presentation

La theorie des probabilites resulte d’un long processus de modelisationdes phenomenes aleatoires, inaugure au xvii

e siecle par l’etude des jeux dehasard, pour aboutir aujourd’hui a la theorisation de phenomenes aussi com-plexes que les processus de diffusion en physique ou l’evolution des marchesfinanciers. En 1931, le mathematicien sovietique Andrei Kolmogorov, prenantappui sur la toute recente theorie de la mesure et de l’integration develop-pee par Borel et Lebesgue, donna au corpus denomme jusqu’alors Calcul desprobabilites une structure axiomatico-deductive, propre aux mathematiquescontemporaines, assurant la theorie des probabilites sur des bases solides.

Ce livre s’adresse aux etudiants en mathematiques de niveaux L2, L3et M1, ainsi qu’aux eleves ingenieurs et plus generalement aux etudiants etaux chercheurs sollicites par des problemes de modelisation de phenomenes etde systemes aleatoires. Il devrait leur permettre de maıtriser les concepts etles methodes probabilistes afin de les appliquer a des domaines aussi variesque le traitement du signal, l’automatique, la theorie des reseaux, la rechercheoperationnelle, les sciences biologique et economique.

Les prerequis constituees des connaissances mathematiques dispenseesdurant les deux premieres annees d’un cursus universitaire du type mathema-tique, ou dans le cadre des classes preparatoires aux ecoles d’ingenieurs et decommerce, pourront etre completes par les notions basiques d’analyse fonction-nelle : mesure et integration, espaces de Hilbert.

J’ai redige ce cours dans le souci permanent d’eviter la pesante et sou-vent inefficace linearite de l’expose deductif, que les limites horaires d’un coursde mathematiques en ecole d’ingenieurs rendent impraticables. A de rares ex-ceptions pres, seules les demonstrations peu techniques et relativement courtesont ete donnees ; en revanche certaines demonstrations abordables et ayant uninteret pedagogique sont proposees sous forme d’exercices.

L’ouvrage est compose de onze chapitres : les six premiers constituentun expose de la theorie des probabilites ; les quatre suivants sont consacres auxprocessus aleatoires classiques et a leurs applications, quant au dernier chapitrec’est un ensemble de problemes suivis de leurs corriges. Le premier chapitreconcerne les probabilites definies sur des ensembles au plus denombrables ; lesdeux chapitres suivants mettent en place les notions theoriques centrales s’ar-ticulant sur les concepts de variable et de vecteur aleatoire. Dans le chapitre 4

Page 8: Yves caumel (auth.) probabilites et processus

viii Probabilites et processus stochastiques

sont rassemblees les methodes permettant d’effectuer des calculs de lois, dontla problematique generale consiste a determiner la loi d’une variable ou d’unvecteur aleatoire fonction d’un vecteur aleatoire X de loi connue. Le chapitre 5definit les differents modes de convergence de la theorie des probabilites et ex-pose les theoremes limites classiques qui s’y rattachent. Le chapitre 6 traite duconditionnement et de ses applications a la fiabilite et a la theorie de l’infor-mation. Les chapitres 7 et 8 sont consacres a l’etude des chaınes de Markovdiscretes ainsi qu’aux processus de Poisson et a leur extension aux processusde renouvellement. Le chapitre 9 est consacre aux chaınes de Markov a tempscontinu, a leurs applications aux processus de naissance et de mort ainsi qu’a latheorie des files d’attente. Dans le chapitre 10 on expose les bases de la theoriedes processus du second ordre et du processus brownien.

Afin de montrer, s’il en etait besoin, combien sont vivantes les theoriesmathematiques et les pensees qui y sont mises en œuvre, j’ai parseme ce coursde notules historiques portant sur le lent developpement de la theorie probabi-liste, ainsi que de remarques de nature epistemologique concernant la notion dehasard. De breves biographies tentent de donner une epaisseur humaine a cescreateurs souvent meconnus que sont les mathematiciens, si joliment baptisespar le philosophe Gaston Bachelard « prophetes de l’abstrait ».

Quiconque a un jour aborde la theorie des probabilites sait combien sacomprehension necessite la pratique d’une intuition et d’un savoir-faire speci-fiques : seul un apprentissage actif ou les exercices joueront un role prepon-derant, se revelera productif. Pour repondre a cette exigence, cent cinquanteexercices et problemes environ, dont la majorite sont corriges, couvrent la tota-lite du cours et sont orientes, pour beaucoup d’entre eux, vers les applications.Leur niveau de difficulte est gradue de la facon suivante :

♠ : application directe du cours ;♠♠ : necessite une bonne comprehension du cours ;♠♠♠ : resolution exigeant un savoir-faire certain.

J’adresse mes plus vifs remerciements a Claudie Chabriac pour son aideprecieuse tout au long de la gestation de cet ouvrage ainsi qu’a Emmanuel Lo-chin pour son aide technique et son soutien moral. Je remercie chaleureusementmes collegues et particulierement Ludovic d’Estampes et Florence Nicol pourleurs lectures critiques, ainsi que Remi Diana et Thomas Ferrandiz pour leuraide lors de la retranscription du manuscrit. Que tous trouvent ici l’expressionde mon amicale et chaleureuse gratitude.

Yves Caumel

Page 9: Yves caumel (auth.) probabilites et processus

Sommaire

Presentation vii

1 Probabilites sur les ensembles finis 11.1 Notions de systeme aleatoire et d’espace de probabilite . . . . 11.2 Independance d’evenements . . . . . . . . . . . . . . . . . . . . 61.3 Evenements equiprobables dans le cas ou Ω est fini . . . . . . 71.4 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 13

2 Variables aleatoires 192.1 Notion de variable aleatoire . . . . . . . . . . . . . . . . . . . . 192.2 Variables aleatoires discretes . . . . . . . . . . . . . . . . . . . 212.3 Variables aleatoires absolument continues . . . . . . . . . . . . 292.4 Variables gaussiennes . . . . . . . . . . . . . . . . . . . . . . . 342.5 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 39

3 Vecteurs aleatoires 453.1 Un exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453.2 Description des vecteurs aleatoires . . . . . . . . . . . . . . . . 46

3.2.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . 463.2.2 Vecteurs discrets . . . . . . . . . . . . . . . . . . . . . . 493.2.3 Vecteurs absolument continus . . . . . . . . . . . . . . . 52

3.3 Independance et correlation . . . . . . . . . . . . . . . . . . . . 553.4 Fonctions generatrice et caracteristique . . . . . . . . . . . . . 57

3.4.1 Fonction generatrice . . . . . . . . . . . . . . . . . . . . 573.4.2 Fonction caracteristique . . . . . . . . . . . . . . . . . . 58

3.5 Le vecteur gaussien . . . . . . . . . . . . . . . . . . . . . . . . 603.6 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 66

4 Calcul de lois 714.1 Approche du probleme sur deux exemples . . . . . . . . . . . . 714.2 Methodes classiques . . . . . . . . . . . . . . . . . . . . . . . . 73

4.2.1 Methode du changement de variables . . . . . . . . . . . 744.2.2 Methode d’identification fonctionnelle . . . . . . . . . . 75

Page 10: Yves caumel (auth.) probabilites et processus

x Probabilites et processus stochastiques

4.2.3 Variables aleatoires definies comme maximum ou mini-mum d’un ensemble de v.a. . . . . . . . . . . . . . . . . 78

4.2.4 Lois de variables mixtes . . . . . . . . . . . . . . . . . . 80

4.3 Methodes de simulation des lois de probabilite . . . . . . . . . 81

4.4 Quelques densites classiques . . . . . . . . . . . . . . . . . . . 83

4.5 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 85

5 Convergences et limites des suites aleatoires 93

5.1 Convergence en probabilite . . . . . . . . . . . . . . . . . . . . 93

5.2 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . 95

5.3 Theoremes aux limites . . . . . . . . . . . . . . . . . . . . . . 99

5.4 Convergence presque sure . . . . . . . . . . . . . . . . . . . . . 104

5.5 Convergence en moyenne quadratique . . . . . . . . . . . . . . 105

5.6 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 109

6 Probabilites, lois et esperances conditionnelles 113

6.1 Conditionnement d’evenements . . . . . . . . . . . . . . . . . . 113

6.2 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . 117

6.2.1 Loi d’une variable discrete conditionnee par unevariable discrete . . . . . . . . . . . . . . . . . . . . . . 117

6.2.2 Loi d’une variable absolument continue conditionnee parune variable discrete . . . . . . . . . . . . . . . . . . . . 119

6.2.3 Loi d’une variable discrete conditionnee par une variableabsolument continue . . . . . . . . . . . . . . . . . . . . 120

6.2.4 Loi d’une variable continue conditionnee par une variablecontinue . . . . . . . . . . . . . . . . . . . . . . . . . . . 120

6.2.5 Loi d’une variable continue conditionnee par un evene-ment quelconque . . . . . . . . . . . . . . . . . . . . . . 122

6.3 Esperance conditionnelle . . . . . . . . . . . . . . . . . . . . . 126

6.4 Variance conditionnelle . . . . . . . . . . . . . . . . . . . . . . 132

6.5 Loi et esperance conditionnelle des vecteurs gaussiens . . . . . 134

6.6 Notions d’entropie et d’information . . . . . . . . . . . . . . . 135

6.7 Retour sur la notion de hasard . . . . . . . . . . . . . . . . . . 141

6.8 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 143

7 Chaınes de Markov discretes 149

7.1 Introduction aux processus aleatoires . . . . . . . . . . . . . . 149

7.2 Definition et caracterisation des chaınes de Markov discretes . 152

7.3 Classification des etats . . . . . . . . . . . . . . . . . . . . . . 157

7.3.1 Relation de communication entre etats . . . . . . . . . . 157

7.3.2 Etats recurrents et transitoires . . . . . . . . . . . . . . 158

7.3.3 Etats periodiques . . . . . . . . . . . . . . . . . . . . . . 164

7.4 Distributions stationnaires et distributions limites . . . . . . . 165

7.5 Complements . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

Page 11: Yves caumel (auth.) probabilites et processus

Sommaire xi

7.5.1 Estimation de la matrice de transition P et de la loi sta-tionnaire π d’une chaıne finie irreductible . . . . . . . . 170

7.5.2 Probabilite d’absorption par les classes recurrentes dansle cas d’une chaıne finie . . . . . . . . . . . . . . . . . . 171

7.5.3 Temps moyens de sejour dans les etats transitoires . . . 171

7.6 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 173

8 Processus de Poisson et de renouvellement 179

8.1 Processus de Poisson homogene . . . . . . . . . . . . . . . . . 179

8.2 Processus de Poisson spatiaux . . . . . . . . . . . . . . . . . . 188

8.3 Processus de Poisson homogenes composes . . . . . . . . . . . 190

8.4 Processus de renouvellement . . . . . . . . . . . . . . . . . . . 191

8.4.1 Description et proprietes . . . . . . . . . . . . . . . . . . 191

8.4.2 Comportement asymptotique d’un processus de renou-vellement . . . . . . . . . . . . . . . . . . . . . . . . . . 192

8.5 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 194

9 Chaınes de Markov a temps continu et files d’attente 203

9.1 Chaınes de Markov a temps continu . . . . . . . . . . . . . . . 203

9.1.1 Definition et proprietes . . . . . . . . . . . . . . . . . . 203

9.1.2 Etude du regime stationnaire . . . . . . . . . . . . . . . 210

9.2 Processus de naissance et de mort . . . . . . . . . . . . . . . . 212

9.2.1 Definition et proprietes . . . . . . . . . . . . . . . . . . 212

9.2.2 Etude du regime stationnaire des processus denaissance et de mort . . . . . . . . . . . . . . . . . . . . 213

9.3 Files d’attente . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

9.3.1 Definition et exemples . . . . . . . . . . . . . . . . . . . 214

9.3.2 Etude du regime stationnaire des files d’attente . . . . . 216

9.3.3 Reseaux de Jackson . . . . . . . . . . . . . . . . . . . . 222

9.4 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 229

10 Processus du second ordre 235

10.1 Generalites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235

10.2 Processus stationnaires du second ordre . . . . . . . . . . . . . 237

10.3 Proprietes spectrales des processus SSL . . . . . . . . . . . . . 238

10.4 Processus gaussiens stationnaires . . . . . . . . . . . . . . . . . 240

10.5 Processus ergodiques . . . . . . . . . . . . . . . . . . . . . . . 241

10.6 Processus de Wiener ou brownien et bruit blanc . . . . . . . . 242

10.7 Histoire de la modelisation du mouvement brownien . . . . . . 251

10.8 Corriges des exercices . . . . . . . . . . . . . . . . . . . . . . . 256

11 Problemes 261

11.1 Enonces des problemes . . . . . . . . . . . . . . . . . . . . . . 261

11.2 Corriges des problemes . . . . . . . . . . . . . . . . . . . . . . 273

Page 12: Yves caumel (auth.) probabilites et processus

xii Probabilites et processus stochastiques

Annexes 293

Index 300

Page 13: Yves caumel (auth.) probabilites et processus

Chapitre 1

Probabilites sur les

ensembles finis

Le hasard est-il une propriete intrinseque de la realite physique ou biense manifeste-t-il comme une consequence des limitations theoriques et experi-mentales internes aux sciences qui le mettent en œuvre ? C’est cette deuxiemehypothese que defendait le probabiliste Emile Borel lorsqu’il affirmait au debutdu siecle dernier que « le hasard n’est que le nom donne a notre ignorance etn’existerait pas pour un etre omniscient » ; mais, afin de moderer son propos, ilajoutait « quelles que soient la nature et la rapidite des progres scientifiques,il y aura toujours une place pour lui ».

La theorie des probabilites ne nous apprend rien sur la nature profondedu hasard, ce n’est pas la son objectif : elle a ete concue pour etre operatoire.Nee de la curiosite des hommes pour les phenomenes aleatoires d’origine ludiqueou naturelle, la theorie des probabilites est, depuis les annees 1930, solidementadossee a la theorie de la mesure et de l’integration, et permet de modeliser lesphenomenes et les systemes aleatoires a des fins pratiques de description et deprevision dans tous les domaines de l’activite humaine.

1.1 Notions de systeme aleatoire et d’espace de

probabilite

A une action donnee, un systeme aleatoire donne une reponse impre-visible appelee epreuve ou evenement aleatoire elementaire. Cependant,dans le cadre de la theorie des probabilites, l’incertitude a laquelle est confrontel’observateur est temperee par la connaissance de l’ensemble des evenementsaleatoires susceptibles d’etre generes par le systeme.

Page 14: Yves caumel (auth.) probabilites et processus

2 Probabilites et processus stochastiques

Quelques exemples :

Systeme aleatoire Action Reponse aleatoireUn de Un seul lancer Face du de obtenueUne machine Fonctionnement Duree de vieUne cible D, un projectile Tir du projectile Impact dans DJeu de 32 cartes Tirer une carte Une carte parmi les 32

Definition 1.1 L’ensemble des evenements elementaires d’un systeme alea-toire est denomme espace fondamental, ou espace des observables, etnote Ω. Les exemples ci-dessus illustrent la diversite de nature de l’espace fon-damental, qui peut etre un ensemble fini, infini denombrable ou non denom-brable.

A un evenement quelconque est associee une partie de Ω constitueed’evenements elementaires pertinents pour l’observateur.

Exemple 1.1 Dans le cas de l’experience associee au jet d’un de equilibre,considerons par exemple les evenements : « obtenir un chiffre pair » decrit par lesous-ensemble {2,4,6} ou bien « obtenir un chiffre strictement superieur a 4 »

decrit par {5,6}.

Exemple 1.2 S’il s’agit d’une experience de tir sur une cible circulaire de rayonR, un evenement consistera en l’atteinte d’un sous-ensemble donne de la cible.Par exemple, l’un des quadrants ou bien l’interieur d’un cercle concentrique derayon r < R.

La modelisation d’un systeme aleatoire necessite que soit defini un en-semble T constitue d’evenements inclus dans l’ensemble P(Ω) des parties deΩ, suffisamment riche pour etre stable par rapport aux operations d’intersec-tion, d’union et de complementation qui lui conferent une structure de tribu.Ces operations ensemblistes necessaires a l’expression des evenements les plusdivers sont respectivement equivalentes aux operations logiques de disjonction,de conjonction et de negation.

Tableau de correspondance

Theorie des probabilites Theorie des ensembles

negation de A (notee : A) Ac = complementaire de AA et B A∩B= intersection de A et BA ou B A∪B= union de A et B

A ou B avec A, B incompatibles A∪B avec A∩B= /0 (notee A⊎B ou A+B)

evenement certain ensemble Ω

evenement impossible sous-ensemble vide /0realisation de B entraıne celle de A B⊂ A

Page 15: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 3

Definition 1.2 L’ensemble T des evenements definis sur l’espace fonda-mental Ω, est une tribu. Rappelons les axiomes definissant une tribu :

(T1) l’ensemble vide /0 appartient a T ;

(T2) T est stable par union denombrable ;

(T3) T est stable par complementation.

Si Ω est un ensemble fini ou infini denombrable, la tribu T est l’ensembleP(Ω) des parties de Ω ; si Ω est l’un des ensembles R ou Rk, ou une de leursparties, la tribu T est la tribu borelienne definie sur cet ensemble. On rappelleque la tribu borelienne, est la plus petite tribu que l’on peut definir sur R

contenant tous les sous-ensembles associes aux evenements susceptibles d’etreobserves : ensembles finis ou infinis denombrables, intervalles ouverts ou fermes,et leurs unions et intersections, etc.

Exemple 1.3 Supposons qu’une urne contienne 1 boule blanche et n boulesnoires ; l’epreuve consiste a tirer une boule apres l’autre jusqu’a l’obtention dela boule blanche. Soit B l’evenement « apparition d’une boule blanche », et Nl’evenement « apparition d’une boule noire ». L’espace fondamental associe ace modele aleatoire est : Ω= {B,(N,B), . . . ,(N, ...,N︸ ︷︷ ︸

n f ois

,B)}.

A ce stade de la construction de la theorie des probabilites, nous dispo-sons d’un ensemble d’evenements elementaires Ω, muni d’une tribu T d’evene-ments ; reste a definir une mesure positive sur (Ω,T ), qui permettra d’evaluerla probabilite de realisation d’un evenement aleatoire quelconque appartenanta T . Tout au long de ce cours, le lecteur pourra verifier que la theorie dela mesure et de l’integration a laquelle il pourra se referer constitue le cadremathematique naturel de la theorie des probabilites.

Definition 1.3 On appelle mesure de probabilite ou probabilite definiesur (Ω,T ), toute application P : T −→ [0,1] verifiant les axiomes :

(P1) P(Ω) = 1

(P2) Sigma-additivite : pour tout sous-ensemble denombrable d’evene-ments disjoints (Ai)i∈I de T , dont l’union est designee par

⊎Ai :

P(⊎i∈I

Ai) =∑i∈I

P(Ai).

Le triplet (Ω,T ,P) est un espace de probabilite ou espace probabilise.

Page 16: Yves caumel (auth.) probabilites et processus

4 Probabilites et processus stochastiques

Les evenements seront designes par les premieres lettres de l’alphabet eventuel-lement indexees : A, B, C...

Voici rassemblees dans un seul theoreme les proprietes de la mesure deprobabilite, dont la plupart ont un fort contenu intuitif qui en facilite l’inter-pretation.

Theoreme 1.1 (Proprietes de la mesure de probabilite)

(a) ∀A ∈T , P(A) = 1−P(A) ou A est le complementaire de A dans Ω.

(b) ∀A,B ∈T , (A⊂ B⇒ P(A)� P(B)).

(c) ∀A,B ∈T , P(A)+P(B) = P(A∩B)+P(A∪B).

(d) Convergence croissante monotone : soit une suite croissante (An)nd’evenements, alors :

P(⋃n

An) = limn→+∞

P(An).

Resultat analogue pour la decroissance monotone : soit une suite decrois-sante (An)n , alors :

P(⋂n

An) = limn→+∞

P(An).

(e) Pour toute famille finie ou denombrable d’evenements (Ai)i :

P(⋃i∈I

Ai)�∑i∈I

P(Ai).

(f) Identite de Poincare : pour toute suite finie d’evenements (Ai)i=1,··· ,n :

P(n⋃

i=1

Ai) =n

∑i=1

P(Ai)−∑i< j

P(Ai∩Aj)+ ∑i< j<k

P(Ai∩Aj ∩Ak)−

...+(−1)n+1P(A1∩A2∩ . . .∩An).

Preuve(a) AA=Ω ⇒ P(A)+P(A) = 1.(b) A⊂ B ⇐⇒ ∃B′ , B= AB′ ⇒ P(B) = P(A)+P(B

′) donc :

P(B)≥ P(A).

(c) A∪B= A (B\A) ou B\A= B∩A.P(A∪B) = P(A)+P(B\A) = P(A)+P(B)−P(A∩B).

(d) On applique (c) a la suite (Bn)n definie par Bn = An−An−1.(e) Consequence de (c).(f) Par recurrence a partir de (c). �

Page 17: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 5

Theoreme 1.2 (des probabilites totales)Si (Bi)i∈I est un systeme exhaustif ou complet d’evenements, defini par⊎i∈I Bi =Ω, alors pour tout A ∈T ,

P(A) =∑i∈I

P(A∩Bi).

Definition 1.4 Un evenement de probabilite nulle est dit negligeable ; unepropriete vraie sauf sur un evenement negligeable est qualifiee de presque sure.

Intermede biographique : Andrei Kolmogorov (1903-1987)Createur de la theorie axiomatique des probabilites, Kolmogorov, de na-

tionalite russe, fut l’un des grands mathematiciens du siecle dernier. En 1929,il proposa une axiomatisation de la theorie des probabilites fondee sur la theo-rie de la mesure dont l’expose definitif Theorie generale de la mesure et desprobabilites parut en 1933. Ses travaux s’orienterent ensuite vers l’etude desprocessus stochastiques generaux et des processus stationnaires ; on lui doitaussi de nombreux travaux en topologie, en mecanique classique et en theoriedes automates finis.

Exemple 1.4 Quel nombre minimal de personnes faut-il dans une assembleepour que deux d’entre elles au moins aient le meme anniversaire, avec uneprobabilite 1

2 ? (On suppose que les dates de naissance sont equiprobables surles 365 jours et on ne tient pas compte des annees bissextiles).

La probabilite pn pour qu’il n’y en ait aucune parmi n personnes qui soitnee le meme jour que n’importe quelle autre, est :

pn =

(1− 1

365

)(1− 2

365

)...

(1− n−1

365

).

D’ou la probabilite 1− pn pour qu’il y en ait au moins deux qui soientnees le meme jour. Si une assemblee comporte au moins vingt-trois personnes,la probabilite de realiser cet evenement est au moins egale a 1

2 . Si elle comportequarante personnes, on a 90% de chances de realiser cet evenement.

1.1 ♠ Quel doit etre le nombre minimal de personnes pour que la probabiliteque deux d’entre elles au moins soient nees le meme mois, soit egale a 0,9 ? (Onconsidere que tous les mois ont la meme longueur.)

1.2 ♠♠ Application de l’identite de PoincareUn prepose repartit au hasard n lettres, destinees a n personnes, a raison

d’une lettre par boıte. Calculer la probabilite pour que chaque lettre arrive ason destinataire, ainsi que la probabilite pour qu’il n’y en ait aucune qui arrivea son destinataire ; que vaut-elle quand n est tres grand ?

Page 18: Yves caumel (auth.) probabilites et processus

6 Probabilites et processus stochastiques

Intermede biographique : Emile Borel (1871-1956)

Ne a Saint-Affrique en Aveyron, E. Borel fit des etudes de mathematiquesa l’Ecole normale superieure ou il devint professeur. Nomme peu apres a laSorbonne, a la chaire de la theorie des fonctions puis a celle de la theorie desprobabilites, il quitta son poste pour entrer en politique sous l’impulsion de sonami Paul Painleve ; d’abord depute dans son departement d’origine en 1924,il devint deux ans apres ministre de la Marine. Emprisonne par le regime deVichy, auquel il s’opposa farouchement, il fonda des sa liberation un reseau deresistance dans sa region natale.

Borel developpa les bases de la theorie de la mesure, sur lesquelles H. Le-besgue put edifier sa theorie de l’integration. Il participa au long developpementde la theorie des probabilites et de ses ramifications tout en se passionnant pourla pedagogie et la vulgarisation scientifique ; en theorie des jeux, ses travauxannoncent ceux de J. von Neumann (1903-1957).

Approche empirique du concept de probabilite

(1) On repete n fois une epreuve consistant a tirer un des trois evenements{A,B,C}, dont on ignore les probabilites ; la frequence empirique nA

n , ou nA estle nombre d’apparitions de A pour n tirages, est une bonne approximation de laprobabilite a priori P(A), si n est suffisamment grand ; meme constat pour lesfrequences empiriques nB

n et nCn . Les frequences empiriques nA

n ,nBn ,

nCn verifient

l’axiome : nAn + nB

n + nCn = 1.

(2) Le jeu de « pile ou face » est un bon modele pour illustrer l’approcheempirique. Considerons les evenements : A = (obtenir Pile en un seul jet), etA = (obtenir Face en un seul jet). Si la piece utilisee est parfaitement equilibreedu point de vue dynamique, P(A) = P(A) = 1

2 ; on constate sur un ensemble de

n jets que nAn et

nAn convergent vers 1

2 , lorsque n s’accroıt.

1.2 Independance d’evenements

Deux evenements sont independants si l’information apportee par la rea-lisation de l’un d’eux ne donne aucune information sur la realisation de l’autreevenement. Dans une premiere approche, on dira que deux evenements sontindependants si la probabilite de leur realisation conjointe est egale au produitde leurs probabilites respectives.

Definition 1.5 Deux evenements A, B d’un espace probabilise (Ω,T ,P) sontindependants si et seulement si :

P(A∩B) = P(A).P(B).

Page 19: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 7

Exemple 1.5 Soit E un jeu de trente-deux cartes ; A l’evenement « cartes su-perieures au 10 » ; B l’evenement « la carte est un roi ». A et B sont dependantscar : P(A∩B) = 4

32 et P(A)P(B) = 1632 .

432 .

Theoreme 1.3 Si A et B sont independants, alors les evenements :

A et BA et BA et B

sont independants.

On a un resultat analogue pour deux evenements dependants.

1.3 ♠ Demontrer le theoreme.

Definition 1.6 Une famille d’evenements (Ai)i∈I est mutuellement indepen-dante ou independants dans leur ensemble si pour tout sous-ensemble fini Jinclus dans I :

P(⋂j∈J

A j) =∏j∈J

P(Aj).

Il est donc evident que des evenements mutuellement independants sontindependants deux a deux.

Dans la suite du cours, l’independance des evenements sera supposeeetre mutuelle.

1.3 Evenements equiprobables dans le cas ou Ω

est fini

L’analyse combinatoire, branche des mathematiques qui traite les proble-mes de denombrements sur des ensembles finis, est l’outil de calcul privilegiepour determiner les probabilites de ce type.

Theoreme 1.4 Une probabilite P sur un ensemble Ω fini ou denombrable estcompletement caracterisee par l’ensemble des valeurs P(ωi) qu’elle prend surles evenements simples ωi constitutifs de Ω. Pour tout evenement A de T :

P(A) = ∑ω j∈A

P(ω j).

Definition 1.7 Soit (Ω,T ,P) un espace de probabilite fini de taille n, dontles evenements elementaires sont equiprobables, c’est-a-dire si :

∀i= 1, ..,n P(ωi) =1n.

Page 20: Yves caumel (auth.) probabilites et processus

8 Probabilites et processus stochastiques

Si A est un evenement de la tribu T , sa probabilite est definie par :

P(A) =nombre de realisations ωi favorables a A

nombre n de realisations possibles.

Exemple 1.6 Soit Ω un jeu de trente-deux cartes, A l’evenement « un carreauinferieur ou egal a 10 » ;

P(A) =4

32=

18.

Definition 1.8 Le tirage d’un sous-ensemble de k elements dans un ensemblequi en comporte n, distincts entre eux, s’effectue selon deux modalites :(1) avec ou sans remise ;

(2) en tenant compte ou non de l’ordre du sous-ensemble.

Il existe trois types de tirages classiques :

- la combinaison est un sous-ensemble obtenu sans remise et enne tenant pas compte de l’ordre ; une combinaison s’identifie donc a unepartie ;

- la combinaison avec repetition est un sous-ensemble obtenu avecremise et en ne tenant pas compte de l’ordre de l’echantillon ;

- l’ arrangement est un sous-ensemble obtenu sans remise et entenant compte de l’ordre de l’echantillon.

Definition 1.9 Etant donne un ensemble de n elements, on definit :

(1) Le nombre Akn d’arrangements de k elements :

Akn =

n!(n− k)!

.

(2) Le nombre Ckn, note encore

(nk

), de combinaisons de k elements

parmi n :

Ckn =

(nk

)=

n!k!(n− k)!

=n.(n−1)...(n− k+1)

k!.

Sachant qu’il y a k! arrangements distincts d’une partie de k elements,et dans ce cas on parle aussi de permutations de k elements, on en deduit :

Akn = k!Ck

n.

(3) Le nombre Kkn de combinaisons a repetitions de k elements :

Kkn =

(n+ k−1

k

).

Page 21: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 9

1.4 ♠♠ (1) Demontrer que le nombre de partitions en m parties A1, ...,Am

d’un ensemble de n elements, telles que pour tout i=1,...,m |Ai|= ki, est egala n !

k1!....km! , dit coefficient multinomial et note :(n

k1, ...,km

).

(2) Etablir les proprietes importantes suivantes des coefficients bino-miaux grace a des raisonnements de forme ensembliste :(

nk

)=

(n

n− k

);

n

∑k=0

(nk

)= 2n ;

(nk

)=

(n−1k

)+

(n−1k−1

).

D’une grande utilite pratique, la formule de Stirling doit etre memoriser.

n! =(ne

)n√2πn

(1+O

(1n

))quand n→+∞.

Intermede historique : l’origine de la notion de probabiliteLes jeux de hasard ont ete pratiques dans les plus anciennes civilisations

d’Asie et d’Orient. Ainsi jouait-on a l’astragale qui est l’ancetre du jeu de de,en Irak et en Egypte, 3 000 ans avant J-C ; l’astragale est le nom d’un os enforme de cube, et alzhar signifie de en arabe. En Grece puis a Rome, les jeux dedes etaient largement repandus et connus sous le nom d’aleae, auquel on doitle mot aleatoire. Ce n’est pourtant qu’a partir du xv

e et du xvie siecle, que

l’on s’interessa a la regularite de certaines sequences apparaissant dans les jeuxde hasard ; les premiers denombrements et calculs de probabilite d’occurrencesde telles sequences sont dus aux savants mathematiciens de la Renaissance ita-lienne. L’un des plus celebres d’entre eux, Gerolamo Cardano (1501-1576), ala fois medecin, astrologue et mathematicien, configuration intellectuelle fre-quente a cette epoque, est surtout connu pour avoir donne la solution generaledes equations du troisieme degre, et concu le mecanisme qui porte en fran-cais le nom de cardan. Il ecrivit en 1526 un traite intitule Liber de ludo aleae(Livre des jeux de hasard), dans lequel il faisait usage de regles empiriques quis’apparentent a la propriete de sigma-additivite des mesures.

De nombreux obstacles parsemerent le chemin de la modelisation desphenomenes aleatoires, parmi lesquels nous mentionnerons les plus importants :

- la longue descendance de l’idealisme platonicien selon lequel les pheno-menes terrestres, contrairement aux phenomenes celestes, ne peuvent etre regispar des lois d’ordre et d’harmonie ; conception de l’univers qui fut battue enbreche par Galilee, dont les observations permirent de conclure a l’homogeneitedes mondes terrestre et celeste ;

- la croyance nourrie par les religions monotheistes que tout est regle parla providence divine ;

Page 22: Yves caumel (auth.) probabilites et processus

10 Probabilites et processus stochastiques

- l’incompatibilite avec l’hypothese du hasard du principe de causalite,qui dominait toute la physique classique ;

- la difficulte de developper des methodes combinatoires.

1.5 ♠ A propos du jeu de bridge(1) Combien de mains differentes un joueur peut-il recevoir au jeu de

bridge (sans tenir compte de l’ordre, bien sur) ? (Le jeu de bridge se joue aveccinquante-deux cartes, quatre joueurs, chacun des quatre joueurs recevant treizecartes)

(2) Probabilite qu’un seul des joueurs ait les treize cœurs ? Probabilitepour que chacun des quatre joueurs ait treize cartes d’une meme couleur ?

1.6 ♠ Denombrer les configurations possibles de n objets identiques dans rboıtes ordonnees. Le calcul de ce type de denombrements a ete essentiel audeveloppement de la physique statistique.

1.7 ♠ Probleme du double-sixA l’epoque de Pascal, riche des premieres tentatives de modelisation du

hasard, le chevalier de Mere, personnage bien en cour et ami du philosophe,curieux des sciences et joueur impenitent, demanda a ce dernier, lequel desdeux evenements A1 ou A2, etait le plus frequent :

A1 = {obtenir au moins un six en 4 lancers d’un de} ;

A2 = {obtenir au moins un double-six en 24 lancers de deux des}.Qu’en pensez-vous ?

1.8 ♠♠ On considere une population de taille n dont on extrait un echantillonde taille p, puis apres remise, un deuxieme echantillon de taille q. Supposant p+q< n, quelle est la probabilite que les deux echantillons n’aient aucun elementcommun ? Probabilite pour qu’il n’y ait qu’un element commun ?

Application numerique : n= 100 et p= q= 10.

1.9 ♠ Un groupe de 2n personnes s’assoit autour d’une table :(1) De combien de facons peuvent-elles le faire ?(2) S’il y a autant de femmes que d’hommes, quelle est la probabilite de

respecter l’alternance homme, femme, homme... autour de la table ?

1.10 ♠ Probleme concernant le jeu de passe-dix , pose par le duc de Toscanea Galilee

Pourquoi un total de 10, obtenu en lancant trois des, est-il plus probablequ’un total de 9, alors que ces deux nombres se partagent en autant de faconsadditives a l’aide des triplets de nombres compris entre 1 et 6.

Page 23: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 11

1.11 ♠♠ Quelle est la probabilite pour que les nombres obtenus a la suite den jets d’un de soient dans un ordre non strictement croissant ?

Intermede : systemes generateurs de hasard

Jusqu’au milieu du xixe siecle, le principe deterministe etait avec le prin-

cipe de causalite l’un des paradigmes dominants des sciences de la nature. Lacelebre formulation qu’en donna Laplace peut se resumer ainsi : la connaissancedes conditions initiales d’un systeme physique et des lois qui en regissent sonevolution doit permettre d’en predire l’evolution future ou d’en restituer l’evolu-tion passee. Le mathematicien Henri Poincare (1854-1912) s’attaquant au tresdifficile « probleme a n corps », qui consiste a resoudre les equations regissantla dynamique de n planetes liees deux a deux par les forces d’attraction gravita-tionnelle, allait porter un coup d’arret a l’ambitieux programme laplacien. Eneffet, il mit en evidence des solutions tres sensibles aux conditions initiales evo-luant vers des trajectoires imprevisibles aujourd’hui qualifiees de chaotiques. Untel systeme non lineaire est donc deterministe par la nature meme des equationsqui regissent son evolution et tres sensible aux valeurs des conditions initiales,comme l’est par exemple le pendule excite pour certaines valeurs du rapport(frequence propre/frequence d’excitation). Le de est un exemple simple de cetteclasse de systemes, puisqu’une infime difference entre les valeurs des parametresde position et de vitesse initiales du de correspondant a plusieurs lancers suffitpour que soient generees des faces differentes. C’est ce caractere chaotique quifait du de le generateur aleatoire le plus anciennement pratique. De nos jours,il revient aux theories des systemes non lineaires et du chaos dynamique de mo-deliser et d’etudier de tels phenomenes, presents dans de nombreuses sciences(physique, biologie. . . ). Le lecteur interesse par la dynamique du de et des in-trications subtiles des six bassins attracteurs correspondant aux six faces dude devrait trouver son bonheur dans le livre de Strzalko J. et al. Dynamics ofgambling : origins of randomness in mechanical systems, Springer, 2005.

L’apparence aleatoire peut etre trompeuse !

En effet, considerons sur un cercle de diametre unitaire la suite des points(Mn)n d’abscisses curvilignes a.n, a etant un nombre transcendant (par exemple :a= π

10 , n ∈ N). Un observateur ignorant le systeme de generation des points etn’ayant acces qu’a un petit arc de cercle delimite par une petite fenetre, delargeur egale a 1

1.000 de la circonference, verra les points se repartir au hasardsur l’arc de cercle observe. L’illusion du hasard sera tenace et il lui faudra unpeu de travail pour reduire l’apparence aleatoire a une explication deterministedu phenomene. Au fait, pourquoi avoir choisi un nombre transcendant ?

1.12 ♠♠ Propriete de rarefaction des nombres premiers

On tire de facon equiprobable un nombre dans {1, . . . ,n}.Soient l’evenement Ap = (le nombre tire est divisible par p)

Page 24: Yves caumel (auth.) probabilites et processus

12 Probabilites et processus stochastiques

et φ(n) = le nombre d’entiers inferieurs a n et premiers avec n (on rap-pelle que k et n sont premiers entre eux si PGCD(k,n)=1).

(1) Si p divise n, determiner P(Ap).(2) Prouver que φ(n) = n∏m

i=1(1− 1pi) ou {p1, . . . , pm} est l’ensemble des

premiers � n et qui divisent n.

A la fin du siecle dernier, les mathematiciens francais et suisse Hada-mard et de La Vallee-Poussin, demontrerent independamment l’un de l’autrele tres beau resultat deja pressenti par Euler, connu sous le nom d’approxima-tion du logarithme integral, a l’origine de l’important theoreme de rarefactioncroissante des nombres premiers :

si n est grand, φ(n)� ∫ n2 1logn(t)

dt � nlog(n) .

Proximite des frequences calculees et des frequences observees :

Nombre n d’entiers consideres 102 103 104 105 107

φ(n) 25 168 1 229 9 592 664 579Nombre p(n) des premiers � n 21 159 1 213 9 555 664 241

Erreur relative φ(n)−p(n)p(n) 16% 5,3% 1,3% 0,3% 0,05%

Grace a une demonstration analogue a celle de l’exercice precedent, ondemontre un tres beau resultat de la theorie des nombres premiers :la probabilite P(deux entiers tires au hasard dans 1,2,...,n soient premiers) converge

vers 6π2 quand n devient tres grand.

Les problemes 1 et 2 se rapportent a ce chapitre.

Page 25: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 13

1.4 Corriges des exercices

Exercice 1.1Soit φ(n) la probabilite qu’aucun couple de personnes ne soit ne le meme

mois dans un groupe de n personnes. On a, pour n� 12,

φ(n) =

(1− 1

12

)(1− 2

12

)· · ·(

1− n−112

).

L’entier n tel que φ(n)� 0,1 soit le plus proche de 0,1 est n= 8.

Exercice 1.2On numerote les lettres et les boıtes des destinataires : a chaque lettre,

on associe la boıte choisie par le facteur.

(1) Il y a n! distributions possibles pour les lettres et une seule corres-pond au cas ou chaque lettre est a sa place, d’ou la probabilite 1

n! que chaquelettre atteigne son destinataire.

(2) Soit Ai l’evenement « la lettre i est a sa place ». On cherche P(E) ou

E = A1∩A2∩·· ·∩An = A1∪A2∪·· ·∪An,

donc P(E) = 1−P(A1∪A2∪·· ·∪An) ; on determine P(A1∪A2∪·· ·∪An) a l’aidede la formule de Poincare, que l’on etablit par recurrence sur n :

P

(n⋃

i=1

Ai

)=

n

∑k=1

(−1)k+1

(∑

1�i1···<ik�n

P(Ai1 ∩·· ·∩Aik)

).

P(Ai1 ∩ ·· ·∩Aik) =(n−k)!

n! , car pour Ai1 ∩ ·· ·∩Aik , les lettres i1, · · · , ik sontnecessairement dans leur boıte et les n− k lettres restantes sont reparties auhasard parmi les n− k boıtes restantes, soit (n− k)! choix possibles.

Or il y a Ckn =

n!k!(n−k)! facons de choisir les {i1, · · · , ik} (k elements parmi

n) et donc

∑1�i1···<ik�n

P(Ai1 ∩·· ·∩Aik) =1k!.

Finalement,

P

(n⋃

i=1

Ai

)=

n

∑k=1

(−1)k+1 1k!

et P(E) = 1−P

(n⋃

i=1

Ai

)= 1−

n

∑k=1

(−1)k+1 1k!.

La probabilite pour qu’aucune lettre n’atteigne son destinataire converge vers1e quand n tend vers l’infini.

Page 26: Yves caumel (auth.) probabilites et processus

14 Probabilites et processus stochastiques

Exercice 1.3

P(A)P(B) = (1−P(A))(1−P(B)) = 1−P(A)−P(B)+P(A)P(B)

= 1−P(A)−P(B)+P(A∩B) = 1− [P(A)+P(B)−P(A∩B)]= 1−P(A∪B) = P(A∪B) = P(A∩B).

Demonstration analogue pour les deux autres formules.

Exercice 1.4(1) Nombre de partitions : (nombre de choix de k1 elements parmi n) ×

(nombre de choix de k2 elements parmi n− k1 elements)×·· · , soit :n!

k1!(n− k1)!× (n− k1)!

k2!(n− k1− k2)!×·· ·× (n− k1−·· ·− km1)!

km!0!=

n!k1!k2! · · ·km!

.

(2) Il revient au meme de choisir k elements que d’en eliminer (n− k),d’ou l’egalite attendue.

n∑k=0

(nk

)est le nombre total de parties de l’ensemble, soit 2n.

Pour etablir la derniere propriete, on considere un element particulier ;pour denombrer les parties a k elements, on considere deux cas : soit cet ele-ment en fait partie et il faut alors choisir k−1 elements parmi n−1, soit il n’enfait pas partie et il faut alors choisir k elements parmi n−1.

Exercice 1.5(1)(52

13

).

(2) p1 =4×(39

13)×(2613)

(5213)×(39

13)×(2613)

= 4(52

13); p2 =

4!(52

13)×(3913)×(26

13).

Exercice 1.6On a n objets « o » et r boıtes que l’on peut delimiter par r−1 cloisons

« c », ce qui fait en tout n+r−1 entites (cloisons ou objets). Une configurationest parfaitement determinee par un (n+ r−1)-uplet constitue de r−1 « c » etde n « o ». Il y a autant de tels (n+ r− 1)-uplets que de facons de placer lesr−1 « c », soit

(n+r−1r−1

).

Exercice 1.7Experience 1 : lancer d’un de quatre fois de suite.

Ω1 = {(x1,x2,x3,x4) ; 1 � xi � 6}A1 : « obtenir au moins un 6 ». Tous les resultats ont meme chance de

se realiser donc

P(A1) =card(A1)

card(Ω1).

Page 27: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 15

Il est plus pratique de determiner P(A1) ou A1 est l’evenement « pas de 6 ».P(A1) = 1−P(A1) avec A1 = {(x1,x2,x3,x4) ; 1 � xi � 5}.P(A1) =

cardA1card(Ω) avec cardA1 = 54 et cardΩ1 = 64 d’ou P(A1) =

(56

)4et

P(A1) = 1− ( 56

)4 ≈ 0,518.

Experience 2 : lancer de deux des vingt-quatre fois de suite.

Ω2 = {((x1,y1), · · · ,(x24,y24)) , 1 � xi, yi � 6},

A2 : « faire au moins un double 6 ». Tous les resultats ont meme chance de serealiser donc

P(A2) =card(A2)

card(Ω2).

Il est plus pratique de determiner P(A2) ou A2 est l’evenement « pas de double6 ».

P(A2) = 1−P(A2) avec A2 = {((x1,y1), · · ·(x24,y24)) ; (xi,yi) �= (6,6)}.On a trente-cinq choix pour chaque (xi,yi) donc cardA2 = (35)24.

Finalement P(A2) =card(A2)card(Ω2)

=(

3536

)24et

P(A2) = 1−P(A2) = 1− ( 3536

)24 ≈ 0,491.

Conclusion : il est plus probable de faire au moins un six en quatre lancersqu’un double six en vingt-quatre lancers de deux des.

Exercice 1.8Un resultat est ici un couple ({x1, · · · ,xp},{y1, · · · ,yq}), {x1, · · · ,xp} et

{y1, · · · ,yq} etant deux echantillons de tailles respectives p et q de la populationde taille n. Pour le premier echantillon, il y a Cp

n choix possibles, et pour ledeuxieme, il y en a Cq

n , car on peut reutiliser les elements du premier. Ainsi,

card(Ω) =Cpn ×Cq

n .

(1) Soit A1 = « les 2 echantillons n’ont pas d’elements en commun ».Pour le premier echantillon, on a toujours Cp

n choix possibles ; pour ledeuxieme, il faut choisir q elements parmi n− p (pour ne pas reprendre leselements du premier) donc il reste Cq

n−p choix (ce qui exige p+q� n). Ainsi

card(A1) =Cpn ×Cq

n−p et P(A1) =card(A1)

card(Ω)=

Cqn−p

Cqn

,

d’ou P(A1) =(n− p)!(n−q)!n!(n− p−q)!

.

Page 28: Yves caumel (auth.) probabilites et processus

16 Probabilites et processus stochastiques

(2) A2 = « les deux echantillons ont 1 element en commun ».

On choisit l’element commun aux deux echantillons : n choix possibles.On choisit les p−1 autres elements du premier echantillon parmi n−1 : Cp−1

n−1choix possibles.On choisit enfin les q− 1 autres elements du deuxieme echantillon parmi les

n− p qui ne sont pas dans le premier : Cq−1n−p choix possibles.

Finalement, card(A2) = n×Cp−1n−1 ×Cq−1

n−p

=n(n−1)!

(p−1)!(n− p)!(n− p)!

(q−1)!(n− p−q+1)!

et comme card(Ω) =n!

p!(n− p)!× n!

q!(n−q)!, on a :

P(A2) =n!

(p−1)!(q−1)!(n− p−q+1)!× p!(n− p)!q!(n−q)!

n!n!

d’ou, en simplifiant, P(A2) =pq(n− p)!(n−q)!n!(n− p−q+1)!

.

Exercice 1.9On obtient la meme configuration par rotation (chaque personne a meme

voisin de droite et meme voisin de gauche). Ainsi, s’il y a 2n places, il y a 2nconfigurations identiques.

(1) Premiere methode : on numerote les individus (par exemple, selon

leur ordre d’arrivee). A chaque individu, on associe une chaise et une seule(celle qu’il choisit) : il y a alors (2n)! possibilites mais chaque configuration estobtenue 2n fois.

Nombre de configurations differentes : (2n)!2n = (2n−1)!.

Deuxieme methode : pour eviter les configurations identiques, on fixe lapremiere personne sur la chaise qu’il a choisie et pour les autres on a (2n−1)!possibilites.

(2) Cas ou l’on respecte l’alternance.

Premiere methode : le premier a 2n choix, puis les places des hommeset des femmes sont imposees : n choix possibles pour ceux de l’autre sexe,d’ou n! possibilites et n− 1 possibles pour ceux du meme sexe, d’ou (n− 1)!possibilites. Finalement, 2n× (n!)× (n−1)! possibilites, dont 2n qui donnent lameme configuration (par rotation).

Nombre de configurations respectant l’alternance : n!(n−1)!

Page 29: Yves caumel (auth.) probabilites et processus

1. Probabilites sur les ensembles finis 17

Deuxieme methode : une fois le premier place, il reste n! possibilitespour les personnes de l’autre sexe et (n− 1)! pour celles du meme sexe. D’oun!(n−1)! configurations directement.

Exercice 1.10L’experience est ici un lancer de trois des. On a donc

Ω= {(x1,x2,x3) ; 1 � xi � 6} et card(Ω) = 63 = 216.

On considere les deux evenements A (respectivement B) « faire un totalde 9 » (respectivement de 10).

Chacun des triplets ayant la meme chance de se realiser, on a P(A) =card(A)card(Ω)

,

(respectivement P(B) = card(B)card(Ω) .

Nombre d’elements de A :→ avec 1, 2, 6, on a 6 triplets ;→ avec 1, 3, 5, on a 6 triplets ;→ avec 1, 4, 4, on a 3 triplets ;→ avec 2, 2, 5, on a 3 triplets ;→ avec 2, 3, 4, on a 6 triplets ;→ avec 3, 3, 3, on a 1 triplet.

Ainsi, on a vingt-cinq triplets, obtenus a partir de six suites croissantesde 3 entiers de [[1,6]].

Nombre d’elements de B :→ avec 1, 3, 6, on a 6 triplets ;→ avec 1, 4, 5, on a 6 triplets ;→ avec 2, 2, 6, on a 3 triplets ;→ avec 2, 3, 5, on a 6 triplets ;→ avec 2, 4, 4, on a 3 triplets ;→ avec 3, 3, 4, on a 3 triplets.

Ainsi, on a vingt-sept triplets, obtenus a partir de six suites croissantesde trois entiers de [[1,6]].

P(A) =25216

et P(B) =27216

.

Page 30: Yves caumel (auth.) probabilites et processus

18 Probabilites et processus stochastiques

Exercice 1.11On a donc n1 fois la face 1, n2 fois la face 2,..., n6 fois la face 6. Il faut

donc trouver le nombre de 6-uples d’entiers (n1, · · · ,n6) tels que n1+ · · ·+n6 = n.

Il est plus simple d’aligner les n objets, puis de placer les cloisons destiroirs : avec k tiroirs, on a k−1 cloisons a placer. (Voir l’exercice 1.6.)

On a ainsi(n+k−1

k−1

)=(n+k−1

n

)configurations differentes. Dans le cas du

lancer de n des, le nombre de resultats donnant une suite croissante est donc(n+5n

)et la probabilite cherchee est

(n+5n )

6n .

Exercice 1.12(1) p divise n donc P(Ap) =

1p .

(2) Pour tout i, la probabilite que n ne soit pas divisible par pi est(1− 1

pi

)et la probabilite pour que n ne soit pas divisible par p1, p2, · · · , pm est

m∏i=1

(1− 1

pi

).

Finalement :φ(n)n

=m

∏i=1

(1− 1

pi

).

Page 31: Yves caumel (auth.) probabilites et processus

Chapitre 2

Variables aleatoires

Notion centrale de la theorie des probabilites, les variables aleatoirespermettent de modeliser les phenomenes et les systemes aleatoires.

2.1 Notion de variable aleatoire

Remarquons tout d’abord qu’en depit de sa denomination, une variablealeatoire n’est pas une variable au sens habituel. C’est une application d’unespace probabilise (Ω,T ,P) dans un espace mesurable (E,E ), ou E designeune tribu definie sur E. Une variable aleatoire, que l’on designera toujours parla majuscule d’une des dernieres lettres de l’alphabet, permet de munir (E,E )d’une probabilite appelee probabilite image. La seule condition exigee pourrealiser cet objectif est de supposer que la variable aleatoire soit mesurable.

Definition 2.1 Toute application mesurable X d’un espace probabilise (Ω,T ,P)dans un espace (E,E ) definit une variable aleatoire. X verifie donc la proprietede mesurabilite :

∀B ∈ E , X−1(B) ∈T .

On construit sur (E,E ) une probabilite dite probabilite image de la pro-babilite P par la variable aleatoire X, grace au theoreme :

Theoreme 2.1 La mesure PX definie sur (E,E ) par

∀B ∈ E , PX (B) = P(X−1(B)),

est la probabilite image de P par X definie sur (E,E ).

Preuve Verifions les deux axiomes definissant une probabilite :

(a) PX (E) = P(X−1(E)) = P(Ω) = 1 ;

Page 32: Yves caumel (auth.) probabilites et processus

20 Probabilites et processus stochastiques

(b) PX (⊎Bi) = P(X−1(

⊎Bi)) = ∑i P(X

−1(Bi)) = ∑i PX (Bi) (Σ-additivite) �

Si l’espace E est egal a R, on le munit muni de sa tribu borelienne et lesv.a. definies sur E sont dites reelles.

Exemple 2.1 Construction de la variable aleatoire de Bernoulli

Soient :– l’espace des observables : Ω= {ω1,ω2} ;– la tribu definie sur Ω : T = P(Ω) ;– la probabilite P definie sur Ω : P(ω1) = p, P(ω2) = 1− p ou p ∈]0,1[.

La variable aleatoire de Bernoulli X de parametre p est definie par :

X(ω1) = 1, X(ω2) = 0.

PX (1) = P(X−1(1)) = P(ω1) = p et PX (0) = P(X−1(0)) = P(ω2) = 1− p.

Cette v.a. qui permet de modeliser les tirages a deux issues possibles, illustrespar le modele « pile ou face », est a la base de la construction des v.a. classiquestelles que les v.a. binomiale ou geometrique.

Noter que : ∀x ∈ {0,1} : PX (x) = px(1− p)1−x.

On utilisera desormais l’abreviation v.a. a la place de variable alea-toire.

Etant donne les espaces de probabilite (Ωi,Ti,Pi)i=1, ..., n, il s’agit deconstruire un espace de probabilite sur l’espace produit Ω=Ω1×Ω2 . . .Ωn. Ondefinit sur Ω la tribu T egale a la tribu engendree par les paves rectangulairesB1×B2× ...×Bn ou Bi parcourt la tribu Ti : on rappelle que la tribu engendreepar un sous-ensemble Ω′ ⊂ Ω est definie par l’intersection de toutes les tribusdefinies sur Ω contenant Ω′. D’autre part, la tribu engendree par les ouverts deR est la tribu borelienne.

Theoreme 2.2 Sur (Ω,T ) il existe une probabilite unique P, dite probabiliteproduit definie par :

∀(B1, B2, . . . , Bn) ∈T1×T2 . . .×Tn :

P(B1×B2× . . .×Bn) = P1(B1) . . .Pn(Bn).

Construction de la v.a. binomiale

Un groupe de n etudiants est cense suivre un cours ; tout etudiant ala probabilite p d’etre present au cours independamment du comportementdes autres etudiants. A chaque etudiant i on associe l’ensemble Ωi decrivant

Page 33: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 21

ses etats possibles {absence, presence}, muni de la tribu Ti = P(Ωi) et de laprobabilite P, definie par : Pi(presence) = p et Pi(absence) = 1− p.

L’espace produit Ω=Πni=1Ωi decrit les etats possibles de l’ensemble des

etudiants. On le munit de la probabilite produit P definie par le theoremeprecedent.

Considerons la v.a. S definie par :

S : ω = (ω1, . . . ,ωn) ∈Ω−→ S(ω) = ∑iωi ∈ {0,1, . . . ,n} ;

S(ω) represente le nombre de presents.

La probabilite image PS est definie sur {0,1, ..,n} :

∀k ∈ {0,1, ..,n} :

PS(k) = P(S−1(k)) = P({ω tels que S(ω) = k}).L’ensemble {ω tel que S(ω) = k} etant constitue de Ck

n configurations in-compatibles, chacune ayant la probabilite pk (1− p)n−k, on en deduit :

PS(k) =Ckn p

k (1− p)n−k.

Definition 2.2 S est la v.a. binomiale de parametres (n, p) de loi PS noteeB(n ; p).

2.2 Variables aleatoires discretes

Definition 2.3 Une v.a. reelle X definie sur (Ω,T ,P) est discrete si X(Ω)est un ensemble au plus denombrable de R.

X(Ω) = {xi}i∈I ⊆Z ;

∀i PX (xi) = P(X−1(xi))note= pi.

On pourra ecrire : PX = ∑i pi δxi ou δxi est la mesure de support {xi}.Rappelons que pour tout borelien B, δxi(B) est egale a 1 si xi ∈ B et a 0 sinon.

Definition 2.4 La representation graphique ou diagramme d’une loi dis-crete est le graphe de la fonction :

x ∈ {xi}i∈I −→ PX (x).

Definition 2.5 La fonction de repartition FX de la variable aleatoire quel-conque X, est la fonction :

FX : x ∈ R→FX (x) = PX (]−∞,x]) = P({ω ∈Ω/X(ω)� x}).∀ a et b tels que a� b : PX (]a,b]) = FX (b)−FX (a).

Page 34: Yves caumel (auth.) probabilites et processus

22 Probabilites et processus stochastiques

0

0.05

0.1

0.15

0.2

0.25

0.3

0 2 4 6 8 10

Histogramme de la v.a B(n=20,p=0.1)

0

0.05

0.1

0.15

0.2

0 5 10 15 20

Histogramme de la v.a B(n=20,p=0.5)

Figure 2.1 – Diagramme des lois binomiales B(n = 20 ; p = 0.1) et B(n = 20 ;p= 0.5).

Exemple 2.2 Si X est une v.a. binomiale B(n ; p) :

FX (x) = ∑�x�k=0C

kn p

k (1− p)n−k,

ou �x� est le plus grand entier inferieur ou egal a x.

Theoreme 2.3 (Proprietes de la fonction de repartition)

(1) FX est croissante et continue a droite ; si X est discrete a valeurs xi,FX est discontinue en ces points.

(2) limx→+∞FX (x) = 1 ; limx→−∞FX (x) = 0.

Preuve (1) x1 < x2 alors FX (x2) = FX (x1)+PX (]x1,x2])� FX (x1).

Si l’on pose ]−∞,x] = ∩n∈N]−∞,x+ 1n ] il est facile de prouver la continuite a

droite de FX .

(2) limx→+∞FX (x) = limx→+∞PX (]−∞,x])=PX (limx→+∞]−∞,x]) = PX (R) =1 par continuite monotone de PX . Raisonnement analogue pour la deuxiemeegalite. �

Definition 2.6 (Esperance mathematique d’une v.a. quelconque)L’esperance mathematique d’une v.a. X definie sur l’espace probabilise (Ω,T ,P)est definie par : ∫

X(Ω)xdPX (x) =

∫ΩX(ω)dP(ω) notee E(X)

ou∫doit etre interprete comme symbole d’une integrale classique dans le cas

d’une v.a. absolument continue (voir : section suivante), ou celui d’une seriedans le cas d’une v.a. discrete. Dans ce dernier cas, l’esperance mathematique

Page 35: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 23

0

0.2

0.4

0.6

0.8

1

0 5 10 15 20

Histogramme de la v.a B(n=20,p=0.1)

0

0.2

0.4

0.6

0.8

1

0 5 10 15 20

Histogramme de la v.a B(n=20,p=0.5)

Figure 2.2 – Graphes des fonctions de repartition de lois binomiales : B(n= 20 ;p= 0,1) ;B(n= 20 ; p= 0,5).

est la moyenne de l’ensemble des valeurs possibles de X , ponderees par leursprobabilites respectives.

Definition 2.7 L’esperance mathematique d’une v.a. discrete X de loiPX (xi) = pi (i ∈ I⊂ Z) existe si ∑i |xi| pi <+∞ ; elle est definie par :

∑i∈1

pixi =(note) E(X).

Analogie mecanique : l’esperance mathematique est le centre de gravite d’unensemble de masses (pi)i situees aux abscisses (xi)i de la droite reelle.

2.1 ♠ Si X est une v.a. a valeurs entieres positives, demontrer que :

E(X) = ∑n≥0

P(X > n).

Remarque 2.1 On dit que la v.a. X domine la v.a. Y si P(X >Y )> 12 ; cepen-

dant la domination de X sur Y n’entraıne pas E(X)> E(Y ). Cette affirmation,qui peut paraıtre paradoxale, est illustree par l’exercice suivant.

2.2 ♠ Etranges des !Deux des equilibres A et B portent respectivement les faces {3, 4, 10, 11, 12, 18}et {2, 7, 8, 9, 16, 17} (voir Mansuy R., Des des diaboliques Quadrature, nu-mero 74). Soient les v.a. XA et XB associees aux faces obtenues.

(1) Montrer que P(XA > XB)> 12 , alors que E(XA)< E(XB).

(2) Soit un troisieme deC dont l’ensemble des faces est {1, 5, 6, 13, 14, 15}.Montrer que B domine C et que, contrairement a l’intuition de transitivite de larelation de domination, C domine A. Ce paradoxe est a rapprocher du paradoxe

Page 36: Yves caumel (auth.) probabilites et processus

24 Probabilites et processus stochastiques

de Condorcet. Il est facile d’imaginer un jeu, ou face a un adversaire qui aurachoisi l’un des trois des, il vous suffira de choisir parmi les deux autres celui quidomine le de choisi par votre adversaire pour l’emporter avec une probabilitesuperieure a 0,5.

Theoreme 2.4 (Proprietes de l’esperance d’une v.a. discrete) L’espe-rance mathematique est un operateur E defini sur l’espace vectoriel des variablesaleatoires integrables, qui verifie les proprietes :

(1) pour toute v.a. X egale a c presque surement :

E(X) = c.

(2) X positive implique E(X) positive.

(3) ∀B= {xi}i sous-ensemble denombrable de R :

E(1B) = PX (B).

(4) propriete de transfert : si h est une fonction definie et a valeurs dansR telle que ∑i |h(xi)|PX (xi) soit fini, alors :

E(h(X)) =∑ih(xi)PX (xi).

Preuve(1) est triviale.

(2) les valeurs de X etant positives, leur moyenne ponderee l’est aussi.

(3) E(1B) = ∑i 1.PX (xi) = PX (B).�

Les proprietes de linearite de l’esperance seront definies au theoreme 3.3du chapitre suivant.

Definition 2.8 Si ∑ipi|xi|n < +∞, alors le moment d’ordre n de la v.a. X

existe, et est defini par :

∑i∈1

pixni =(note) E(X

n).

La notion de variance est l’indicateur classique de dispersion des valeurs d’unev.a., autour de son esperance mathematique :

Page 37: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 25

Definition 2.9 La variance V (X) d’une v.a. reelle X existe et est finie siE(X2) est fini. Elle est definie comme moyenne des ecarts quadratiques de Xautour de son esperance E(X) :

E((X−E(X))2)note= V (X).

Analogie mecanique : V (X) est comparable au moment d’inertie d’une distribu-tion de masses sur la droite reelle par rapport a son centre de gravite E(X).En pratique, on utilise l’expression equivalente et plus operatoire :

V (X) = E(X2)− (E(X))2.

La variance est toujours positive ou nulle car E(X2)≥ (E(X))2.

Definition 2.10 L’ecart-type σX de la v.a. X est defini par :√V (X) = σX .

Theoreme 2.5 (Proprietes de la variance) Si la v.a. X est telle que V (X)existe :

∀a ∈ R : V (a+X) =V (X) ;

V (aX) = a2V (X) et σaX = |a| σX .

Preuve Demonstrations faciles laissees au lecteur.�

Fonction generatrice

Definition 2.11 A toute v.a. X a valeurs dans N, on associe sa fonctiongeneratrice gX (z) definie par la serie entiere :

gX (z) = E(zX ) = ∑n∈N

P(X = n)zn, ∀z ∈ D(0,1)⊂ C,

gX (z) est la transformee en Z (utilisee par les automaticiens) de la suite {P(X =n)}n∈N, continue dans son disque de convergence D(0,1), et holomorphe dans

son interieuroD(0,1).

La fonction generatrice d’une v.a. entiere positive caracterise completementsa loi. D’un point de vue pratique, son utilisation facilite souvent le calcul del’esperance et de la variance d’une v.a.

Page 38: Yves caumel (auth.) probabilites et processus

26 Probabilites et processus stochastiques

Theoreme 2.6 La fonction generatrice gX d’une v.a. entiere X caracterise saloi :

∀n ∈ N, PX (n) =1n!

dngX (z)dzn

|z=0 .

Theoreme 2.7 Pour toute v.a. X entiere telle que E(Xi) existe ∀i∈{1,2, . . . ,k} :

E(X)=dgX (z)dz

|z=1 ; E(X2)=d2gX (z)dz2 |z=1 +E(X);

∀i ∈ {1, 2, . . . , k} : E(X(X−1) . . .(X− (k−1))) =digX (z)dzi

|z=1 .

Definition 2.12 Une v.a. X est dite de Poisson d’intensite λ (strictementpositive), si sa loi est definie par :

(∀k ∈ N) PX (k) = e−λλ k

k!;

E(X) =V (X) = λ .

On note :

X ∼P(λ ).

Les variables de Poisson decrivent le nombre aleatoire d’evenements telsque les pannes d’un systeme ou les arrivees de clients dans un service.

Exemple 2.3 Si X est de loi de Poisson de parametre λ , alors :

gX (z) =∑n≥0 e−λ zn λ n

n! = eλ (z−1). D’ou l’on deduit grace au theoreme pre-cedent les resultats connus :

E(X) = λ eλ (z−1) |z=1= λ et PX (n) = 1n!

dngX (z)dzn |z=0=

λ ne−λn! .

2.3 ♠ (1) Verifier que la loi de Poisson est bien une loi de probabilite ; de-montrer que sa variance est egale a λ .

(2) Calculer E(

11+X

).

2.4 ♠Demontrer, a l’aide de deux methodes, que l’esperance d’une v.a. B(n, p)est egale a np et que sa variance est egale a np(1− p).

Page 39: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 27

Definition 2.13 Le modele decrit par une variable geometrique est constituepar le dispositif suivant : on procede a des epreuves independantes ayant cha-cune deux issues : A qui apparaıt avec la probabilite p et A apparaissant avecla probabilite (1− p). On appelle variable geometrique sur N∗ le nombreX d’epreuves necessaires a la premiere apparition de A. L’evenement (X = k)equivaut a l’evenement : A apparaıt consecutivement (k−1) fois, puis apparaıtA, ces evenements consecutifs etant independants :

P(X = k) = P(A)...P(A)P(A) = (1− p)k−1p.

Sa loi est definie par :

∀k ∈ N∗ P(X = k) = p(1− p)k−1.

E(X) =1p

V (X) =1− pp2 .

On note : X ∼ GN∗(p).

Loi de la v.a. geometrique sur N est definie par :

∀k ∈ N, P(X = k) = p(1− p)k; E(X) =1− pp

et V (X) =1− pp2 .

Exemple 2.4 Procedons a des lancers d’une piece de monnaie : la v.a. X as-sociee au rang du premier lancer donnant pile est de loi geometrique :

P(X = k) = (1− p)k−1p,

ou P(un lancer donne pile) = p.

2.5 ♠♠ Un radar explore une region de l’espace contenant n objets ; lors d’unbalayage, chaque objet est capte avec la probabilite p.

(1) Determiner les probabilites pour qu’un objet donne soit capte auterme de 2, 3, · · · , b balayages ; en deduire la probabilite pour que k objetsdonnes parmi les n, soient captes au terme de b balayage.

(2) Quel est le nombre b∗ de balayages pour que la probabilite de captertous les objets soit egale a une probabilite fixee π∗ ?

(3) Combien de balayages doit-on effectuer pour que le nombre moyend’objets decouverts soit superieur ou egal a m ?

Ce probleme est analogue a celui, o combien lancinant pour l’auteur d’unouvrage scientifique, pose par la correction typographique d’epreuves ecrites. Ilse formule ainsi : chaque lecture corrective d’un texte qui comporte n erreurs,permet de detecter et de corriger chacune d’elle avec la probabilite p ; les lec-tures etant successives et independantes entre elles, il s’agit de determiner le

Page 40: Yves caumel (auth.) probabilites et processus

28 Probabilites et processus stochastiques

nombre de lectures que l'on doit effectuer pour detecter 95 % des n erreurs. (U ne page contient en moyenne une ou deux erreurs, Ie livre contient 330 pages et p = 1)

2.6 •• Un sauteur en hauteur tente de franchir successivement les hauteurs 1,2, ... ,N. Les resultats des sauts sont independants entre eux, et la probabilite de succes pour un saut de hauteur Nest egale a ~ ; d'autre part, Ie sauteur est elimine des son premier echec.

Determiner la loi de la hauteur X du dernier saut reussi, ainsi que E(X) et V(X) en utilisant la fonction generatrice.

2.7 ••• Une entreprise stocke en debut d'annee n unites d'un produit donne. Un produit vendu dans l'annee rapporte un benefice b, tandis qu'un produit non vendu et rest ant en stock occasionne une perte a.

(1) Exprimer la v.a. Rn(X) representant Ie revenu annuel correspond ant a une demande de X produits et un stock de n. En deduire l'expression du revenu annuel moyen E(Rn).

(2) Determiner la valeur n* du stock permettant d'optimiser Ie revenu annuel moyen (on pourra raisonner a partir de la difference E (Rn+ t) - E (Rn) ).

(3) Dans Ie commerce vestimentaire, il est courant que les magasins re­vendent les vetements trois fois leur prix d'achat (b = 2a). En faisant l'hypo­these que Ie nombre d'acheteurs d'un produit donne suit une loi geometrique (P(X =x) = p(l- p)X) de parametre p = 0, 1, calculer la valeur de n*.

Intermede historique : mathematisation du hasard au xvne

siecle. En 1654, Blaise Pascal (1623-1662) philosophe et mathematicien, soumit

a son contemporain Pierre de Fermat (1601-1665), magistrat exergant a Tou­louse et mathematicien, les problemes des partis et du double-six (voir: exercice 7, chapitre 1) que lui avait proposes son ami Ie chevalier de Mere, gentilhomme mondain et joueur repute. Le probleme des partis se formule ainsi : comment partager le gain d 'un tournoi interrompu avant sa fin, entre deux joueurs de force egale. Les deux mathematiciens Ie resolurent par des methodes differentes et enrichirent de nouveaux concepts Ie tout recent Calcul des chances, ancetre de la theorie des probabilites.

Par ailleurs, dans la correspondance epistolaire entre les deux savants figure Ie fameux pari de Pascal, dans lequel (une fois n'est pas coutu me dans l'CBuvre du philosophe!) Dieu n'est pas seul maitre du jeu, mais un etre contin­gent comme vous et moi, et dont la probabilite d'existence est nettement infe­rieure a l'unite. Rappelons la formulation qu'en donna Pascal, apologiste zele de la religion chretienne : « meme si Dieu a une probabilite infime p d'exister, l'homme a interet Ii croire en lui, car l'esperance de gain spirituel obtenu par cette adhesion est egale Ii l'infini ». En effet, cette esperance s'ecrirait aujour­d'hui: «p.oo +(1-p).O =00 ». Avec cette conclusion optimiste, ou etait mise en

Page 41: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 29

œuvre la notion d’esperance mathematique, Pascal pouvait affirmer, que memesi l’hypothese de l’existence de Dieu etait de faible probabilite, l’homme enretirerait un gain infini lors de sa resurrection. Les problemes poses par Pascalet les solutions qu’il en donna, le conforterent dans l’intuition qu’il etablissaitune nouvelle branche des mathematiques qu’il nomma : geometrie du hasard.

Durant la meme periode, le savant hollandais Christiaan Huygens (1629-1695) fit paraıtre en 1657 un traite de mathematique ayant pour titre De ratio-ciniis in aleae ludo (Du calcul des jeux de de) considere comme une synthesedes resultats du calcul des probabilites de son epoque, dans lequel sont notam-ment definies les notions d’echantillonnage avec ou sans remise et d’es-perance mathematique.

2.3 Variables aleatoires absolument continues

Omnipresentes dans la plupart des domaines scientifiques et industriels,ces variables aleatoires permettent de modeliser les repartitions aleatoires conti-nues. L’usage tolere la denomination de variables continues.

Definition 2.14 Une v.a. X est dite absolument continue ou continue, s’ilexiste une fonction fX presque surement positive dite densite de probabilite(ou densite) de X d’integrale sur R egale a l’unite et telle que :

pour tout borelien B de R, PX (B) =∫BfX (x)d x.

Le resultat precedent s’exprime sous une forme plus intuitive :

∀x ∈ R, P(X ∈ [x,x+Δx]) = fX (x)Δx+o(Δx).

Rappel : une fonction verifie presque surement une propriete, si elle laverifie partout sauf eventuellement sur un ensemble de mesure nulle.

Dans le cadre de la theorie de la mesure, une mesure positive μ porteepar R est qualifiee d’absolument continue par rapport a la mesure de Lebesguem, si pour tout borelien B de mesure de Lebesgue nulle, μ(B)=0. Sous cettehypothese, le theoreme de Radon-Nykodim affirme qu’il existe necessairementune fonction positive f appelee densite de μ , telle que pour tout borelien B,μ(B) =

∫B f (x)dm(x). C’est en ce sens qu’une v.a. est dite absolument continue,

au sens ou sa loi de probabilite PX est une mesure absolument continue parrapport a m.

Definition 2.15 La fonction de repartition FX d’une v.a. X absolumentcontinue est definie par :

∀x ∈ R, FX (x) =∫ x

−∞fX (u)du= PX (]−∞,x]).

Page 42: Yves caumel (auth.) probabilites et processus

30 Probabilites et processus stochastiques

Theoreme 2.8 Soit PX une loi absolument continue, definie par sa densite fX .

(1) ∀ a,b reels tels que a< b :

PX (]a,b]) =∫ b

afX (x)dx.

(2) ∀a∈R , PX (a)= 0. (Interpretation : une variable absolument continuene charge aucun point d’une probabilite strictement positive.)

(3) La fonction de repartition FX est continue sur R et fX = F′X sauf

eventuellement sur un sous-ensemble de mesure de Lebesgue nulle.

Preuve (1) PX (]a,b]) = FX (b)−FX (a) =∫ ba fX (x)dx ;

(2) PX (a) =∫{a} fX (x)dx= 0, car {a} est de mesure de Lebesgue nulle. �

Definition 2.16 Le support D d’une v.a. est l’adherence de l’ensemble despoints sur lequel la densite est strictement positive ; on fera suivre l’expressiond’une densite par la fonction indicatrice 1D de son support D.

Deux variables aleatoires distinctes peuvent avoir la meme loi. C’est lecas de deux variables normales centrees X et sa symetrique −X , toutes deuxde meme densite ; ce resultat est vrai pour les v.a. X de lois symetriques parrapport a l’origine.

Definition 2.17 La mediane xM d’une loi de probabilite d’une v.a. X continueest definie par :

P(X < xM) = P(X > xM) =12.

Definition 2.18 X est une variable uniforme de support [a,b] si sa densiteest definie par :

fX (x) =1

b−a1[a,b](x) ;

E(X) =a+b

2; V (X) =

(b−a)2

12; xM = E(X).

Pour tout borelien B de [a,b], P(X∈B)= μ(B)(b−a) , ou μ est la mesure de Lebesgue.

Definition 2.19 X est une variable exponentielle de parametre λ , noteeE (λ ) si sa densite est definie par :

fX (x) = λ e−λx1R+(x) ;

E(X) =1λ

; V (X) =1λ 2 .

Page 43: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 31

Les variables exponentielles modelisent les temps d’attente a l’entree d’unservice ou les durees de vie de systemes a usure non cumulative.

Construction de la variable exponentielle comme limite de lavariable geometrique

Considerons un systeme mis en marche au temps 0, pouvant tomber enpanne sur tout intervalle de temps d’etendue h (petit par rapport a 1) avecla probabilite λ h ; on suppose en outre que les etats de la machine dans desintervalles de temps disjoints sont independants.

La probabilite P (la machine tombe pour la premiere fois en panne dansl’intervalle de temps [nh,(n+ 1)h]) est donc egale a (1−λh)nλh, qui est la loigeometrique de parametre λh. Si l’on pose t = nh, la probabilite precedentes’ecrit (1−λ t

n )nλ t

n . Pour une valeur t fixee, faisons tendre le pas h vers 0 et nvers +∞ : (1−λ t

n )nλ t

n converge alors vers exp(−λ t)λdt : P(la machine tombepour la premiere fois en panne dans [t, t+dt])� f (t)dt.

Conclusion : la duree de vie de la machine est de loi exponentielle definiepar sa densite f (t) = λ exp(−λ t).

La variable exponentielle est donc l’analogue continu de la variable geo-metrique ; elles verifient toutes deux la propriete d’absence de memoire qui lescaracterise, etudiee au chapitre 6.

0

0.5

1

1.5

2

2.5

0 0.5 1 1.5 2 2.5 3 3.5 4

f(t)=λ.exp(-λ.t)

λ=

Figure 2.3 – Densite de la loi exponentielle.

2.8 ♠♠ Considerons une v.a. X exponentielle de parametre λ . Soit Y la partieentiere de X notee �X�.

(1) Demontrer que Y est de loi geometrique ;

(2) Calculer E(Y ), V (Y ) ainsi que la loi de X−Y .[ Indication : poser A = « X −Y � u », Bk = « Y = k », et utiliser le theoreme1.2 des probabilites totales.]

Page 44: Yves caumel (auth.) probabilites et processus

32 Probabilites et processus stochastiques

Definition 2.20 L’esperance E(X) d’une v.a. X de densite fX est definie, si∫ +∞−∞ |x| fX (x)dx<+∞, par :

E(X) =∫ +∞

−∞x fX (x)dx.

Definition 2.21 Le moment d’ordre n E(Xn) de la v.a. X est defini, si∫ |xn|. fX (x)dx

existe

E(Xn) =∫xn. fX (x)dx.

La propriete de transfert deja enoncee pour les v.a. discretes (voir theoreme 2.4),permet de calculer l’esperance d’une fonction ϕ(X) d’une v.a. X sans devoir endeterminer sa loi :

Theoreme 2.9 Etant donne une v.a. X de densite fX et une fonction ϕ telleque

∫ +∞−∞ |ϕ(x)| fX (x)dx<+∞ alors : E(ϕ(X)) =

∫ +∞−∞ ϕ(x) fX (x)dx.

Definition 2.22 La v.a de Cauchy est de densite :

∀x ∈ R, f (x) =1

π(1+ x2).

Remarque 2.2 Pour tout entier positif n, E(Xn) =∫ +∞−∞ xn 1

π(1+x2)dx n’est pas

definie : en consequence, la v.a. de Cauchy n’a ni esperance ni variance.

2.9 ♠ Construction geometrique de la variable de Cauchy

Soit X une v.a. de densite fX et h une fonction croissante definie sur lesupport de la densite et a valeurs dans R : exprimer Fh(X) en fonction de FX eten deduire la densite de h(X). Appliquer ce resultat a la construction de la loide Cauchy : X est une v.a. uniforme sur

]−π2 ,

π2

[et h(x) = tg(x).

Supposons une cible constituee par la droite verticale situee a une dis-tance l du point de tir place en 0. En ce point un tireur « fou » tire au hasard,au sens ou son angle Θ de tir varie uniformement dans ]− π

2 ,π2 [.

Si grande que soit l’ordonnee y de l’impact, la probabilite que l’impactatteigne la cible au-dela de y n’est pas negligeable : en effet, P(Y > y) = P(π2 >

Θ> θ) = 12 (1− 2

π ).θ , ou θ = arctg(y). Cette propension qu’a la v.a. de Cauchya prendre de tres grandes valeurs avec des probabilites non negligeables a pourconsequence la non-existence de son esperance et donc d’aucun de ses moments.

Page 45: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 33

CIBLEPOINT DE TIR

M2

M1

θ2

θ1

θ3

Theoreme 2.10 (Inegalites classiques)

(1) Inegalite de Tchebychev (la plus frequemment utilisee) : pourtoute v.a. X d’esperance m et de variance σ2 finie :

∀a> 0, P(|X−m|� a)�σ2

a2 .

Si a= nσ , P(|X−m|� nσ)� 1n2 .

(2) Regle des trois sigmas (consequence de l’inegalite de Tcheby-chev) :

pour toute v.a. X de moyenne m et de variance σ2 :

P(X ∈ [m−3σ ; m+3σ ] )≥ 0,9.

Interpretation : au moins 90% de la masse de la distribution de proba-bilite est condensee sur un segment centre en sa moyenne et d’etendue egale asix ecarts types.

(3) Inegalite de Markov : pour toute v.a. X positive et toute constantea strictement positive :

P(X � a)�E(X)a

.

(4) Inegalite de Jensen : X une v.a. quelconque et h une fonctionconvexe sur l’ensemble des valeurs de X , alors si E(X) et E(h(X)) sont finies,on a :

h(E(X))� E(h(X)).

Page 46: Yves caumel (auth.) probabilites et processus

34 Probabilites et processus stochastiques

Preuve (1) Posons U = X−E(X) ; l’inegalite s’ecrit :

P(|U | ≥ a)�E(U2)

a2 ⇐⇒ a2(∫ −a

−∞dPU (u)+

∫ +∞

adPU (u)

)� E(U2)

=∫ −a−∞

u2 dPU (u)+∫ a

−au2 dPU (u)+

∫ +∞

au2 dPU (u).

(3) P(X ≥ a) =∫ +∞a dPX (x)≤ 1

a

∫ +∞a x.dPX (x)≤ E(X)

a .

(4) Preuve dans le cas discret : h(E(X)) = h(∑ pi xi)� ∑ pih(xi) = E(h(X)).

2.4 Variables gaussiennes

Dans la pratique, la variable gaussienne est la plus frequemment utilisee,d’ou son autre denomination de variable normale donnee par les probabilistesdu xix

e siecle. L’un des grands theoremes de la theorie des probabilites, letheoreme de la limite centrale, fonde rigoureusement ce constat (voir theoreme5.9).

Definition 2.23 X est une variable gaussienne ou normale d’esperancem et de variance σ2, si sa loi est definie par la densite :

fX (x) =1

σ√

2πe− (x−m)2

2σ2 1R(x).

On ecrit : X ∼N (m,σ2).

Si m= 0, X est dite centree ; si σ = 1, X est dite reduite.

Remarque 2.3 Si X∗ est une v.a. N (0,1), alors :

P(−1,96 < X∗ < 1,96)� 0,95 et P(−2,57 < X∗ < 2,57)� 0,99.

Remarque 2.4 La suite des densites fXn(x) =n√2πe−

n2x22 des v.a. Xn centrees

de variances 1n2 converge au sens des distributions vers la distribution de Dirac

δ0.

2.10 ♠ (1) Soit la v.a. X de densite fX et Y = aX+b. Densite de Y ?(2) Application : X est de loi N (0,1) et Y = σX+m.

Page 47: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 35

−3 −2 −1 0 1 2 3

1√2π

−10 −8 −6 −4 −2 0 2 4 6

m< 0

σ > 1

Figure 2.4 – Graphes de la densite N (0,1) et de la densite N (−3,4)

2.11 ♠ X est une v.a. de densite fX ; calculer la densite, l’esperance et lavariance de | X |. Considerer le cas ou X est de loi N (0,σ2).

2.12 ♠♠ SlalomUn skieur affronte un slalom de vingt portes ; s’il ne tombe pas, son

temps de parcours (en secondes) X suit une loi normale N (m = 50,σ2 = 4).A chaque porte il peut tomber avec la probabilite 1

20 , ce qui lui fait perdre 4secondes. On admet que les chutes sont independantes entre elles.

Quelle probabilite a-t-il de decrocher la Fleche de platine (attribueelorsque le temps de descente est inferieur a 52) ?

[Indication : exprimer le temps de parcours sous forme d’une somme dev.a.]

Intermede biographique : Carl Friedrich Gauss (1777-1855)Gauss, mathematicien de genie, ne a Brunswick (Allemagne) de parents

ouvriers, a produit une œuvre scientifique monumentale et sans doute inega-lee. Enfant prodige, aux dons rapidement remarques et mis en valeur par sesprofesseurs, il obtint ses premiers resultats a l’age de dix-huit ans a l’univer-site de Gottingen, et publia en 1801 un ouvrage fondamental sur l’arithme-tique intitule Disquisitiones arithmeticae. Son œuvre concerne la plupart desdomaines mathematiques et de la physique, notamment : la geometrie diffe-rentielle, la geodesie, les geometries non euclidiennes, l’algebre, la theorie desnombres, l’electromagnetisme, l’optique. Mathematicien solitaire, Gauss a eupeu d’eleves mais sans doute les plus brillants, tels que : Dirichlet, Dedekind etRiemann. Il apparaıt comme etant l’un des premiers mathematiciens modernesannoncant la conception formaliste des mathematiques, lorsqu’il affirmait que :« Les mathematiciens font abstraction de la nature des objets mathematiqueset de la signification de leurs relations, qu’ils se contentent d’enumerer et derelier rigoureusement. »

Calcul des probabilites gaussiennesX etant de loi normale N (m,σ2), donner une approximation a quatre decimales

de la probabilite P(a< X < b), pour tous reels a et b tels que a< b. Les tables

Page 48: Yves caumel (auth.) probabilites et processus

36 Probabilites et processus stochastiques

classiques de la loi normale (voir Annexes a la fin de l’ouvrage) donnent lesvaleurs F(x) de la fonction de repartition de la variable gaussienne centree etreduite X∗, pour des valeurs x comprises entre 0 et 2,99, car P(|X∗|> 3)� 0,001.

Sachant que X = m+σX∗ :

P(a< X < b) = P(a−mσ

< X∗ <b−mσ

) = F(b−mσ

)−F(a−mσ

).

1◦ cas : a et b sont superieurs a m.

P(a< X < b) = F(b−mσ

)−F(a−mσ

).

Exemple 1 : m = 2, σ = 3, a = 4, b = 6 : F( b−mσ ) = F( 43 ) � F(1,33) =

0,9082.

F( a−mσ ) = F( 23 )� F(0,66) = 0,7454, d’ou P(a< X < b) = 0,1628.

2◦ cas : a est inferieur a m, b est superieur a m.

P(a< X < b) = F(b−mσ

)+F(m−aσ

)−1.

F( a−mσ ) = 1−F(m−aσ ) par symetrie de F par rapport a 0.

Exemple 2 : a= 1, m= 2, σ = 3, b= 6.

P(a< X < b) = F(43)+F(

13)−1� F(1,33)+F(0,33)−1

= 0,9082+0,6293−1 = 0,5375.

3◦cas : a et b sont inferieurs a m.

P(a< X < b) = F(m−aσ

)−F(m−bσ

).

Exemple 3 : a=−2, b=−1, m= 2, σ = 3.P(a< X < b) = F( 4

3 )−F( 33 )� F(1,33)−F(1) = 0,908−0,8413 = 0,067.

On demontrera dans son cadre theorique naturel au chapitre 5, le resultatimportant d’approximation de la loi binomiale par la loi gaussienne : si Xn estune v. a binomiale B(n; p) alors la loi de Xn

n est approchee par la loi normale

N (p, p(1−p)n ) pour des valeurs de n superieures a 30.

Page 49: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 37

2.13 ♠ Ou il est etabli rigoureusement qu’en ces temps incertains on ne de-vrait jamais manquer d’air, fut-il pollue !

Dans une piece fermee de volume V et contenant N molecules d’air (Netant un multiple du nombre d’Avogadro), on considere un volume v petit parrapport a V contenant un nombre aleatoire X de molecules d’oxygene, autourdu nez d’un quidam immobile.

(1) Utiliser la remarque precedente pour demontrer que la loi de X estproche d’une loi normale dont on determinera les parametres.

(2) Si on considere que les signes d’asphyxie se manifestent des que Xvarie autour de sa moyenne au-dela de 1% de sa valeur, determiner la probabilitede cet evenement. En deduire la conclusion (rassurante) annoncee. (Considererl’approximation precedente.)

Definition 2.24 On appelle fonction d’erreur, notee erf(x), la fonction de-finie par :

erf(x) =2√π

∫ x

0e−

t22 dt ∀x≥ 0.

La fonction d’erreur complementaire, notee erfc(x) :

erfc(x) =2√π

∫ +∞

xe−

t22 dt ∀x≥ 0.

Application : P(|X |� x) = erfc( x√2) et P(|X |< x) = erf( x√

2).

Loi de ParetoCette loi fut decouverte par le mathematicien italien V. Pareto (1848-

1923) qui tentait de modeliser en 1880 la repartition de la richesse des menagesitaliens en fonction de leurs revenus. Il fit un constat, aujourd’hui verifie ettransposable a de nombreux domaines, que 20% des menages possedaient 80%de la richesse nationale. La loi dite du 80/20, qui, de maniere plus realiste,pourrait aujourd’hui s’appeler 85/15, s’applique a de nombreux domaines del’economie sociale et industrielle. Quelques exemples d’application de la loi :

- 15% de la population mondiale detient 85% des richesses ;- 20% des moyens humains et financiers permettent d’atteindre 80% des

objectifs ;- 20% des noms de famille d’un pays sont portes par 80% de la popula-

tion ;- 20% des ventes de grandes surfaces fournissent 80% des benefices.

2.14 ♠ (1) La v.a. de Pareto X est de densite :

fX (x) =K(xm,α)xα+1 1[xm,+∞[(x) ou xm et α > 0.

Tracer les graphes de fX pour (α = 1,xm = 2) et (α = 2,xm = 3). Deter-miner la constante K(xm,α).

Page 50: Yves caumel (auth.) probabilites et processus

38 Probabilites et processus stochastiques

(2) A quelles conditions l’esperance et la variance sont-elles definies ? Lescalculer.

(3) Au vu des graphes des densites, utiliser ce modele pour illustrer lesexemples presentes.

Remarquable construction de la loi normale due a Gauss

Gauss postule que la densite f qui regit les erreurs x entachant l’obser-vation d’une quantite donnee θ verifie les proprietes suivantes :

(P1) les erreurs sont aussi souvent positives que negatives, d’ou l’hypo-these de parite de f ;

(P2) les grandes erreurs sont improbables : lim|x|→+∞

f (x) = 0 ;

(P3) f verifie : f � 0 et∫ +∞−∞ f (x)dx= 1.

Sachant que les observations sont independantes entre elles, la probabilited’effectuer des erreurs successives comprises entre x1 et x1 +dx1, x2 et x2 +dx2,

... , xn et xn+dxn vautn∏i=1

f (xi)dxi.

Probleme : les xi etant connus, quelle est la valeur de θ la plus vraisem-blable, c’est-a-dire celle qui maximise la probabilite d’observation des (xi) ou,ce qui revient au meme, des erreurs (ei)i ou ei = xi−θ .

Gauss recherche donc la fonction f telle que L(θ) = ∏ni=1 f (xi− θ) at-

teigne son maximum en x= 1n ∑

ni=1 xi, et qui maximise la somme ∑n

i=1(xi− θ)2.En langage contemporain, il s’agit de determiner f telle que l’estimation de θpar la methode des moindres carres equivale a l’estimation de θ par la methodedu maximum de vraisemblance.

Soit ln(L(θ)) = ∑i

ln( f (xi−θ)).

Pour tout n, pour tout (xi)i=1,··· ,n, (∗) ∂∂θ ln(L(θ)) doit etre egal a 0.

Posons h= ln( f ). (∗) equivaut a (∗∗) ∑ih′(xi− xi) = 0.

Gauss pose x2 = x3 = · · ·= xn = x1−ny, d’ou x= x1− (n−1)y.(∗∗) equivaut a h((n−1)y+(n−1)h′(−y) pour tout n et pour tout y.Or f est paire : h′(−y) =−h′(y) et h′((n−1)y) = (n−1)h′(y), soit

h′((n−1)y)(n−1)y

=h′(y)y

= a (constante),

d’ou : ln f (y) = h(y) = ay2

2 +b et par les proprietes (Pi)i : f est la densite gaus-sienne centree.

Les problemes 3 et 4 se rapportent a ce chapitre.

Page 51: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 39

2.5 Corriges des exercices

Exercice 2.1

∑i�0

P([X > i]) =∑i�0

+∞

∑k=i+1

P([X = k]) =+∞

∑k=1

k−1

∑i=0

P([X = k]) =+∞

∑k=1

kP([X = k]) = IE(X).

Exercice 2.2(1) P(XA > XB) = 1

36× (nombre de (ai,b j)1�i, j�6 tels que ai > b j) =2036 > 1

2 .

Or E(XA) = 586 < E(XB) = 59

36 .(2) La deuxieme question releve d’un traitement analogue.

Exercice 2.3

(1) E(X) =+∞

∑n=1

ne−λ λ n

n! = λe−λ+∞

∑n=1

λ n−1

(n−1)! = λ .

E(X2) =+∞

∑n=1

n2e−λλ n

n!=

+∞

∑n=2

n(n−1)e−λλ n

n!+

+∞

∑n=1

ne−λλ n

n!

= λ 2e−λ+∞

∑n=2

λ n−2

(n−2)!+λ = λ 2 +λ .

(2) E(

11+X

)=

+∞

∑k=0

1k+1P(X = k) = e−λ

λ

+∞

∑k=0

λ k+1

(k+1)! =e−λλ (eλ −1) = 1−e−λ

λ .

Exercice 2.4E(X) = E(∑

iBi) = ∑

iE(Bi) = np et V (X) = ∑

iV (Bi) = np(1− p) par inde-

pendance des Bi. On peut utiliser aussi la fonction generatrice.

Exercice 2.5(1) P(objet donne soit capte par 2 balayages) = 1− (1− p)2. De meme,

P(objet donne soit capte par b balayages) = 1− (1− p)b

et

P(k objets soient captes par b balayages) =Ckn(1−(1− p)b)k(1− p)b(n−k).

(2) P(tous les objets soient captes par b balayages) = (1− (1− p)b)n,

d’ou π∗=(1−(1− p)b∗)n, soit (1− p)b

∗= 1−(π∗)1/n et finalement b∗= ln(1−(π∗)1/n)

ln(1−p) .

Page 52: Yves caumel (auth.) probabilites et processus

40 Probabilites et processus stochastiques

(3) On a vu en (2) que le nombre X d’objets captes en b balayages est deloi B(n ; 1− (1− p)b) ; donc E(X) = n(1− (1− p)b) et E(X)�m si et seulement

si b�ln(1−(m

n ))ln(1−p) .

Exercice 2.6

Soit Ak l’evenement « le sauteur reussit la hauteur k ». On a, par hypo-these, P(Ak) =

1k .

Si X designe la hauteur du dernier saut reussi, on a X(Ω) = N∗ (carP(A1) = 1) et, pour n ∈ N∗,

[X = n] = A1∩·· ·∩An∩An+1.

Les sauts etant supposes independants, les evenements Ak le sont aussi et lesprobabilites se multiplient, soit :

P([X = n]) =n

∏k=1

P(Ak)×P(An+1) =1n!×(

1− 1n+1

).

Ainsi, P([X = n]) =1n!− 1

(n+1)!pour tout n ∈ N∗.

GX (z) = IE(zX ) =+∞

∑n=1

zn(

1n!− 1

(n+1)!

)=

+∞

∑n=1

zn

n!−

+∞

∑n=1

zn

(n+1)!

= ez−1− 1z(ez−1− z) = ez

(1− 1

z

)+

1z.

G′X (z) = ez(

1− 1z+

1z2

)− 1

z2 et G′′X (z) = ez(

1− 1z+

1z2 +

1z2 −

2z3

)+

2z3 ,

donc G′X (1) = e−1 et G′′X (1)+G′X (1)−(G′X (1))2 = 2+(e−1)−(e−1)2 = 3e−e2,

soit :

IE(X) = e−1 et V(X) = 3e− e2.

Exercice 2.7

(1) Si X < n, Rn = Xb− (n−X)a et si X � n, Rn = nb.

Page 53: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 41

Revenu moyen annuel E(Rn), correspondant a un stock de taille n :

E(Rn) =n−1

∑x=0

(xb− (n− x)a)P(X = x)++∞

∑x=n

nbP(X = x)

= (a+b)n−1

∑x=0

xP(X = x)−nan−1

∑x=0

P(X = x)+nb+∞

∑x=n

P(X = x)

= (a+b)n−1

∑x=0

xP(X = x)−nan−1

∑x=0

P(X = x)+nb

[1−

n−1

∑k=0

P(X = x)

]

= (a+b)n−1

∑x=0

xP(X = x)−n(a+b)n−1

∑x=0

P(X = x)+nb

= nb+(a+b)n−1

∑x=0

(x−n)P(X = x).

(2) E(Rn+1) = (n+1)b+(a+b)n∑x=0

(x−n−1)P(X = x).

D’ou

E(Rn+1)−E(Rn) = b− (a+b)n

∑x=0

P(X = x) = b− (a+b)P(X < n+1).

Le revenu annuel augmente tant que E(Rn+1)−E(Rn)� 0, la valeur n∗ optimi-sant le stock sera donc obtenue pour la premiere valeur n telle que E(Rn+1)−E(Rn)< 0, c’est-a-dire :

b− (a+b)P(X < n+1)< 0,

et donc on cherche la premiere valeur n telle que : P(X < n+1)> ba+b .

(3) On a maintenant b= 2a et P(X = x) = pqx avec p= 0,1 et q= 1− p=0,9.

P(X < n+ 1) =n∑x=0

P(X = x) = p(

1−qn+1

1−q)= 1− qn+1 < 2

3 si et seulement

si qn+1 > 13 , soit n+1 >− ln(3)

ln(0,9) ou encore n> 9,4 ; d’ou n∗ = 10.

Exercice 2.8(1) P([Y = k]) = P([k � X < k+ 1] = FX (k+ 1)−FX (k) = (1− e−λ (k+1))−

(1− e−λk), soit P([Y = k]) = e−λk(1− e−λ ) pour tout k ∈ N. Donc Y suit la loigeometrique G0(1− e−λ ).

E(X) = 1λ , V (X) =

1λ 2 et E(Y ) = e−λ

1−e−λ = 1eλ−1

.

(2) Pour tout u ∈ [0,1[,

P([X−Y � u]) = P

(⋃k∈N

[X−Y � u]∩ [Y = k]

)= ∑

k�0

P([k � X � k+u]).

Page 54: Yves caumel (auth.) probabilites et processus

42 Probabilites et processus stochastiques

P([k�X � k+u]) =FX (k+u)−FX (k)= e−λk−e−λ (k+u) = e−λk(1−e−λu), et∑k�0

e−λk = 11−e−λ :

FX−Y (u) = 1−e−λu1−e−λ pour u ∈ [0,1[ et fX−Y (u) = λ e−λu

1−e−λ 1[0,1[(u).

Exercice 2.9

(1) P([h(X)� y]) = P([X � h−1(y)]) d’ou

fY (y) =ddy

FX (h−1(y)) =

ddy

(h−1(y)) fX (h−1(y)).

Si fX (x) = 1π 1]− π

2 ,π2 [(x), h−1(y) = arctan(y), fY (y) = 1

π(1+y2)1]−∞,+∞[(y).

Exercice 2.10

(1) Y = aX +b ; FY (y) = P([Y � y]) = P([aX+b� y]) = P([aX � y−b]).

Si a> 0, FY (y) =P([

X �y−ba

])=FX

(y−ba

)et fY (y) =F ′Y (y) =

1a fX(y−ba

).

Si a< 0, FY (y) = P([

X �y−ba

])= 1−P

([X < y−b

a

])= 1−FX

(y−ba

), car

FX est continue et P([

X = y−ba

])= 0. On a alors fY (y) = F ′Y (y) =− 1

a fX(y−ba

).

Conclusion : fY (y) =1|a| fX

(y−ba

).

(2) Si X∗ est de loi N (0,1), fX∗(x) =1√2π

exp

(−x2

2

),

fσX∗+m(y) =1

σ√

2πexp

(− (y−m)2

2σ2

).

Exercice 2.11

FT (t) = P([T � t]) = P([|X |� t]).

Si t � 0, FT (t) = 0.Si t > 0, FT (t) = P([−t � X � t]) = FX (t)−FX (−t) :

fT (t) = F ′T (t) = fX (t)+ fX (−t).

Finalement, fT (t) = [ fX (t)+ fX (−t)] 1]0,+∞[(t).

Exercice 2.12

Si T est le temps du parcours, on a T = X + 4×N, ou X suit (approxi-mativement) la loi normale N (50,4), et N la loi binomiale B

(20, 1

20

)(il y a

vingt portes, chacune ayant la probabilite p= 120 d’etre accrochee. On cherche

Page 55: Yves caumel (auth.) probabilites et processus

2. Variables aleatoires 43

P([T < 52]). On a :

P([T < 52]) = P([X+4N < 52]) = P

(20⋃n=0

[X+4N < 52]∩ [N = n]

)

= P

(20⋃n=0

[X+4n< 52]∩ [N = n]

)= P

(20⋃n=0

[X < 52−4n]∩ [N = n]

)

=20

∑n=0

P([X < 52−4n]∩ [N = n]).

Comme X et N sont independantes, on a

P([T < 52]) =20

∑n=0

P([X < 52−4n])P([N = n]).

X suit la loi N (50,4) donc X−502 suit la loi N (0,1), de fonction de

repartition Φ, donnee par les tables pour x > 0, (avec, pour x < 0, Φ(x) =1−Φ(−x)). Ainsi :

P([X < 52−4n]) = P

([X−50

2<

52−4n−502

])=Φ(1−2n)

et P([N = n]) =Cn20p

n(1− p)20−n =Cn20

(1

20

)n ( 1920

)20−net donc :

P([T < 52]) =20

∑n=0

Φ(1−2n)Cn20

1920−n

2020 .

Pour n= 0,Φ(1)≈ 0,841, pour n= 1,Φ(−1)≈ 0,159, pour n= 2,Φ(−3)≈0,001 et pour n = 3, Φ(−5) est negligeable. On peut donc negliger les valeursde n= 3 a n= 20, ce qui allege agreablement les calculs, puisqu’il ne reste quetrois termes a calculer.

P([T < 52])≈Φ(1)

(1920

)20

+20Φ(−1)1919

2020 +190Φ(−3)1918

2020 ≈ 0,37.

Exercice 2.13(1) X ∼B

(N, v

V

)qu’on approche par la loi normale

N(NvV ,σ2 = v

V

(1− v

V

)N)ou N

V est le nombre de molecules par litre.

(2) σXE(X) ≈ 1√

N.v/V. Calculons P

( |X−E(X)|E(X) < 0,01

):

NV × v est de l’ordre de 1023 et σ ≈

√1023 ≈ 3,1.1011, d’ou il vient :(

X−1023

3,1.1011

)∼N (0,1) et la probabilite cherchee vaut P([−3,1.1011 <Y < 3,1.1011])=

Page 56: Yves caumel (auth.) probabilites et processus

44 Probabilites et processus stochastiques

1−α, avec α de l’ordre de 10−100, d’ou, a l’echelle du temps humain, l’impos-sibilite de s’asphyxier.

Exercice 2.14(1)

∫R fX (x)dx=

K(xm,α)αxαm

= 1 donc K(xm,α) = αxαm.

(2) IE(Xn) fini si et seulement si α+1−n> 1, c’est-a-dire α > n. D’ou :

IE(Xn) = αxαmα−n .

Page 57: Yves caumel (auth.) probabilites et processus

Chapitre 3

Vecteurs aleatoires

Les vecteurs aleatoires permettent de modeliser des phenomenes et dessystemes dont la description necessite plusieurs v.a.

3.1 Un exemple

On lance un projectile ponctuel (idealisation concevable a l’epoque dulaser et de la haute resolution) sur une cible circulaire D de rayon 1 centree en0, selon une probabilite uniformement repartie sur la cible.

Pour tout borelien B du disque D, P((X ,Y ) ∈ B) = Aire(B)π , ou (X ,Y ) sont

les coordonnees du point d’impact sur la cible.La probabilite PX ,Y du vecteur aleatoire (X ,Y ) est definie par la densite

constante sur le disque :

fX ,Y (x,y) =1π1D(x,y).

Donc, par analogie avec la definition de la densite d’une v.a. absolument conti-nue, on a :

P((X ,Y ) ∈ B) =∫BfX ,Y (x,y)dxdy=Aire(B)/π.

Calculons la probabilite que X ∈ [a,b]⊂ [−1,1].Soit le borelien B, defini comme intersection de la bande verticale de

support [a,b] avec D.

P(X ∈ [a,b]) = P((X ,Y ) ∈ B)

=∫BfX ,Y (x,y)dxdy

=1π

∫ b

a

(∫ +√

1−x2

−√

1−x2dy

)dx=

∫ b

a

√1− x2dx.

Page 58: Yves caumel (auth.) probabilites et processus

46 Probabilites et processus stochastiques

L’egalite precedente etant valide pour tout intervalle [a,b] ⊂ [−1,1], onen deduit que X a pour densite :

√1− x2 1[−1,1](x).

Une demonstration analogue permettrait d’etablir : fY (y) = 2π

√1− y2 1[−1,1](y).

3.2 Description des vecteurs aleatoires

3.2.1 Generalites

Dans ce qui suit, on designera par βk la tribu des boreliens de Rk.

Definition 3.1 Un vecteur aleatoire reel de dimension k est un vecteur dontles composantes sont des v.a. reelles ; il est decrit par une applicationmesurable X = (X1, ....,Xk) definie sur un espace probabilise (Ω,T ,P) a valeursdans (Rk,βk). Pour tout evenement B appartenant a la tribu βk, X

−1(B) ∈ T .

Definition 3.2 La loi de probabilite PX dite loi conjointe de X est definiesur (Rk,βk) par :

∀B ∈ βk, PX (B) = P((X1, ..,Xk) ∈ B).

La fonction de repartition FX est definie par :

∀(x1,x2, ...,xk) ∈ Rk FX (x1, ...,xk) = P(X1 � x1, ...,Xk � xk).

La connaissance des lois marginales des (Xi)i ne suffit evidem-ment pas pour determiner la loi conjointe du vecteur (X1,X2, · · · ,Xk)et plus generalement celle d’une v.a. h(X1, · · · ,Xk) fonction des compo-santes (Xi)i.

Definition 3.3 Independance des composantes d’un vecteur aleatoire.Les v.a. X1,X2, ...,Xk sont mutuellement independantes, si pour tout

k-uplet de boreliens (B1,B2, ...,Bk) de Rk :

P(X1 ∈ B1,X2 ∈ B2, ...,Xn ∈ Bk) = P(X1 ∈ B1)P(X2 ∈ B2)...P(Xn ∈ Bk).

Interpretation : les evenements decrits par les v.a. (Xi)i=1,··· , k sont in-dependants entre eux ; autrement dit, la realisation d’un sous-ensemble quel-conque d’entre eux, n’a aucune influence sur la realisation des autres.

Theoreme 3.1 Si X est un vecteur aleatoire de dimension n de loi PX et si ϕest une application reelle definie sur Rk telle que E(|ϕ(X)|)<+∞, alors :

E(ϕ(X)) =∫Rkϕ(x)dPX (x).

Page 59: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 47

Application : soient le vecteur X = (X1,X2) de loi P(X1,X2), et ϕ definie parϕ(u,v) = u+ v.

E(X1 +X2) =∫R2(x1 + x2)dP(X1,X2)(x1,x2),

=∫R2

x1dP(X1,X2)(x1,x2)+∫R2

x2dP(X1,X2)(x1,x2),

=∫R

x1dPX1(x1)+∫R

x2dPX2(x2) = E(X1)+E(X2).

Definition 3.4 L’esperance d’un vecteur aleatoire X = (X1, . . . ,Xk) est de-finie par le vecteur :

(E(X1),E(X2), . . . ,E(Xk))note= E(X).

Theoreme 3.2 (Caracterisation de l’independance des composantesd’un vecteur aleatoire.)

X1,X2, ...,Xk sont independantes si et seulement si pour tout n-uplet (ϕ1, ...,ϕk)de fonctions bornees de R dans R :

E(ϕ1(X1)...ϕk(Xk)) = E(ϕ1(X1))...E(ϕk(Xk)).

Theoreme 3.3 (Linearite de l’esperance mathematique)

(a) Si X et Y sont des vecteurs aleatoires de meme dimension :

E(X+Y ) = E(X)+E(Y ).

(b) ∀a ∈ R, E(aX) = aE(X).

Definition 3.5 A tout couple de v.a. (X,Y) admettant des moments d’ordredeux, on associe la covariance de ses composantes definie par :

E(XY )−E(X)E(Y )note= Cov(X ,Y ).

Theoreme 3.4 Etant donne un couple de v.a. (X,Y) admettant des momentsd’ordre deux, on a :

(a) V (X+Y ) =V (X)+V (Y )+2(E(XY )−E(X)E(Y )) ;

(b) si X ,Y sont independantes : Cov(X ,Y ) = 0 et V (X+Y ) =V (X)+V (Y ).

Page 60: Yves caumel (auth.) probabilites et processus

48 Probabilites et processus stochastiques

Preuve(a) V (X+Y ) = E((X+Y )2)− (E(X)+E(Y ))2 qu’il suffit de developper.(b) Appliquons le theoreme 3.1 dans le cas ou ϕ(x,y) = xy :

E(XY ) =∫R2

xydP(X ,Y )(x,y).

Puis, par independance de X et Y ,

E(XY ) =∫R2

xydPX (x)dPY (y) =∫R

xdPX (x)∫R

ydPY (y) = E(X)E(Y )

d’ou la proposition (b), grace au developpement de V(X+Y). �

3.1 ♠ Optimisation d’un multisenseurOn estime un parametre p inconnu a l’aide de deux systemes de mesure

dont les estimations sont donnees par les v.a. X1 et X2 :

X1 = p+U1 et X2 = p+U2,

ou les v.a.Ui representent des erreurs independantes centrees et de variances σ2i .

Etant donne l’estimateur de p, note p, de la forme p = aX1 +bX2 ; determinerles nombres a et b de maniere que E( p) = p ( p est dit sans biais) et que V ( p∗)soit minimal.

Definition 3.6 Independance des vecteurs aleatoiresLes vecteurs aleatoires X1,X2, ...,Xk, de dimensions respectives n1, ...,nk

sont independants, si pour tout k-uplet (B1,B2, ...,Bk) de boreliens de Rn1× . . .×Rnk :

P(X1 ∈ B1,X2 ∈ B2, . . . ,Xk ∈ Bk) = P(X1 ∈ B1)P(X2 ∈ B2) . . .P(Xk ∈ Bk).

L’independance de variables ou de vecteurs aleatoires ne se conservepas necessairement par transformation fonctionnelle, comme l’illustre l’exemplesuivant.

Exemple 3.1 Considerons : U = X et V = (sign(X)Y ), ou X et Y sont des v.a.independantes de meme loi : 1

3δ−1 +23δ1.

Demontrons que les v.a. U et V sont dependantes.

P(U = 1,V = 1) = P(X = 1 et sign(X)Y = 1) = 23 .

23 = 4

9 ;P(U = 1) = 2

3 .

P(V = 1) = P((sign(X) = 1 et Y = 1) ou (sign(X) =−1 et Y =−1))

= P((sign(X) = 1 et Y = 1))+P(sign(X) =−1 et Y =−1))

=23.23+

13.13=

59

On en deduit P(U = 1)P(V = 1) = 1027 �= P(U = 1,V = 1) et donc la depen-

dance de U et V .

Page 61: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 49

3.2.2 Vecteurs discrets

Un vecteur aleatoire X discret de dimension k prend ses valeurs dansun ensemble au plus denombrable E inclus dans Rk.

Definition 3.7 La loi PX , dite loi conjointe du vecteur X , est definie par :

∀x ∈ E, PX (x1, . . . ,xk)de f= P(X1 = x1, . . . ,Xk = xk).

Theoreme 3.5 La loi PXi de Xi, dite loi marginale de Xi est definie par :

PXi(xi) = P(Xi = xi) = ∑x1∈E1

. . . ∑xi−1∈Ei−1

∑xi+1∈Ei+1

. . . ∑xk∈Ek

PX (x1,x2, . . . ,xk).

Preuve

P(Xi = xi) = P(X1 ∈ E1, ...,Xi = xi, ...,Xk ∈ Ek)

= ∑x1∈E1

. . . ∑xi−1∈Ei−1

∑xi+1∈Ei+1

. . . ∑xk∈Ek

PX (x1,x2, . . . ,xk).

3.2 ♠♠ On tire des boules l’une a la suite de l’autre, sans remise, dans uneurne contenant 2 boules blanches et N boules noires, jusqu’a ce que sorte ladeuxieme boule blanche ; soient les v.a. X et Y , egales aux numeros de tiragedes deux blanches.

(1) Loi et esperance de X ? [rappel : ∑Nk=1 k

2 = N(N+1)(2N+1)6 ].

(2) Par un raisonnement simple, determiner la loi de (X ,Y ). Dessiner lesupport du vecteur aleatoire (X ,Y ). Calculer la loi et l’esperance de Y .

On pourra generaliser l’etude precedente au cas de N noires et de Bblanches.

Exemple 3.2 Etude du vecteur multinomial

Le vecteur multinomial est l’extension de dimension k de la variablebinomiale. Soit l’espace fondamental Ω= {A1,A2, . . . ,Ak}, ou chaque evenementAi a la probabilite de realisation pi, sachant que ∑ pi = 1. On procede a n tiragesavec remise dans Ω : le vecteur aleatoire (X1, . . . ,Xk) compte les realisationsrespectives (x1,x2, . . . ,xk) des evenements A1, . . . ,Ak. D’un point de vue pratique,ce modele probabiliste decrit un sondage avec remise par echantillons de taillen, dans une population partitionnee en k sous-ensembles, decrivant par exempleles classes socio-professionnelles d’un pays ou d’une region.Determinons : P(X1 = x1, . . . ,Xk = xk).

Page 62: Yves caumel (auth.) probabilites et processus

50 Probabilites et processus stochastiques

Calculons le nombre d’echantillons realisant l’evenement (x1 fois A1, x2

fois A2, . . . , xk fois Ak). Compte tenu de l’independance des tirages, on demontreque le nombre de tels echantillons est egal a :

Cx1n ·Cx2

n−x1· · ·Cxk

n−(x1+···+xk−1)=

n!x1!x2! . . .xk!

.

Or la probabilite de tirer un echantillon de la forme ci-dessus est egale apx1

1 . . . . pxkk .

D’ou : P(X1 = x1, . . . ,Xk = xk) =n!

x1! . . .xk!px1

1 . . . pxkk .

On verifie facilement que Xi est binomiale de loi B(n, pi) et que

P(X1 = x1, . . . ,Xk = xk) �= P(X1 = x1). . . . .P(Xk = xk),

pour tout (x1,...,xk) de somme n, ce qui equivaut a la dependance desv.a. (Xi)i=1,...k.

Definition 3.8 Le vecteur aleatoire X = (X1, . . . ,Xk) est dit multinomial de pa-rametres (pi)i, si pour tout k-uplet (x1, . . . ,xk) a valeurs dans {0,1, ..,n} et telsque ∑k

i=1 xi = n :

P(X1 = x1, . . . ,Xk = xk) =n!

x1! . . .xk!px1

1 . . . pxkk ,

ou les pi sont des reels positifs de somme egale a un.

Definition 3.9 Matrice de covariance d’un vecteur aleatoire X

Covariances des couples de vecteurs (Xi,Xj) :

E(XiXj)−E(Xi)E(Xj)note= Cov(Xi,Xj).

Matrice de covariance du vecteur X , notee Cov(X) ou ΓX :

ΓX = E(X .tX)−E(X).tE(X).

ΓX =

⎛⎜⎜⎜⎜⎝σ2

1 Cov(X1,X2) · · · Cov(X1,Xk)... σ2

2

......

. . ....

Cov(Xk,X1) · · · · · · σ2k

⎞⎟⎟⎟⎟⎠ .

Definition 3.10 Les composantes Xi et Xj sont dites decorrelees si :

Cov(Xi,Xj) = 0.

Page 63: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 51

Theoreme 3.6 (Proprietes de l’esperance et de la matrice de cova-riance des vecteurs aleatoires) Soit X un vecteur aleatoire de dimensionk :

P1. La forme quadratique definie par t x Cov(X) x (x∈Rk) est symetrique, semi-definie positive.

P2. Pour toute application lineaire T de Rk sur lui-meme :

E(T (X)) = T (E(X)) ;, Cov(T (X)) = TCov(X) tT.

P3. Si X et Y sont des vecteurs de meme dimension, a et b des reels quelconques,alors :

Cov(aX +bY ) = a2Cov(X)+b2Cov(Y )+2abCov(X ,Y ).

P4. V (∑Xi) = ∑V (Xi) +∑i∑ j cov(Xi,Xj).

Si les composantes Xi sont non correlees deux a deux : V (∑i Xi)=∑iV (Xi).

Preuve

(P1) Symetrie : Cov(Xi,Xj) = Cov(Xj,Xi).Semi-definie positivite : pour tout u= (u1,u2, · · · ,uk)

tu Cov(X) u = ∑i∑jui u j cov(Xi,Xj)

= E((∑iui(Xi−mi))(∑

ju j(Xj−mj)) = E(Y 2),≥ 0

ou Y = ∑i ui(Xi−mi).

(P2) Soit T = (ti j)i, j alors TX = (∑ j ti jXj)i :

E(TX) = (∑jti jE(Xj))i = TE(X)

Cov(TX) = E(TX . t(TX))−E(TX) tE(TX)

= E(TX .tX .tT )−TE(X) tE(X) tT = TCov(X) tT.

(P3)

(a) Cov(aX) = a2Cov(X)

(b ) Cov(X+Y ) =def

E((X+Y )t(X+Y ))−E(X+Y )tE(X+Y )

= Cov(X)+Cov(Y )+

E(XtY )−E(X)tE(Y )+E(YtX)−E(Y )tE(X)

= Cov(X)+Cov(Y )+2Cov(X ,Y ).

Page 64: Yves caumel (auth.) probabilites et processus

52 Probabilites et processus stochastiques

(P4) Evident.

Exemple 3.3 Etude du vecteur multinomial (suite et fin).

Xi est de loi binomiale B(npi, npi(1− pi)), d’ou E(X) = t(np1, ...,npk).

Determination de la matrice de covariance de X :

posons U (i)j =

{1 si le i-ieme tirage fait apparaıtre Aj ;0 sinon.

Il est facile de verifier que (X1,X2, . . . ,Xk) =∑i=1(U(i)1 , . . . ,U (i)

k ) ou les U (i)j

sont des v.a. indicatrices des evenements Aj pour chacun des n tirages ; les

vecteurs U (i) = (U (i)1 , . . . ,U (i)

k ) sont independants.

D’autre part, E(U (i)m U (i)

r ) = 0 si m �= r, d’ou :

Cov(U (i)m ,U (i)

r ) =−E(U (i)m )E(U (i)

r ) =−pmpr. (∗)

On en deduit : cov(Xm,Xr) =−npmpr :

Cov(X) = n

⎛⎜⎝ p1(1− p1) . . . −p1pk...

. . ....

−p1pk . . . pk(1− pk)

⎞⎟⎠ .

3.2.3 Vecteurs absolument continus

Definition 3.11 La loi PX du vecteur absolument continu X = (X1,X2, ...Xk) estdefinie par sa densite fX (x1,x2, . . . ,xk) :

∀B ∈ βk PX (B) =∫BfX (x1,x2, ....,xk)dx1dx2...dxk.

La densite fX est une fonction positive de Rk dans R, d’integrale egale a l’unite.

Theoreme 3.7 La densite marginale fXi de Xi est definie par :

fXi(xi) =∫Rk−1

fX (x1, · · · ,xk)dx1 · · ·dxi−1 dxi+1 · · ·dxk.

Theoreme 3.8 Soient X un vecteur aleatoire de dimension k, de densite fX , etune fonction mesurable h de Rk dans R telle que E(h(X)) existe ;

E(h(X)) =∫Rk

h(x) fX (x)dx.

Page 65: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 53

Theoreme 3.9 (Derivation de l’esperance mathematique d’une fonc-tion parametree de v.a.)

Soient X un vecteur aleatoire de dimension k, de densite fX , et g unefonction reelle definie sur Rk× I derivable par rapport a t variant dans l’inter-valle I, et telle que pour tout t ∈ I, la fonction fX (x)g(x, t) soit integrable par

rapport a x, et∣∣∣ ∂g(x,t)∂ t

∣∣∣ soit bornee par une fonction integrable par rapport a x,

alors :∂E(g(X , t))

∂ t= E

(∂X(g(X , t))

∂ t

).

(Ce resultat est une application directe du theoreme classique de deriva-tion d’une integrale parametree.)

Calcul de la probabilite d’evenements de la forme (X � Y ) ou(X+Y � t)

P(X ,Y ) est la loi du couple (X ,Y ) :

(1) P(X � Y ) = P(X ,Y )((x,y) | x� y) =∫ ∫

x≤y dP(X ,Y )(x,y).

Si (X ,Y ) est de densite f(X ,Y ) : P(X � Y ) =∫ ∫

x≤y f(X ,Y )(x,y)dxdy.

Application : (X ,Y ) designe les durees de vie independantes de deuxcomposants electroniques, de densites exponentielles E (μ) et E (ν). Supposonsque les deux composants sont mis en service au meme instant ; determinons laprobabilite pour que le composant de duree de vie X tombe en panne le premier.

P(X � Y ) =∫ ∫

x�yμ e−μx ν e−νy dxdy

= μν∫ +∞

0(e−νy

∫ y

0e−μx dx)dy=

μ

μ+ν.

Par symetrie : P(Y � X) = 1−P(X < Y ) = 1− μμ+ν = ν

μ+ν .

(2) FX+Y (t) = P(X ,Y )((x,y) | x+ y� t)

=∫ ∫

x+y�tdP(X ,Y )(x,y)

=∫ ∫

x+y�tf(X ,Y )(x,y)dxdy.

Supposons toujours l’independance de X et Y :∫ ∫x+y�t

fY (y) fX (x)dxdy=∫ +∞

−∞( fY (y)

∫ t−y

−∞fX (x)dx)dy

=∫ +∞

−∞fY (y)FX (t− y)dy.

Page 66: Yves caumel (auth.) probabilites et processus

54 Probabilites et processus stochastiques

Si FX est derivable sur son domaine de definition,

fX+Y (t) =ddt(FX+Y (t)) =

ddt

(∫ +∞

−∞fY (y)FX (t− y)dy

),

egal, par application du theoreme de derivation sous le signe somme, a :∫ +∞

−∞fY (y)

ddtFX (t− y)dy=

∫ +∞

−∞fY (y) fX (t− y)dy= fX ∗ fY (t).

On vient de demontrer le theoreme important suivant, qui fera l’objet d’unedemonstration differente dans le chapitre 4 (theoreme 4.5).

Theoreme 3.10 La densite fX+Y de la somme de deux v.a. independantes X ,Yest egale au produit de convolution fX ∗ fY des densites des v.a.

3.3 ♠♠ Probleme de Buffon (1707-1788)Le comte de Buffon (1707-1788), issu d’une famille de noblesse de robe,

est plus connu pour ses travaux en sciences de la nature, que pour ceux qu’ila consacres aux mathematiques. Pourtant il a laisse a la posterite un memoireintitule Sur le jeu du franc-carreau, dans lequel il calcule les probabilites qu’unecu jete sur un parquet pave de carres egaux, ne coupe pas de pave ou en coupeun ou plusieurs. La formulation moderne de ce probleme est la suivante : onjette au hasard une aiguille de longueur l sur un parquet forme de lames hori-zontales de largeur L (l < L) et de longueur infinie.

Calculer la probabilite pour que l’aiguille soit a cheval sur deux lames.[Indication : on parametre l’aiguille par la distance X separant son milieu

O de la droite (en pointille) partageant la lame de parquet en deux parties egaleset par l’angle θ qu’elle fait avec la verticale.]

L/2

L/2

X

O

θ

En inferer une methode permettant d’obtenir une approximation (lente !) de π,mise en œuvre depuis une cinquantaine d’annees au palais de la Decouverte aParis. Le probleme dit de Buffon-Synge consiste a determiner l’esperance dunombre d’intersections d’une corde souple de longueur � jetee sur le plancher.

Page 67: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 55

3.3 Independance et correlation

Theoreme 3.11 Si le vecteur aleatoire X = (X1,X2, ...,Xk) est de densite fX etles v.a. Xi de densites respectives fXi , alors :

(Independance des Xi) ⇐⇒ fX (x1, ...,xk) =k

∏i=1

fXi(xi) ∀(x1, ...,xk).

Preuve (⇐=) PX (B1× . . .×Bk) = P(X1 ∈ B1, . . . ,Xk ∈ Bk) =∫B1×...×Bk fX (x)dx

=∫B1×...×Bk fX1(x1) . . . fXk(xk)dx1 . . .dxk =

∫B1

fX1(x1)dx1. . . . .∫Bk

fXk(xk)dxk.= PX1(B1) . . .PXk(Bk). La reciproque est triviale. �

3.4 ♠ On vise une cible de rayon R, centree en 0 : supposons que les coordon-nees (X ,Y ) du point d’impact sont de loi normale N (0,σ = 0,6.R), X et Y etant

independantes, donc de densite fX ,Y (x,y) = fX (x) fY (y) = 12π(0,6.R)2 e

− (x2+y2)2(0,36)R2 .

(1) Probabilite pour que l’impact soit sur la cible ? La calculer pourR= 1.

(2) Quel est le nombre minimal de tirs garantissant l’atteinte de la cibleau moins une fois, avec 95% de certitude ?

Theoreme 3.12 Soit le vecteur X = (Xi)i=1,··· , k de composantes independantestelles que E(|Xi|)<+∞ pour tout i, alors :

E(|X1X2 · · ·Xk|)<+∞ et E(X1X2 · · ·Xk) =k

∏i=1

E(Xi).

Preuve (dans le cas d’un vecteur continu) :

E(X1 · · ·Xk) =∫Rk

x1 · · ·xk fX (x1, · · · ,xk)dx1 · · ·dxk

=

(∫x1 fX1(x1)dx1

)· · ·(∫

xk fXk(xk)dxk

)=

k

∏i=1

E(Xi).

Theoreme 3.13 (L’independance de deux v.a. entraıne leurdecorrelation)

(X1,X2 independantes) =⇒ (Cov(X1,X2) = 0).

La reciproque (Cov(X1,X2) = 0 =⇒ X1,X2 independantes) n’est vraie quesi (X1,X2) est un vecteur gaussien ou un vecteur de Bernoulli. (On rappelle

qu’un vecteur de Bernoulli (X1,X2) prend ses valeurs dans l’espace {0,1}2.)

Page 68: Yves caumel (auth.) probabilites et processus

56 Probabilites et processus stochastiques

Preuve X1,X2 independants ⇒ E(X1X2)−E(X1)E(X2) = 0. �

Exemple 3.4 Variables dependantes et pourtant decorrelees

Soit Φ une v.a. uniforme sur [0,2π] ; posons X = cos(Φ) et Y = sin(Φ).Le support de (X ,Y ), qui est le cercle unite, n’est pas un produit carte-

sien, d’ou la dependance de X et Y , bien que leur covariance egale a E( sin2Φ2 )−

E(cos(Φ)).E(sin(Φ)) soit nulle.

Theoreme 3.14 (Condition necessaire d’independance des composan-tes)

(Independance des Xi) =⇒ (support(X1, . . . , Xk) =n⊗

i=1supports des Xi)).

Remarque 3.1 En pratique, on utilisera souvent ce theoreme sous sa formecontraposee comme condition suffisante de dependance : si le support de (X1,. . . , Xk) est different d’un pave rectangle egal au produit cartesien des supportsdes Xi alors les composantes Xi sont dependantes.

Definition 3.12 Le coefficient de correlation lineaire de X1 et X2, noteρX1,X2 , est egal a la covariance des v.a. normalisees ( X1

σX1, X2σX2

) :

ρX1,X2 = cov(X1

σX1

,X2

σX2

) =cov(X1,X2)

σX1σX2

.

Theoreme 3.15 (Proprietes du coefficient de correlation lineaire dedeux v.a.) (1) Pour tout couple de v.a. (X1,X2) : ρX1,X2 | ≤ 1.

(2) ρX1,X2 = ±1 ⇐⇒ Il existe une relation affine entre X1 et X2 : X1 etX2 sont dites colineaires.

(3) ρX1,X2 = 0 ⇐⇒ Aucune relation affine entre X1 et X2 : X1 et X2 sontdites decorrelees.

En pratique, ρX1,X2 est utilise comme un indice de dependanceaffine de deux v.a.

Preuve(1) Soit le vecteur centre (Y1,Y2) :

E((Y2−aY1)2) = a2E(Y 2

1 )−2aE(Y1Y2)+E(Y 22 )≥ 0, ∀a ∈ R.

Le discriminant de l’equation de variable a est ≤ 0, ce qui entraıne l’inegalitede Cauchy-Schwarz :

|E(Y1Y2)|�√E(Y 2

1 )E(Y22 ).

Page 69: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 57

Appliquons cette inegalite aux v.a. centrees Y1 = (X1−E(X1)) et Y2 =(X2−E(X2)) :

|ρX1,X2 |=∣∣∣∣Cov(X1,X2)

σX1σX2

∣∣∣∣≤ 1.

(2) Remarquons que (∗) est une egalite dans le seul cas ou E((Y2−aY1)2) = 0,

equivalent a (Y2 = aY1 presque surement).

Dans ce dernier cas,∣∣∣Cov(X1,X2)

σX1 .σX2

∣∣∣= 1 et X2−E(X2)σX2

=±1.X1−E(X1)σX1

. �

Remarque 3.2 Deux v.a. U et V , toutes deux fonctions du meme vecteurde composantes independantes (X1, . . . ,Xk) ne sont pas necessairement depen-dantes.C’est par exemple le cas ou X1 et X2 sont des v.a. independantes uniformementdistribuees sur [0,1] ; on etablira (voir chapitre suivant) que :

U = (−2lnX1)12 cos(2πX2) et V = (−2lnX1)

12 sin(2πX2) sont des variables gaus-

siennes N (0,1) independantes utiles pour generer des v.a. gaussiennes.

3.5 ♠♠ Formules classiques des erreurs relativesX et Y sont des v.a. reelles d’esperances et de variances connues ; soit

Z = f (X ,Y ) ou f ∈C 2(R2,R). Il s’agit de trouver une methode d’approximationde E( f (X ,Y )) et de V ( f (X ,Y )). On rappelle que f (x,y) admet le developpementa l’ordre deux au voisinage du point (x0,y0), de la forme :

f (x0,y0)+(x− x0) f′x(x0,y0)+(y− y0) f

′y(x0,y0)

+12(x− x0)

2 f ′′xx(x0,y0)+12(y− y0)

2 f ′′yy(x0,y0)+(x− x0)(y− y0) f′′xy(x0,y0).

(1) Determiner une approximation de E(Z). L’appliquer au cas Z = X .Y .(2) Calculer E(X2Y 2), puis V (XY ) ; dans le cas ou X et Y sont independantes,donner une approximation de

σX ,YE(XY ) , si σX

E(X) et σYE(Y ) sont � 1, et retrouver

l’expression classique utilisee par les physiciens, de l’erreur relative d’un produitde valeurs aleatoires.

3.4 Fonctions generatrice et caracteristique

Ces deux concepts sont d’une grande efficacite operatoire lorsqu’il s’agitde determiner les lois de sommes ou de differences de variables aleatoiresindependantes, ou des limites de suites de variables ou de vecteurs aleatoires.

3.4.1 Fonction generatrice

Definition 3.13 La fonction generatrice d’un vecteur aleatoire (X1, ...,Xk) avaleurs entieres positives est definie par :

∀i, ∀zi ∈ D(0,1), g(X1,...,Xk)(z1, ....,zk) = E(zX11 zX2

2 ...zXkk ).

Page 70: Yves caumel (auth.) probabilites et processus

58 Probabilites et processus stochastiques

On demontre facilement des proprietes analogues a celles de la fonction genera-

trice d’une v.a. ; par exemple E(Xi) =∂g(X1,...,Xk)

(z1,...,zk)

∂ zi|(z1=z2=···=zk=1) .

3.4.2 Fonction caracteristique

La fonction caracteristique d’une variable ou d’un vecteur aleatoire quel-conque X est la transformation de Fourier (a un coefficient multiplicatif pres)de sa mesure de probabilite, qui existe toujours et beneficie de ses puissantesproprietes. A l’instar de la fonction generatrice, elle caracterise completementla loi de probabilite et en contient donc toute l’information.

Definition 3.14 La fonction caracteristique d’un vecteur aleatoire X =(X1, ...,Xk) de loi PX est definie par :

∀t ∈ Rk, E(ei<X ,t>) =

∫Rk

ei<x,t> dPX (x1, ...,xk) =(notee) ΦX (t1, ..., tk).

(< X , t > designe le produit scalaire ∑ jt j Xj). Si X est une v.a. discrete

de loi P(X = x j) = p j, ∀ j ∈ J, alors :

∀t ∈ R, ΦX (t) = ∑j∈J

eitx j p j.

Si X est une v.a. de densite fX alors :

∀t ∈ R, ΦX (t) =∫ +∞

−∞eixt fX (x)dx.

Si X est un vecteur aleatoire de densite fX (x1, . . . ,xk), sa fonction caracteris-tique est definie par :

ΦX (t1, . . . , tk) =∫Rk

ei∑kj=1 t jx j fX (x1, . . . ,xk)dx1 . . .dxk.

Exemple 3.5(1) X1 variable de Bernoulli, de loi de probabilite PX1 = pδ1 +(1− p)δ0 :

ΦX1(t) = ei.1.t p+ ei.0.t(1− p) = (1− p)+ peit .

(2) X2 variable N (0,1) : ΦX2(t) =e−

t22√

∫ ∞−∞ e

− 12 (x−it)2

dx (integrale complexe que

l’on calcule sur un contour rectangle standard centre en 0), est egale a :

ΦX2(t) = e−t22 .

Comme son nom l’indique, la fonction caracteristique d’une variable oud’un vecteur aleatoire caracterise sa loi.

Page 71: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 59

Theoreme 3.16 Etant donne deux vecteurs aleatoires X et Y, de meme di-mension et de fonctions caracteristiques ΦX et ΦY :

(ΦX =ΦY )⇐⇒ (X et Y ont meme loi).

Preuve Consequence de la bijectivite de la transformation de Fourier. �

Theoreme 3.17 La fonction caracteristique d’une somme de v.a. indepen-dantes X1, X2, . . ., Xk de lois quelconques est egale au produit des fonctionscaracteristiques :

∀t ∈ R, Φ(∑kj=1 Xj)

(t) =k

∏j=1

ΦXj(t).

Preuve Φ∑ j X j(t) = E[ei∑ j X jt ] =∏ j E[eiXjt ] =∏k

j=1ΦXj(t). �

3.6 ♠ Appliquer le theoreme precedent pour montrer que la somme de nvariables de Bernoulli (Bj) j=1,··· ,n, independantes de parametre p, est une v.a.binomiale B(n, p).

Theoreme 3.18 (Moments d’une v.a.)Si E(|X |n) existe et est fini, le moment d’ordre n est egal a :

E(Xn) =1indnΦX (t)

dtn|(t=0) .

Preuve Le theoreme de derivation de l’esperance implique que dΦX (t)dt

= E( ddt (e

itX ))) = iE(X eitX ), d’ou , 1idΦX (t)

dt t=0 =iE(X)

i = E(X).Demonstration analogue pour le calcul de E(Xn). �

3.7 ♠ Redemontrer grace a la fonction caracteristique que :

X∗ est N (0,1)⇐⇒ X = σX∗+m est N (m,σ2).

Pour determiner la loi d’une v.a. Y = h(X1, . . . ,Xn), on verra dans le cha-pitre suivant consacre au calcul de lois qu’il peut etre utile de determiner lafonction caracteristique ΦY (t), puis d’en calculer l’inverse de Fourier, grace autheoreme ci-dessous, pour en deduire la loi PY .

Page 72: Yves caumel (auth.) probabilites et processus

60 Probabilites et processus stochastiques

Theoreme 3.19 (Inversion de la fonction caracteristique)(1) Soit la v.a. X de densite fX et telle ΦX ∈ L1(R), alors :

fX (x) =1

∫R

e−ixtΦX (t)dt (p.p).

(2) Soit le vecteur X de densite fX tel que ΦX ∈ L1(Rk), alors :

fX (x1, . . . ,xk) =1

(2π)k

∫Rk

ΦX (t1, . . . , tk)e−i(t1x1+...+tnxk)dt1 . . .dtk (p.p.).

(3) Si X est a valeurs discretes xk :

P[X = xk] = limT→+∞

12T

∫ T

−Te−itxk ΦX (t)dt.

Exemple 3.6 Soit X , la v.a. de Bernoulli telle que P(X = 0) = 1− p et P(X =1) = p : ΦX (t) = (1− p)+ peit .

Retrouvons, grace au theoreme 3.19, la valeur de P(X = 0) :

P(X = 0) = limT→+∞1

2T

∫ T−T e

−it.0((1− p)+ peit)dt= limT→+∞

12T [(1− p)t+ p

i eit ]T−T = limT→+∞((1− p)+ p sinT

T ) = 1− p.

3.5 Le vecteur gaussien

L’etude des vecteurs gaussiens dont on a deja souligne l’importance seracompletee a la fin du chapitre 6.

Definition 3.15 Un vecteur aleatoire X = (X1, . . . ,Xk) est gaussien ou nor-mal si toute combinaison lineaire ∑k

i=1 aiXi ( ai ∈ R) de ses composantes estune variable gaussienne.

Theoreme 3.20 Les composantes d’un vecteur gaussien sont des v.a. gau-siennes.

Preuve Pour tout i, on choisit ai = 1 dans la definition 3.15 et pour tout j �= ia j = 0 : on conclut a la normalite de Xi grace a la definition. �

La definition precedente est fondee sur le theoreme de Cramer-Wold quiaffirme que la loi d’un vecteur aleatoire quelconque (X1,X2, ...,Xn) est caracte-risee par la connaissance des lois de toutes les combinaisons lineaires possiblesde ses composantes.

Page 73: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 61

Theoreme 3.21 (Fonction caracteristique du vecteur gaussien)La fonction caracteristique du vecteur gaussien X∗ centre reduit de di-

mension k est definie par :

ΦX∗(u1,u2, ...,uk) = exp(−12

k

∑j=1

u2j).

La fonction caracteristique du vecteur aleatoire gaussien N (m,ΓX ), est definiepar :

ΦX (u1,u2, ...,uk) = exp(i∑ju jm j− 1

2utΓu) ou u= (u1, ...,uk) ∈ R

k.

Theoreme 3.22 Si les v.a. independantes (Xi)i=1,..,k sont gaussiennes, alors levecteur X = (X1,X2, ...,Xk) est gaussien.

Preuve ∀a1, ...,ak ∈ R, les v.a. a1X1, ...,akXk sont gaussiennes independantes,donc leur somme est gaussienne et, d’apres la definition 3.15 le vecteur (X1, ...,Xk)est gaussien. �

Attention ! Sauf si elles sont independantes, la normalite de chacunedes composantes n’implique pas celle du vecteur, comme le montre l’exemplesuivant.

Exemple 3.7 Soit le vecteur (X ,Y ) de dimension deux, de densite fX ,Y egale

a 1π e− x2+y2

2 sur le premier et le troisieme quadrant determine par un repereorthonorme, et nulle sur les deux autres quadrants. Par construction le vecteur(X ,Y ) n’est pas gaussien, mais ses densites marginales le sont, respectivement

egales a 1√2π

e−x22 et 1√

2πe−

y22 . Le produit des densites marginales n’etant pas

egal a la densite conjointe, les composantes sont dependantes.

Theoreme 3.23 Il existe deux classes de vecteurs gaussiens selon que leurmatrice de covariance ΓX est ou n’est pas une matrice reguliere.

(1) Si ΓX est reguliere, X admet une densite fX de support Rk :

fX (x) =1

(√

2π)k√|det(ΓX )|

exp(−12(t(x−mX )Γ

−1X (x−mX ))

∀i fXi(xi) =1

σi√

2πe−(xi−mi)

2

2σ2i .

(2) Si ΓX est singuliere, de rang r strictement inferieur a n, le vecteuraleatoire X de loi N (mX ,ΓX ) prend ses valeurs dans le sous-espace affine mX ⊕

Page 74: Yves caumel (auth.) probabilites et processus

62 Probabilites et processus stochastiques

FX support de la densite de X, ou FX est le sous-espace vectoriel de dimensionr, engendre par les vecteurs lignes de ΓX . Dans ce cas, le vecteur X est ditdegenere.

Theoreme 3.24 Etant donne un vecteur gaussien :

(Independance des composantes) ⇐⇒ (Decorrelation des composantes).

Preuve (Independance des Xi) ⇐⇒∀x ∈ Rk, fX (x) =Π fXi(xi)

⇐⇒ fX (x) de la forme : cte.exp(− 12 ∑i

(xi−mi)2

2 )⇐⇒ ΓX diagonale ⇐⇒ (Xi)i decorrelees. �

Exemple 3.8 Description du vecteur gaussien a deux composantes X =(X1,X2)de vecteur esperance tm= (m1,m2) et de matrice de covariance reguliere ΓX :

ΓX =

(σ2

1 ρ σ1σ2

ρ σ1σ2 σ22

).

fX (x1,x2) =1

2πσ1σ2

√1−ρ2

exp

{−1

2Q(x1,x2)

}.

ou Q(x1,x2) est la forme quadratique definie si ρ �=±1 par :

t(x−m)Γ−1X (x−m) = 1

(1−ρ2)(( x1−m1

σ1)2 +( x2−m1

σ2)2−2ρ (x1−m1)(x1−m1)

σ1 σ2).

Si ρ =+1, alors ΓX est une matrice singuliere et la distribution de proba-bilite est portee par la droite d’equation : y= σ2

σ1(x−m1)+m2. Si ρ =−1, la dis-

tribution de probabilite est portee par la droite d’equation y=−σ2σ1(x−m1)+m2.

3.8 ♠ Soit X =(X1,X2) de matrice de covariance ΓX =

(3 11 2

)et mX =(1,2).

Determiner le coefficient de correlation ρ(X1,X2) et la densite f(X1,X2).

Definition 3.16 Un vecteur gaussien X∗ est centre reduit, si E(X∗) = 0 etsi ΓX∗ = Id.Les composantes X∗i sont independantes et pour tout couple (i, j) :

V (Xi) = 1, mi = 0 et Cov(Xi,Xj) = 0.

La densite fX∗ est definie par :

∀x ∈ Rk, fX∗(x) = (2π)−

k2 exp(−1

2

k

∑i=1

x2i ).

Page 75: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 63

Attention ! Contrairement aux v.a. (voir theoreme 3.24), deux vecteursX , Y normaux peuvent etre decorreles et etre dependants. Pour que leur decorre-lation entraıne leur independance, ils doivent etre normaux dans leur ensemble,au sens ou le vecteur (X ,Y ) obtenu par concatenation des composantes de X etY est normal.

Definition 3.17 L’ellipse de dispersion ou d’equidensite d’un vecteurgaussien, associee a un reel positif α, est l’ensemble des points (x1, ...,xn) telsque :

fX (x1, ..,xn) = α.

Considerons le cas d’un vecteur gaussien (X1,X2) : fX (x1,x2) =α equivauta l’equation Q(x1,x2) =Cte, laquelle decrit une ellipse centree en (m1,m2).

Les ellipses de dispersion sont analogues aux geodesiques des surfacesdefinies dans l’espace euclidien de dimension 3 (voir fig 3.1).

−2 −1 0 1 2 3 4 5 6−3−2

−1 0

1 2

3 4

5 6

0

Figure 3.1 – Graphe d’une densite normale de dimension deux.

Theoreme 3.25 (Transformation affine d’un vecteur gaussien)

Etant donne :- un vecteur gaussien X de dimension k de loi N (mX ,ΓX ) ;- une matrice A de dimension (n,k) ;- un vecteur constant B de dimension n ;

Y = AX+B est de loi N (AmX +B, AΓXtA).

3.9 ♠♠ (1) Demontrer le theoreme precedent.

Page 76: Yves caumel (auth.) probabilites et processus

64 Probabilites et processus stochastiques

(2) Application : soit X = (X1,X2) le vecteur gaussien d’esperance nulle

et de matrice de covariance ΓX =

(1 33 4

)et A=

(a −12 1

).

Pour quelle valeur de a, le vecteur Y = AX a-t-il des composantes inde-pendantes ?

Theoreme 3.26 Tout vecteur gaussien non degenere peut etre transforme gracea une transformation affine adequate, en un vecteur gaussien non degenere acomposantes independantes.

Le theoreme suivant montre que l’on peut toujours exprimer un vecteurgaussien quelconque X comme transformee affine du vecteur gaussien standardX∗.

Theoreme 3.27 Si X est un vecteur gaussien de dimension n et de loiN (mX ,ΓX ), alors il existe une matrice B de dimension n× k, de rang k, telleque :

X = mX +BX∗,

ou X∗ est le vecteur gaussien centre reduit.

Preuve Fondee sur le resultat classique d’algebre lineaire : toute matrice n×n,symetrique et de rang k, peut s’exprimer sous la forme du produit d’une matricen× k, de rang k, par sa transposee. On peut determiner la matrice B sous laforme triangulaire superieure, a l’aide de l’algorithme de Cholesky. �

Theoreme 3.28 Pour tout vecteur gaussien N (mX ,ΓX ), il existe une isome-trie X → Y = AX +B ou A est une matrice orthogonale telle que Y soit de loiN (0,ΓY ) ou ΓY est diagonale.

3.10 ♠♠ Caracterisation geometrique des vecteurs gaussiens centresSoit X = (X1,X2) un vecteur aleatoire dans R2 tel que X1 et X2 soient

independantes de densites respectives f1 et f2. Demontrer que si la densite fXest invariante par rotation, les v.a. X1 et X2 sont gaussiennes. (On suppose f1et f2 derivables, et on construit deux equations differentielles fonction de f1,f′1, f2, f

′2, que l’on resoudra.)

Forme la plus generale d’une loi de probabilite d’un vecteur aleatoire oud’une v.a.

La reponse est donnee par un theoreme etablissant que la probabilite Pest egale a la somme d’une mesure discrete, d’une mesure absolument continue

Page 77: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 65

et d’une mesure diffuse. Une mesure diffuse dans l’espace Rk est une mesurede support non denombrable dont la mesure de Lebesgue est nulle. D’un pointde vue pratique, les probabilites definies par des mesures diffuses apparaissentrarement.

Considerons par exemple dans R2 la mesure discrete μ1 definie par

∑i∈N piδxi de masse π1, la mesure absolument continue μ2 definie par μ2(B) =∫B f (x)dx pour tout borelien B de R2, tel que μ2(R) = π2, et la mesure diffuseμ3 associee a un vecteur normal degenere dont le support est une droite et dontla masse est egale a π3, telle que π1 +π2 +π3 = 1. Alors P= μ1 +μ2 +μ3 definitune probabilite sur R2.

Les problemes 5 et 6 se rapportent a ce chapitre.

Page 78: Yves caumel (auth.) probabilites et processus

66 Probabilites et processus stochastiques

3.6 Corriges des exercices

Exercice 3.1

IE( p) = aIE(X1)+bIE(X2) = ap+bp = (a+b)p ; si p est sans biais, alorsa+b= 1 (a,b> 0).

V ( p) = a2V (X1)+b2V (X2) = a2σ21 +b2σ2

2 .

Il s’agit donc de minimiser φ(a,b)= a2σ21 +b2σ2

2 sous la contrainte a+b=

1. On obtient a=σ2

2σ2

1 +σ22, b=

σ21

σ21 +σ2

2. Si, par exemple, σ2

1 > σ22 , alors a< b, re-

sultat intuitivement previsible.

Exercice 3.2

(1) X est le numero de la premiere boule blanche apparue, donc X(Ω) ={1,2, ...,N}.

[X = k] est realise si la premiere boule blanche apparaıt au rang k et ladeuxieme a l’un des rangs suivants : il y a donc N+2− k choix equiprobables.Ainsi,

P([X = k]) =2(N+2− k)

(N+1)(N+2).

On aurait pu montrer que : P([X = k]) = NN+2 .

N−1N+1 .

N−2N . . . N−k+2

N−k . 2N−k−1

E(X) =N+1

∑k=1

kP([X = k]) =1

C2N+2

[(N+2)

N+1

∑k=1

k−N+1

∑k=1

k2

]

=1

C2N+2

[(N+2)

(N+1)(N+2)2

− (N+1)(N+2)(2N+3)6

]= N+2− 2N+3

3=

3N+6−2N−33

=N+3

3.

(2) Y est le numero de la deuxieme boule blanche apparue, donc Y (Ω) ={2, ...,N+2}.

[Y = k] est realise si la deuxieme boule blanche apparaıt au rang k et lapremiere a l’un des rangs precedents : il y a donc k− 1 choix equiprobables.Ainsi,

P([Y = k]) =2(k−1)

(N+1)(N+2).

Page 79: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 67

P[(X ,Y ) = (i, j)] = 2(N+1)(N+2) si 1 � i< j � N+2 et 0 sinon. On retrouve

ainsi :

P([Y = j]) =j−1

∑i=1

P([(X ,Y ) = (i, j)]) =2( j−1)

(N+1)(N+2).

IE(Y ) =N+2

∑k=2

kP([Y = k]) =1

C2N+2

[N+2

∑k=2

k(k−1)

]=

1

C2N+2

[N+1

∑j=1

j( j+1)

]

=1

C2N+2

[(N+1)(N+2)(2N+3)

6+

(N+1)(N+2)2

]=

2N+33

+1 =2N+3+3

3=

2N+63

.

Finalement, IE(Y ) =23(N+3) = 2IE(X).

Resultat en accord avec l’intuition : en effet, si N est tres grand, X et Ysont respectivement situes dans le voisinage de N

3 et 2N3 .

Exercice 3.3On exprime l’evenement « l’aiguille coupe une parallele » par l’inegalite :

XcosΘ < l

2 ou X ∈ [0, L2 ] et Θ ∈ [0, π2 ].X et Θ sont independantes et de lois uniformes sur leurs supports. Il

vient donc :

P([X <�

2cosΘ]) =

∫ ∫x< �

2 cosθfX (x) fΘ(θ)dxdθ =

4πL

∫ π/2

0

∫ �/2cosθ

0dxdθ =

2�πL

.

Apres n jets, on compte le nombre N de fois ou l’aiguille coupe une paral-lele : on demontre, grace a la loi des grands nombres (voir chapitre 5), que N

nconverge vers 2�

πL d’ou une estimation de π egale a 2�nNL .

Exercice 3.4 (1)

P((X ,Y ) ∈ cible) =∫ 2π

0

∫ R

0

12π×0,36R2 e

− r2

0,72×R2 drdθ

=1

0,36R2

∫ R

0e− r2

0,72×R2 dr =0,6R

0,36R2

∫ 1/0,6

0e−

12 u

2du

=1

0,6RP(0 � N (0,1)� 1,66) =

0,4520,6R

,

egal a 0,753 si R= 1.

Page 80: Yves caumel (auth.) probabilites et processus

68 Probabilites et processus stochastiques

(2) P(atteindre la cible au moins une fois en n tirs)= 1−P(ne pas l’atteindre en n tirs)= 1−(1−0,753)n ; donc 1−(0,247)n= 0,95.n est le premier entier immediatement superieur ou egal a 2,995

1,396 , soit n= 3.

Exercice 3.5(1) Remplacons (x,y) par le couple (X ,Y ) et (x0,y0) par (IE(X), IE(Y )).

Sachant que IE(X − IE(X)) = IE(Y − IE(Y )) = 0 :

IE(Z) = IE( f (X ,Y )) ≈ f (IE(X),IE(Y ))+12V (X) f ′′xx(IE(X),IE(Y ))+

12V (Y ) f ′′yy(IE(X),IE(Y ))

+Cov(X ,Y ) f ′′xy(IE(X),IE(Y )).

On verifie que IE(XY ) = IE(X)IE(Y )+ cov(X ,Y ).

(2) V (XY ) = IE(X2Y 2)− (IE(XY ))2 = IE(X2)IE(Y 2)+ cov(X2,Y 2)− (IE(XY ))2.Si X et Y sont independantes, V (XY ) = IE(X2)IE(Y 2)− (IE(XY ))2.V (XY )IE(XY )2 =

IE(X2)IE(Y 2)

IE(X)2IE(Y )2 −1=(

V (X)IE(X)2 +1

)(V (Y )IE(Y )2 +1

)−1≈ V (X)

IE(X)2 +V (Y )IE(Y )2 .

Donc : V (XY )IE(XY )2 ≈ V (X)

IE(X)2 +V (Y )IE(Y )2 ≈

(√V (X)IE(X)2 +

√V (Y )IE(Y )2

)2

d’ou l’approxi-

mation classique de l’erreur relative d’un produit X .Y :

σX ·YIE(XY )

≈ σX

IE(X)+

σYIE(Y )

.

Exercice 3.6Soit B une v.a. de loi de Bernoulli : ΦB(t) = peit +1− p.

Φ n∑j=1

Bj(t) =

n∏j=1

ΦBj(t) = (peit + 1− p)n =n∑k=0

eitk(nk

)pk(1− p)n−k qui est la

fonction caracteristique d’une v.a. de loi binomiale B(n, p).

Exercice 3.7

ΦX (t)= IE(eitX )= IE(eit(σX∗+m))= eitmIE(eitσX

∗)= eitmΦX∗(σt)= eitme−

σ2t22 .

Exercice 3.8ρX1,X2 =

Cov(X1,X2)σX1σX2

= 1√6. fX1,X2(x1,x2) =

12π√

5exp(− 1

2Q(x1,x2))ou

Q(x1,x2) = (x1−1,x2−2)Γ−1X

t(x1−1,x2−2) et Γ−1X =

15

(2 −1−1 3

).

Exercice 3.9(1) Y verifie la caracterisation du vecteur gaussien.

IE(AX+B) = AIE(X)+B (linearite de l’esperance).

Cov(AX +B) =Cov(AX) = A.Cov(X).tA.

Page 81: Yves caumel (auth.) probabilites et processus

3. Vecteurs aleatoires 69

(2)(Y1,Y2) independantes ⇐⇒ AΓXtA diagonale ⇐⇒ a=−1.

Exercice 3.10

fX1,X2(x1,x2) = fX1,X2(r(x1,x2)) = g(ρ) ou ρ =√

x21 + x2

2. De l’independance

de X1 et X2, on deduit :

g(ρ) = fX1(x1) fX2(x2) = f1(x1) f2(x2).

En derivant par rapport a x1, on obtient : f ′1(x1) f2(x2) = g′(ρ)× x1ρ .

De meme, en derivant par rapport a x2, on obtient : f1(x1) f ′2(x2) =g′(ρ)× x2

ρ .

On a donc, pour x1x2 �= 0,f ′1(x1)

x1× f2(x2) = f1(x1)× f ′2(x2)

x2, soit

f ′1(x1)

x1× 1

f1(x1)=

f ′2(x2)

x2× 1

f2(x2)= λ = constante.

D’ouf ′i (xi)xi

× 1fi(xi)

= λ , soit f ′i (xi) = λxi fi(xi).

On est donc ramene a resoudre l’equation differentielle y′ −λxy= 0 qui donne,

pour y> 0, lny= λ2 x

2 +μ , soit fi(x) =Cieλ2 x

2.

Pour des raisons de convergence, on a necessairement λ < 0. On pose

λ = − 1σ2 et comme

∫fi(x)dx = 1, on a alors Ci

∫e− x2

2σ2 dx = Ciσ√

2π = 1, soit

Ci =1

σ√

2π. Finalement, f1(x) = f2(x) = 1

σ√

2πe− x2

2σ2 : X1 et X2 suivent une meme

loi normale centree.

Page 82: Yves caumel (auth.) probabilites et processus

Chapitre 4

Calcul de lois

Dans ce chapitre, on presente les methodes classiques permettant dedeterminer les lois de variables ou de vecteurs aleatoires obtenus comme somme,difference, produit et generalement comme fonctions de variables et vecteursaleatoires de lois connues. Plus explicitement, etant donne un vecteur aleatoireX = (X1,X2, . . . ,Xn) de loi PX , il s’agit de determiner la loi de h(X), ou h est unefonction mesurable definie sur Rn a valeurs dans Rm .

4.1 Approche du probleme sur deux exemples

(1) Soit X une v.a. normale centree reduite N (0,1) ; pour determiner laloi de Y = X2, on exprime FY en fonction de FX :

∀y> 0, FY (y) = P(X2� y) = P(−√y� X � y) = FX (

√y)−FX (−√y),

d’ou : fY (y) =dFY (y)dy

=1

2√y( fX (

√y)+ fX (−√y)) .

Si fX (y) =1√2π

e−y22 alors fY (y) =

1√2πy

e−y2 1R+(y),

E(Y ) = E(X2) =V (X)+(E(X))2 = 1.

(2) Soient X1 et X2 des v.a. de Poisson independantes de parametres λ1

Page 83: Yves caumel (auth.) probabilites et processus

72 Probabilites et processus stochastiques

et λ2 ; determinons la loi de X1 +X2.

∀k ∈ N, P(X1 +X2 = k) =k

∑i=0

P(X1 = i, X2 = k− i)

k

∑i=0

P(X1 = i)P(X2 = k− i) =k

∑i=0

e−λ1λ i1

i!e−λ2λ k−i

2

(k− i)!

= e−(λ1+λ2)k

∑i=0

1i!(k− i)!

λ i1λ

k−i2

=e−(λ1+λ2)

k!(λ1 +λ2)

kk

∑i=0

(ki

)λ i

1λk−i2

(λ1 +λ2)k(∗)

Orλ i

1 λk−i2

(λ1+λ2)k=(

λ1λ1+λ2

)i (λ2

λ1+λ2

)k−i, d’ou grace a la formule du binome :

P(X1 +X2 = k) =e−(λ1+λ2)

k!(λ1 +λ2)

k.

Conclusion : X1 +X2 est de loi de Poisson de parametre (λ1 +λ2).

Theoreme 4.1 (Stabilite des sommes finies de variables independantesbinomiales et de Poisson)

(1) Toute somme finie de v.a. de Poisson independantes de parametresrespectifs (λi)i=1,..,n est une v.a. de Poisson de parametre ∑iλi.

(2) Toute somme finie de v.a. binomiales independantes de parametresrespectifs (ni, p) est une binomiale B(∑i ni, p).

4.1 ♠ Demontrer la proposition (2) du theoreme dans le cas de deux variablesen utilisant la methode de l’exemple introductif (2).

4.2 ♠ Deux machines (1) et (2) dont les fonctionnements sont independants,sont mises en marche au meme instant t = 0 ; leurs durees de vie respectivessont decrites par les v.a. T1 et T2 entieres positives. A chaque instant n, leursprobabilites respectives de panne sont p1 et p2.

(1) Pour tout temps n ∈ N∗, exprimer l’evenement (T1 = n) en fonctiondes evenements ((1) tombe en panne au temps i)i=1,··· ,n.

(2) En deduire la loi de Ti (i= 1,2) et de T1−T2.Calculer P(T2 < T1), puis P(T1 < T2) et P(T2 = T1).

Page 84: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 73

Intermede biographique : Simeon Denis Poisson (1781-1840)Issu d’un milieu modeste, le tres jeune Simeon commenca des etudes en

chirurgie puis en medecine ; sa phobie des blessures et du sang l’oblige a arreterses etudes. Entre a l’Ecole Centrale (ancetre des lycees) de Pithiviers, il excelleen mathematiques et en physique, prepare et reussit brillamment a dix-septans le concours d’entree a l’Ecole polytechnique, ou son talent est remarquepar ses professeurs : Laplace, Monge et Lagrange. Dominant l’analyse de sontemps, ses recherches sur les series de Fourier annoncent celles de Dirichlet etde Riemann ; il laisse aussi de nombreux travaux en mecanique, en physiquemathematique et en theorie des probabilites, notamment dans son livre, autitre joliment incongru : Recherches sur la probabilite des jugements en matierecriminelle et civile.

4.2 Methodes classiques

Le theoreme de la probabilite image est le resultat fondamental du calculdes lois.

Theoreme 4.2 (de la probabilite image) Etant donne :- un vecteur aleatoire X defini sur (Ω,T ,P) a valeurs dans (Rn,βn,PX ) ;- une fonction mesurable h de (Rn,βn,PX ) dans (Rm,βm).

On definit la probabilite image Ph(X) du vecteur aleatoire h(X) sur (Rm,βm) :

∀B ∈ βm, Ph(X)(B) = PX (h−1(B)).

Preuve Ph(X)(B) = P(h(X) ∈ B) = P({ω ∈ Ω | X(ω) ∈ h−1(B)}) = PX (h−1(B)).(Ce resultat est une illustration du theoreme de la mesure-image expose dansle cadre de la theorie de la mesure et de l’integration.) �

Exemple 4.1 Application du theoreme aux deux exemples introductifs

(1) h(X) = X2 , B= [0,y] donc :

FX2(y) = PX (h−1([0,y]) = PX (]−√y,

√y]) = FX (

√y)−FX (−√y).

(2) h(x1,x2) = x1 + x2 et B= {k},k ∈ N :

PX1+X2(k) = P(X1,X2)(h−1(k)) = P(X1,X2)((0,k),(1,k−1), . . . ,(k,0))

= P

(k⊎

i=0

(X1 = i)∩ (X2 = k− i)

)

=k

∑i=0

P(X1 = i)P(X2 = k− i) (par Σ-additivite et independance).

Page 85: Yves caumel (auth.) probabilites et processus

74 Probabilites et processus stochastiques

4.2.1 Methode du changement de variables

Nous l’appliquerons au cas des vecteurs dont la loi est definie par unedensite. Rappelons qu’un changement de variables est defini par un diffeomor-phisme (fonction de classe C 1, bijective et d’inverse C1).

Theoreme 4.3 Si aux hypotheses generales du calcul de lois on adjoint l’hy-pothese de diffeomorphicite de h, alors la densite du vecteur h(X) est definiepar :

fh(X)(y) = fX (h−1(y)) |J(h−1(y))|,

ou J(h−1(y)) est le jacobien de h−1 en y.

Preuve On recherche la densite g de h(X) sous la forme Ph(X)(B) =∫B g(y)dy.

∀B, Ph(X)(B) = PX (h−1(B)) =∫h−1(B) fX (x)dx=

∫B fX (h−1(y))|J(h−1(y))|dy.

D’ou l’egalite presque partout de g(y) et fX (h−1(y))|J(h−1(y))|.Si f est continue sur son support, l’egalite precedente est alors vraie

partout.

Remarque 4.1 Dans le cas ou la fonction h est non bijective, on utilise lamethode de complementation qui consiste a considerer h comme composanted’une fonction H bijective.

Application de la methode de complementation au calcul de la loi du rap-port X

Y .

La fonction h :(XY

)−→ XY n’etant pas bijective, considerons le diffeomorphisme

H :(XY

)−→ ( XYX

)et appliquons le theoreme precedent :

f(X/Y,X)(u,v) = fH(X ,Y )(u,v) = fX ,Y (H−1(u,v)) |J(H−1(u,v))|

= fX ,Y(v,vu

) |v|u2 ,

d’ou la densite recherchee : f XY(u) =

∫fX ,Y(v, vu) |v|

u2 dv.

4.3 ♠♠ Calculer f XY(u) dans le cas ou X et Y sont des variables independantes

de loi uniforme de support ]0,1].[Indication : distinguer les deux cas (0 < u< 1)et (1 � u).] Que vaut E

(XY

)?

4.4 ♠♠ Soient X1,X2, . . . ,Xn des v.a. independantes de loi normale N (m,σ2),X = 1

n ∑ni=1Xi et Ui = Xi−X .

Page 86: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 75

(1) Loi de X ?(2) On pose X = t(X1,X2, . . . ,Xn) et U = t(U1,U2, . . . ,Un).

Ecrire U sous la forme A.X ; en deduire que U est gaussien. Calculer E(U) etV (U). Demontrer que Cov(Ui,X) = 0 et en deduire que U est independant deX .

4.5 ♠ La variable de Cauchy comme rapport de variables normalesSoit un vecteur gaussien centre (X ,Y ) de variances σ2

X , σ2Y et de cova-

riance nulle. Demontrer que la v.a. Z = XY est une v.a. de Cauchy de densite :

fZ(z) =σx

σy.

1π(z2 +(σxσy )

2).

4.2.2 Methode d’identification fonctionnelle

Cette methode efficace et elegante est fondee sur le theoreme ci-dessous.

Theoreme 4.4 Soient X un vecteur aleatoire de dimension k de loi PX et Y =h(X), ou h est une fonction mesurable definie sur Rk. Pour toute fonction ϕdefinie sur Rk, telle que E(|ϕ(h(X)|) soit fini, alors E(ϕ(h(X)) est egal a :∫

Rkϕ(h(x))dPX (x) =

∫Rn

ϕ(y)dPY (y).

Exemple 4.2 Application au calcul de la loi d’une somme de deux v.a. abso-lument continues.

Soit le couple X = (X1,X2) de loi PX et h(x1,x2) = x1 + x2 ;

E(ϕ(Y )) = E(ϕ(X1 +X2)) =∫R2 ϕ(x1 + x2)dPX (x1,x2)

egal d’apres le theoreme 4.4 a :∫R2 ϕ(y)dPX (x1,y− x1). (∗)

Si X1 et X2 sont independantes, alors (∗) est egale a∫Rϕ(y)

∫R dPX1(x1)dPX2(y− x1),

et grace au theoreme precedent :

dPY (y) =∫R

dPX1(x1)dPX2(y− x1).

Supposons X1,X2 de densites fX1 et fX2 :

dPY (y) =∫R

fX1(x1) fX2(y− x1)dx1 dy.

Conclusion : Y est une v.a. de densite fY = fX1 ∗ fX2 .

Page 87: Yves caumel (auth.) probabilites et processus

76 Probabilites et processus stochastiques

On pourrait determiner la densite de (X1−X2) en procedant de faconanalogue, mais il est plus rapide de remarquer que f−X2(x) = fX2(−x) et deconclure :

fX1−X2(u) = fX1 ∗ f−X2(u) =∫

fX1(s) fX2(s−u)ds.

4.6 ♠♠ Determiner a l’aide de la methode d’identification fonctionnelle ladensite du produit de deux v.a. X1, X2 connaissant la densite f(X1,X2) de supportDX1 ×DX2 .[solution : fX1.X2(t) =

∫DX2

f(X1,X2)(tx2,x2)

1|x2| 1DX1

( tx2)dx2.]

On suppose que X1 et X2 sont independantes, de meme loi uniforme sur[0,1]. Determiner la loi de X1.X2.

4.7 ♠ Soient X1, X2 v.a. independantes de densite f1 et f2.Montrer que : P(Xi ≤ Xj) =

∫RFXi(x). fXj(x).dx ou (i, j) distincts ∈ {1,2}.

En deduire que P(X1 ≤ X2) = P(X2 ≤ X1) =12 si f1 = f2.

Theoreme 4.5 La densite fS de la somme S des v.a. independantes X1,X2, ...,Xnde densites respectives fX1 , .., fXn est egale au produit de convolution (commutatifet associatif) des densites :

fS = fX1 ∗ fX2 ∗ ...∗ fXn .

On a un resultat equivalent pour une somme de v.a. discretes independantes :

PS = PX1 ∗ ...∗PX2 .

ou ∗ designe le produit de convolution des mesures.Dans le cas de v.a. entieres positives X , Y , le theoreme suivant explicite la loi

de X+Y.

Theoreme 4.6 Soient X, Y des v.a. entieres positives independantes de loisPX = ∑i∈N piδi et PY = ∑ j∈N q jδ j. Alors la loi PX+Y est definie par :

∀k ∈ N, PX+Y (k) = PX ∗PY (k) = ∑ki=0pi.qk−i.

Preuve On rappelle le resultat d’analyse : δi ∗δ j = δi+ j.

∀k∈N, PX ∗PY (k)= (∑i∈N piδi)∗(∑ j∈N q jδ j)(k)= ∑i∈N∑ j∈N piq jδi+ j(k)= ∑ki=0 piqk−i.

Theoreme 4.7 (Stabilite du caractere normal par combinaison lineairefinie de v.a. normales independantes)Soient n variables aleatoires normales independantes X1, . . . ,Xn de lois respec-tives N (mi,σ

2i ). Pour tous reels a1, . . . ,an :

n

∑i=1

aiXi est N (n

∑i=1

aimi ;n

∑i=1

a2i σ

2i ).

Page 88: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 77

/ .. im "t- 1 ()?t'2 Preuve Par defimtlOn, <PXj (t) = e ] '" 1 ;

d ( ) () ia'I11'I-l(J2a2[2 ( . d' d) ( ) one <PaX t =<Px al·t =e ] J 2 J] • Xl'lll epen antes =? <P"'.aX. t = I ] ] . . LJ ] I

iaml-1(J2a2[2 i[am[_1[2([(J2a2 ) . im[_1[2(J2 ITje J J 2 J J = e J J J 2 J J J qm est de la forme e 2 J. La v.a. LjajXj est done une v.a. normale de moyenne m = Ljajmj et de variance ()2 =

2 2 Ljaj()j' D

Remarque 4.2 Le calcul de l'integrale de convolution lorsque les supports des densites Ix; sont bornes n'est pas toujours facile et exige beaucoup de rigueur dans la conduite des calculs com me Ie montre l'exemple suivant.

Soient Xl et X2, independalltes, de me me loi uniforme sur [- ~, ~]. Cal­culons la densite de (Xl -X2)'

Integrale qui est non nuUe si : (- ~ :S;; s :S;; ~) et (- ~ :S;; s - u :S;; ~)

{==} max( -~,u-~):S;; s:S;; min(~,u+ ~).

On doit done considerer deux cas selon la position de u :

- si u E [-L,O] alors IXI X2(U) = uif; - si u E [O,L] alors IXj-x2(u) = L;/.

Conclusion: fx1- X2(U) = ~1[ LO](u)+iT1[OL](u).

IlL

-I- o

Si Xl ct X2 sont ind(~pendantcs de rncrne dcnsit6 syrn(~trique par rapport a l'axe des y, comme dans l'exemple precedent, alors :

Ainsi, si Xl et X2 sont de loi .;1/(0,1) : Xl -X2 et Xl +X2 sont de meme loi ./Y(0,2).

Page 89: Yves caumel (auth.) probabilites et processus

78 Probabilites et processus stochastiques

4.8 ♠ Deux personnes arrivent, independamment l’une de l’autre, selon uneloi temporelle uniforme entre 8 et 9 heures, a un lieu de rendez-vous, et decidentque la premiere arrivee ne devra pas attendre l’autre plus de 10 minutes.

(1) Determiner les lois de X1−X2 et de |X1−X2| ou X1 et X2 sont lestemps d’arrivee des personnes.

(2) Probabilite pour qu’elles se rencontrent ? (On pourra s’aider de larepresentation geometrique de cet evenement comme borelien de [0,1]× [0,1]).

4.9 ♠♠ X et Y deux v.a. exponentielles independantes de parametre 1.Determiner les lois de (X ,X +Y ) puis de X +Y grace a la methode du

changement de variables ?

4.10 ♠♠ X et Y v.a. independantes de lois gamma de parametres respectifs

(λ ,α) et (λ ,β ) : ainsi, fX (x) = λα e−λxxα−1

Γ(α) .

(1) Loi conjointe et lois marginales du vecteur (X+Y, XX+Y ) ?

(2) Loi de la somme de n v.a. exponentielles independantes de parametreλ ? On rappelle que la loi exponentielle de parametre (λ ) est identique a la loigamma de parametres (λ ,1).

4.11 ♠ Un ascenseur ne peut supporter une charge superieure a 1 200 kg.Chaque utilisateur potentiel de l’ascenseur a un poids Xi aleatoire de loi normaleN (m= 80 ; σ2 = 225).

Notation : Yn =n∑i=1

Xi est la v.a. associee aux poids de n individus.

Quel est le nombre maximal de personnes que l’on peut autoriser a mon-ter dans l’ascenseur si l’on veut que le risque de surcharge et donc de non-demarrage soit egal a 10−5 ? [Indication : P(N (0,1)> 4,5) = 3.10−6]

4.12 ♠ Soient les v.a. independantes : X normale centree reduite et B la v.a.de Bernoulli definie par P(B= 1) = P(B=−1) = 0,5 : posons Y = BX .

(1) Montrer que Y est normale centree reduite.(2) X et Y sont-elles dependantes ? Decorrelees ?

P(X+Y = 0) = 12 , ce qui implique que (X+Y ) n’est pas de loi absolument

continue ; il s’agit d’un exemple frappant d’unesomme de deux v.a. dependantesnormales qui n’est pas de loi normale.

4.2.3 Variables aleatoires definies comme maximum ou

minimum d’un ensemble de v.a.

Les v.a. de ce type sont mises en œuvre dans les problemes de fiabilite.

(A) Duree de vie d’un systeme en serie

Page 90: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 79

Rappelons que la duree de vie d’un systeme est sa duree de fonction-nement jusqu’a la premiere panne. Etant donne n composants C1,C2, . . . ,Cn enserie, de durees de vie decrites par des v.a. independantes Xi, quelle est la loide la duree de vie Y = mini=1,...,n(Xi) du systeme ?

La methode consiste a expliciter la fonction de repartition de Y a l’aidedes fonctions de repartition des Xi.

FY (y) = P

(mini(Xi)� y

)= 1−P(min

i(Xi)> y))

= 1−∏ni=1P(Xi > y) = 1−∏n

i=1(1−FXi(y)).

Si les v.a. Xi sont de meme loi exponentielle E (λ ), la v.a. min(Xi) est dedensite exponentielle E (nλ ) :

fmini(Xi)(y) = nλe−nλy1R+(y).

On en conclut que la duree de vie d’un systeme en serie de n compo-sants, chacun ayant une duree de vie de loi exponentielle E (λ ), est aussi deloi exponentielle E (nλ ). La duree de vie moyenne du systeme en serie egale aE(Y ) = 1

nλ est n fois plus petite que la duree de vie E(X) = 1λ de chacun de ses

composants, resultat qui confirme la fragilite d’un systeme en serie.

(B) Duree de vie d’un systeme en parallele

Soient les n composants en parallele : Xi est la duree de vie du composantCi et Z = maxi(Xi) la duree de vie du systeme.

FZ(z) =n

∏i=1

FXi(z).

Si les v.a. Xi sont de meme loi :

fZ(z) = n fX (z)(FX (x))n−1.

4.13 ♠♠ (1) Determiner la densite fZ de Z dans le cas ou les Xi sont de loisexponentielles E (λ i)i=1,..,n. Demontrer par recurrence que :

E(Z) =∑i

1λi−∑

i< j

1λi+λ j

+ ∑i< j<k

1λi+λ j+λk

...+(−1)n+1 1λ1 +λ2 + ...+λn

.

(2) Montrer que, si on triple de facon identique un circuit de commandesur un avion par exemple, on ne triple pas sa duree de vie moyenne, mais onl’augmente dans une proportion a determiner.

Page 91: Yves caumel (auth.) probabilites et processus

80 Probabilites et processus stochastiques

4.2.4 Lois de variables mixtes

Certaines v.a. sont definies comme fonction de v.a. discretes et de v.a.absolument continues : nous allons illustrer cette situation dans le cas d’unesomme et d’un produit.

Soient les v.a. independantes X1 de densite fX1 et X2 de loi discretePX2 = ∑n∈N pnδxn avec xn ∈ R.

Loi de Y = X1 +X2

Pour tout reel y, l’evenement (X1 +X2 � y) se decompose, grace au theo-reme des probabilites totales, en l’union :⋃

n∈N((X2 = xn)∩ (Y � y)) =

⊎n

((X2 = xn)∩ (X1 � y− xn)).

L’independance de X1 et X2 entraıne :

FY (y) =∑nP(X2 = xn)P(X1 � y− xn) =∑

npnFX1(y− xn)

et par derivation :

fX1+X2(y) =∑npn fX1(y− xn)

Application : P(X2 =−1) = p et P(X2 = 1) = 1− p ; X1 ∼ N(0,σ2) ;d’ou :

fY (y) = p.1

σ√

2πe− (y+1)2

2σ2 +(1− p).1

σ√

2πe− (y−1)2

2σ2

Loi de Z = X1X2

On supposera d’abord que : ∀n,xn �= 0

(∀z ∈ R) (X1X2 � z) =⊎n

((X2 = xn)∩ (X1X2 � z) ;

P(Z � z) =∑nP(X2 = n)P(xn X1 � z)

.

FZ(z) = ∑xn>0

pnP(X1 �zxn)+ ∑

xn<0pnP(X1 >

zxn)

= ∑xn>0

pnFX1(zxn)+ ∑

xn<0pn(1−FX1(

zxn)),

puis par derivation :

fZ(z) =∑npn

1| xn | fX1(

zxn).

Page 92: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 81

Remarque 4.3 En pratique, on devrait toujours s’assurer au terme du calculd’une loi quelconque, qu’elle verifie l’axiome P(Ω) = 1. Bien que cette verifica-tion ne soit qu’une condition necessaire de l’exactitude de l’expresion de la loia laquelle on aboutit, elle permet de conclure avec une quasi certitude. Cettemethode joue un role analogue a la methode dite de la preuve par 9, pratiqueenaguere dans les ecoles, dont la verification etait une condition necessaire de lajustesse du resultat d’une multiplication.

4.3 Methodes de simulation des lois de proba-

bilite

La simulation de phenomenes aleatoires grace aux variables aleatoiresqui les decrivent est d’une grande utilite pratique : calcul d’integrales par lesmethodes de Monte-Carlo, simulation du fonctionnement de reseaux (informa-tiques, routiers, aeriens) et de l’evolution de systemes physiques. Aux deuxmethodes presentees dans ce paragraphe, il faut ajouter la methode de rejetqu’on n’expose pas ici.

(4.3.1) Generation de la v.a. de loi uniforme sur [0,1]

Les algorithmes multiplicatifs a congruence lineaire permettent de ge-nerer des suites d’entiers (yn)n ayant l’apparence d’une distribution aleatoiresur un intervalle [0,m−1], a l’aide de relations de recurrence de la forme :yn+1 = a.yn+b [modulo m], ou les entiers donnes a et m sont premiers entre euxet verifient m� a. Par exemple, la fonction RANDOM du logiciel de simulationstochastique SCILAB utilise les valeurs a= 843314861, b= 453816693, m= 231)pour generer des suites de nombres pseudo-aleatoires de la forme (xn =

ynm )n∈N,

qui simulent des tirages uniformement repartis sur [0,1].

(4.3.2) Generation de v.a. de loi quelconque

On a choisi de presenter trois methodes ayant un interet pedagogique.

(a) Methode de la fonction de repartition

Elle est fondee sur le theoreme :

Theoreme 4.8 Pour toute v.a. X , de fonction de repartition FX :

X et F−1X (U) sont de meme loi.

(U etant la v.a. uniforme sur ]0,1[ .)

F−1X est la fonction quantile : ∀u , F−1

X (u) = inf{t reels ; F(t)� u} .

Page 93: Yves caumel (auth.) probabilites et processus

82 Probabilites et processus stochastiques

Cette methode est peu utilisee, car la fonction FX (U) est souvent couteuse

a simuler lorsqu’elle contient des fonctions transcendantes (par exemple e−x2) ;

d’autre part, elle donne des resultats peu satisfaisants pour des valeurs de Uvoisines des points ou la derivee de FX est tres petite.

Exemple 4.3 Simulation de la v.a. exponentielle X de parametre λ :

F−1X (U) =− 1

λln(U).

4.14 ♠ Simulation d’une v.a. geometrique

Si X est de loi E (λ ) en deduire que :

∀n, P(n−1 < X � n) = (e−λ )n−1 (1− e−λ ).

En deduire que la v.a. egale a la partie entiere (X) est de loi geometriquede parametre p= 1− e−λ .

(b) Simulation de v.a. a valeurs dans un ensemble fini

La methode est fondee sur le theoreme :

Theoreme 4.9 La v.a. X de loi P= ∑i=ni=1 pi δxi , est simulee par la v.a. :

X = x1 1{U<p1}+∑n−2i=1 xi+1 1{p1 + ...+ pi �U � p1 + ...+ pi+1}+xn 1{p1+...+pn−2+pn−1�U≤1}.

4.15 ♠♠ (1) Demontrer la proposition precedente.

(2) Quelle loi la v.a. ∑i=ni=1 1{Ui<p} simule-t-elle ? [reponse : v.a. binomiale]

(c) Simulation de v.a. normales par la methode de Box-Muller

4.16 ♠♠Methode polaire (dite de Box-Muller) de simulation de la loi normaleN (0,1)

Soient X1 et X2, independantes, de loi uniforme sur [0,1].

En deduire que X = (−2ln(X1))12 cos(2πX2) et Y = (−2ln(X1))

12 .sin(2πX2)

sont independantes de loi N (0,1).

Page 94: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 83

4.4 Quelques densites classiques

Soit un vecteur aleatoire (X1,X2) de densite fX1,X2 .

(1) X1 et X2 sont dependantes

fX1+X2(u) =12

∫f(X1,X2)(

u+ v2

,u− v

2)dv ;

fX1−X2(u) =12

∫f(X1,X2)(

u+ v2

,u− v

2)du ;

fX1.X2(u) =∫R

f(X1,X2)(uv,v)

1|v| dv ;

f X1X2

(u) =∫R

f(X1,X2)

(v,vu

) vu2 dv.

(2) X1 et X2 sont independantes

fX1+X2(u) =∫R

fX1(u− v) fX2(v)dv ;

fX1−X2(u) =∫R

fX1(v) fX2(v−u)dv ;

fX1 X2(u) =∫R

fX1(uv) fX2(v)

1|v| dv ;

f X1X2

(u) =∫R

fX1

(v) fX2(

vu

) vu2 dv.

Presentation de trois nouvelles v.a. et de leurs lois, construites a partirde v.a. gaussiennes centrees reduites, d’usage frequent en theorie statistique.

Definition 4.1 (1) Etant donne n v.a. gaussiennes (Xi)i=1,2,..,n independantesN (0,1), la v.a. du chi-deux a n degres de liberte est definie par :

∑ni=1X

2i =

(note)χ(2)(n).

(2) Etant donne n+ p v.a. gaussiennes (Xi)i=1,2,..,n+p independantes de

loi N (0,1), et les v.a. du chi-deux χ(2)(n) = ∑ni=1X

2i et χ(2)(p) = ∑

n+pi=n+1X

2i ,

independantes par construction, la v.a. de Fisher-Snedecor F(n ; p) de para-metres (n,p) :

χ(2)(n)n

χ(2)(p)p

=(note)

F(n ; p).

Page 95: Yves caumel (auth.) probabilites et processus

84 Probabilites et processus stochastiques

(3) La v.a. de Student Tn a n degres de liberte est definie par :

U√χ(2)(n)

n

=(note)

Tn .

U est une v.a. normale N (0,1) independante de la v.a. χ(2)(n).

Theoreme 4.10 (de Fisher)Si X1, ...,Xn sont des v.a. independantes N (m,σ2), alors :

Xn =1n ∑n

i=1Xi et S2 = 1

n−1 ∑ni=1(Xi−Xn)

2 sont independantes,

et Xn est N (m, σ2

n ) et (n−1)S2

σ2 est une v.a. χ(2)(n−1).

Theoreme 4.11 (Caracteristiques des v.a. χ(2)(n), de Fisher-Snedecoret de Student)

(1) Densite de la v.a. du chi-deux a n d.d.l. χ(2)(n) :

∀x� 0 fχ(2)(n)(x) =1

2n2 Γ( n2 )

exp(− x2)x

n2−1,

E(χ(2)(n)) = n ; V (χ(2)(n)) = 2n.

(2) Densite de la v.a. de Fisher-Snedecor F(n,p) de parametres (n,p) :

∀x� 0, fF(n ; p)(x) =n

n2 p

p2 x

n2−1

β ( n2 ,p2 )(p+nx)

(n+p)2

,

E(F(n, p)) =p

p−2si p> 2.

(3) Densite de la v.a. de Student Tn a n d.d.l. :

∀x ∈ R fTn(x) =1

√nB( 1

2 ,n2 )(1+

x2

n )(n+1)

2

.

E(Tn) = 0 ;V (Tn) =n

n−2.

Preuve (1) La fonction de repartition Fχ(2)(n)

(u) est definie par :

(2π)−n2∫ ∫

r2�u exp(− 12 ∑

ni=1 y

2i )dy1...dyn ou l’on a pose r2 = ∑n

i=1 y2i .

Si Ω est l’angle solide associe aux coordonnees polaires, on a :

Fχ(2)(n)

(u) = (2π)−n2

∫dΩ∫ √u

0e(−

r22 )rn−1 dr ;

∫dΩ=

2Γ( n2 )

πn2 .

On pose t = r2 dans l’integrale ci-dessus pour aboutir au resultat. �

Les problemes 7, 8 et 9 se rapportent a ce chapitre.

Page 96: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 85

4.5 Corriges des exercices

Exercice 4.1∀k ∈ {0,1, . . . ,n1 +n2}

P([X1 +X2 = k]) =k

∑i=0

P([X1 = i])P([X2 = k− i])

=k

∑i=0

n1!i!(n1− i)!

pi(1− p)n1−i (n−n1)!(k− i)!(n−n1− k+ i)!

pk−i(1− p)n−n1−k+i

= pk(1− p)n−kk

∑i=0

(n1

i

)(n−n1

k− i

)= pk(1− p)n−k

(nk

), ou n= n1 +n2.

Exercice 4.2(1) P([Ti = k]) = (1− pi)k−1pi (loi geometrique de parametre pi).

P([T1−T2 = k]) = P

(+∞⋃i=1

([T1 = k+ i]∩ [T2 = i])

)=

+∞

∑i=1

P([T1 = k+ i])P([T2 = i])

=p1p2(1− p1)

k

p1 + p2− p1p2.

(2) P([T2 < T1]) = P([T1−T2 > 0]) = ∑k�1

P([T1−T2 = k]) = p2(1−p1)p1+p2−p1p2

(∗)

P([T2 < T1]) =p1(1−p2)

p1+p2−p1p2(il suffit d’echanger p1 et p2 dans (∗)) d’ou

P([T2 = T1]) = 1−P([T1 < T2])−P([T2 < T1]) =p1p2

p1 + p2− p1p2.

Exercice 4.3Methode du changement de variable :

fX/Y (u) =∫

fX ,Y(v,vu

) vu2 dv=

1u2

∫1]0,1[(v)1]0,1[

( vu

)vdv.

Deux cas :• 0 < u< 1 et 0 < v< 1 : fX/Y (u) =

1u2

∫ u0 vdv= 1

21]0,1](u) ;• 1 � u et 0 < v< 1 : fX/Y (u) =

12u2 1]1,+∞[(u).

fX/Y (u) =121]0,1](u)+

12u2 1]1,+∞[(u).

Au voisinage de +∞, u fX/Y (u) ∼ 12u , n’est pas integrable : X/Y a donc

une esperance infinie.

Page 97: Yves caumel (auth.) probabilites et processus

86 Probabilites et processus stochastiques

Exercice 4.4(1) X est normale (combinaison lineaire de v.a. normales).

IE(X) = m ; V (X) = σ2

n .

(2) Pour tout i, Ui est l’image par transformation lineaire du vecteur(X1, X2, · · · , Xn) : elle est donc normale d’esperance IE(Ui) = IE(Xi−X)= IE(Xi)− IE(X) = 0.

cov(Ui,Uj) = IE(((Xi−m)− (X−m)).((Xj−m)− (X−m))

)= −2IE

((Xi−m)(X−m)

)+V (X) =−σ2

n.

Par l’independance des Xi.

V (Ui) =

(1− 1

n

)2

V (Xi)+1n2 (n−1)V (Xj)

= σ2(

1− 2n+

1n2 +

1n− 1

n2

)= σ2

(1− 1

n

).

On a vu que U est de la forme A.X : donc U est gaussien.

cov(Ui,X) = IE(((Xi−m)− (X−m)).(X−m)

)= cov(Xi,X)−V (X) = 0.

Comme, pour tout i, (Ui,X) est gaussien, la decorrelation de Ui et X im-plique leur independance.

Exercice 4.6Pour toute application ϕ continue bornee definie sur R2, on obtient par

application du theoreme 4.4 :

E(ϕ(X1X2)) =

∫R2

ϕ(x1x2) fX1(x1) fX2(x2)dx1 dx2 =

∫R

ϕ(y)dPX1.X2(y).

Afin d’expliciter PX1.X2 , on developpe la premiere integrale apres avoir posey= x1.x2 :

∫DY

(∫DX2

ϕ(y) fX1

(yx2

)fX2(x2)

1|x2| dx2

)dy,

d’ou, par application du theoreme d’identification fonctionnelle :

dPY (y) =

(∫(x2 t.q. y

x2∈DX1 )

fX1

(yx2

)fX2(x2)

1|x2| dx2

)dy.

Page 98: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 87

Supposons X1, X2 independantes de loi U ([0,1]) :

fX1X2(y) =∫(0� y

x2�1) et (0�x2�1)

1x2

dx2 ;

le domaine d’integration est donc defini par ]y,+∞[∩[0,1], soit ]y,1] ; d’ou :

fX1X2(y) =∫ 1

y

1x2

dx2 =− lny.

Exercice 4.7fX2−X1(x) =

∫fX2(s). fX1(s− x)ds

P(X1 ≤ X2) = P(X1−X2 ≥ 0) =∫ +∞

0fX2−X1 .dx=

∫ +∞

0(∫

fX2(s). fX1(s− x)ds)dx

=(u=s−x)

∫fX2(s)(

∫ −∞s

− fX1(u)du)ds=∫

fX2(s).FX1(s)dx

Par symetrie, P(X2 ≤ X1) =∫fX1(s).FX2(s)ds ; si f1 = f2, alors : P(X2 ≤ X1) =

P(X1 ≤ X2) =12 .

Exercice 4.8Deux methodes :

(1) Methode de convolution : X1−X2 prend ses valeurs dans [−1,1]

fX1−X2(t) =∫

fX1(s) fX2(s− t)ds=∫ 1

01[0,1](s− t)ds.

• si t ∈ [−1,0], alors∫ 1

0 1[0,1](s− t)ds= 1+ t ;

• si t ∈ [0,1], alors∫ 1

0 1[0,1](s− t)ds= 1− t. D’ou :

fX1−X2(t) = (1+ t)1[−1,0](t)+(1− t)1[0,1](t).

Or, pour toute v.a. reelle X , f|X |(x) = ( fX (x)+ fX (−x))1[0,+∞[(x), d’ou :

f|X1−X2|(t) = 2(1− t)1]0,1](t).

P

(|X1−X2|� 1

6

)= 2

∫ 1/6

0(1− t)dt =

1136

.

(2) Methode geometrique : on represente l’espace des etats, couples destemps d’arrivee de chaque personne, par le carre [0,1]× [0,1]. L’evenement|X1−X2|� 1

6 correspond a la partie hachuree autour de la diagonale, de surface1136 .

Page 99: Yves caumel (auth.) probabilites et processus

88 Probabilites et processus stochastiques

y

1 t--------..~

5/6

1/6 x

o 1/6 5/6 1

Exercice 4.9 X et Y etant independantes, on a :

fx,y(x,y) fx(x)fy(y) = e-x l]O,+x>[(x) e-Y l]o,+oo[(Y)

e-(x+y) l]o,+oo[(x) l]o,+oo[(Y).

(U,v) = (X,X +Y) avec comme support de (X,Y) : {(x,y) E 1R.2 ; x> 0, y > a}. De U = x et v = x + y, on deduit x = U et y = v - u. On en deduit Ie support de (U,v) :

D={(U,V)E1R.2; u>O, v-u>0}={(U,V)E1R.2 ; u>O, v>u}.

h: (x,y) r-+ (u, v) = (x,x+ y) bijection de 1R.2 sur lui-meme.

h-1 : (u, v) r-+ (x,y) = (u, v - u)

fh(X,Y) (u, v) fx,y(h-1(u,v)) x IJh-l(U,v)1

fx,y(u, v - u) = fx(u)fy(v - u) = e-v l]o,+oo[(u) l]o,+oo[(v - u).

fu,v(u, v) = e-v ID(u, v) ou D = {(u, v) E 1R.2 ; ° < u < v}.

fv(v) J fu,v(u, v)du = J e-vl]o,+oo[(v)l]o,v[(u)du

e-vl]o,+oo[(v) fov du = ve-v l]o,+oo[(v).

Ainsi, V = X + Y suit la loi gamma y(1,2) : fv(v) = ve-v l]o,+oo[(v). On aurait pu calculer la loi de X + Y a l'aide de la methode classique fondee sur

Ie result at suivant : la fonction caracteristique d'une somme de plusieurs v.a. independantes est egale au produit des fonctions caracteristiques des v.a.

Page 100: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 89

Exercice 4.10PX = γ(λ ,α) et PY = γ(λ ,β ) avec X et Y independantes d’ou

fX ,Y (x,y) = fX (x) fY (y) =λα+β

Γ(α)Γ(β )e−λ (x+y)xα−1yβ−11]0,+∞[(x)1]0,+∞[(y).

(1) h : (x,y) �→ (u,v) =(x+ y, x

x+y

)definie sur R2 \ {(x,−x), x ∈ R} et

h−1 : (u,v) �→ (x,y) = (uv,u(1− v)) pour u �= 0.

fU,V (u,v) = fX ,Y (h−1(u,v))×|Jh−1(u,v)|

avec Jh−1(u,v) =v u

1− v −u =−uv−u+uv=−u et

fX ,Y (h−1(u,v)) = fX ,Y (uv,u(1− v))

=λα+β

Γ(α)Γ(β )e−λu(uv)α−1(u(1− v))β−11]0,+∞[(uv)1]0,+∞[(u(1− v))

avec

{uv> 0u(1− v)> 0

si et seulement si

⎧⎨⎩uv> 0u2v(1− v)> 0u(1− v)> 0

, soit

{v ∈]0,1[u> 0

et

fU,V (u,v) = λα+β

Γ(α)Γ(β )e−λuvα−1(1− v)β−1uα+β−11]0,+∞[(u)1]0,1[(v)

fU (u) =∫

fU,V (u,v)dv=λα+β

Γ(α)Γ(β )e−λuuα+β−11]0,+∞[(u)

∫ 1

0vα−1(1− v)β−1 dv

fV (v) =∫

fU,V (u,v)du=λα+β

Γ(α)Γ(β )vα−1(1− v)β−1 1]0,1[(v)

∫ +∞

0uα+β−1 e−λu du.

Or∫ +∞

0 uα+β−1 e−λu du(t=λu)=

∫ +∞0 tα+β−1 e−t dt× 1

λα+β = Γ(α+β )

λα+β , donc

fV (v) =Γ(α+β )

Γ(α)Γ(β )vα−1(1− v)β−1 1]0,1[(v).

Ainsi,V suit la loi beta de parametres α et β . On deduit de∫fV (v)dv= 1 :

∫ 1

0vα−1(1− v)β−1 dv=

Γ(α)Γ(β )

Γ(α+β ).

On a alors fU (u) =λα+β

Γ(α)Γ(β )e−λuuα+β−1 Γ(α)Γ(β )

Γ(α+β )1]0,+∞[(u), soit :

fU (u) =λα+β

Γ(α+β )uα+β−1 e−λu 1]0,+∞[(u).

Page 101: Yves caumel (auth.) probabilites et processus

90 Probabilites et processus stochastiques

Ainsi, U suit la loi gamma γ (λ ,α+β ).

(2) Si PX1 = E (λ ) = γ(λ ,1) = PX2 on a vu que PX1+X2 = γ(λ ,2) lorsque X1

et X2 sont independantes.Par recurrence, supposons que Zn = X1 + · · ·+Xn suit la loi γ(λ ,n) ; alors

Zn+1 = Zn+Xn+1 avec PZn = γ(λ ,n), PXn+1 = γ(λ ,1), et Zn et Xn+1 independantesdonc Zn+Xn+1 suit la loi γ(λ ,n+1).Ainsi, si les Xi sont independantes de loi E (λ ), alors X1 + · · ·+Xn suit la loiγ(λ ,n).

Plus generalement, on peut faire le meme raisonnement avec la loi gamma :si les Xi suivent la loi gamma γ(λ ,α) et sont independantes, alors X1 + · · ·+Xnsuit la loi gamma γ(λ ,nα).

Exercice 4.11Yn ∼N (80n ; 225n).

P(Yn > 1.000) = P(Yn−80n15√n > 1.000−80n

15√n

)avec Yn−80n

15√n v.a. de loi N (0; 1).

On deduit de l’indication que 4,5 ≈ 1.000−80n15√n ; donc, en posant x =

√n,

on a l’equation :80x2 +(15×4.5)x−1.000 = 0.

dont l’unique solution positive est x≈ 3,1 et donc n= 10.

Exercice 4.12

(1) FY (z) = P([Y � z]) = P([XB� z])

= P(([XB� z]∩ [B=−1])∪ ([XB� z]∩ [B= 1]))

= P(([−X � z]∩ [B=−1])∪ ([X � z]∩ [B= 1]))

=12(P([X �−z])+P([X � z]))

=12(1−FX (−z)+FX(z))

fY (z) =1

2√

[e−

(−z)22 + e−

z22

]=

1√2π

e−z22

donc Y suit aussi la loi N (0,1).

(2) X et Y sont dependantes par construction et pourtant decorrelees :

Cov(X ,Y ) = IE(X .BX)− IE(X).IE(BX) = IE(B)(IE(X2)− IE(X)2)= 0.

Page 102: Yves caumel (auth.) probabilites et processus

4. Calcul de lois 91

Exercice 4.13

(1) FZ(z) =n∏i=1

FXi(z), d’ou :

fZ(z) =n

∑i=1

fXi(z)FX1(z)FX2(z) · · ·FXi−1(z)FXi+1(z) · · ·FXn(z)

.(2) IE(X) = 1

λ , IE(max(X1,X2)) =1λ + 1

λ − 12λ = 3

2λ : donc, si on double le

circuit, le rapport des durees de vie est(

32λ

)/ 1λ = 3

2 , d’ou un gain egal a 50.

IE(max(X1,X2,X3)) =3λ − 3

2λ + 13λ = 11

6λ d’ou, un gain egal a 116 − 1 = 5

6 ,soit 83 %.

Exercice 4.15(1) [X = x1] = [U < p1] : P([X = x1]) = P([U < p1]) = p1.

[X = x2] = [p1 <U < p1 + p2] : P([X = x2]) = P([p1 <U < p1 + p2]) = p2.

Plus generalement, [X = xn] = [p1 + · · ·+ pn−1 <U < p1 + · · ·+ pn]) :

P([X = xn]) = pn.

(2) Meme methode.

Exercice 4.16

U = e−(X2+Y2)

2 et V = 12π arctan

(YX

)J = e−

x2+y22

12π

x2

x2 + y2

−x −y− y

x21x

=− 12π

e−x2+y2

2

donc dudv= 12π e

− x2+y22 dxdy, et la densite de (X ,Y ) est bien 1

2π e− x2+y2

2 sur R2.

Page 103: Yves caumel (auth.) probabilites et processus

Chapitre 5

Convergences et limites des

suites aleatoires

En theorie des probabilites, comme en analyse, il existe plusieurs typesde convergences ; pour un probleme donne, on choisit le type de convergence leplus adapte. Nous etudions successivement la convergence en loi et la conver-gence en probabilite, qui sont mises en œuvre dans les deux theoremes limitesfondamentaux que sont la loi des grands nombres et le theoreme de la limitecentrale. On introduit ensuite les notions de convergence presque sure et deconvergence en moyenne quadratique, cette derniere etant necessaire a l’etudedes processus du second ordre associes aux signaux aleatoires d’energie finiequi seront etudies au chapitre 10.

5.1 Convergence en probabilite

Considerons un tirage avec remise de n variables de Bernoulli (Bi)i=1,2,...,n,independantes de meme loi :

∀i, PBi = p.δ1 +(1− p).δ0.

On rappelle que Sn = ∑ni=1Bi est une v.a. binomiale B(n, p).

Sn denombre les v.a. de Bernoulli ayant pris la valeur 1 au cours du tirage ;on s’attend donc a ce que la frequence observee de l’evenement (B= 1) definiepar la v.a. Sn

n converge vers p lorsque n tend vers l’infini, resultat confirme parle theoreme de Bernoulli.

Theoreme 5.1 (de Bernoulli)

Etant donne une v.a. binomiale Sn de loi B(n, p), la suite des frequences

Page 104: Yves caumel (auth.) probabilites et processus

94 Probabilites et processus stochastiques

empiriques ( Snn )n∈N converge vers la v.a. constante egale a p, au sens suivant :

∀ε > 0, limn→∞

P

[∣∣∣∣Snn − p

∣∣∣∣< ε

]= 1.

Ce theoreme important en statistique justifie l’approximation d’une probabi-lite p inconnue d’un evenement donne, comme limite de la suite des frequencesempiriques de sa realisation ; il s’agit d’un premier exemple de la notion d’esti-mation, concept central de la theorie statistique. En effet, pour estimer la pro-babilite inconnue p, il suffira de proceder a n epreuves de Bernoulli (Bi)i=1,..,n,

dont on calculera la somme Sn puis la moyenne Snn pour n suffisamment grand,

par exemple n� 30.

Simulation de la convergence de Snn

Un generateur aleatoire, par exemple une piece de monnaie equilibree,permet de simuler une suite de n tirages independants de « faces » et de« piles » ; au i-eme tirage, on associe la v.a. Bi egale a 0 si on obtient « face »,et 1 si on obtient « pile ». On a donc : P(Bi = 0) = P(Bi = 1) = 1

2 .

On observe que la v.a. Snn fluctue autour de sa valeur moyenne 0,5, avec

une variance decroissante egale a V(Snn

)= 1

n2V (∑i Bi) =1n .V (Bi) =

14n . Nous

verrons plus loin que le theoreme central limite, qui met en œuvre la convergenceen loi, permet de demontrer que la loi des amplitudes des fluctuations de Sn

nautour de sa moyenne converge vers loi gaussienne.

5.1 ♠ Demontrer le theoreme de Bernoulli, en utilisant l’inegalite de Tcheby-chev (theoreme 2.9), que nous rappelons : si Y est une v.a. d’esperance m, de

variance σ2, alors ∀ε > 0, P(|Y −m|� ε)� σ2

ε2 .

Au debut du xixe siecle, Poisson etendit le theoreme de Bernoulli au cas

ou les v.a. independantes (Bi )i=1,..,n ne sont pas de loi identique : ∀i = 1, ..,nP(Bi = 1) = pi. Il demontra que la loi des grands nombres subsistait : ∀ε > 0,

limn→∞P[∣∣∣ Snn − pn

∣∣∣< ε]= 1, ou pn =

∑ni=1 pin .

Intermede biographique : de Jacques Bernoulli (1654-1705) aCarl Friedrich Gauss (1777-1855)

Premier du nom d’une illustre lignee de mathematiciens d’origine hollan-daise, Jacques Bernoulli exploita, comme de nombreux mathematiciens avantlui, les sequences obtenues au jeu de pile ou face, et mit ainsi en evidencel’identite asymptotique entre la probabilite a priori d’un evenement et la li-mite de sa frequence d’apparition, resultat qui anticipait la tres importante Loi

Page 105: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 95

des grands nombres, figurant dans son livre Ars conjectandi (L’art des conjec-tures). Il s’agissait de la premiere tentative de fondement empirique du conceptde probabilite.

En 1718, dans son ouvrage Doctrine of chances dans lequel sont definiesles notions d’independance d’evenements, de fonction generatrice, de proba-bilites conditionnelles et de probabilites composees, le mathematicien francaishuguenot Abraham de Moivre (1667-1754), exile a Londres, prolongea la loides grands nombres par la premiere formulation du theoreme de la limite cen-trale, auquel Laplace (1749-1827) puis Gauss devaient donner une forme plusgenerale. C’est ainsi qu’apparut la premiere loi de probabilite definie par unedensite, connue a present comme loi de Gauss ou loi normale, ainsi qualifieea cause de l’usage frequent qui en est fait. Laplace y voyait une preuve sup-plementaire de l’existence de Dieu et de son infinie bonte, puisqu’Il avait dotel’humanite d’une loi universelle permettant de maıtriser le hasard.

La convergence en probabilite fut mise en œuvre pour la premiere foispar J. Bernoulli.

Definition 5.1 Une suite de v.a. (Xn)n converge en probabilite vers la v.a.X si :

∀ε > 0, limn→∞

P(|Xn−X |< ε) = 1.

(On notera : Xn→(P) X .)

5.2 Convergence en loi

Definition et caracterisations de la convergence en loi, dite aussiconvergence etroite

Definition 5.2 Une suite de variables ou de vecteurs aleatoires (Xn)n de di-mension k definis sur (Ω,T ,P) converge en loi vers la variable ou le vecteuraleatoire X quand n tend vers +∞ (on notera : Xn →(L) X), si l’une des deuxpropositions equivalentes suivantes est verifiee :

(1) Pour toute fonction bornee et continue h de Rk dans R :

E(h(Xn))(n→+∞)→ E(h(X)).

(2) La limite ponctuelle de la fonction de repartition FXn quand n tendvers l’infini est FX , en tout point ou FX est continue.

(2.a) Si (Xn)n est une suite discrete et X une v.a. discrete :

(Xn→(L) X)⇐⇒ (∀xk, limn→+∞

PXn(xk) = PX (xk)).

Page 106: Yves caumel (auth.) probabilites et processus

96 Probabilites et processus stochastiques

(2.b) Si les lois des Xn et de X sont definies par des densites fXn et fX , lacaracterisation precedente (2) equivaut a la convergence ponctuelle de la suite( fXn)n vers fX .

Theoreme 5.2 La convergence en probabilite d’une suite de v.a. entraıne saconvergence en loi. La reciproque est vraie dans le seul cas ou la limite de lasuite est constante (p.s).

Les fonctions caracteristiques et generatrices sont a la base des theoremesde convergence particulierement efficaces et d’un usage frequent en pratique.

Theoreme 5.3 (de Levy) Soient une suite de variables ou de vecteurs alea-toires (Xn)n et la suite de leurs fonctions caracteristiques (ΦXn)n :

(Xn→(L) X)⇐⇒ (∀x, limn→+∞

ΦXn(x) =ΦX (x) et ΦX continue en 0).

Theoreme 5.4 Soient une suite (Xn)n de v.a. a valeurs entieres positives, gXnet gX les fonctions generatrices de Xn et de X :

(Xn→(L) X)⇐⇒ (∀s, |s|� 1, limn→+∞

gXn(s) = gX (s)).

Applications des deux theoremes precedents :

(1) La suite de v.a. (Xn)n de lois respectives B

(n ; λ

n

)(on suppose n tel

que λn < 1) converge en loi vers la v.a. de Poisson P(λ ). Prouvons ce resultat :

gXn(s) =n

∑k=0

Ckn

n

)k(1− λ

n

)n−ksk =

(1− λ

n+

λ sn

)n

,

converge vers exp(λ (s−1)) fonction generatrice de la loi de Poisson P(λ ).Ce resultat est aussi vrai pour une suite de v.a. B (n ; pn), si limn→+∞ n.pn = λ .

(2) Demonstration du theoreme de Moivre-Laplace ci-dessous (theoreme5.5), comme illustration du theoreme de Levy.

Remarque 5.1 L’approximation de Poisson de lois binomiales est valide desque n> 30 et np< 5 ; l’avantage numerique de travailler avec une v.a. de Pois-son, plutot qu’avec une v.a. binomiale, est tres appreciable quand n est grand.Montrons-le sur un exemple : soit un lot de cent ampoules, chacune a la proba-bilite 1/200 d’etre defectueuse. Calculons la probabilite pour que dix ampoulessoient defectueuses :

λ =12et P(X = 10) = e−

12 ×[

12

]10

× 110!

,

Page 107: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 97

qui est moins lourd a calculer que 100!90!10!

120010 (1− 1

200 )90 !

Intermede biographique : Paul Levy (1886-1971)Mathematicien francais, ingenieur du Corps des Mines, Paul Levy ensei-

gna durant une quarantaine d’annees a l’Ecole des mines de Paris et a l’Ecolepolytechnique. Apres des travaux en analyse fonctionnelle, il s’orienta vers latheorie des probabilites qu’il enrichit de nombreux resultats : l’utilisation dela fonction caracteristique comme outil puissant, une nouvelle demonstrationdu theoreme de la limite centrale, le developpement de la theorie des fonctionsaleatoires a accroissements independants et surtout l’approfondissement de latheorie du processus brownien.

5.2 ♠ Soient X1, X2, . . . , Xn des v.a. independantes de loi uniforme sur [−1,1]et Tn = 1

n ∑ni=1(Xi)

−1.

(1) Calculer la fonction caracteristique de (Xi)−1, au voisinage de t = 0.[Indication :

∫ +∞0

1−cosyy2 dy= π

2 .]

(2) En deduire la loi de 2Tnπ lorsque n→+∞.

(3) Montrer que P(|∑ni=1X

−1i |> nπ

2 )→ 12 , n→+∞.

5.3 ♠♠ Soient une suite de v.a. uniformes independantes (Un)n de support[0,1], independante d’une suite (Xn)n de v.a. independantes B(n, p). Vers quellev.a. converge en loi la suite (nYn)n∈N si Yn = min(0�i�Xn)Ui ? [Cet exercice neces-site la connaissance de la formule de recomposition du theoreme 6.3].

Theoreme 5.5 (de Moivre-Laplace)

Etant donnee la suite de v.a. (Xn)n∈N de loi B(n, p) ; quand n est grand,

la loi de Xnn est approchee par la loi N (p, (1−p)p

n ).

Preuve Appliquons le theoreme de Levy : pour demontrer que Yn =Xn−np√

npq

converge en loi vers la v.a. N (0,1), il suffit de demontrer que ΦYn convergesimplement vers ΦN (0,1).

ΦYn(t) = e−[it np√

npq

]ΦXn

[t√npq

]ou : ΦXn(u) = [ΦX (u)]

n ;

ΦYn(t) = e−[it np√

npq

] [pe

i t√npq +(1− p)

]n;

limn→∞ΦYn(t) = e−t22 , fonction caracteristique de la v.a. N (0,1).

En pratique, le theoreme de De Moivre est utile pour calculer des pro-babilites d’evenements de loi binomiale B(n, p) ou n est superieur a 30. Les

Page 108: Yves caumel (auth.) probabilites et processus

98 Probabilites et processus stochastiques

tabulations de la loi binomiale n’existant pas pour de grandes valeurs de n, onutilise alors l’approximation suivante tres satisfaisante des que n > 30, np etn(1− p)> 5

P(Xn = k) = FXn(k+1)−FXn(k)� F(k+1)−F(k) ;

ou F est la fonction de repartition de la loi normale N (p, p(1−p)n ). �

Deux remarques importantes

(1) Une suite de v.a. discretes peut converger en loi vers une v.a. abso-lument continue.

Illustration : la suite (Xn)n de variables discretes uniformes de lois P(Xn =kn ) =

1n+1 pour k = 0,1, ...,n, converge en loi vers la v.a. X uniforme sur [0,1].

ΦXn(t) = ∑nk=0

1n+1e

it kn = 1−eit (n+1)n

(n+1)(1−eit 1n )

converge vers eit−1it , continue en 0,

quand n tend vers +∞ : d’ou le resultat par application du theoreme de Levy,

puisque ΦX (t) = eit−1it .

(2) Inversement, une suite de v.a. admettant des densites peut convergervers une v.a. discrete. C’est le cas d’une suite de v.a. (Xn)n dont les densites( fn)n forment une suite d’unites approchees, definie en analyse fonctionnellecomme suite de fonctions positives d’integrales egales a l’unite et telles quepour tout voisinage V de 0 si petit soit-il limn→+∞

∫CV

fn(x)dx est egale a 0,converge en loi vers la v.a. constante 0.

Illustration : la suite d’unites approchees egales aux densites gaussiennes

fXn(x) =n√2π

exp(− n2 x2

2 ) de moyenne nulle et de variance egale a 1n2 converge en

loi vers la probabilite discrete δ0.

−4 −2 0 2 4

1

n=2

n=1

Figure 5.1 – Densites gaussiennes.

Page 109: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 99

Theoreme 5.6 Soient (Xn)n une suite de vecteurs aleatoires a valeurs dans Rk

et f une fonction continue de Rk dans R. Si (Xn)n converge en loi (respective-ment en probabilite) vers X , alors ( f (Xn))n converge en loi (respectivement enprobabilite) vers f (X).

5.3 Theoremes aux limites

La loi faible des grands nombres est une generalisation du theoreme deBernoulli (5.1) a la base de la methode d’estimation de la moyenne en statistiqueinferentielle.

Theoreme 5.7 (Loi faible des grands nombres)Soit une suite (Xn)n de v.a. independantes, de meme loi que X de classe L2(R)( i. e. : E(|X2|) fini), d’esperance m et de variance σ2, alors :

Xn=1n

n

∑i=1

Xi−→(P)m quand n→+∞.

Preuve V[Xn]= σ2

n et E[Xn]= m, donc grace au theoreme de Tchebychev,

si n tend vers +∞, P[∣∣Xn−m

∣∣≥ ε]� σ2

n.ε2 tend vers 0, ∀ε > 0. Conclusion :Xn −→(P) m. �

Le theoreme suivant ne suppose plus que les lois des Xi soient identiques.

Theoreme 5.8 (Loi faible generale des grands nombres)Soient les v.a. X1, X2, . . . , Xn, independantes, non necessairement de

meme loi, de moyennes m1,m2, . . . ,mn et de variances σ21 ,σ

22 , . . . ,σ

2n finies.

(1n

n

∑i=1

mi−→(n→∞) m et1n2

n

∑i=1

σ2i −→(n→∞) 0) implique :

Xn=1n

n

∑i=1

Xi−→(n→∞)m quand n→+∞.

5.4 ♠ Demontrer le theoreme precedent en appliquant l’inegalite de Tcheby-chev.

Les methodes de Monte-CarloCes methodes qui portent le nom d’une des capitales europeennes des

jeux de hasard et d’argent, aujourd’hui bien desuete, sont a la base d’algo-rithmes de simulation statistique tres puissants qui furent utilises pour la pre-miere fois, a la fin de la Seconde Guerre mondiale par des chercheurs et desmilitaires americains confrontes aux problemes poses par la mise au point del’arme nucleaire. Il s’agissait de faciliter les calculs necessaires a l’etude des re-actions nucleaires, en vue de la fabrication de la premiere bombe atomique. Les

Page 110: Yves caumel (auth.) probabilites et processus

100 Probabilites et processus stochastiques

mathematiciens americains N. Metropolis (1925-1999) et S. Ulam (1909-1984)publierent en 1949 le premier article de synthese et produisirent en 1953 lepremier algorithme de la methode de Monte-Carlo. Aujourd’hui, ces methodessont utilisees dans les telecommunications (dimensionnement des centraux), eningenierie financiere, en physique nucleaire ou dans des methodes de resolutiond’equations aux derivees partielles, et sont d’autant plus efficaces par rapportaux methodes numeriques que le nombre de variables mises en jeu dans le pro-bleme traite est grand. A l’instar des methodes numeriques, elles permettentde trouver une solution approchee a des problemes n’ayant pas de solutionanalytique exacte, en utilisant toute la puissance des calculateurs vectoriels etparalleles. Pour une application elementaire de la methode, concernant l’esti-mation d’une integrale simple, on pourra resoudre le probleme 11. La methodestandard de Monte-Carlo est une application de la loi des grands nombres :etant donne un vecteur aleatoire X = (X1,X2, ...,Xk) de densite fX , et une fonc-tion reelle g definie sur le support de X, il s’agit d’obtenir une approximationde l’integrale, E(g(X)) =

∫...∫Rk g(X). fX (x).dx, grace a une simulation de la v.a.

X, lorsque cette integrale n’est pas analytiquement calculable et que les me-

thodes numeriques ne sont pas satisfaisantes. Soit X (i) = (X (i)1 ,X (i)

2 , ...,X (i)k )i=1..n

l’echantillon obtenu par n simulations du vecteur X, et Y (i) = g(X (i)) ; la loi desgrands nombres permet de conclure :

limn→+∞

n

∑i=1

Y (i)

n= E(g(X)).

Nous abordons maintenant l’un des theoremes fondamentaux de la theo-rie des probabilites, du aux travaux de Laplace puis de Gauss. Ce theoremefonde le caractere gaussien de nombreux phenomenes apparaissant dans desdomaines aussi divers que la physique, la biologie ou l’economie.

Theoreme 5.9 (Theoreme de la limite centrale ou de Laplace-Gauss)Soit la suite (Xn)n de v.a. independantes, de meme loi, de moyenne m et devariance σ2, alors :

Xn−m(σ/

√n)−→(L) N (0,1) quand n→+∞.

Pratiquement, si n est au moins de l’ordre de la trentaine, on a les re-sultats asymptotiques equivalents :

(1) Xn−m(σ/

√n) ∼N (0,1) ;

(2) Xn ∼N

(m; σ

2

n

).

Interpretation : la moyenne de quantites aleatoires de meme loi, demoyenne m et de variance σ2, mutuellement independantes, fluctue autour de

Page 111: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 101

m, selon une loi gaussienne d’ecart type σ√n.

(3) ∑ni=1Xi ∼N

(nm ; nσ2

).

L’equivalence asymptotique (3) ne supporte pas, contrairement aux autres, le

passage a la limite quand n tend vers +∞, car V

(n∑i=1

Xi

)= nσ2 converge vers

+∞.

Preuve Utilisons le theoreme de Levy.

ΦXn(u) =

(Φ X

n(u))n

=(ΦX

(un

))n.

Par le developpement limite a l’ordre deux, il vient :

ΦX

(un

)=ΦX (0)+

unΦ′X (0)+

u2

2n2 Φ′′X (0)+o

(u2

n2

).

Or, ΦX (0) = 1 , Φ′X (0) = im et Φ′′X (0) =−(m2 +σ2).

Calculons ln(ΦXn(u)), en considerant que ln(1+ ε)≈ ε− ε2

2 si ε proche de 0 :

pour n grand , ln(ΦXn(u)) = ium+ u2

2n (−σ2)+o( 1n2 ).

D’ou ΦXn(u) ≈ eium−

u2σ22n qui est la fonction caracteristique de la v.a.

N

(m, σ

2

n

), d’ou la conclusion attendue, grace au theoreme de Levy. �

(Ce theoreme remarquable fait de la variable gaussienne un attracteurdes sommes de variables independantes de meme loi ; d’un point de vue fonc-tionnel, il resulte des proprietes du produit de convolution de mesures identiquespositives de masse unitaires.)

Le theoreme de la limite centrale, qu’on pourra designer par l’abreviationTLC ou TCL, se generalise aux suites de vecteurs aleatoires :

Theoreme 5.10 Soit la suite de vecteurs (Xn)n de dimension d, independants,de meme loi de probabilite, d’esperance m= (m1, . . . ,md) et de matrice de cova-riance Γ :

1√n

(n

∑i=1

Xk−n.m

)−→(L) vecteur N (0,Γ) quand n→+∞.

N (0,Γ) designe le vecteur gaussien d’esperance nulle et de matrice decovariance Γ.

Page 112: Yves caumel (auth.) probabilites et processus

102 Probabilites et processus stochastiques

Mise en evidence de la rapidite de la convergence en loi vers laloi normale, sous les hypotheses du theoreme de la limite centrale.

Soit la suite de v.a. independantes (Xn)n, toutes uniformement distribueessur [0,1], on sait que E(Xn) = 1

2 , V (Xn) =1

12 ; posons Sn = ∑nk=1Xk.

On demontre que fS2(x) = (1−|x−1|)1[0,2](x) et plus generalement :

fSn(x) =1

(n−1)!

(xn−11]0,n](x)−C1

n(x−1)n−11]1,n](x) + . . .

(−1)kCkn(x− k)n−11]k,n](x)

).

fSn est donc un polynome de degre (n−1) sur chaque intervalle ]k,k+1], doncde classe C n−2 (en chaque point k, il y a ajustement des polynomes jusqu’al’ordre (n−2) de derivation).

La suite (Zn)n definie par Zn =Sn−E(Sn)√

V (Sn)=

Sn− n2√n12

converge en loi vers la v.a.

gaussienne centree-reduite.On constate que des que n est superieur a sept, l’approximation de Zn

par la v.a. gaussienne N (0,1) est quasi parfaite : la resolution des ecrans nepermet pas de distinguer leurs densites respectives ! C’est dire la rapidite de laconvergence en loi vers la loi normale mise en œuvre par le theoreme centrallimite.

5.5 ♠♠ Inegalite des grandes deviations(1) Soit X une v.a. positive ayant une esperance E(X) ; demontrer l’in-

egalite de Markov :

∀λ > 0 E(X)≥ λ P(X ≥ λ ).

(2) Si X est la v.a. de Bernoulli P(X = 1) = P(X =−1) = 0,5, demontrerque pour tout α positif :

E(eα X )� eα22 .

(3) Soit la suite (Xn)n de v.a. independantes de meme loi que la v.a. deBernoulli X et Sn = ∑n

i=1Xi. Demontrer que pour tout α positif :

P(Sn > λ )� e−αλ E(eα Sn)� enα2

2 −α λ .

En deduire l’inegalite des grandes deviations :

P(Sn > λ )� e−λ22n ,

qui est bien meilleure que l’inegalite de Tchebychev.

5.6 ♠ Dans un programme de calcul, on decide d’utiliser k chiffres significatifsapres la virgule et d’arrondir tous les resultats a 1

2 10−k pres. On suppose que

Page 113: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 103

l’on effectue 106 operations successives, et que les erreurs commises pour cha-cune sont independantes, de loi uniforme sur [−a,a], ou a= 1

2 10−k. On note Sl’erreur commise sur le resultat final, et on veut calculer P(|S|� 103a). On note

Xi l’erreur commise sur la i -eme operation (donc S = ∑106

i=1Xi) ; en considerant106 comme « grand », demontrer que

√3S/103a suit approximativement une

loi gaussienne N (0,1) et conclure.

Des theoremes apparentes au T.C.L dont les hypotheses sont moins res-trictives en s’affranchissant par exemple de l’hypothese d’identite des lois desv.a. Xi, mettent en evidence, plus encore que le T.C.L., le caractere fortementattractif de la v.a. gaussienne comme limite de sommes de v.a. independantesde lois quelconques. Tel est le cas du theoreme suivant :

Theoreme 5.11 (de Lindeberg-Feller)Soit (Xn)n une suite de v.a. mutuellement independantes non necessaire-

ment de meme loi, d’esperances (mn)n et de variances (σ2n )n. Soit Fn la fonction

de repartition de (Xn−mn) et θ2n = ∑n

i=1σ2i .

Si, ∀ε > 0 limn→+∞

(1θ2n∑ni=1∫|x|>εθn

x2dFi(x))= 0 alors :

∑ni=1(Xi−mi)

θn−→(L)N(0,1), si n→+∞.

Interpretation : si les Xn−mnθn

sont uniformement petits, leur somme converge

vers une v.a. normale N (0,1). Ainsi, une v.a. resultante additivement d’ungrand nombre de causes independantes, peut etre consideree comme gaussienne.Plus encore que le TCL, le theoreme de Lindeberg-Feller, dont les hypothesessont plus realistes, justifie l’omnipresence du caractere gaussien de nombreuxphenomenes.

5.7 ♠♠ Soit une suite U1,U2, . . . ,Un de v.a. independantes de meme loi uni-forme sur [0,1]. Etudier la convergence en loi des suites :

(1) Yn = (∏ni=1Ui)

αn ou α > 0 ;

(2) Zn = eα√n(U1U2 · · ·Un)

α√n .

Intermede biographique : Pierre-Simon de Laplace (1749-1827)

Fils d’un fermier normand, Laplace commenca sa formation dans uncollege benedictin local et poursuivit ses etudes a Caen puis a Paris, ou le phi-losophe et mathematicien Jean Lerond d’Alembert (1717-1783) reconnaissant

son genie, le nomma professeur a l’Ecole militaire. Il devint peu apres professeurdans la toute recente Ecole polytechnique et participa a la reforme des poids et

Page 114: Yves caumel (auth.) probabilites et processus

104 Probabilites et processus stochastiques

mesures. Considere avec Fourier (1768-1830) comme l’un des fondateurs de laphysique mathematique, l’essentiel de son œuvre concerne le developpement etles applications de l’analyse a la mecanique celeste et aux probabilites. Laplacerassemble et synthetise dans sa Theorie analytique des probabilites parue en1812 les nombreux travaux de ses predecesseurs : Pascal, Bernoulli, de Moivreet Bayes. Il affine leurs resultats et accroıt leur theorisation en introduisant denouveaux concepts et de nouvelles methodes, comme l’independance d’evene-ments, la regle des probabilites composees, la notion de loi limite et la methodedes moindres carres si precieuse pour l’approximation et le traitement des don-nees experimentales. Prolongeant les travaux de Bernoulli, il fut le premier aetudier les suites de v.a. et proposa la notion de loi limite, ainsi qu’une theoriedes erreurs qui sera approfondie ensuite par Gauss.

5.4 Convergence presque sure

Bien qu’il s’agisse de la notion de convergence la plus naturelle, analoguea la convergence simple des suites de fonctions, son interet pratique est moindreque celui des autres types de convergence.

Definition 5.3 (Xn)n converge presque surement vers X si :

P

({ω tels que lim

n→+∞Xn(ω) = X(ω)

})= 1 (On note : Xn−→(p.s.)X).

Theoreme 5.12 La convergence presque sure d’une suite de v.a. entraıne saconvergence en probabilite et donc sa convergence en loi.

Theoreme 5.13 (Loi forte des grands nombres)Si (Xn)n est une suite de v.a. independantes, de meme loi que X telle que E(|X |)soit finie, alors :

1n

n

∑i=1

Xi−→(p.s.)E(X).

La loi forte des grands nombres s’applique aussi aux vecteurs aleatoiressi l’on remplace dans son enonce E(|X|) par E(‖X‖) ou ‖X‖ est la norme eucli-dienne du vecteur X.

Theoreme 5.14 (Loi forte des grands nombres dans le cas de loisdifferentes)

Soit (Xn)n une suite de v.a. mutuellement independantes, de lois dis-tinctes, d’esperances (μn)n et de variances (σ2

n )n :

(+∞

∑i=1

σ2i

i2convergente) =⇒ (

1n

n

∑i=1

(Xi−μi)−→(p.s.)0).

Page 115: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 105

5.8 ♠ Soit X de loi gamma γ(p,θ), de densite :

fX (x) =1

Γ(p)e−θx θ p xp−1 1R+(x).

(1) Utiliser l’expression de la fonction caracteristique d’une somme dev.a. independantes pour calculer la loi de Sn = ΣiXi, Xi de meme loi que X.

(2) Loi asymptotique de Sn quand n grand ?(3) Soit Yn = 1

n ∑ni=1X

2i . Calculer la limite presque sure de Yn, quand

n tend vers +∞.

Pour sacrifier ne serait-ce qu’une fois dans ce cours a la vulgate mathe-matique de l’economie liberale, voici un exercice de modelisation financiere !

5.9 ♠♠ Modele simplifie d’evolution du prix d’une action en Bourse

On modelise le prix Vn d’une action, a l’instant n.u, ou u est une unitede temps fixee (par exemple, un jour), par l’equation de recurrence :

Vn = (1+ r+Xnv)Vn−1

ou r est le taux d’actualisation suppose constant, v la volatilite et (Xn)n=1,2,...

une suite de v.a. independantes equidistribuees de loi 12 (δ1 +δ−1). La volatilite

v est supposee verifier : 0 < v< 1+ r , V0 > 0. (La volatilite est la variabilite acourt terme des taux d’interet.)

(1) Montrer que l’esperance de ln(1+ r+Xnv) vaut 12 ln((1+ r)2−v2) ; en

deduire que la suite ( 1n ln(Vn))n converge presque surement vers m. Traiter les

deux cas : m< 0 et m> 0.(2) Montrer que la variance σ2 de ln(1+r+Xnv) est egale a 1

4 ln(( 1+r+v1+r−v))

2 ;appliquer le TCL pour determiner la loi de limn→+∞Vn.

5.5 Convergence en moyenne quadratique

Ce type de convergence est adapte a l’etude des signaux et des processusaleatoires d’ordre deux, qui font l’objet du chapitre 10.

Definition 5.4 Une suite de v.a. (Xn)n d’ordre deux converge en moyennequadratique, vers la v.a. X d’ordre deux, si :

E((Xn−X)2)−→n→+∞0. (On note : Xn−→(m.q.)X).

Theoreme 5.15 (Convergence en moyenne quadratique vers une constante)Soit la suite (Xn)n de variables d’ordre deux :

( lim(n→+∞)

E(Xn) = m et lim(n→+∞)

V (Xn) = 0) =⇒ (Xn−→(m.q.)m).

Page 116: Yves caumel (auth.) probabilites et processus

106 Probabilites et processus stochastiques

5.10 ♠ Prouver le theoreme.

Le theoreme suivant est une version moins restrictive de la loi des grandsnombres, ne necessitant que l’hypothese de decorrelation des Xn.

Theoreme 5.16 Soit la suite de v.a. (Xn)n decorrelees deux a deux, de mememoyenne m, telle que ∃M > 0, ∀n ∈ N, σ2(Xn)<M, alors :

Sn/n−→(m.q.)m.

Preuve

E

[(Snn−m

)2]=

1n2E

⎡⎣( n

∑i=1

(Xi−m)

)2⎤⎦

=1n2E

[n

∑i=1

(Xi−m)2 +2 ∑p�=q

(Xp−m)(Xq−m)

]�

n.Mn2 .

D’ou la conclusion quand n tend vers +∞. �

Theoreme 5.17 La convergence en moyenne quadratique d’une suite de v.a.(Xn)n entraıne sa convergence en probabilite et donc sa convergence en loi.

Preuve L’inegalite de Jensen (voir theoreme 8 , chapitre 2) entraıne :

(E(Xn−X))2� E((Xn−X)2).

Or, Xn−→(m.q.)X , donc E(|Xn−X |)−→0 si n→ ∞, et sachant que :

|E(Xn−X)|� E(|Xn−X |),limn→+∞E(Xn) = E(X). D’autre part :

V (Xn−X) = E((Xn−X)2)− (E(Xn−X))2,

donc V (Xn−X)−→0 si Xn−→(m.q.)X .

L’inegalite de Tchebychev P(|Xn−X |> ε)� V (Xn−X)ε2 permet de conclure.

5.11 ♠♠ (1) Soit la suite de vecteurs aleatoires independants Zn = (Xn,Yn), dememe loi normale dont les composantes sont centrees reduites et de coefficientde correlation ρ ; on admet que V (Rn) =

cten .

(1)Etudier les convergences quadratique et presque sure de la suite (Rn)ndefinie par : Rn =

1n ∑n

i=1XiYi.(2) Soit une suite (Xn)n de v.a. independantes de meme loi de Cauchy

et Sn = ∑ni=1Xi. Les suites (Un =

Snn )n et (Vn =

Sn√n )n convergent-elles, et en quel

sens ?

Page 117: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 107

CONVERGENCE EN

MOYENNE QUADRATIQUE

CONVERGENCE

PRESQUE SURE

PROBABILITE

CONVERGENCE EN

EN LOI

CONVERGENCE

Figure 5.2 – Implications entre les divers types de convergence.

A propos du hasard en physique

(A) Le hasard en physique statistiqueDes le debut du xviii

e siecle, des physiciens observant au microscopel’agitation permanente et erratique de particules en suspension dans un liquidechauffe, pressentirent que de nombreux phenomenes d’apparence deterministeresultaient de la combinaison de micro phenomenes de nature aleatoire quileur etaient sous-jacents : tel etait le cas, par exemple, de la pression d’ungaz, consequence de l’effet statistique moyen d’une multitude de chocs alea-toires d’amplitudes infimes a l’echelle atomique. Pour expliquer la pression etla viscosite des gaz par le seul mouvement moleculaire, le physicien anglaisJames-Clerk Maxwell (1831-1879) acquis au calcul des probabilites, postulal’equirepartition aleatoire des positions et des vitesses des molecules autourde leurs moyennes, et formula ainsi l’hypothese fondatrice de la theorie cine-tique des gaz. C’est dans ce contexte qu’il appliqua avec succes la theorie desprobabilites a la modelisation du comportement statistique moleculaire.

Ludwig Boltzmann (1844-1906), thermodynamicien allemand, enrichitla physique statistique d’une hypothese qui s’est revelee etre l’une des plusprofondes sur la nature des grands systemes physiques, en postulant qu’ungaz evolue toujours vers sa situation la plus probable. Dans son œuvre d’unegrande originalite, le hasard a le statut d’un principe explicatif, au meme titreque l’omnipresent principe de causalite qui dominait encore la physique de sonepoque. L’œuvre de Boltzmann, restee longtemps incomprise, fut prolongee etenrichie par J.W Gibbs (1839-1903) a des systemes mecaniques tres generaux,dont l’impact est aujourd’hui considerable, notamment en physique statistiquequantique. A la fin du xix

e siecle coexistaient deux theories apparemment ir-reconciliables : la mecanique newtonienne de nature deterministe, dont les loisverifient le principe de reversibilite, et la physique statistique dont l’irrever-sibilite des lois est d’origine aleatoire. En physique statistique, la theorie desprobabilites pallie notre incapacite a connaıtre tous les parametres descriptifsd’un systeme constitue d’un grand nombre de composants.

Page 118: Yves caumel (auth.) probabilites et processus

108 Probabilites et processus stochastiques

(B) Le hasard en mecanique quantiqueContrairement au role qu’il joue en physique statistique, le hasard semble

etre une caracteristique intrinseque du monde quantique. En effet, les proba-bilites n’y expriment pas des erreurs de mesure dues aux limitations de nosmoyens d’investigation et ne relevent pas de la meconnaissance des processussous-jacents.

Dans les annees 1930, deux conceptions de la realite s’affrontaient ausein de la communaute des physiciens : la conception realiste pour qui la rea-lite existe independamment de la connaissance que nous en donnent les theo-ries physiques et la conception pragmatiste qui renonce a atteindre une realitepremiere. Pour Einstein (1879-1955), figure de proue de l’ecole realiste, toutetheorie physique est une representation deterministe et aussi complete que pos-sible de la realite observee ; pour lui, l’intrusion du hasard en physique quan-tique n’est qu’un pis-aller, resultant de la meconnaissance de variables cacheesinaccessibles a cause de la limitation provisoire des modeles theoriques et desmoyens d’observation et d’experimentation du moment. En opposition aux rea-listes, l’ecole de Copenhague, dont Niels Bohr (1885-1962) fut le chef de file,pensait qu’il fallait s’en tenir a une conception instrumentaliste de la sciencefondee sur la seule exigence de capacites descriptives et predictives fondees surles modeles deterministes et probabilistes. Ces debats toujours d’actualite n’ontpas permis de trancher sur la nature du hasard : est-il une propriete de la rea-lite physique et des relations qui y sont mises en œuvre ou bien resulte-t-il deslimites de nos moyens theoriques et pratiques d’investigation de la realite ?

Les problemes 10, 11 et 12 se rapportent a ce chapitre.

Page 119: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 109

5.6 Corriges des exercices

Exercice 5.1Soit Yn =

Snn ; IE(Yn) = p, V (Yn) = 1

n2 p(1− p)n = p(1−p)n . Appliquons l’inegalite

classique de Tchebychev :

pour tout ε > 0, P([∣∣∣ Snn − p

∣∣∣� ε])

�p(1−p)nε2 , donc lim

n→+∞P([∣∣Xn

n − p∣∣� ε

])=

0. On en deduit la convergence en probabilite de Yn vers p.

Exercice 5.2

(1) φ1/Xj(t) =

12

∫ 1

0

(eit/x+ e−it/x

)dx=

∫ 1

0cos( tx

)dx

= |t|∫ +∞

|t|cosyy2 dy= 1−|t|

∫ +∞

|t|1− cosy

y2 dy,

ou on a pose : x = |t|y . Donc, pour t → 0, compte tenu de l’indication,

φ1/Xj(t) = 1− π

2 |t|+o(t).

(2) On en deduit : φTn(t) =(

1− π2|t|n +o

(1n

))nconverge, quand n tend

vers +∞, vers e−π2 |t| qui est la fonction caracteristique d’une variable de Cau-

chy centree.

(3) limn→+∞

P([

2|Tn|π > 1

])= 2

π

∫ +∞0

du1+u2 = 1

2 .

Exercice 5.3

P([Yn � y]) =n

∑k=0

P([Yn � y] | [Xn = k])P([Xn = k])

=n

∑k=0

P

([min

0�i�k(Ui)� k

])P([Xn = k]).

Fmin0�i�k

(Ui)(y) = 1−P

([min

0�i�k(Ui)> y

])= 1− (1−FU (y))k+1 d’ou

FYn(y) =n

∑k=0

(1− (1− y)k+1)

(nk

)pk(1− p)n−k = 1− (p(1− y)+1− p)n(1− y).

Sachant que FaX (x) = FX(xa

)pour a> 0, on en deduit :

Fn min0�i�Xn

Ui(y) = 1−(p(

1− yn

)+1− p

)n(1− y

n

)→

n→+∞1− e−py,

Page 120: Yves caumel (auth.) probabilites et processus

110 Probabilites et processus stochastiques

qui est la fonction de repartition d’une v.a. de loi exponentielle E (p).

Exercice 5.4

IE(Snn

)=

n∑i=1

μi

n ; V(Snn

)= 1

n2

n∑i=1

σ2i .

Par l’inegalite de Tchebychev : pour tout ε > 0, P(|Xn− IE(Xn)|> ε

)�

1ε2

1n2

n∑i=1

σ2i et, par passage a la limite quand n→+∞, P(|Xn−m|> ε)→ 0. D’ou

la convergence en probabilite de Xn vers m : il s’agit d’une generalisation de laloi faible des grands nombres.

Exercice 5.5(1) IE(X) =

∫ +∞0 t dPX (t)�

∫ +∞λ t dPX (t)� λ

∫ +∞λ dPX (t) = λP([X � λ ]).

(2) IE(eαX ) = 12 (e

α + e−α) = ch(α) donc IE(eαX )� eα2/2.

(3) D’apres (1) : P([Sn > λ ]) = P([eαSn > eαλ

)� e−αλ IE(eαSn) et d’apres

l’independance des Xi, on a alors IE(eαSn) = IE(eαX )n � enα2/2, d’ou l’on deduit :

P([Sn > λ ])� e−αλ IE(eαSn)� enα2

2 −αλ .

Pour α = λn , on parvient a la majoration : P([Sn > λ ])� e−

λ22n .

Exercice 5.6

Xi erreur associee a la i-eme operation, S =106

∑i=1

Xi. Les Xi etant indepen-

dantes, de meme loi, d’apres le theoreme central limite :

S−E(S)σS

est de loi N (0;1).

Or IE(S) = 106IE(Xi), avec IE(Xi) = 0, car Xi, erreur due a l’arrondi a12 10−k pres, suit la loi uniforme sur

]− 12 10−k, 1

2 10−k[, i.e. ]−a,a[.

V(S) = 106V(Xi) (variables independantes), et V(Xi) = IE(X2i ) =

12a

∫ a−a x

2 dx= a2

3 ,

donc√

V(S) = 103 a√3et P√3S

103a

≈N (0,1). On a alors :

P([|S|� 103a]) = P

([ |S|103a

� 1

])= P

([|S√3|103a

�√

3

])= Φ(

√3)−Φ(−

√3) = 2Φ(

√3)−1.

Or Φ(√

3)≈Φ(1,732)≈ 0,958, donc P([|S|� 103a])≈ 0,916.

Page 121: Yves caumel (auth.) probabilites et processus

5. Convergences et limites des suites aleatoires 111

Exercice 5.8(1) La fonction caracteristique de Sn correspond a la loi γ(p, nθ).(2) Quand n devient grand, Sn est asymptotiquement proche (grace au

Theoreme Central Limite) de la variable normale N

(npθ , np

θ2

).

(3) D’apres la loi forte des grands nombres, Yn = 1n

n∑i=1

X2i converge presque

surement vers IE(X2).

Exercice 5.10Montrons que lim

n→+∞IE((Xn−m)2) = 0.

IE(X2n +m2−2mXn)=V (Xn)+IE(Xn)

2+m2−2mIE(Xn) →n→+∞

0+m2+m2−2m2 = 0.

Exercice 5.11(1) IE(XnYn) = cov(Xn,Yn)+IE(Xn)IE(Yn) = ρ .

La loi forte des grands nombres (theoreme 5.14) implique : 1n

n∑i=1

XiYi =

Rn converge presque surement vers IE(XnYn) = ρ . La suite (Rn)n converge en

moyenne quadratique vers ρ d’apres le theoreme 5.15.

(2) La suite (Un)n n’est pas integrable : la loi des grands nombres et letheoreme central limite ne peuvent s’appliquer. Mais,

φUn(t) =(φX

( tn

))n= e−|t| pour tout t ∈ R,

donc (Un) converge vers une variable de Cauchy identique. Pour tout t ∈ R,

φVn(t) = e−√n|t| ; φVn →

n→+∞1{0} qui est discontinue en 0 et ne peut pas etre egale

a une fonction caracteristique : (Vn)n ne converge pas en loi, et donc ne convergeselon aucun autre mode de convergence (voir schema des implications entreconvergences en fin de chapitre).

Page 122: Yves caumel (auth.) probabilites et processus

Chapitre 6

Probabilites, lois et

esperances conditionnelles

Un evenement aleatoire A conditionne un evenement B, si la realisationde B depend de celle de A. Nombreux sont les phenomenes physiques et les sys-temes mis en œuvre dans les sciences de l’ingenieur, dont les etats sont condi-tionnes. Dans ce chapitre, on construit les concepts et on expose les methodesqui permettent de modeliser et de resoudre les problemes de conditionnenentles plus generaux.

6.1 Conditionnement d’evenements

Soit un ensemble Ω de cardinal n, tel que Ω = Ω1 ∪Ω2. Si l’on tire au hasardun element dans Ω2, quelle est la probabilite p pour qu’il appartienne aussi aΩ1 ?

Posons : ni = |Ωi| et n1,2 = |Ω1∩Ω2|.

p=|Ω1∩Ω2||Ω2| =

n1,2

n2=

n1,2/nn2/n

=P(element ∈Ω1∩Ω2)

P(element ∈ Ω2).

Cette formulation ensembliste se generalise au cas d’evenements quel-conques, selon la definition suivante :

Definition 6.1 Etant donne deux evenements A et B appartenant a la tribuT definie sur un espace d’evenements Ω, la probabilite conditionnelle deB sachant A (ou de B conditionne par A), ou A est de probabilite non nulle,est definie par :

P(B sachant A) =P(A∩B)P(A)

=(note) P(B|A) ou PA(B).

Page 123: Yves caumel (auth.) probabilites et processus

114 Probabilites et processus stochastiques

Theoreme 6.1 Deux evenements quelconques A et B de probabilites non nullesverifient :

P(A∩B) = P(B|A).P(A) = P(A|B).P(B).

Definition 6.2 Deux evenements A et B sont independants si PA(B) = P(B)ou, de facon equivalente, si PB(A) = P(A) ou encore P(A∩B) = P(A)P(B).

Exemple 6.1 Soient Ω = {1,2, ...,20} et les evenements A = (etre un nombrepremier) et B= (etre un nombre de la f orme 3k+1 ou k ∈ N). Demontrons queB conditionne A :

P(A | B) = P(A∩B)P(B)

=|ΩB∩ΩA||ΩB| =

47, et

P(A) =|ΩA||Ω| =

920

different de P(A | B), donc B conditionne donc A.

6.1 ♠ Faisons l’hypothese (optimiste) que deux politiciens mentent parfois,independamment l’un de l’autre, l’un disant la verite trois fois sur quatre etl’autre quatre fois sur cinq. S’ils enoncent la meme affirmation, quelle est laprobabilite pour qu’elle soit vraie ? [On posera : E = « les deux politiciensenoncent la meme assertion » et, pour i= 1,2, Ai : « le i-eme politicien ne mentpas ».]

Theoreme 6.2 (Probabilite conditionnelle)

Etant donne un espace de probabilite (Ω,T ,P), pour tout evenement A

de probabilite non nulle, la mesure P(. ∩A)P(A) =(notee) P(. |A) ou PA(.) definit sur

(Ω,T ,P) une probabilite, dite conditionnelle par rapport a l’evenement A. Pourtout evenement B ∈T :

P(B|A) = P(B∩A)P(A)

.

Preuve P(Ω|A)= P(Ω∩A)P(A) = 1 et P(

⊎ni=1Bi|A)= P(

⊎n1 Bi∩A)P(A) =∑i

P(Bi∩A)P(A) =∑i P(Bi|A) :

P(. ∩A)P(A) definit bien une loi de probabilite. �

6.2 ♠ Propriete caracteristique des systemes « sans memoire », decrits pardes v.a. geometrique et exponentielle

Soit X une v.a. geometrique de loi P(X = k) = (1− p)k−1 p (∀k ∈ N∗).(1) Demontrer que P[X >m+n|X > n] = P[X >m]. Interpreter ce resultat

si X est la duree de vie d’un systeme.(2) Cette propriete caracterise aussi les v.a. exponentielles. Est-ce sur-

prenant ?

Page 124: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 115

Attention ! L’independance de deux evenements n’implique pas leurindependance conditionnelle par rapport a un troisieme : P(A∩B) = P(A)P(B)n’entraıne pas que P(A∩B |C) =P(A |C)P(B |C) pour un evenement quelconqueC.

Theoreme 6.3 (Formules bayesiennes) Soient (Ω,T ,P) un espace pro-babilise et une partition (Bi)i de Ω, dit systeme complet de Ω ou chaque Bi estde probabilite non nulle.

(1) Formule de recomposition : ∀A ∈T , P(A) = ∑ni P(A|Bi)P(Bi).

(2) Formule de Bayes : P(Bi|A) = P(A|Bi)P(Bi)∑ j P(A|Bj)P(Bj)

.

Preuve

(1) A= A∩ (⊎i Bi) =⊎

i(A∩B)⇒ P(A) = ∑i P(A∩Bi) = ∑i P(A|Bi)P(Bi).(2) ∑ j P(A|Bj)P(Bj) = P(A) et P(A|Bi)P(Bi) =P(Bi|A)P(A). �

Interpretation de la formule de Bayes dans le cadre d’un modelecausal.Si un evenement A resulte de l’une des n causes possibles (Bi)i incompatiblesentre elles, alors connaissant l’ensemble des P(A|Bi) et des P(Bi), la formule deBayes permet de determiner la probabilite P(Bi|A) que Bi soit la cause de A.

Exemple 6.2 Fiabilite d’un systeme de detection

Un systeme de detection repond par une alerte a la detection d’unepanne intervenant sur une machine donnee. Soient A l’evenement « l’alerte estdonnee », et B l’evenement « le systeme est en panne », verifiant les probabilitesconditionnelles suivantes : P(A|B) = 0,99 et P(A|B) = 0,002.Le probleme que se pose le service de securite est le suivant : si l’alerte estdonnee, quelle est la probabilite pour qu’elle corresponde a une panne, sachantqu’une panne survient avec une probabilite egale a 0,01 ?

Il s’agit de calculer P(B|A) egal a :

P(A|B)P(B)P(B)P(A|B)+P(B)P(A|B) =

0,99×0,010,01×0,99+0,99×0,002

� 0,83.

6.3 ♠ Le taux de reussite d’un examen donne est de 60 % pour les candidatsissus de l’etablissement A et de 80 % pour ceux issus de B. D’autre part, 55 %des candidats proviennent de A et 45 % de B.

Quel est le taux de reussite a cet examen ? Quelle est la probabilite pourqu’un candidat elimine provienne de A ?

Page 125: Yves caumel (auth.) probabilites et processus

116 Probabilites et processus stochastiques

6.4 ♠ Test du sida

On estime que 130 000 personnes sont atteintes du sida en France, peu-plee de 58 millions d’habitants ; le test de depistage a une fiabilite de 0,998. Soit0,001 la probabilite pour que le test soit positif a tort. Quelle est la probabilitequ’une personne n’ait pas le sida, alors que son test est positif ?

Pour clore cette introduction, on soumet deux paradoxes a la sagacitedu lecteur.

6.5 ♠♠ Le paradoxe des trois pieces

Soient trois pieces dont l’une a deux faces rouges, la deuxieme une facerouge et une face blanche, la troisieme deux faces blanches. Je tire au hasardl’une des pieces qui vous presente l’une de ses faces qui est rouge. Quelle est laprobabilite pour que la face masquee soit rouge ?

[On designera respectivement par rr, bb et rb les trois pieces a deuxfaces rouges, deux faces blanches et deux faces de couleurs distinctes. Il s’agirad’exprimer P(rr | face visible rouge).]

Ce paradoxe se presente aussi sous une forme plus naturelle : vous son-nez au domicile d’une famille ayant deux enfants ; la porte s’ouvre et un garconvous accueille. Quelle est la probabilite que l’autre enfant soit un garcon ?

6.6 ♠♠ Le paradoxe du prisonnier

L’expose que l’on donne de ce paradoxe, s’inspire du probleme dit deMonty Hall, qui fut un jeu televise fameux presente naguere aux Etats-Unis.Supposons qu’un prisonnier soit place devant trois portes fermees 1, 2 et 3 ;l’une d’elles lui permet de sortir definitivement de prison. Le directeur, quiconnaıt la configuration des portes, lui propose d’en choisir une au hasard etouvre, apres le choix du prisonnier, une porte qui n’est (evidemment) pas cellequi conduit a la liberte.

Le prisonnier augmente-t’il ses chances en modifiant son choix initial ?

Theoreme 6.4 (Conditionnements successifs)

Soient les evenements A1,A2, . . . ,An verifiant P(A1∩ . . .∩An−1)> 0, alors :

P(⋂n

i=1Ai) = P(An|A1∩ . . .∩An−1)P(An−1|A1∩ . . .∩An−2) . . .P(A1).

Preuve (par recurrence) La propriete est evidente pour n = 2 et supposeevraie pour n−1 .

Demontrons la pour tout n : P(⋂n

i=1Ai) = P(An|A1∩ . . .∩An−1)P(A1∩ . . .∩An−1) = P(An|A1∩ . . .∩An−1)P(An−1|A1∩ . . .∩An−2) · · ·P(A1). �

Page 126: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 117

6.2 Lois conditionnelles

Dans ce paragraphe, il s’agit d’expliciter la probabilite conditionnelledans chacun des quatre cas, caracterise par le caractere discret ou continu desvariables conditionnantes et des variables conditionnees.

6.2.1 Loi d’une variable discrete conditionnee par une

variable discrete

Theoreme 6.5 Etant donne un vecteur aleatoire (X ,Y ) defini sur (Ω,T ,P) avaleurs dans le sous-ensemble au plus denombrable D⊂ R×R, de loi conjointePX ,Y connue. La loi conditionnelle de Y sachant X est definie par :

∀(xi,y j) ∈ D tel que PX (xi) �= 0 :

PY (y j|X = xi) = PY |X=xi(y j) =P(X = xi,Y = y j)

PX (xi).

Preuve Application de la definition de la probabilite conditionnelle a B : (Y =y j) sachant A : (X = xi). �

Exemple 6.3 Une source radioactive emet X particules, ou X est une v.a. dePoisson d’intensite λ : chaque particule emise est detectee avec la probabilitep. Soit Y le nombre total de particules detectees. Determinons la loi de Y .

Pour tout i� k, P(Y = k|X = i) =( ik

)pk(1− p)i−k ; la loi conditionnelle de

Y sachant X est donc binomiale B(i, p). D’ou par la formule de recomposition :

P(Y = k) =∑i�k

(ik

)pk(1− p)i−ke−λ

λ i

i!=

e−λ p (pλ )k

k!.

Conclusion : Y est de loi de Poisson de parametre pλ .

Definition 6.3 La moyenne des valeurs de Y conditionnee par l’evenementX = xi est egale a :

∑jy j PY (y j|X = xi) =(notee) E(Y |X = xi),

dite esperance ou moyenne conditionnelle de Y sachant (X= xi).

Theoreme 6.6

E(Y ) = ∑ni=1P(X = xi)E(Y |X = xi).

Page 127: Yves caumel (auth.) probabilites et processus

118 Probabilites et processus stochastiques

Preuve

n

∑i=1

P(X = xi)E(Y |X = xi) =n

∑i=1

P(X = xi)∑jy j PY (y j|X = xi)

= ∑jy j

n

∑i=1

PX ,Y (xi,y j) = E(Y ).

Exemple 6.4 Soit le vecteur (X ,Y ) de distribution definie par la figure 6.1.

3

8

5

12

y

x

3/15

2/15

1/15 4/15

1/15 3/15

1/15

2 4 8

Figure 6.1 – Repartition discrete.

Determination de quelques probabilites marginales et conditionnelles :

P(X = 2) = 1+2+315 = 6

15 = 25 , P(X = 8) = 3+1

15 = 415 ou P(Y = 5) = 1+2

15 = 15 ;

P(Y=5|X=2) = 13 .

E(Y |X = 2) =(3× 3

15 +5× 215 +12× 1

15

)× 156 = 31

6E(Y |X = 4) =

(8× 1

15 +12× 415

)× 155 = 56

5E(Y |X = 8) =

(5× 1

15 +8× 315

)× 154 = 29

4 d’ou E(Y ) = 11615 .

Definition 6.4 La variance de Y conditionnee par (X= xi) est definiepar :

E((Y −E(Y |X = xi))2|X = xi) =(note) V (Y |X = xi).

6.7 ♠♠ Les nombres de vehicules X et Y a destination des villes A et B, pas-sant par un poste de controle commun, sont des v.a. independantes de Poissond’intensites respectives a et b. Determiner la loi conditionnelle de X sachant(X+Y ), l’esperance E(X | X +Y = n) et la variance V(X | X +Y = n).

Page 128: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 119

6.8 ♠ Soient X , Y des v.a. independantes de meme loi uniforme sur {−1,0,1} .Calculer P(X < Y ) et E(Y | X < Y ).

6.2.2 Loi d’une variable absolument continue conditionnee

par une variable discrete

On considere des vecteurs aleatoires mixtes dont l’une des composantesY est discrete tandis que l’autre X est continue.

Definition 6.5 Un vecteur aleatoire (X ,Y ) defini sur R×D, ou D est un espaceau plus denombrable, est mixte si sa loi P(X ,Y ) est definie par :

∀(B,yk) ∈ βR×D : P(X ,Y )(B,yk) =∫Bf (x,yk)dx

ou f est une fonction mesurable positive qui verifie ∑k∫R f (x,yk)dx= 1.

Les lois marginales de X et Y sont definies par :

fX (x) =∑k

f (x,yk);

PY (yk) =∫R

f (x,yk)dx.

Exemple 6.5 Soit le couple (X ,Y ) defini sur R+×N pour lequel :

f (x,k) = e−2x xk

k!.

Il est facile de montrer que :∫R+

∑k f (x,k)dx= 1.

fX (x) = ∑k f (x,k) = ∑k e−2x xk

k! = e−x ; X est donc une v.a. exponentielleE (1).

PY (k) =∫R+

f (x,k)dx =∫R+ e−2x xk

k! dx =(

12

)k+1; Y est de loi geometrique

de parametre 12 . Conclusion : les v.a. X et Y sont dependantes.

Theoreme 6.7 Etant donne le couple mixte (X ,Y ), la densite conditionnellede X sachant (Y = yk) est definie par :

fX/(Y=yk)(x) =f (x,yk)∫

R f (x,yk)dx(p.p.) =

f (x,yk)PY (yk)

si PY (yk) �= 0.

Page 129: Yves caumel (auth.) probabilites et processus

120 Probabilites et processus stochastiques

Preuve On recherche la loi conditionnelle de X sachant Y sous la forme d’unefonction g verifiant :

∀k entier et B borelien, P(X ∈ B | Y = yk) =∫Bg(x,yk)dx (∗)

∀B, P(X ∈B |Y = yk) =P(X ∈ B,Y = yk)

P(Y = yk)=

∫B f (x,yk)dx∫R f (x,yk)dx

=∫B

f (x,yk)dx∫R f (x,yk)dx

(∗∗)

L’egalite de (∗) et (∗∗), pour tout B et k, permet de deduire :

g(x,yk) =(p.p.)f (x,yk)∫

R f (x,yk)dx=(notee) fX/(Y=yk)(x).

Dans l’exemple 6.5, fX/Y=k(x) = 2k+1. xk

k! .e−2x ; la densite conditionnelle

fX/Y=k de X sachant Y = k est donc la densite de la loi gamma de parametres(k,2).

6.2.3 Loi d’une variable discrete conditionnee par une va-

riable absolument continue

On se place sous les memes hypotheses qu’en 6.2.2.

Theoreme 6.8 La loi de probabilite conditionnelle de la v.a. discrete Y par lav.a. absolument continue X, est discrete et definie pour tout x tel que fX (x) �= 0par :

∀yk P(Y = yk | X = x) =f (yk,x)fX (x)

=fX/Y=yk(x)P(Y = yk)

fX (x).

6.9 ♠ Soit la v.a. Y de loi B(n,X) ou le parametre X est une v.a. U ([0,1]).

P(Y = k|X = x) =

(nk

)xk(1− x)n−k,∀k ∈ {0,1,2, . . . ,n} .

Determiner les lois de Y et de X conditionnee par Y . (voir la definitionde la fonction beta dans le formulaire mathematique.)

Dans l’exemple 6.5, P(Y = k | X = x) = e−x. xk

k! ; on pourra verifier que laloi conditionnelle de Y sachant X = x est donc une loi de Poisson de parametrex.

6.2.4 Loi d’une variable continue conditionnee par une

variable continue

Theoreme 6.9 Etant donne le vecteur aleatoire (X,Y) de densite f(X ,Y ) telleque ∀x, fX (x) �= 0, la loi conditionnelle de Y sachant X = x est absolument

Page 130: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 121

continue, de densite :

f(X ,Y )(x,y)

fX (x)=(note) fY/X=x(y).

Preuve Pour tout borelien B appartenant au support de Y et pour tout xtel que fX (x) �= 0, on desire exprimer P(Y ∈ B| x < X � x+Δx) sous la forme(∗) ∫B gx(y)dy, ou gx est une densite portee par le support de Y .

(∀B) P(Y ∈ B| x< X � x+Δx) =P((x< X � x+Δx) ∩ (Y ∈ B))

P(x< X � x+Δx)

=

∫B f(X ,Y )(x,y)Δxdy

fX (x)Δx=∫B

f(X ,Y )(x,y)dy

fX (x).

L’identification de cette derniere expression avec (∗), pour tout borelien B,entraıne :

gx(y) =f(X ,Y )(x,y)

fX (x)(p.p.).

L’esperance conditionnelle E(Y | X = x) de Y sachant (X = x) s’exprimesous une forme analogue a celle de la definition 6.4 :

E(Y | X = x) =∫

y fY/X=x(y)dy.

Exemple 6.6 Soit f(X ,Y )(x,y) = λ 2 e−λy de support D= {(x,y)|0 � x� y}.

fX (x) =∫ +∞

xλ 2e−λydy= λ e−λx et fY (y) = λ 2ye−λy.

∀x ≥ 0, fY/X=x(y) = λe−λ (y−x) 1[x,+∞[(y) et ∀y > 0, fX/Y=y(x) =1y1]0,y](x) qui est

la densite de la v.a. uniforme sur ]0,y].

Theoreme 6.10 (Caracterisation de l’independance de v.a. absolu-ment continues)

X ,Y independantes⇐⇒⎧⎨⎩∀y, fX = fX/Y=y (p.p.), ou∀x, fY = fY/X=x (p.p.), ouf(X ,Y ) = fX . fY (p.p).

6.10 ♠ Soit le vecteur aleatoire (X ,Y ) uniformement reparti sur le supportcarre ci-dessous :

Page 131: Yves caumel (auth.) probabilites et processus

122 Probabilites et processus stochastiques

0 x X

Y

y

Support de (X/Y=y)

Support de (Y/X=x)

+∞

x

y

0 1

1

−1

−1

(1) Determiner la loi conjointe, les lois marginales et conditionnelles. (2)Les composantes sont-elles independantes ?

6.2.5 Loi d’une variable continue conditionnee par un eve-

nement quelconque

Soit X : (Ω,T , P)→ (R, βR) et E ∈T tel que P(E) �= 0.

Definition 6.6 La fonction de repartition conditionnelle de X sachant E est

definie par : ∀x ∈ R, P(X � x |E) = P({ω∈Ω t.q. X(ω)�x}∩E

)P(E)

(notee)= FX/E(x).

Theoreme 6.11

fX/E(x) =P(E |X = x) · fX (x)

P(E).

Preuve

P(E |x< X � x+h) =P(x< X � x+h |E) ·P(E)

P(x< X � x+h)�h · fX/E(x) ·P(E)

h · fX (x)

Page 132: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 123

quand h est proche de 0.

D’ou : limh↓0

P(E |x< X � x+h) = P(E |X = x) =fX/E(x) ·P(E)

fX (x). �

Le theoreme suivant generalise au cas continu la formule de recompo-sition ou des probabilites totales que nous rappelons : si (Bi)i est un systemecomplet d’evenements (

⊎i Bi = Ω), alors pour tout evenement A de T on a

P(A) = ∑i P(A |Bi) ·P(Bi).

Theoreme 6.12 Pour toute v.a. X absolument continue definie sur (Ω,T ,P)et tout evenement E de T , on a :

P(E) =∫

P(E |X = x) · fX (x)dx.

Preuve Pour tout h> 0,

P(E) = ∑i∈Z

P(E |X ∈ ](i−1)h, ih]) ·P(X ∈ ](i−1)h, ih])(notee)= Ph(E).

Faisons tendre h vers 0 :

P(X ∈ ](i−1)h, ih]) −→ h · fX (ih),P(E |X ∈ ](i−1)h, ih]) −→ P(E |X = ih).

Ph(E)−→∫R

P(E |X = x) · fX (x)dx. �

Ce resultat se generalise aux vecteurs aleatoires.

Soit par exemple, (X ,Y ) de densite fX ,Y sur R+×R+ et E = (X/Y � 1).

P(XY

� 1) =∫∫

P(XY

� 1 |X = x,Y = y) · fX ,Y (x,y)dxdy

=∫ ∞

0

(∫0� x

y�1fX ,Y (x,y)dy

)dx

=∫ ∞

0

(∫ ∞

xfX ,Y (x,y)dy

)dx.

On retrouve evidemment ce resultat grace a la methode de calcul de lois (voirchapitre 4) :

P(XY

� 1) =∫ 1

0fX/Y (u)du

=

∫ 1

0

(∫ ∞

0fX ,Y(x,xu

)· xu2 dx

)du

=∫ ∞

0

(∫ 1

0fX ,Y(x,xu

)· xu2 du

)dx.

Page 133: Yves caumel (auth.) probabilites et processus

124 Probabilites et processus stochastiques

Apres avoir pose y= xu , il vient :

P(XY

� 1) =∫ x

(∫ ∞

0fX ,Y (x,y) · y

2

x·(− xy2

)dy

)dx

=∫ ∞

0

(∫ ∞

xfX ,Y (x,y)dy

)dx.

6.11 ♠ Resoudre le probleme de Buffon (Exercice 3.2) grace au theoreme 6.12.[Indication : P( X

cos(Θ) <l2 ) =

∫P( X

cos(Θ) <l2 | Θ= θ). fΘ(θ)dθ .]

Notions de fiabilite

La fiabilite d’un systeme est caracterisee par sa probabilite d’accom-plir une tache donnee dans des conditions determinees et pendant une periodedonnee. Dans l’environnement economique et technique actuel ou les couts dedefaillance peuvent etre tres penalisants, il est necessaire de developper desetudes de fiabilite permettant de garantir une maintenance de qualite.La duree de vie ou date de premiere panne d’un systeme est decrite parune v.a. T , absolument continue et reelle positive, de fonction de repartitionFT . On supposera que le systeme une fois repare retrouve ses qualites initiales.

Definition 6.7 On appelle fonction de fiabilite ou de survie d’un systemede duree de vie T la fonction qui a tout temps t positif associe la probabiliteque le systeme soit encore en vie au temps t :

RT (t) = P(T > t) = 1−FT (t).

Definition 6.8 Le taux de defaillance moyen λ (t; t+h) entre les temps tet t+h est la probabilite que le systeme tombe en panne entre t et t+h sachantqu’il n’est pas tombe en panne avant t, divisee par h :

λ (t; t+h) =P(t < T � t+h |T > t)

h=

P((t < T � t+h)∩ (T > t))hP(T > t)

=P(t < T � t+h)

hP(T > t)=

FT (t+h)−FT (t)h(1−FT (t))

=RT (t)−RT (t+h)

hRT (t).

Definition 6.9 Le taux de defaillance instantane λ (t) au temps t est de-fini par :

λ (t) = limh→0

λ (t; t+h) =−R′T (t)RT (t)

.

Definition 6.10 On designe par MTTF, abreviation de l’anglais mean timeto failure, la duree moyenne du bon fonctionnement d’un systeme et par MTBF(mean time between failure) l’intervalle de temps moyen entre deux defaillancesconsecutives d’un systeme reparable.

Page 134: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 125

6.12 ♠ ♠ Etude de deux modeles classiques(1) Si le systeme n’est pas soumis a un phenomene cumulatif d’usure et

que, d’autre part, il n’a pas de defaut de jeunesse, le taux de defaillance peutetre considere constant egal a λ . Etablir l’equation differentielle verifiee parfT (t) lorsque λ (t) = λ et la resoudre. Verifier que le systeme est sans memoireet calculer sa MTTF.

(2) Dans le cas, plus realiste, ou le taux de defaillance n’est pas constant,on utilise le modele de Weibull defini par le taux de defaillance :

λ (t) =β

η

(t− γ

η

)β−1

si t > γ

= 0 si t � γ (β > 0,η > 0,γ � 0).

0

0.5

1

1.5

2

0 1 2 3 4 5

β=2; η=0.5β=3; η=1.5β=4; η=3

Figure 6.2 – Densites de Weibull.

Caracteriser le taux de defaillance selon la valeur de β dans chacun destrois cas : 0 < β < 1, β = 1, β > 1. Determiner la fonction de fiabilite et mon-trer que E(T ) = ηΓ(1+ 1

β )+ γ .

(3) On suppose que γ = 0. Demontrer :

β ∈ ]0,1[ =⇒∀t,s P(T > t+ s|T > s)> P(T > t) ;

β > 1 =⇒∀t,s P(T > t+ s|T > s)< P(T > t).

Interpreter ces resultats.

(4) Soient n systemes identiques regis par le modele de Weibull, structu-res en serie. Calculer la loi de la duree de vie du systeme en serie (Ti etant laduree de vie du systeme i).

Page 135: Yves caumel (auth.) probabilites et processus

126 Probabilites et processus stochastiques

On considere que la duree de vie d’un systeme est partitionne en troisperiodes :

- la periode J de rodage ou de jeunesse du systeme, qui est la plus courte,pendant laquelle il est soumis aux defaillances immediates des la mise en marchedu systeme, affectant les composants de moindre qualite ; au cours de cetteperiode λ (t) decroıt ;

- la vie utile U du systeme, periode pendant laquelle les defaillances sontdues a des causes accidentelles, defauts residuels correspondante a un taux dedefaillance constant qui atteint sa plus petite valeur ;

- la periode de vieillesse V du systeme pendant laquelle il est soumis aune usure croissante due aux effets cumulatifs du vieillissement : λ (t) croıt.

λ(t)

tJ U V

Figure 6.3 – Evolution classique du taux de defaillance selon la courbe dite enbaignoire.

6.3 Esperance conditionnelle

Etant donne une v.a. Y inobservable, dependante d’une v.a. X obser-vable, il s’agit de determiner une nouvelle v.a. fonction de X , notee Φ∗(X), quiapporte le plus d’information possible sur la v.a. inobservable Y . Dans une pre-miere approche, on recherche la fonction Φ∗ verifiant :

Φ∗(X) minimise E((Y −Φ∗(X))2) (les v.a. X et Y sont supposees de mo-ment d’ordre deux fini).

(1) Cas ou on recherche Φ∗(X) sous la forme d’une constante c.

E((Y −c)2) =V (Y )+(E(Y )−c)2 atteint son minimum pour c= E(Y ) quiest donc la meilleure approximation par une constante de la v.a. Y .

Page 136: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 127

(2) Supposons que le vecteur (X ,Y ) est de densite fX ,Y :

E((Y −Φ(X))2) =∫ ∫

(y−Φ(x))2 fX ,Y (x,y)dxdy

=∫ [∫

(y−Φ(x))2 fX ,Y (x,y)fX (x)

dy

]fX (x)dx

=∫ [∫

(y−Φ(x))2 fY/X=x(y)dy

]fX (x)dx (∗).

Cette integrale positive est minimale si la fonction de x∫(y−Φ(x))2 fY/X=x(y)dy

est minimale. Il y a une forte analogie entre la minimisation de l’integrale (∗)et celle de E((Y −c)2) dans (1), egal a

∫(y−c)2 fY (y)dy, puisque dans (∗), Φ(x)

joue le role d’une constante par rapport a la variable d’integration. On conclutdonc que :

Φ∗(x) =∫

y fY/X=x(y)dy= E(Y | X = x).

Definition 6.11 La meilleure approximation quadratique d’une v.a. Y par unev.a. X est nommee esperance conditionnelle de Y sachant X et notee :

E(Y | X).

On la determine a partir de l’expression de E(Y |X = x).

Exemple 6.7(1)(X ,Y ) de densite λ 2 e−λy et de support D= {(x,y)| 0 � x� y}.

Etant donne la densite conditionnelle fY/X=x(y) = λe−λ (y−x)1[x,+∞[(y), l’espe-rance de Y conditionnee par X = x est egale a

E(Y | X = x) = x+1λ,

d’ou il vient :

E(Y | X) = X+1λ.

(2) Suite de l’exercice 6.7 :

E(X |X+Y = n) = n aa+b d’ou : E(X |X+Y ) = a(X+Y )

a+b .

On verifie que E(E(X |X+Y )) = aE(X+Y )a+b = a, et de facon analogue que

E(Y |X+Y ) = b(X+Y )a+b et E(E(Y | X+Y )) = b.

Page 137: Yves caumel (auth.) probabilites et processus

128 Probabilites et processus stochastiques

Construction geometrique de l’esperance conditionnelle

Considerons l’espace vectoriel hilbertien H = L2(Ω,T ,P) des v.a. reellespossedant un moment d’ordre deux fini, que l’on munit du produit scalaire(U |V )≡ E(UV ) et donc de la norme quadratique ‖U‖=

√E(U2).

A toute v.a. X ∈ H, on associe la tribu engendree TX definie par{X−1(B) | B ∈ BR} et le sous-espace ferme HX de H defini par HX = L2(Ω,TX ,P)constitue par les v.a. fonctions de X .

On vient de voir que pour toute v.a. Y ∈ H, la fonction Φ(X) egale aE(Y |X) minimise ‖Y −Φ(X)‖. L’esperance conditionnelle E(Y |X) est determi-nee P-presque surement, c’est-a-dire a un sous-ensemble negligeable pres (voirdefinition 1.4). Compte tenu des proprietes des espaces hilbertiens H et HX , onpeut appliquer le theoreme de la projection unique sur un sous-espace ferme,resultat classique d’analyse fonctionnelle : ‖Y −E(Y |X)‖ est minimal si et seule-ment si E(Y |X) est la projection orthogonale unique de Y sur HX .

L’operateur esperance E(.) est, dans ce cadre geometrique, l’operateurqui projette orthogonalement toute v.a. Y sur le sous-espace Hc des v.a. constantesreelles. Dans la figure suivante, H est represente par l’espace euclidien a troisdimensions, HX par le plan et Hc par une droite issue de O.

0

SOUS ESPACE

DES V.A CONSTANTES

E(Y/X)

E(Y)

Y

Figure 6.4 – Representation euclidienne.

Theoreme 6.13 (Proprietes de l’esperance conditionnelle)On suppose que les variables conditionnees ont un moment d’ordre deux fini.

(1) Linearite : E(aX +bY |Z) = aE(X |Z)+bE(Y |Z) ou a et b reels.

(2) Croissance : si Y � X (p.s.), alors pour toute v.a. Z,

E(Y |Z)� E(X |Z) (p.s.).(3) Si Y est independante de X , alors

E(Y |X) = E(Y ) (p.s.).

Page 138: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 129

(4) Pour toute fonction φ bornee :

E(φ(X)Y |X) = φ(X)E(Y |X).(5) Propriete de l’esperance totale : pour tout vecteur aleatoire (X ,Y ),

E(E(Y |X)) = E(Y ).

(6) Pour toute fonction φ bornee, E(φ(X)Y ) = E(φ(X)E(Y |X)).

(7) Majoration de la variance de l’esperance conditionnelle :

V (E(Y |X))�V (Y ).

(Interpretation : si X conditionne Y , toute observation de X apporte uneinformation sur Y et en reduit donc la variance.)

Preuve (1) (2) sont triviales.(3) La v.a. E(Y |X) est de la forme ϕ(X), laquelle est independante de Y :

elle est necessairement constante et egale a E(Y ).(4) Pour toute fonction-test ψ, P(X ,Y ) integrable,

E(ψ(X ,Y )|X = x) = E(ψ(x,Y )|X = x) ;

prenons ψ(x,Y ) = ϕ(x)Y. Pour tout x,

E(ϕ(X)Y |X = x) = E(ϕ(x)Y |X = x) = ϕ(x)E(Y |X = x),

d’ou l’egalite attendue.(5) E(Y |X) est la projection orthogonale de Y sur le sous-espace L2

X ,que l’on projette ensuite sur le sous-espace des v.a. constantes pour obtenirE(E(Y |X)) ; le theoreme des trois perpendiculaires de la geometrie hilbertienneou euclidienne permet de conclure.

(7) Demonstration qui s’apparente a (5) : il suffit de considerer dans L2

le triangle rectangle de cotes Y , E(Y |X) et (Y −E(Y |X)), et de lui appliquer letheoreme de Pythagore. �

6.13 ♠ Demontrer la propriete (6).

Attention ! L’independance de deux v.a. n’implique pas necessairementl’independance de leurs esperances conditionnelles. Montrons cela sur un contre-exemple classique : considerons (X ,Y ) un vecteur gaussien centre reduit decovariance nulle et les v.a. S= X+Y et D= X−Y .

(S,D) est un vecteur gaussien centre, de covariance E((X +Y )(X −Y ))nulle, donc de composantes independantes et pourtant E(S|X) = X et E(D|X) =X , donc S et D ne sont pas conditionnellement independantes par rapport a X .

Page 139: Yves caumel (auth.) probabilites et processus

130 Probabilites et processus stochastiques

Theoreme 6.14 (Regression lineaire de Y par rapport a X)La meilleure approximation quadratique de Y par une fonction affine de X (sup-posee de variance non nulle) est la v.a. Y definie par :

Y =

(ρX ,Y

σYσX

)X+

(E(Y )−ρX ,Y

σYσX

E(X)

).

La droite de regression de Y par rapport a X est definie par l’equation :

y= ax+b, ou a= ρX ,YσYσX

et b= E(Y )−aE(X).

Preuve Il s’agit de minimiser φ(a,b) = E[(Y − (aX+b))2](a,b)∈R2.

La fonction φ(a,b) est convexe ; son minimum est donc atteint pour lesvaleurs de a et b qui annulent ses derivees partielles :{

∂φ∂a = 0 ⇔ E[X(Y − (aX+b))] = 0∂φ∂b = 0 ⇔ E[Y − (aX+b)] = 0

=⇒{

E(X2)a+E(X)b = E(XY )E(X)a+b = E(Y )

d’ou, sachant que σX �= 0 :

{a= E(XY )−E(X)E(Y )

σ2X

= ρX ,YσYσX

b= E(Y )−aE(X)�

De facon symetrique, la meilleure approximation affine de X par Y estdefinie par :

X = ρX ,YσX

σYY +E(X)−ρX ,Y

σX

σYE(Y ).

Dans ce cas, l’equation de la regression est definie par x = αy+β , avecα = ρX ,Y

σXσY

et β = E(X)−αE(Y ).

Dans le cadre de la theorie de la regression lineaire, le couple de v.a.(X ,Y ) fait l’objet d’observations donnant lieu a un echantillon (xi,yi)i=1,...,n apartir duquel on estime la pente a et l’ordonnee a l’origine b, en utilisant lamethode des moindes carres.

0

y2

Y

x1 x2 x3 xi X

y3

y1

yi

DROITE DE REGRESSION

Figure 6.5 – Regression lineaire.

Page 140: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 131

Remarque 6.1 (a) Les droites y= ax+b et x= αy+β ne sont generalementpas confondues, sauf dans le cas ou ρX ,Y =±1.

(b) La relation fonctionnelle entre Y et X peut evidemment relever d’unmodele non affine, par rapport aux parametres inconnus, de forme analytiquequelconque (polynomiale, exponentielle ou autre). Bien que de structure iden-tique, le probleme qualifie alors de regression non lineaire, plus delicat a re-soudre, necessite generalement l’utilisation de methodes numeriques.

(c) Le probleme de regression lineaire est generalisable au cas d’une v.a.Y conditionnee par un ensemble de n v.a. X1,X2, . . . ,Xn ; il sera alors questionde regression multiple ou multilineaire.

On rassemble ici les deux types d’approximation quadratique d’une v.a.Y en fonction d’une v.a. X :

Theoreme 6.15 Si (X ,Y ) est un vecteur aleatoire tel que E(X2) et E(Y 2)soient finis, les proprietes suivantes sont verifiees :

(1) La meilleure approximation quadratique de Y par une fonction affinedependant de X est la v.a. Y :

Y =

(ρX ,Y

σYσX

)X+

(E(Y )−ρX ,Y

σYσX

E(X)

).

(2) L’esperance conditionnelle E(Y | X) est la meilleure approximationquadratique de Y par une fonction quelconque ϕ(X ) :

pour toute fonction ϕ : E((Y −E(Y | X))2)� E((Y −ϕ(X))2).

La construction de l’esperance conditionnelle dans le cadre general de latheorie de l’integration exposee ci-dessous peut ne pas etre abordee lors d’unepremiere approche. La structure de cette construction, moins intuitive que laconstruction hilbertienne, repose sur le theoreme suivant :

Theoreme 6.16 Soient Y une v.a. reelle integrable definie sur l’espace proba-bilise (Ω,T ,P), et T ∗ une sous-tribu de T . Il existe une v.a. Y ∗ reelle, definiesur Ω verifiant :

Y ∗ est T -mesurable, P-integrable ; ∀E ∈T ∗∫EY (ω)dP(ω) =

∫EY ∗(ω)dP(ω). (6.1)

Toute v.a. Y ∗∗ verifiant (6.1) est P-presque surement egale a Y ∗ (Y ∗∗ =Y ∗ saufeventuellement sur un ensemble de probabilite nulle).

Definition 6.12 On appelle esperance conditionnelle de Y sachant T ∗,notee E(Y |T ∗), un representant de la classe d’equivalence des v.a. Y ∗ veri-fiant (6.1).

Page 141: Yves caumel (auth.) probabilites et processus

132 Probabilites et processus stochastiques

Soit une v.a. reelle integrable X , distincte de Y , on lui associe la sous-tribu TX de T qu’elle engendre, definie par :

TX ={X−1(B) |B ∈ βR

}.

D’apres le theoreme precedent, l’esperance conditionnelle E(Y |TX ) estdonc une v.a. Y ∗ T ∗

X -mesurable, unique P-presque surement, verifiant :

∀E ∈TX ,∫EY ∗(ω)dP(ω) =

∫EY (ω)dP(ω).

Un theoreme classique de la theorie de la mesure et de l’integration affirme queY ∗ est necessairement de la forme Y ∗ = ϕ∗(X) ou ϕ∗ est une fonction borelienne.On peut alors enoncer le theoreme suivant :

Theoreme 6.17 Pour tout couple de v.a. reelles integrables (X ,Y ), il existeune fonction borelienne ϕ∗ telle que :

∀E ∈TX ,

∫EY (ω)dP(ω) =

∫Eϕ∗(X)(ω)dP(ω). (6.2)

ϕ∗(X) est l’esperance conditionnelle construite precedemment.

L’unicite P-presque sure de Y ∗ se traduit par l’unicite PX -presque surede la fonction ϕ∗, qui est un des representants des fonctions egales a ϕ∗ saufeventuellement sur un ensemble de probabilite nulle, par rapport a PX .

Remarque 6.2 Pour E =Ω, l’equation (6.2) s’identifie au theoreme de l’espe-rance totale : E(Y ) = E(E(Y |X)).

En effet :

E(Y ) =∫ΩY (ω)dP(ω) =

∫R

ydPY (y),

que l’on calcule autrement :∫ΩE(Y |X)(ω)dP(ω) =

∫X(Ω)

E(Y |X)dPX =∫R

E(Y |X = x)dPX (x) = E(E(Y |X))

= E(Y ).

6.4 Variance conditionnelle

Definition 6.13 Etant donne deux v.a. X et Y , la variance conditionnellede Y sachant X est la v.a. definie par :

E((Y −E(Y |X))2|X) =(note) V (Y |X).V (Y |X = x) exprime la dispersion quadratique de Y autour de l’esperance

conditionnelle E(Y |X = x).

Page 142: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 133

Theoreme 6.18 (Propriete de la variance totale)Pour tout couple de v.a. (X ,Y ) :

V (Y ) = E(V (Y |X))+ V (E(Y |X)).

Comme on l’a deja mentionne, dans le cadre de la geometrie hilber-tiennne definie sur L2(Ω,T ,P), la propriete de la variance totale equivaut autheoreme de Pythagore applique au triangle rectangle de cotes Y, E(Y ), E(Y |X).

Preuve V (Y ) = E((Y −E(Y |X)+E(Y |X)−E(Y ))2)= E((Y − E(Y |X))2) + 2E((Y − E(Y |X))(E(Y |X)− E(Y ))) + E((E(Y |X)−

E(Y ))2).Le dernier terme est egal a V (E(Y |X)), le premier terme est egal a E(V (Y

|X)) ; quant au terme median, il est nul, puisque Y −E(Y | X) est orthogonal aHX , donc a E(Y | X)−E(Y ). �

6.14 ♠ ♠ Esperance et variance de la taille d’une population constituee d’unnombre aleatoire de sous-populations

Soit un nombre aleatoire N de populations de tailles decrites par les v.a.(Xi)i=1,..,N independantes entre elles, de meme loi que X et independante de N :posons S= ∑N

i=1Xi etant la taille de la population totale.Demontrer : E(S) = E(N)E(X) et V (S) = E(N)V (X)+V (N)(E(X))2.

6.15 ♠♠ Soient (Xn)n une suite de v.a. independantes identiquement distri-buees, de densite f X et N une v.a. entiere positive, independante des Xn. PosonsSN = ∑N

i=1Xi.

(1) Determiner la loi conditionnelle de N sachant SN = x, puis la loi deSn ou n est fixe. Calculer l’esperance de SN .

(2) Application : X ∼ E (λ ) et N est la v.a. geometrique G (p).[On rappelle que la somme de n v.a. independantes E (λ ) suit une loi gammaγ(λ ,n).]

6.16 ♠♠ Soient une v.a. exponentielle X de parametre λ et la v.a. Y dont ladensite conditionnelle fY/X=x par rapport a X = x est egale a 1[x,x+1].

(1) Determiner la loi de (X ,Y ) et son support. Calculer E(Y | X = x),E(Y ), E(Y 2 | X = x), E(Y 2).

(2) Determiner la densite de Y .(3) Soit la suite (Tn)n definie par Tn = 1

n ∑ni=1(Yi− 1

2 ). Determiner la v.a.vers laquelle la suite (Tn)n converge en probabilite, les Yi etant de meme loi queY .

(4) Quelle est la loi limite de la suite definie parWn =1√n ∑n

i=1(Yi− 1λ − 1

2 ) ?

Page 143: Yves caumel (auth.) probabilites et processus

134 Probabilites et processus stochastiques

6.5 Loi et esperance conditionnelle des vecteurs

gaussiens

On utilise les memes notations qu’au chapitre 3.5 auquel il convientde se reporter avant d’aborder ce paragraphe. Le theoreme fondamental duconditionnement gaussien nous dit que la meilleure approximation E(Y |X) d’unvecteur gaussien Y , par une fonction du vecteur gaussien conditionnante X , esttoujours une fonction affine de la forme AX+B.

Theoreme 6.19 Soit le vecteur gaussien de dimension deux (X ,Y ), d’espe-rance mathematique m = (E(X),E(Y )) et de coefficient de correlation ρ(X ,Y ).L’esperance conditionnelle E(Y |X) s’exprime sous la forme de la fonction af-fine de X definie par :

E(Y |X) = AX+B ou A =ρ(X ,Y )σY

σXet B= E(Y )−AE(X);

V (Y |X = x) = σ2Y (1−ρ2

(X ,Y ));

fY/X=x(y) =1

σY√(1−ρ2

(X ,Y ))√

2πe(− (y−E(Y |X=x)2

2V(Y |X=x) ).

On generalise le theoreme precedent au cas de deux vecteurs gaussiensX et Y sous la condition que leur ensemble (X ,Y ) soit un vecteur gaussien.

Theoreme 6.20 (du conditionnement gaussien general) Soit (X1,X2, . . . ,Xn1 ,Y1, . . . ,Ynun vecteur gaussien de dimension n1+n2 constitue par les vecteurs X =(X1,X2, . . . ,Xn1)et Y = (Y1, . . . ,Yn2).

Posons : mX = E(X), mY = E(Y ) , Γ=

(ΓX ΓX ,Y

ΓY,X ΓY

)la matrice de cova-

riance de (X ,Y ). L’esperance conditionnelle E(Y |X) est le vecteur de dimensionn2 defini par la fonction affine de X

E(Y |X) = mY +ΓY,X Γ−1X (X−mX )

t ,

et de matrice de covariance

ΓY −ΓY,X Γ−1X ΓX ,Y .

Les lois conditionnelles de l’un des vecteurs X ou Y par rapport a l’autresont gaussiennes. L’esperance de Y sachant (X = x) est definie par :

E(Y |X = x) = mY +ΓY,X Γ−1X (x−mX ).

Page 144: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 135

6.17 ♠♠ Soit le vecteur gaussien centre (X1, X2, ..., Xn) de matrice de cova-riance Γ, il s’agit de determiner E(Xn |X1, X2, ..., Xn−1).

(1) Determiner E(XnXi) pour tout i= 1,...,n−1 ; en deduire un systemelineaire de n−1 equations dont la solution permet d’exprimer

E(Xn|X1, X2, ..., Xn−1).

(2) Appliquer cette methode au vecteur (X1, X2, X3) pour lequel

Γ=

⎛⎝ 3 6 26 14 32 3 6

⎞⎠ .

En deduire l’esperance conditionnelle de X3 sachant (X1,X2).

6.6 Notions d’entropie et d’information

La notion d’entropie fut introduite en 1854 par le thermodynamicienallemand Rudolph Clausius (1822-1888) en thermodynamique, pour quantifierl’etat de desordre moleculaire d’un systeme. La theorie de l’information s’estdeveloppee dans les annees 1950 autour d’une reflexion critique sur les modeleset les techniques de communication. Le but que s’etaient assigne, en 1948, sesfondateurs Shannon (1916-2001) et Weaver (1894-1978), ingenieurs en genieelectrique aux Laboratoires Bell, etait de mathematiser les concepts d’entropieet d’information dans le but de resoudre les problemes poses par le codage etl’optimisation de la transmission des messages. Shannon, s’inspirant de l’expres-sion de l’entropie thermodynamique de Boltzmann, definit d’abord l’entropied’une loi de probabilite discrete. Il s’agit d’une application H attribuant a toutedistribution de probabilite finie (p1, p2, .., pn), son entropie H(p1, p2, .., pn),definie par les proprietes suivantes :

(1) continuite par rapport a (p1, p2, . . . , pn);

(2) invariance par permutation : H(p1, p2, . . . , pn) = H(pσ(1), . . . , pσ(n))pour toute permutation σ de l’ensemble {1,2, . . . ,n};

(3) H(p1, p2, . . . , pn) = H(p1 + p2, . . . , pn)+(p1 + p2)H( p1p1+p2

, p2p1+p2

).

Shannon construisit la fonction H verifiant (1), (2), (3) :

H(p1, p2, . . . , pn) =−n

∑i=1

pi log2(pi).

Les mathematiciens russes Fadeev et Khinchine demontrerent en 1957l’unicite de cette fonction. Le logarithme de base deux (log2) permet d’attribuer

Page 145: Yves caumel (auth.) probabilites et processus

136 Probabilites et processus stochastiques

une entropie egale a l’unite a la distribution de probabilite ( 12 ,

12 ) qui, comme

chacun sait, possede l’incertitude maximale : en effet tout autre schema proba-biliste binaire de la forme (p, 1− p) avec p �= 1

2 , a une issue moins incertaine.

L’entropie H(p1, p2 , .., pn) est donc une mesure de l’incertitude a la-quelle est confronte tout observateur avant la realisation d’une v.a. discrete deloi (p1, p2, .., pn).

Theoreme 6.21 (Proprietes de l’entropie)

(1) H(p1, p2, .., pn) est maximale si et seulement si (p1, p2, .., pn) estequidistribuee (∀i, pi = 1

n ).

(2) H(1, 0, 0..., 0) = H(0, 1, 0, ..., 0) = ...= H(0, 0, ..., 1) = 0.

Preuve Pour demontrer (1), demontrons d’abord que pour toute distribution

(p′1, p

′2, ..., p

′n), −∑n

i=1 pi log2(pi)�−∑ni=1 pi log2(p

′i) (inegalite de Gibbs).

Sachant que ∀x reel, logx� x−1 : log2(p′ipi)�

p′ipi−1. On en deduit :

∑i pi log2(p′ipi)� ∑i(p

′i− pi) = 0 et le resultat attendu.

Si pi = 1n , le maximum de H est atteint et vaut log2 n.

La demonstration et l’interpretation de la propriete (2) sont triviales. �

6.18 ♠ (1) Demontrer que l’application H verifie les axiomes (1), (2), (3).(2) Soit deux urnes contenant des boules : la premiere contient 4 boules

blanches, 3 noires, 2 rouges ; la seconde contient 3 blanches, 5 noires et 1 rouge.Quelle est la distribution de plus grande entropie ? La conclusion confirme-t-ellevotre intuition ?

Le concept d’entropie a ete etendu de facon naturelle aux distributionsde probabilites discretes infinies ou definies par des densites.

Definition 6.14 Une v.a. X de densite fX possede l’entropie H(X), dite diffe-rentielle :

H(X) =∫R

− fX (x) ln( fX (x))dx,

definie si fX ln( fX ) ∈ L1(R).

(A la difference de l’entropie d’une distribution discrete, l’entropie differen-tielle peut prendre des valeurs negatives.)

Page 146: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 137

6.19 ♠♠ Caracterisation de certaines lois de probabilites par la maximalitede leurs entropies

(1) Demontrer, grace a l’equation d’Euler-Lagrange du calcul des varia-tions, que de toutes les v.a. centrees de support R, de variance σ2 fixee, la v.a.normale est celle qui maximise l’entropie, laquelle est egale a 1

2 log2(σ2 2eπ).

Il s’agit la d’une remarquable et nouvelle caracterisation de la v.a. normale,parmi de nombreuses autres exposees dans ce cours. Interprete dans le cadrede la theorie des signaux aleatoires, ce resultat nous dit qu’a puissance egale P,le bruit gaussien centre est celui qui a la plus grande entropie. En effet, P estegal a E(X2) : la loi qui maximise l’entropie 1

2 log2(σ22eπ) sous la contrainte

E(X2)� P est la loi gausienne N (0,σ2).On demontre de facon analogue que parmi les v.a. definies sur R+ de moyennedonnee m, la v.a. exponentielle de parametre λ = 1

m est celle qui a l’entropiemaximale.(2) Utiliser la methode des multiplicateurs de Lagrange, pour demontrer quede toutes les v.a. definies sur N∗ d’esperance m, la v.a. d’entropie maximale estla v.a. geometrique de parametre p= 1

m .

Intermede historique : l’entropie en physique statistiqueLudwig Boltzmann (1844-1906), fondateur de la physique statistique,

proposa dans le cadre de ses travaux la celebre formule S = k log (W ) qui meten relation le nombreW d’etats possibles d’un grand nombre de particules d’unsysteme donne avec l’entropie physique S du systeme.

Supposons un ensemble de n particules indiscernables telles que chacuned’elles se trouve dans l’un des etats E1,E2, . . . ,Ek : une configuration de l’en-semble des particules est donc decrite par le k-uplet (n1, . . . ,nk) , ou ni est lenombre de particules occupant l’etat Ei. On suppose n tres grand (multiple de1023). Le nombreW de configurations correspondant a l’etat (n1, . . . ,nk) est egalau coefficient multinomial :

W =n!

n1! . . .nk!.

L’entropie physique moyenne notee HB est definie par :

HB(n) =1n

log2W.

Compte tenu de la grandeur de n, on demontre grace a la formule deStirling que :

limn→+∞

HB(n) =−k

∑i=1

pi log2(pi), ou pi =nin.

6.20 ♠♠ Selon le deuxieme principe de la thermodynamique, un systeme isoleen etat d’equilibre se trouve toujours dans l’etat d’entropie maximale. Suppo-sons n particules et k etats possibles d’energie {Ei}i ; determiner la configuration

Page 147: Yves caumel (auth.) probabilites et processus

138 Probabilites et processus stochastiques

d’entropie maximale des n particules, sachant que l’energie moyenne de chaqueparticule est egale a E = ∑k

i=1 pi Ei. [Indication : il s’agit, comme dans l’exerciceprecedent, d’un probleme d’optimisation sous contraintes resoluble par la me-thode de Lagrange.] Demontrer que l’on parvient a la distribution de probabilitede Boltzmann :

∀i= 1, ...,k P(systeme ait l’energie Ei) =Cexp(−αEi),

ou C et α sont des constantes positives, que l’on n’essaiera pas d’identifier.

Une approche constructive de l’entropie et de l’information

Si b est un entier et x un reel, tous deux superieurs a 1, logb(x) est uneapproximation de la longueur du vecteur codant l’ecriture de x dans une basede longueur b ; ainsi, pour b= 2 et x= 30, la partie entiere de log2(30) est egalea 4, longueur du codage du nombre 30 dans la base {0, 1}. La propriete dela fonction logarithme logb(x)+ logb(y) = logb(x.y) s’interprete en disant que lalongueur du vecteur codant le nombre x.y est a peu pres egale a la somme deslongueurs des codages de x et y.

Ce qui vient d’etre dit pour les nombres s’etend aux ensembles : en effet,toute partie d’un ensemble E de n elements peut etre codee par un nombre debits egal a b = (Partie entiere log2(n))+ 1 (il suffit de mettre en bijection unepartie quelconque de E et le n-uplet (a1, ...,ab) forme de 0 et de 1, qui la decrit).

Considerons un message M = (m1, ...,mr) de longueur r ; il s’ecrit avecles lettres d’un alphabet donne A = {a1, ...,an} et M ∈ A r. Soit ri le nombred’occurrences de ai dans le message M, alors r = ∑n

i=1 ri, etrir est egal a la fre-

quence d’occurrences de ai dans le message M. Ainsi, pour transmettre M, ondoit d’abord transmettre r1, ..,rn ce qui necessite au moins n log2(r) bits, puis unnombre au plus egal au nombre c = r !

r1!..rn! de messages possibles, qui contient

log2(c) informations. Le nombre total I(r) de bits requis est donc compris entrelog2(c) et log2(c)+ n log2(r). On demontre, grace a la formule de Stirling, quela quantite moyenne de bits par symbole transmis est asymptotiquement egalea −∑n

i=1 pi log2(pi) ou pi = limr→+∞rir . (voir : B.Bercu et D.Chafaı . Qu’est-ce

que la simulation ?)

La notion d’information necessite l’extension de la notion d’entropie ades distributions probabilistes de supports inclus ou egaux a Rk ; on presentele cas d’un vecteur aleatoire a deux dimensions.

Definition 6.15 L’entropie du vecteur aleatoire (X ,Y ), de loi (P(X = xi, Y =y j)≡ pi, j)i∈I, j∈J est definie par :

H(X ,Y ) =−∑i, j)

pi, j log2 pi, j.

Page 148: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 139

Theoreme 6.22

(X et Y independantes)⇔ (H(X ,Y ) = H(X)+H(Y )).

Preuve (X et Y independantes)⇒∀i, j pi, j = pi.p. j.

H(X ,Y ) = −∑(i, j)

pi, j log2 pi, j =−∑(i, j)

pi.p. j log2(pi.p. j)

= −∑(i, j)

pi.p. j(log2(pi.)+ log2(p. j))

= −∑(i, j)

pi.p. j log2(pi.)−∑(i, j)

pi.p. j log2(p. j)

= −∑ipi. log2(pi.)−∑

jp. j log2(p. j) = H(X)+H(Y ).

Reciproquement,−∑(i, j) pi, j. log2 pi, j =−∑i pi. log2(pi.)−∑ j p. j log2(p. j) entraıneque :

−∑(i, j)

pi, j(log2 pi, j− log2(pi.p. j) =−∑(i, j)

pi, j.(log2pi, jpi.p. j

) = 0.

pi, jpi.p. j

� 1, implique que l’equation precedente n’est verifiee que si pi.p. j =

pi, j. �

Definition 6.16 L’information mutuelle entre les evenements (X = xi) et(Y = y j) est definie par :

log2(P(X = xi | Y = y j)

P(X = xi))≡ (notee) I(xi, y j).

Exemple 6.8 Le canal binaire symetrique

Il s’agit du canal de transmission mettant en relation un emetteur sus-ceptible d’envoyer un 0 ou un 1 avec la probabilite 1

2 , a un recepteur recevantchacun de ces messages avec la probabilite (1− p).

1 1

0 0

X

1− p

1− p

p

p

1/2

1/2

Page 149: Yves caumel (auth.) probabilites et processus

140 Probabilites et processus stochastiques

On suppose que X decrit le message emis et Y le message recu.

P(Y = 1,X = 1) = P(Y = 1 | X = 1)P(X = 1) = P(Y = 0,X = 0) = 1−p2 ;

P(Y = 1,X = 0) = P(Y = 1 | X = 0)P(X = 0) = P(Y = 0,X = 1) = p2 .

Calculons les informations mutuelles :

I((X = 1),(Y = 1)) = I((X = 0),(Y = 0)) = log2(1− p);I((X = 1),(Y = 0)) = log2 p.

Interpretation :- si p= 1

2 , toutes les informations mutuelles sont nulles : le message emiset le message recu sont independants ;

- si p < 12 , on en deduit que si 1 est recu, la probabilite pour que 1 ait

ete emis est superieure a 12 .

Definition 6.17 L’information moyenne du vecteur aleatoire (X ,Y ) estdefinie par :

I(X ,Y ) = ∑(i, j)

pi, j I(xi, y j) = ∑(i, j)

pi, j log2pi, jp. j pi.

.

Definition 6.18 L’entropie conditionnelle moyenne de X connaissant Yest definie par :

H(X/Y ) = H(X ,Y )−H(Y ) =−∑(i, j)

pi, j logpi, jp. j

.

L’entropie conditionnelle moyenne H(X |Y ) mesure l’incertitude residuellemoyenne de X lorsque l’on connaıt Y . L’information I(X ,Y ) apportee par la rea-lisation de Y sur X est egale a la diminution d’entropie de X due a la realisationde Y :

I(X ,Y ) = H(X)−H(X/Y ).

Theoreme 6.23 (Proprietes de l’entropie et de l’information moyenned’un vecteur aleatoire)

(1) Symetrie : l’information apportee par Y sur X est egale a l’informa-tion apportee par X sur Y ; d’ou le nom d’information mutuelle.

I(X ,Y ) = I(Y,X).

(2) Positivite :I(X ,Y )≥ 0.

Interpretation : la connaissance d’une occurrence d’une des deux v.a. diminuel’incertitude sur l’occurrence de la deuxieme.(3) Extensivite : H(X ,Y )� H(X)+H(Y ).

Page 150: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 141

Interpretation : l’incertitude moyenne des occurrences d’un couple dev.a. est toujours inferieure a la somme des incertitudes de chaque v.a. L’egaliteetant verifiee dans le seul cas ou X et Y sont independantes.

Illustration : l’entropie d’une langue naturelle

Toute langue naturelle utilise en moyenne chaque lettre de l’alphabetavec une probabilite qui lui est propre et que l’on peut estimer grace a unechantillon representatif des textes ecrits dans ladite langue. Pour le francais,c’est la lettre E qui arrive en tete avec une frequence egale a 0,175, puis A avecune frequence egale a 0,084, puis apparaissent successivement S, I et T avecles frequences respectives 0.079, 0.073 et 0.07 ; l’entropie moyenne d’une lettrevaut 3,98 bits.

Considerant cette fois les couples de lettres consecutives comme occur-rences du vecteur aleatoire (X1,X2), on calcule :

I(X2,X1) = H(X2)−H(X2 | X1)< 3,98.

Cette inegalite confirme une loi linguistique : toute occurrence d’unelettre a l’interieur d’un mot est dependante des occurrences des lettres voisinesprecedente et suivante. Par exemple, chacun sait qu’en francais la probabilitede trouver deux W ou deux Y consecutifs est nulle. Des linguistes ont poursuivice type d’etude pour l’ensemble de n-uplets de lettres : ils ont ainsi pu estimerpar exemple des probabilites conditionnelles de la forme PX3|(X1,X2) dans le casdes triplets (X1,X2,X3) parcourant les lettres de l’alphabet. Operant ensuite parsimulation, ils ont genere, grace a la connaissance des estimations de probabi-lites conditionnelles, des suites de sequences de lettres d’autant plus prochesdes mots de la langue consideree que les lettres conditionnantes etaient nom-breuses. Dans le cas des triplets d’occurrences de lettres des mots anglais, onobtient des sequences simulees qui ressemblent ou sont meme des mots anglais,tels que : in, no, ist, last, crat, forthe, the, birs. Interessant, non ?

6.7 Retour sur la notion de hasard

Une approche contemporaine, fondee sur les suites aleatoires, proposeune conception radicalement nouvelle et utile de la notion de hasard. Dansle cadre de ses travaux sur les fondements de la theorie des probabilites, lemathematicien americain von Mises (1883-1953) s’etait pose le probleme de lacaracterisation de toute suite infinie aleatoire equirepartie, composee de 0 et de1. La question etait la suivante : de toutes les suites infinies formees de 0 et de 1,lesquelles peuvent-etre considerees comme aleatoirement equireparties, sachantqu’elles resultent de lancers successifs et independants d’une piece equilibreeou pile vaut 1 et face vaut 0 ?

L’hypothese la plus naturelle avancee pour caracteriser une suite alea-toire est qu’elle ne doit pas resulter de l’application d’une regle de produc-tion deterministe, ce qui exclut par exemple les suites (0,1,0,1,0,1,0,1,0,1,...)

Page 151: Yves caumel (auth.) probabilites et processus

142 Probabilites et processus stochastiques

ou (0,0,1,0,0,0,1,1,0,0,1,0,0,0,1,1,0,...) de motifs periodiques respectifs egaux a(0,1) et a (0,0,1,0,0,0,1,1). Mais alors, que penser de la suite de Champernowneegale a (0,1,1,0,1,1,1,0,0,1,0,1,1,1,0,1...) d’apparence aleatoire, alors qu’elle estdefinie par la suite des entiers exprimes en base deux ?

La deuxieme hypothese prise en compte est l’hypothese de normalite quipostule qu’une suite infinie de 0 et de 1 est dite normale si :

(a) les frequences d’apparition de 1 et 0 sont egales a 12 ;

(b) les frequences de chacun des couples (0,0), (0,1), (1,0), (1,1) sont

egales a(

12

)2, et generalement celles des 2n-uplets sont egales a ( 1

2 )n.

On demontre que la condition de normalite est necessaire, mais nonsuffisante pour assurer le caractere aleatoire d’une telle suite.

En 1966, le mathematicien Martin-Lof mit un terme (provisoire !) auprobleme de la caracterisation d’une suite aleatoire. La presentation rigoureusede sa theorie necessitant des notions de logique avancee telle que la recursivitene saurait etre abordee ici ; on en resumera toutefois l’idee centrale en disantqu’une suite de 0 et de 1 est aleatoire, si son information est incompressibleau sens ou l’algorithme de longueur minimale la generant contient plus d’infor-mation que la suite qu’il permet de produire. On concoit en effet qu’il est plusfacile de generer la suite (0,1,0,1,0,1,0,1,0,1,0,...) qu’une suite produite par ungenerateur aleatoire.

La mathematisation de la notion de suite aleatoire releve de la theo-rie de la complexite et fait l’objet de recherches tres actives. Pour un exposeaccessible et detaille de ces questions, on pourra consulter par exemple : J.PDelahaye, Information, complexite et hasard ou B.Bercu et D.Chafaı, Qu’est-ceque l’information ?

Les problemes 13 et 14 se rapportent a ce chapitre.

Page 152: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 143

6.8 Corriges des exercices

Exercice 6.1Soit E l’evenement « les deux personnes enoncent la meme assertion » et

Ai l’evenement « le i-eme politicien ne ment pas », alors E = (A1∩A2)∪(A1∩A2)et la probabilite cherchee est P((A1∩A2)/E).Or P((A1 ∩A2)∩E) = P(A1 ∩A2) = P(A1)P(A2) et P(E) = P(A1 ∩A2) +P(A1 ∩A2) = P(A1)P(A2)+P(A1)P(A2), car les deux personnes agissent independam-ment. Avec P(A1) =

34 et P(A2) =

45 , on obtient P(A1 ∩ A2) =

1220 et P(E) =

1220 +

120 = 13

20 , d’ou :

P((A1∩A2)|E) = 1213≈ 0,92.

Exercice 6.2(1) Propriete d’absence de memoire.

P([X > m+n]/[X > n]) =P([X > m+n])P([X > n])

=

+∞

∑k=m+n+1

(1− p)k−1p

+∞

∑k=n+1

(1− p)k−1p

= (1− p)m = P([X > m]).

(2) La loi exponentielle etant l’analogue continu de la loi geometrique(voir chapitre 2), on pouvait s’attendre a ce resultat.

Exercice 6.3Taux de reussite 60×55

1002 + 80×451002 = 69 %.

Soient A : « etre issu de A » et E : « etre en echec » :

P(A|E) = P(A∩E)P(E)

=P(E|A)P(A)

P(E)≈ 71 %.

Exercice 6.4Soit M l’evenement « etre malade du sida » et T+ l’evenement « le test

est positif ».

Il s’agit de determiner PT+(M) = P(M∩T+)P(T+)

.

On connaıt P(T+|M) = 10−3, P(M) = 13058 000 = 13

5 800 , P(M) = 1− 135 800 =

5 7875 800 et la fiabilite du test est P(T+|M) = 0,998.

P(M∩T+) = P(T+|M)P(M)

Page 153: Yves caumel (auth.) probabilites et processus

144 Probabilites et processus stochastiques

P(T+) = P(T+∩M)+P(T+∩M) = P(T+/M)P(M)+P(T+/M)P(M)

d’ou finalement :

P(M|T+) =P(T+|M)P(M)

P(T+|M)P(M)+P(T+|M)P(M)=

10−3× 5 7875 800

10−3× 57875 800 +0,998× 13

5 800

=5,787

5,787+12,974≈ 5,787

18,761≈ 0,31.

Il y a environ 31 % de chances de ne pas avoir le sida alors que le testest positif.

Exercice 6.5Notations :rr « la piece tiree a les deux faces rouges »rb « la piece tiree a une face rouge et une face blanche »

bb « la piece tiree a les deux faces blanches »R « la face visible de la piece presentee est rouge »

B « la face visible de la piece presentee est blanche ».Il s’agit de calculer P(rr/R).

P(rr|R) =P(rr∩R)P(R)

=P(R|rr)P(rr)

P(R|bb)P(bb)+P(R|rb)P(rb)+P(R|rr)P(rr)

=13

0+ 12 × 1

3 +1× 13

=23.

On s’attendait plutot a une probabilite 1/2 !

Exercice 6.6• Si le prisonnier ne change pas, pour qu’il gagne, il faut qu’il ait pris la

bonne porte des le debut, soit 1 chance sur 3.

• Si le prisonnier change de porte apres l’indication, pour gagner, il fautqu’au depart il ait choisi une mauvaise porte : probabilite egale a 2/3, caralors le directeur est oblige d’ouvrir l’autre mauvaise porte et, en changeant,le prisonnier tombe sur la bonne porte. La meilleure strategie consiste donc achanger.

Exercice 6.7X ∼P(a), Y ∼P(b) et X et Y sont independantes : on sait alors que

X +Y ∼ P(a+ b), grace a la stabilite par sommation de v.a. independantespoissonniennes.

Page 154: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 145

P[X+Y=n]([X = k]) =P([X = k]∩ [X+Y = n])

P([X+Y = n])=

P([X = k]∩ [Y = n− k])P([X+Y = n])

=P([X = k])P([Y = n− k])

P([X+Y = n])

par independance de X et de Y .Si k /∈ [[0,n]], P[X+Y=n]([X = k]) = 0, sinon :

P[X+Y=n]([X = k]) =e−a a

k

k! e−b bn−k

(n−k)!e−(a+b) (a+b)n

n!

=Cknakbn−k

(a+b)n=Ck

n

(a

a+b

)k( ba+b

)n−k

donc P[X+Y=n]X est de loi B

(n, a

a+b

)et IE[X+Y=n](X) est egal a n× a

a+b .a

a+b est

la proportion moyenne de voitures a destination de A ; sachant qu’il y a eu entout n voitures, le nombre moyen de voitures est n× a

a+b .

Exercice 6.8P(X < Y ) = P((X ,Y ) ∈ {(−1,0),(−1,1),(0,1)}) = 3

(13

)2= 1

3 .

E(Y |X < Y ) = ∑yyP(Y = y|X < Y ) =∑

yyP((Y = y)∩ (y> X))

P(X < Y )

= −1.P(−1 > X)+0.P(0 > X)+1.P(1 > X) =23.

.

Exercice 6.9P([Y = k]) =

(nk

)∫ 10 xk(1−x)n−k dx= n!

k!(n−k)!(n−k)!k!(n+1)! = 1

n+1 donc Y est de loi

uniforme sur {0,1, · · · ,n}.

fX/Y=k(x) =

(nk

)xk(1− x)n−k(

1n+1

) 1[0,1](x).

Exercice 6.10(1) f(X ,Y )(x,y) =

121D(x,y) ou D est le carre.

fX (x) =∫ 1

−1

121D(x,y)dy= (1+ x)1[−1,0](x)+(1− x)1[0,1](x).

Par analogie, fY (y) = (1+ y)1[−1,0](y)+(1− y)1[0,1](y).

Page 155: Yves caumel (auth.) probabilites et processus

146 Probabilites et processus stochastiques

fX/Y=y(x) =fX ,Y (x,y)fY (y)

. Si par exemple, y ∈ [0,1],

fX/Y=y(x) =121D(x,y)(1− y)

=1[y−1;1−y](x)

2(1− y).

(2) Les composantes ne peuvent pas etre independantes, puisque le sup-port n’est pas egal au produit des supports des composantes.

Exercice 6.12(1) L’equation λ = −R′T (t)

RT (t)avec RT (0) = 1 admet la solution RT (t) =

e(−λ t) : T est, comme on pouvait s’y attendre, de loi exponentielle E (λ ).

(2) Pour calculer IE(T ), on pose u=(t−γη

)β.

IE(T ) =∫ +∞

0(ηu1/β + γ)e−u du= ηΓ

(1+

)+ γ .

(3) P([T > t+ s]/[T > s]) = R(t+s)R(s) = exp

(−(t+γη

)β+(

)β).

Equivalence P([T > s+ t]/[T > s])> P([T > s]) si et seulement si sβ − (s+t)β >−tβ .

Posons : φ(s) = tβ + sβ − (s+ t)β .

Premier cas : 0 < β < 1 ; φ croissante et limt→0+

φ(t) = 0 donc φ(t)> 0.

Deuxieme cas : β > 1 ; on aboutit a l’inegalite contraire, par un traite-ment analogue.

(4) T = min1�i�n

(Ti) d’ou RT (t) = (R(t))n = exp

(−n(

)β): T est donc une

v.a. de loi de Weibull W(β , η

n1/β

).

Exercice 6.13

IE(φ(X)Y ) = IE(IE(φ(X)Y |X)) =∫R

IE(φ(x)Y/[X = x]) fX (x)dx

=∫R

φ(x)IE(Y/[X = x]) fX (x)dx= IE(φ(X)IE(Y |X)).

Exercice 6.14IE(S|N = n) = IE(∑N

i=1Xi|N = n) = nIE(X) ; d’ouIE(S|N) = NIE(X) et IE(S) = IE(IE(S|N)) = IE(N)IE(X).

V (S) = IE(S2)− (IE(N)IE(X))2 (∗)

Page 156: Yves caumel (auth.) probabilites et processus

6. Probabilites, lois et esperances conditionnelles 147

IE(S2) = ∑nIE(S2/[N = n]).P([N = n]) ; V (Sn) = nV (X) = IE(S2

n)− (IE(Sn))2.

On en deduit :

IE(S2) =∑n(nV (X)+n2(IE(X))2)P([N = n]) =V (X)IE(N)+(IE(X))2IE(N2),

et par (∗) : V (S) = IE(N)V (X)+(IE(X))2V (N).On aurait pu demontrer ce resultat en utilisant le theoreme (6.18) de la

variance totale.

Exercice 6.15(1) D’apres le theoreme 6.8 :

P([N = n]|[SN = x]) =fSN/N=n(x)

fSN (x)P([N = n])

=fSN/N=n(x)P([N = n])

∑kfSN/N=k(x)P([N = k])

.

(2) fSN/N=n est la convolution de n densites exponentielles E (λ ) et est

donc egale a la densite de la loi gamma γ(λ ,n) : λ nxn−1e−λxΓ(n) . On a donc :

P([N = n]/[SN = x]) =

λ nxn−1e−λx p(1−p)n−1

Γ(n)+∞

∑k=1

λ kxk−1e−λx p(1−p)k−1

Γ(k)

=

λ nxn−1(1−p)n−1

Γ(n)

λeλ (1−p)x=

(λ (1− p)x)n−1e−λ (1−p)x

(n−1)!.

La v.a. (N−1) conditionnee par (SN = x) est de loi de Poisson P(λ (1− p)x).

Exercice 6.17D’apres le theoreme du conditionnement de vecteurs gaussiens :

IE(Xn|X1,X2, · · · ,Xn−1) =n−1

∑j=1

α jXj. (∗)

Il s’agit donc de determiner les (α j) j. Multiplions les membres de (∗) parXi :

IE(Xn|X1,X2, · · · ,Xn−1).Xi =n−1

∑j=1

α jXjXi,

d’ou IE(IE(Xn|X1,X2, · · · ,Xn−1)Xi) =n−1∑j=1

α jIE(XjXi) = IE(XnXi).

Page 157: Yves caumel (auth.) probabilites et processus

148 Probabilites et processus stochastiques

Si l’on fait varier i dans {1,2, · · · ,n− 1}, on parvient a un systeme de(n−1) equations lineaires en les (α j)1� j�n−1 :(

∑jα jIE(XiXj) = IE(XnXi)

)1�i�n−1

. (∗∗)

Le vecteur etant centre, Γ est la matrice des (IE(XiXj))i, j.Application : (∗∗) s’ecrit 2=α1,−1= 4α2, soit α2 =− 1

4 , d’ou IE(X3/X1,X2)=

2X1− 14X2.

Exercice 6.18(1) Les proprietes 1 et 2 sont triviales ; demontrons la propiete 3, en

prenant n= 3 pour limiter les calculs.

H(p1 + p2, p3) =−(p1 + p2) log2(p1 + p2)− p3 log2(p3)

(p1 + p2)H

(p1

p1 + p2,

p2

p1 + p2

)= −p1 log2 p1 + p1 log2(p1 + p2)−

p2 log2(p2)+ p2 log2(p1 + p2).

En sommant membre a membre, on obtient l’axiome 3.

(2) Il est facile de verifier que la premiere urne a la plus grande entropie.

Exercice 6.19(1) Application de la methode de Lagrange d’optimisation sous contraintes.

(2) releve du calcul des variations sous contraintes auquel nous renvoyonsle lecteur. L’equation d’Euler-Lagrange s’ecrit :

L( f )(x) = f (x) ln f (x)−λ1 f (x)−λ2x f (x)−λ3x2 f (x)

ou f est la densite recherchee.D’ou : f (x) = exp(λ1−1+λ2x+λ3x2).

f symetrique =⇒ λ2 = 0 d’ou f (x) de la forme C1exp(−C2x2).∫R f (x)dx= 1 =⇒ C2 = πC2

1 .

V (X) = 1 =⇒ C1 =1√2π

d’ou f (x) = 1√2πe−

12 x

2.

Demonstration analogue pour (2) : on parvient a f (x) = exp(λ2x+λ1−1)puis a f (x) = 1

mexp(− x

m

)(x� 0).

Page 158: Yves caumel (auth.) probabilites et processus

Chapitre 7

Chaınes de Markov

discretes

Les processus aleatoires ou stochastiques ont ete concus pour modeliserl’evolution temporelle de phenomenes et de systemes aleatoires. Ils sont decritspar des familles discretes ou continues de variables ou de vecteurs aleatoires(Xt)t∈T, ou T est l’ensemble des temps d’observation des etats du processus.Leur vaste domaine d’application concerne la modelisation et le traitementdes signaux et des systemes aleatoires, des series de donnees economiques, desphenomenes meteorologiques ou sismiques, etc. Cherchant a generaliser le theo-reme central limite a des ensembles de v.a. dependantes, le mathematicien russeAndrei Markov (1856-1922) introduisit la notion de chaınes d’evenements etproduisit les premiers developpements de la theorie qui depuis porte son nom.

7.1 Introduction aux processus aleatoires

Avant de donner une definition generale des processus aleatoires, on enpresente succinctement quelques uns qui illustrent la variete de leurs formes etde leurs champs d’application.

(1) Le signal du telephone (en anglais : flip-flop).

Il s’agit d’un processus (Xt)t∈R+ a deux etats {−1,+1} dont l’evolutionest regie par les regles suivantes : on suppose qu’au temps t = 0, il se trouvedans l’un des deux etats, par exemple (X0 = 1), il y reste une duree aleatoirede loi exponentielle E (λ ), et transite brusquement vers l’etat −1 dans lequel ilsejourne pendant une duree aleatoire independante de la precedente et de loiE (μ). Ce comportement est itere indefiniment ; les instants de transition sontdecrits par la suite de v.a. (Ti)i∈N∗ .

Page 159: Yves caumel (auth.) probabilites et processus

150 Probabilites et processus stochastiques

Graphe d'une realisation du signal avec Xo = +J

t +1 , I I I I I

I I I I I I o ~ - - - - -+!l ___ -+~2 _______ + Ii _____ f~ _____ -+~5 ~

I I I I I I t I

-1, L--I

(2) Le bruit blanc.

Le bruit blanc physique est un phenomene aIeatoire genere par des causes externes ou internes aux systemes qui en perturbent Ie fonctionnement. II est present dans la plupart des systemes mis en c£uvre en traitement du signal, en automatique et plus generalement dans les sciences de l'ingenieur. Le bruit blanc mathematique est Ie processus aleatoire (B/ )rE:lR+, ou chaque v.a. B/ de­signe l'amplitude du bruit au temps t. Les variables aleatoires B/ sont centrees et decorrelees entre elles : autrement dit, si proches que soient les temps s et t, cov(Bs , Bt ) = O. Cette hypotMse n'est pas rigoureusement verifiee par Ie bruit blanc physique. Le modele mathematique du bruit blanc est donc une idealisa­tion du phenomene physique bruit blanc. II existe plusieurs SOl'tes de bruits blancs, tous caracterises par une densite spectrale constante; par exemple, Ie bruit de grenaille est Ie modele d'un courant provo que par i'arrachement ther­mique de particules.

-3

4L-----~----~------~----~----~

o 200 400 600 800 1000

Figure 7.1 - Simulation d'un bruit blanc gaussien.

(3) Processus decrivant Ie nombre de clients en attente a un guichet.

Ce processus a valeurs dans N modelise la longueur des files d'attente qui apparaissent a i'entree des services (guichets d'autoroutes, salles d'attente, ... ) ou dans les reseaux informatiques; il fera l'objet d'une etude complete au cha­pitre 10, consacre aux processus markoviens a temps continu et aux files d'at­tente.

Page 160: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 151

(4) Marche aleatoire isotrope d’une particule dans un reseau carre duplan.

Il s’agit du modele decrivant le deplacement d’une particule partant del’origine d’un repere au temps t = 0 et se deplacant sur un reseau carre infinidont la maille elementaire est le carre de cote 1 ; a chaque unite de temps elle ala possibilite de faire un saut vers le nord, le sud, l’est ou l’ouest avec la memeprobabilite 1

4 .

Ci-dessous, le resultat d’une simulation jusqu’au temps t = 17, de lamarche aleatoire isotrope, definie sur un reseau carre et demarrant a l’origineau temps 0.

3

0 21 3

1

2

Figure 7.2 – Simulation de la marche aleatoire isotrope dans le plan.

L’etude des processus aleatoires se fait au rythme de questions qui enstructurent l’expose.

(1) Est-il pertinent pour decrire l’evolution de ces processus de vouloirconnaıtre la loi du vecteur (Xt1 ,Xt2 , ...,Xtn), quelle que soit la suite croissante des

temps (t1, ..., tn) ? A quelles conditions peut-on se satisfaire de la connaissancedes seules probabilites de transition pour decrire l’evolution d’un processus ?Les probabilites de transition sont de la forme :

P(Xt = y|Xs = x),

ou x et y sont des etats quelconques, et s< t ?

(2) Un processus retourne-t-il dans un etat qu’il a deja occupe ? S’il n’yretourne pas surement, avec quelle probabilite le fait-il ?

(3) Quelles sont les limites de E(Xt) et de V (Xt) quand t tend vers +∞ ?Existe-t-il une distribution limite d’occupation de l’ensemble des etats lorsquele temps tend vers l’infini ?

Page 161: Yves caumel (auth.) probabilites et processus

152 Probabilites et processus stochastiques

(4) A quelle condition la covariance du couple (Xs,Xt) qui nous renseignesur la dependance de Xs et Xt ne depend-elle que de (t−s) ? Y a-t-il decorrelationdes etats (Xs,Xt) et donc perte progressive par le systeme aleatoire de la memoirede l’etat occupe au temps s, lorsque t tend vers +∞ ?

Definition 7.1 Un processus aleatoire est une famille de variables ou devecteurs aleatoires (Xt)t∈T, indexee par l’ensemble T des temps denombrableou continu, definie sur un espace de probabilite (Ω,T ,P) et a valeurs dans unespace d’etats E. La variable ou le vecteur aleatoire Xt decrit l’etat du processusau temps t. A toute occurrence ω on fait correspondre la trajectoire de larealisation (Xt(ω))t∈T du processus definie par l’application :

t ∈ T→ Xt(ω) ∈ E.

7.2 Definition et caracterisation des chaınes de

Markov discretes

Les chaınes de Markov a temps entier occupent une place centrale dans latheorie des processus aleatoires, tant par le vaste domaine de leurs applicationsque par le developpement de leur theorie.

Definition 7.2 Un processus aleatoire (Xn)n∈N d’espace d’etats E = {ei}i, finiou denombrable est une chaıne de Markov homogene discrete si sont verifiesles deux axiomes suivants :

(1) Axiome de Markov : ∀ t0, t1, . . . , tn ∈ N tels que t0 < .. . < tn, etpour toute suite {e0, . . . ,en} finie d’etats quelconques de E telle que P(

⋂n−1i=0 (Xti =

ei)) �= 0, on a :

P(Xtn = en|n−1⋂i=0

(Xti = ei)) = P(Xtn = en|Xtn−1 = en−1).

Interpretation : la memoire du processus ne va pas au-dela du dernier etat oc-cupe, qui seul conditionne l’etat suivant.

(2) Axiome d’homogeneite : ∀ s, t ∈N tels que (s< t), ∀u∈N et pourtout couple d’etats (e,e′) :

P(Xs+u = e′|Xs = e) = P(Xt+u = e′|Xt = e) = P(Xu = e′|X0 = e).

Interpretation : la probabilite de transition P(Xt = e′|Xs = e) d’un etat ea un etat e′ ne depend que de la duree (t− s) de la transition de e a e′ et nondu couple (s, t).

Page 162: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 153

Consequence de l’axiome d’homogeneite : la probabilite de transitionP(Xn+1 = e j|Xn = ei) de l’etat ei a l’etat e j en une unite de temps est doncindependante du temps n, et sera notee pi j.

Definition 7.3 Le graphe de transition de la chaıne discrete (Xn)n est legraphe oriente dont les sommets sont les etats (ei)i joints deux a deux par l’arcoriente ei→ e j, si et seulement si pi j > 0. (voir : exemples des pages suivantes.)

Exemple 7.1 L’urne d’EhrenfestA la fin du xix

e, le physicien Ludwig Boltzmann, fondateur de la me-canique statistique, enonca son fameux theoreme H qui affirme que l’entropied’un systeme isole est une fonction croissante du temps. Or cette propositionqui implique l’irreversibilite de l’evolution du systeme contredit le principe dereversibilite des equations de la mecanique classique. Les thermodynamicienscritiquerent durement l’ensemble des travaux de Boltzmann, lui reprochantmeme de pratiquer des mathematiques douteuses. Henri Poincare porta unederniere estocade en demontrant, dans le cadre de ses travaux sur les systemesdynamiques, qu’un systeme repasse toujours, si on attend suffisamment long-temps, dans un voisinage proche de son etat initial. Afin de lever ce paradoxe,Paul et Tatiana Ehrenfest proposerent en 1906 un modele simplifie de diffusiongazeuse. Il s’agit d’un modele de diffusion des molecules d’un gaz a travers uneparoi poreuse separant deux compartiments C1 et C2 de volumes et de formesidentiques, formant un ensemble isole. Soient la v.a. Xn egale au nombre demolecules contenues dans C1 au temps n et N le nombre total constant de mole-cules contenues dans les deux compartiments. On suppose qu’a chaque instantn, une molecule est choisie au hasard parmi les N et change de compartiment.

Cette hypothese se traduit par :

∀(i, j) ∈ {0,1,2, ...,N}2 : P(Xn+1 = j|Xn = i) =

⎧⎪⎪⎪⎪⎨⎪⎪⎪⎪⎩iN si j = i−1;

N−iN si j = i+1;

0 sinon.

Le modele d’urne d’Ehrenfest, qui definit le processus de meme nom,verifie donc les deux axiomes caracteristiques d’une chaıne de Markov :

(1) L’etat du processus au temps n+ 1 ne depend que de son etat autemps n.

(2) P(Xn+1 = j|Xn = i) ne depend pas du temps n.

On demontre que ce processus revisite une infinite de fois son etat initial,et qu’il le fait avec des temps de retour d’autant plus grands que l’etat initialcorrespond a un petit nombre de molecules. Si N est un multiple du nombred’Avogadro egal a 6,02.1023, et que toute transition se fait en une seconde, letemps moyen de retour excederait largement l’age de l’univers !

Page 163: Yves caumel (auth.) probabilites et processus

154 Probabilites et processus stochastiques

Definition 7.4 La matrice (ou noyau) de transition P de la chaıne dis-crete (Xn)n est la matrice carree eventuellement de dimension infinie si E estinfini, constituee par les probabilites de transition :

P= (pi j)i, j.

Theoreme 7.1 Toute matrice de transition P= (pi, j)i, j verifie les proprietes :

(1) ∀i, j ∈ I, 0 � pi, j � 1 ;

(2) ∀i ∈ I, ∑j∈I

pi, j = 1.

Preuve (2) resulte immediatement de la formule de recomposition (voir cha-pitre precedent).

Exemple 7.2 La matrice de transition de la chaıne d’Ehrenfest definie surE = {0,1,2,3,4} est egale a :

P=

⎛⎜⎜⎜⎜⎝0 1 0 0 014 0 3

4 0 00 1

2 0 12 0

0 0 34 0 1

40 0 0 1 0

⎞⎟⎟⎟⎟⎠ .

Graphe de transition :

0 1 2 3 4

1/4

1

1/2

3/4

3/4

1/2

1

1/4

Le theoreme suivant permet souvent de caracteriser ou de simuler unechaıne de Markov (voir : exemple 7.4).

Theoreme 7.2 Etant donne une suite (Yn)n∈N∗ de v.a. independantes de memeloi a valeurs dans un ensemble E1 fini ou denombrable, et la v.a. X0 indepen-dante des Yn a valeurs dans un ensemble E2 fini ou denombrable, le processus(Xn)n∈N defini par :

∀n ∈ N, Xn+1 = f (Yn+1,Xn),

est une chaıne de Markov pour toute fonction f de E2×E1 dans E1.

Des applications de ce theoreme sont donnees dans l’exercice 7.2 etl’exemple 7.4.

Page 164: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 155

Definition 7.5 La loi initiale π(0) d’une chaıne (Xn)n definie sur l’en-semble des etats est la distribution de probabilites d’occupation des etats ent = 0 :

π(0) = (P(X0 = e1),P(X0 = e2), ...,P(X0 = en), ...).

La loi d’occupation des etats ou loi de la chaıne au temps k,notee π(k), est la distribution definie par :

π(k) = (P(Xk = e0),P(Xk = e1), ...,P(Xk = en), ...).

Definition 7.6 Un etat ei est absorbant si pi,i = 1.

Theoreme 7.3 Le temps d’occupation Ui d’un etat ei non absorbant est unev.a. geometrique :

∀k ∈ N, P(Ui = k) = pkii(1− pii).

Preuve (Ui = k) decrit l’evenement : la chaıne reste en l’etat ei aux temps infe-rieurs ou egaux a (k−1), et le quitte au temps k. Ces evenements de persistancedans l’etat ei etant independants entre eux, la probabilite de leur conjonctionest egale au produit de leurs probabilites. �

Theoreme 7.4 Soit la chaıne (Xn)n a valeurs dans l’ensemble E et de matricede transition P. Pour tout temps k ∈ N∗ et quels que soient les etats x0, . . . ,xkoccupes aux temps 0,1, ...,k :

P(X0 = x0,X1 = x1, . . . ,Xk = xk) = P(X0 = x0)px0,x1 px1,x2 . . . pxk−1,xk .

Preuve Par la formule des conditionnements successifs (Ch 6) on obtient :P(Xn = xk, ...,X0 = x0) = P(Xk = xk|Xk−1 = xk−1, ...,X0 = x0).P(Xk−1 = xk−1|Xk−2 =xk−2, ...,X0 = x0)...P(X0 = x0). Puis par application de l’axiome de Markov :

P(Xk = xk, . . . ,X0 = x0)= P(Xk = xk|Xk−1 = xk−1).P(Xk−1 = xk−1|Xk−2 = xk−2). . .P(X0 = x0). �

On determine la probabilite de transition d’un etat ei a un etat e j entredeux instants quelconques m et p grace a l’equation de Chapman-Kolmogorov.

Theoreme 7.5 (Equation de Chapman-Kolmogorov) Soient une chaıne(Xn)n et les instants m, n, et p verifiant m< n< p.

Pour tout couple d’etats ei,e j de E, on a :

P(Xp = e j|Xm = ei) = ∑ek∈E

P(Xp = e j|Xn = ek)P(Xn = ek|Xm = ei).

Page 165: Yves caumel (auth.) probabilites et processus

156 Probabilites et processus stochastiques

Preuve On multiplie chacun des deux membres de l’egalite par la probabilitenon nulle P(Xm = ei).

P(Xp = e j et Xm = ei) = ∑ek

P(Xp = e j|Xn = ek)P(Xn = ek et Xm = ei)

= ∑ek

P(Xp = e j|Xn = ek,Xm = ei)

= ∑ek

P(Xp = e j et Xn = ek et Xm = ei)

= P(Xp = e j et Xm= ei).

Le theoreme fondamental suivant montre que l’evolution aleatoire d’unechaıne est entierement determinee par la connaissance de sa loi initiale π(0) etde sa matrice de transition P.

Theoreme 7.6 (Loi d’evolution d’une chaıne)La matrice de transition P(k) associee a l’ensemble des probabilites de

transition en k unites de temps, constituee des termes (P(Xk = e j| X0 = ei))i, j,est definie par :

P(k) = P×P...×P︸ ︷︷ ︸k f ois

= Pk,

d’ou la loi d’evolution de la chaıne :

∀k, π(k) = π(0)Pk.

Exemple 7.3 Modele d’Ehrenfest (suite)Supposons encore que π(0) = (0,1,0,0,0) et calculons la loi π(2) de X2 :

π(2) = π(0).P2 avec P2 =

⎛⎜⎜⎜⎜⎝14 0 3

4 0 00 5

8 0 38 0

18 0 3

4 0 18

0 38 0 5

8 00 0 3

4 0 14

⎞⎟⎟⎟⎟⎠donc : π(2) = (0, 5

8 ,0,38 ,0).

7.1 ♠ Etude de la chaıne a deux etats

Soit P=

(1−α αβ 1−β

); supposons que π(0) = (1,0).

Determiner la loi π(n). [Indication : on diagonalisera P en sachant que 1est toujours une valeur propre d’une matrice de transition.]

Page 166: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 157

[Reponse : π(n) = (β+α(1−α−β )nα+β , α−α(1−α−β )

n

α+β ).]

Interpreter π(n) dans le cas ou : α+β = 1, α+β < 1 et α = β = 1.

7.2 ♠♠ Soit Xn la v.a. egale a la valeur maximale obtenue apres n jets d’unde.

(1) Utiliser le theoreme 7.2 pour demontrer que (Xn)n est une chaıne deMarkov.

(2) Determiner la matrice de transition.(3) Demontrer que la limite de π(n) quand n tend vers l’infini est egale

a (0,0,0,0,0,1).

Exemple 7.4 La marche aleatoire symetrique dans Z.On considere la suite (Xi)i∈N∗ de v.a. de Bernoulli, independantes, de loi

commune : P(X = 1) =P(X =−1) = 12 . La marche aleatoire dans l’espace d’etats

E = Z est definie par la suite (Sn)n∈N� ou Sn = ∑ni=1Xi modelise l’abscisse, au

temps n, d’une particule qui etait a l’origine au temps t = 0, et qui effectue achaque instant i, un pas de longueur unite dans un sens ou dans l’autre avec laprobabilite 1

2 .Demontrons que (Sn)n est une chaıne :

Sn+1 = Sn+Xn+1, et donc d’apres le theoreme 7.2 (Sn)n est une chaıne de Markovdefinie sur Z. La matrice de transition de la chaıne est une matrice de dimensioninfinie, tridiagonale, constituee d’une diagonale formee de 0, bordee par unesous-diagonale et une sur-diagonale constituees de 1

2 .

7.3 Classification des etats

7.3.1 Relation de communication entre etats

Definition 7.7 Deux etats distincts x et y communiquent s’il existe un instant

n1 ∈ N tel que p(n1)x,y > 0 et s’il existe un instant n2 ∈ N tel que p(n2)

y,x > 0.

Interpretation : partant de x il est toujours possible d’atteindre y en untemps fini et inversement partant de y on peut atteindre x en un temps fini,non necessairement par la meme suite d’etats intermediaires.

Theoreme 7.7 La relation de communication entre les etats d’une chaıne estune relation d’equivalence qui induit sur E, une partition en classes de commu-nication a l’interieur desquelles tous les etats communiquent entre eux.

Exemple 7.5 La chaıne de Markov associee au graphe suivant possede deuxclasses de communication C1 = {e1,e2,e4} et C2 = {e3,e5} ; on remarque que sil’on quitte la premiere, on n’y retourne plus.

Page 167: Yves caumel (auth.) probabilites et processus

158 Probabilites et processus stochastiques

e2

e1

e4 e5 e3

C1 C2

1 1/2

1/2

3/4

1/41

1

Definition 7.8 Une chaıne est irreductible si tous ses etats communiquententre eux ; elle est donc constituee d’une seule classe.

7.3.2 Etats recurrents et transitoires

Definition 7.9 Si au temps 0, la chaıne est en l’etat ei, la variable aleatoireTi =Min{n� 1 ; Xn = ei} definit le temps de premier retour en ei.

Definition 7.10 Un etat ei est recurrent si partant de ei on y revient sure-ment, ce qui s’exprime par :

P((il existe n� 1 tel que Xn = ei)|X0 = ei) = 1,

soit encore :P(Ti <+∞ | X0 = ei) = 1.

Un etat recurrent est donc visite un nombre infini de fois.

Exemple 7.6 Seuls les etats e3 et e5 de la chaıne de l’exemple 7.5 sont recur-rents.

Exemple 7.7 Considerons la chaıne a 1 000 etats, dans laquelle chaque tran-sition s’effectue en une seconde :

e1 e2 e3 e999 e1000

0.001

0.999

0.001

0.999

0.001

0.999

0.001

0.999

La chaıne est irreductible, on peut donc passer d’un etat a n’importequel autre, bien que, par exemple, le passage de l’etat e1000 a l’etat e1 soitpratiquement improbable et necessite visiblement un temps moyen fini maisproprement astronomique. La chaıne etant finie et irreductible, on montreraque tous les etats sont recurrents et de temps moyens de retour finis.

Definition 7.11 Un etat ei est dit transitoire s’il n’est pas recurrent :

P(Ti <+∞ | X0 = ei)< 1.

Un etat est transitoire s’il n’est visite qu’un nombre fini de fois.

Page 168: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 159

Par definition, une chaıne irreductible ne contient aucun etat transitoire ouabsorbant.

Definition 7.12 Une chaıne dont tous les etats sont recurrents est dite re-currente ; une chaıne dont tous les etats sont transitoires est dite transiente.

Definition 7.13 La probabilite de premiere transition en n unites de temps,

de l’etat ei a l’etat e j, notee f (n)i, j , est definie par :

f (n)i, j = P(Tj = n | X0 = ei) = P(Xn = e j,Xn−1 �= e j, . . . ,X1 �= e j|X0 = ei).

f (n)i,i est la probabilite de premier retour a l’etat ei en n unites de temps.

Theoreme 7.8 ei est recurrent ⇐⇒ ∑∞n=1 f (n)ii = 1.

ei est transitoire ⇐⇒ ∑∞n=1 f (n)ii < 1.

Preuve Evidente par definition de f (n)ii . �

Definition 7.14 On appelle temps moyen de retour en e j :

μ j = E[Tj|X0 = e j]=∑nn.p(n)j j .

Il existe deux sortes d’etats recurrents : les etats recurrents positifset les etats recurrents nuls.

Definition 7.15 Un etat e j est recurrent positif (ou non nul) s’il estrecurrent et si le temps moyen μ j de retour est fini. Dans le cas ou le tempsmoyen de retour est infini, l’etat est dit recurrent nul.

Definition 7.16 La v.a. Nj =∑∞n=1 1e j(Xn) denombre les passages de la chaıne

par l’etat e j (1e j , fonction indicatrice de l’etat e j, vaut 1 si Xn = e j et 0 siXn �= e j).

Theoreme 7.9 Le nombre moyen de retours a l’etat e j, defini par l’es-perance conditionnelle E(Nj|X0 = e j), est egal a :

E(Nj|X0 = e j) = ∑n�1

p(n)j j .

Page 169: Yves caumel (auth.) probabilites et processus

160 Probabilites et processus stochastiques

Preuve E(1e j(Xn) |X0 = e j) = P(Xn = e j|X0 = e j) = p(n)j j . D’ou le resultat parsommation. �

Theoreme 7.10 (Caracterisation des etats)

(ei transitoire)⇐⇒ (∑n�1

p(n)ii <+∞) ;

(ei recurrent nul)⇐⇒ (∑n�1

p(n)ii =+∞ et limn→+∞

p(n)ii = 0 );

(ei recurrent positif)⇐⇒ (∑n�1

p(n)ii =+∞ et limn→+∞

p(n)ii > 0) ;

Attention ! Les etats recurrents nuls ne peuvent exister que dans les chaınesinfinies.

Les caracterisations precedentes de la recurrence et de la transience sontsurtout utiles a l’etude des chaınes infinies. En effet, dans le cas des chaınesfinies, l’interpretation du graphe de transition structure de facon a faire appa-raıtre distinctement les diverses classes d’equivalence, permet d’identifier faci-lement les classes recurrentes et transitoires.

Theoreme 7.11 Les proprietes de recurrence et de transience sont des pro-prietes de classe : une classe de communication est exclusivement recurrentepositive, recurrente nulle ou transitoire. Seules les classes recurrentes consti-tuent des sous-chaınes de la chaıne ; cette propriete resulte de la propriete defermeture d’une classe recurrente, d’ou l’on ne peut sortir une fois que la chaınel’a atteinte.

Pratiquement, on structurera le graphe d’une chaıne de facon a faireapparaıtre ses differentes classes de communication, recurrentes ou transitoires :l’interpretation des relations de communication entre les classes fournit desinformations pertinentes sur son evolution. On reordonne les etats pour obtenirla matrice canonique de transition de la forme :(

PT PTR0 PR

)ou :PT est la matrice de transition associee aux classes transientes ;PTR est la matrice de transition des etats transitoires vers les etats recurrents ;PR est formee des matrices de transition associees aux classes recurrentes.

Exemple 7.8 Soit la chaıne (Xn)n de matrice de transition P :

Page 170: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 161

e1 e2 e3 e4 e5 e6 e7 e8 e9 e10

e1 0,7 0,3e2 0,8 0,2e3 1e4 0,4 0,25 0,25 0,05 0,05e5 0,2 0,8e6 0,1 0,2 0,7e7 0,7 0,3e8 0,35 0,15 0,1 0,4e9 1e10 0,5 0,05 0,45

Une fois trace le graphe de cette chaıne, il est visuellement aise d’en de-terminer les diverses classes :

- une classe transiente T = {e4,e8,e10} ;- une classe recurrente positive 2-periodique : R1 = {e1,e2,e3,e9} ;- une classe recurrente positive aperiodique : R2 = {e5,e6,e7}.En rearrangeant les etats selon leur classe d’appartenance, on obtient la

matrice canonique qui met en valeur les classes et leurs relations :

e4 e8 e10 e1 e2 e3 e9 e5 e6 e7

e4 0,4 0,25 0,05 0 0 0 0,05 0 0,25 0e8 0,35 0 0,4 0 0 0 0 0 0,15 0.1e10 0,5 0,05 0,45 0 0 0 0 0 0 0

e1 0 0 0 0 0,7 0 0,3 0 0 0e2 0 0 0 0,8 0 0,2 0 0 0 0e3 0 0 0 0 0 0 1 0 0 0e9 0 0 0 1 0 0 0 0 0 0

e5 0 0 0 0 0 0 0 0 0,2 0,8e6 0 0 0 0 0 0 0 0,1 0,2 0,7e7 0 0 0 0 0 0 0 0,7 0,3 0

Theoreme 7.12 (Proprietes des chaınes finies)

(1) Aucun etat n’est recurrent nul.

(2) Aucune chaıne finie n’est transiente ; en revanche, certains de leursetats peuvent etre transitoires.

(3) Il existe au moins un etat recurrent positif.

(4) Si en outre la chaıne est irreductible, elle est recurrente positive.

Page 171: Yves caumel (auth.) probabilites et processus

162 Probabilites et processus stochastiques

Preuve (1) Supposons qu’il existe un etat recurrent nul e j, et Cj sa classe de

communication, alors ∀n ∑k∈Cjp(n)j,k = 1 (∗)

Mais limn→+∞ p(n)j,k = 0, qui est en contradiction avec (∗).(2) Supposons tous les etats transitoires, on montre alors que ∀ei,e j

transitoires, la serie ∑ p(n)i, j converge, donc limn→+∞ p(n)i, j = 0 (∗∗).Or ∑

Card(E)j=1 p(n)i, j = 1 (∀n ∈ N), donc, par passage a la limite quand n→+∞, on

arrive a une contradiction de (∗∗).(3) est consequence de (1) et (2).(4) La chaıne ayant au moins un etat recurrent d’apres (c) et une seule

classe est recurrente positive. �

Exemples de chaınes infinies : les marches aleatoires isotropes

Nous avons defini dans l’exemple 7.4 la marche aleatoire symetrique surZ et montre qu’elle etait une chaıne de Markov sur l’espace d’etats Z. Dansl’exercice suivant, il s’agit d’en etendre l’etude aux chaınes definies sur les es-paces d’etats Z2 et Z3, et de demontrer les resultats suivants :

• les marches aleatoires isotropes definies sur Z et Z2 sont recurrentesnulles ;

• la marche aleatoire isotrope definie sur Z3 est transiente ; donc, partantd’un nœud quelconque du reseau, on n’y retourne qu’un nombre fini de fois.

7.3 ♠♠ Etude des marches aleatoires sur Z, Z2, Z3

(1) Marche aleatoire sur Z.On a vu dans l’exemple 7.4 que la marche aleatoire est une chaıne de

Markov ; par sa structure meme, elle est irreductible. Il suffit donc de carac-teriser d’apres le theoreme 7.13 l’un de ses etats (par exemple l’origine). Onconstate d’abord que ∀m∈N�, p2m+1

O,O = 0. On associe a tout chemin de longueur

2m, partant de l’origine et y revenant, un 2m-uplet : demontrer que p(2m)0,0 =Cm

2m22m

ainsi que la divergence de la serie ∑m≤1 p(2m)0,0 grace a la formule de Stirling.

Conclure.

(2) Marche aleatoire dans Z2.Une particule part au temps t = 0, de l’origine d’un reseau carre ; a chaque

unite de temps elle peut faire un saut vers le nord, le sud, l’est ou l’ouest avecune probabilite 1

4 .Construire la chaıne associee au processus.

[Reponse : p(2n)00 = ∑nm=0

Cn2n.(C

mn )

2

42n asymptotiquement proche de 1πn lorsque n est

grand.]Demontrer que la chaıne est recurrente nulle.

Page 172: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 163

(3) Marche aleatoire dans Z3.On etend le modele precedent a trois dimensions ; la particule a cette

fois six possibilites de deplacements equiprobables.

Demontrer que la chaıne est transiente.

[Reponse : p(2n)00 =Cn

2n22n ∑

n1+n2+n3=n( n!n1!n2!n3!3n )

2 asymptotiquement proche, quand

n tend vers +∞, de 3√

3

2π32 n

32.]

Le mathematicien et pedagogue hongrois G. Polya (1887-1985) a montreque la probabilite de retour a un etat initial quelconque de la marche aleatoiredans Z3 etait tres proche de 0,340. Une marche aleatoire dans Z3 ne repassedonc pas par un point deja visite, approximativement dans deux tiers des cas.

Le paradoxe du jeu de pile ou face

Lorsque deux joueurs A et B s’affrontent au jeu de pile ou face, l’intuitiondont on apprendra a se mefier dans ce cours, conduit a penser qu’il y a sur untemps long, alternance de chacun des joueurs dans la situation gagnante ; or iln’en est rien. En effet, on etablit qu’etant donne l’intervalle de temps [0, 2n]d’etendue suffisamment grande, l’un des deux joueurs sera en position gagnanteavec une probabilite superieure a 1

2 .On etablit que, sur 2n lancers alternatifs, la probabilite p2k pour que l’un desjoueurs, par exemple A, mene 2k fois est egale a :

p2k =

(2kk

)(2(n− k)n− k

)/22n.

Si n est tres grand, p2k tend vers :

1

π(k(n− k))12

.

(Utiliser la formule de Stirling pour etablir ce resultat).

Soit T2n la v.a. egale au temps qui separe le temps de derniere visite del’etat 0 du temps 2n :

∀x ∈ [0, 1] P(T2n � 2xn)� ∑k�xn

1

π(k(n− k))12

�∫ xn

0

1

π(u(n−u))12

du=2π. Arcsin (x

12 ).

On conclut que si n est tres grand, la proportion T2n2n du temps ou A

gagne dans l’intervalle [0, 2n] est de densite 1π

1√x(1−x) 1[0, 1](x), qui definit la loi

arcsinus.

Page 173: Yves caumel (auth.) probabilites et processus

164 Probabilites et processus stochastiques

Au cours d’une partie, les joueurs vont-ils alternativement mener au scoreselon une proportion egale a 1

2 , ou au contraire le hasard va-t-il permettre unedomination quasi constante de l’un d’eux ? On peut verifier par exemple quel’un des joueurs sera gagnant plus des trois quarts du temps avec une probabi-lite superieure a 2

3 , ou qu’il a plus de 50 % de chances pour qu’il gagne pendantpres de 90 % du temps. L’apparente egalite des chances a laquelle l’intuitioncommune nous convie dans un jeu equilibre est donc infirmee.

0

0.5

1

1.5

2

2.5

3

0 0.2 0.4 0.6 0.8 1

Figure 7.3 – Graphe de la densite arcsinus 1π

1√x(1−x) .

7.4 ♠♠ Soit la chaıne de Markov d’espace d’etats N, de matrice de transitiondefinie par :

pi,0 = pi, pi,i+1 = 1− pi;

∀i ∈ N 0 < pi < 1.

(1) Dessiner le graphe de la chaıne ; en deduire qu’elle est irreductible.

(2) A quelle condition est-elle recurrente ? [Rappel : si pour tout i, 0 <xi < 1, alors le produit infini Π+∞

i=1(1− xi) est nul ssi ∑+∞i=0− ln(1− xi) diverge.]

(3) Si ∀i, pi = p, montrer que la chaıne est recurrente positive.

7.3.3 Etats periodiques

Definition 7.17 Un etat ei est periodique de periode di si les temps deretour a ei sont di-periodiques, ou di est le PGCD de l’ensemble {n ∈ N∗, telsque p

(n)i,i > 0}. Si di = 1, l’etat ei est aperiodique.

Un etat ei pourvu d’un cycle (pi,i> 0) est necessairement aperio-dique, puisqu’on peut y retourner en tout temps entier.

Par exemple, la chaıne d’Ehrenfest est periodique de periode 2.

Theoreme 7.13 La periodicite est une propriete de classe : les etats d’uneclasse sont ou bien tous periodiques de meme periode ou bien tous aperiodiques.Une classe qui possede au moins un cycle est necessairement aperiodique.

Page 174: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 165

Preuve Soit di et d j les periodes de ei et e j, et soit p(m)i j p(n)ji > 0⇒ p(n+m)ii �

p(m)i j p(n)ji > 0 donc di divise (m+n). De plus p(m+k+n)ii � p(m)i j p(k)j j p

(n)ji et donc p(k)j j >

0⇒ p(m+k+n)ii > 0, ce qui implique que si d j divise k, alors d j divise (m+ k+n) ;

comme di divise (m+n) : (d j divise k)⇒ (di divise k) et par symetrie de i et j,di = d j. �

Exemple 7.9 (1) La chaıne d’Ehrenfest est recurrente positive et 2-periodique.(2) La chaıne a deux etats (voir exemple 7.1) est recurrente positive et

aperiodique si α,β > 0.(3) Dans l’exemple 7.5, la classe C1 est transiente, aperiodique ; la classe

C2 est recurrente positive et 2-periodique.

7.4 Distributions stationnaires et distributions

limites

Definition 7.18 Une distribution π = (π1,π2, ...,πi, ...) sur l’ensemble des etatsest une distribution stationnaire ou invariante de la chaıne (Xn)n de ma-trice de transition P, si :

π = π.P (∗)ou π = (π1,π2, ...,πi, ...) est de somme 1.

(∗) est equivalente au systeme lineaire :(πi = ∑

j∈Eπ j p j,i

)i=1,2,···

.

Interpretation : πi designe la proportion de temps passe par la chaınedans l’etat ei lorsque le temps d’evolution de la chaıne devient infiniment long.

Theoreme 7.14 Etant donne une chaıne admettant une distribution station-naire π :

si π(0) = π alors ∀ k, π(k) = π.

La loi d’occupation π(k) des etats au temps k est invariante pour tout k.

Preuve π(k) = π(0)Pk, donc si π(0) = π, π(1) = π P = π et par recurrence,π(k) = π. �

Remarque 7.1 Une chaıne peut ne pas avoir de distribution stationnaire, enavoir une seule ou plusieurs portees par la ou les classes recurrentes.

Page 175: Yves caumel (auth.) probabilites et processus

166 Probabilites et processus stochastiques

Theoreme 7.15 Toute chaıne finie (necessairement non transiente) admet aumoins une distribution stationnaire, qui est unique si la chaıne est irreductible.

Preuve Rappelons le lemme de Perron-Froebenius : toute matrice stochas-tique, verifiant donc pi, j � 0 et ∑ j pi, j = 1 finie, admet un vecteur propre decomposantes positives associe a la valeur propre 1. La matrice tP−1d a des co-lonnes de sommes nulles, donc 1 est une valeur propre de P ; d’ou la conclusionpar le lemme. �

Theoreme 7.16 Si π est une distribution stationnaire, alors pour tout etatrecurrent ei :

πi =1μi,

ou μi est le temps moyen de retour a ei.

Theoreme 7.17 Une chaıne transiente infinie n’admet pas de distribution sta-tionnaire.

Preuve Supposons qu’il existe une distribution stationnaire π : alors π P =

π et π Pn = π. Pour tout etat j et pour tout entier n, π j = ∑iπi p(n)i, j ; les

etats etant transitoires, tous les p(n)i, j tendent vers 0. ∀ j,π j = limn→∞,∑iπi p(n)i, j =

∑ilimn→∞πi p(n)i, j = 0 ; ce qui est contradictoire avec ∑ j π j = 1. �

Theoreme 7.18 (Conditions necessaires et suffisantes d’existence dedistributions stationnaires)

Cas 1 : si la chaıne est irreductible, elle possede une distribution sta-tionnaire unique π = ( 1

μi)ei∈E , si et seulement si tous les etats sont recurrents

positifs. (μi est le temps moyen de retour a ei).

Cas 2 : si la chaıne est quelconque, elle possede une distribution station-naire π, si et seulement si la chaıne possede au moins une classe recurrentepositive. Dans le cas de plusieurs classes recurrentes positives, il existe unedistribution stationnaire pour chaque classe.

Exemple 7.10 Marche aleatoire sur N reflechie en 0.La matrice de transition de cette chaıne est definie par :

∀k ∈ N∗, pk,k+1 = p et pk,k−1 = 1− p ; p0,1 = 1.

La chaıne est infinie, irreductible, de periode 2 ; la distribution stationnaire πexiste si et seulement si elle est recurrente positive. La resolution de l’equationπP= π aboutit a πk = π0

1q (

pq )

k−1,∀k≥ 1; ∑k πk converge si et seulement si p< q,

Page 176: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 167

soit p< 12 , condition de recurrence positive. Dans ce cas, ∑k πk = π0(1+ 1

q1

1− pq) =

π02qq−p , d’ou : π0 =

1−2p2(1−p) et πk =

π0p (

p1−p )

k.

Le temps moyen de retour a l’origine est donc egale a : μ0 =1π0

= 2(1−p)1−2p .

Par exemple, si p= 0,49 alors μ0 = 51 ; on pourrait demontrer que pourp= 1

2 la chaıne est recurrente nulle, et que pour p> 12 elle est transiente.

7.5 ♠♠♠ Le nombre de clients qui arrivent a une station-service pendant laduree d’un service de duree egale a l’unite quel que soit le client est une v.a. dePoisson d’intensite λ . SoitXn le nombre de voitures presentes dans la station al’instant n, et Yn le nombre de voitures arrivant entre n et n+1.

(1) Demontrer que (Xn)n est une chaıne de Markov.(2) Soit π = (πk)k la distribution stationnaire de fonction generatrice

G. Ecrire les equations verifiees par les πk et en deduire G en fonction de lafonction generatrice de la loi de Poisson P(λ ). Montrer que π0 = 1−λ . Quelleest la condition d’existence de π et le nombre moyen de voitures dans la stationen regime stationnaire ?

7.6 ♠♠ Deux machines identiques fonctionnent independamment ; chacunepouvant tomber en panne avec la probabilite q. Soit Xn le nombre de machinesen panne au debut de la n-ieme journee.

(1) Si une machine tombe en panne, elle est reparee la nuit suivante et onne peut reparer qu’une machine par nuit. Decrire la chaıne de Markov (X n)n.Determiner la distribution stationnaire.

(2) Meme question en supposant qu’une machine en panne n’est repareeque le lendemain et qu’on ne peut reparer qu’une machine dans la journee.

7.7 ♠♠ Chaıne produit

Soient les chaınes de Markov independantes (X (1)n )n et (X (2)

n )n de matrices de

transition P1 et P2, d’espaces d’etats finis E1 et E2. [ ∀m,n distincts, X (1)n est

independante de X (2)m ]

Demontrer que le processus Xn = (X (1n ,X (2)

n ) est une chaıne, dite chaıneproduit, et calculer sa matrice de transition. La chaıne produit n’est pas irre-

ductible meme si les chaınes (X (1)n )n et (X (2)

n )n le sont ; par contre on demontrequ’elle est irreductible si et seulement si elle est aperiodique.

Definition 7.19 Une chaıne admet une distribution limite ou asymptotiqueπ∗, si quelle que soit la loi initiale π(0) :

limn→+∞

π(n) = π∗.

Page 177: Yves caumel (auth.) probabilites et processus

168 Probabilites et processus stochastiques

Plus explicitement, pour tout couple d’etats (i, j), limn→∞ p(n)i, j =notee π

∗j

est independant de i.

Theoreme 7.19 Toute distribution limite π∗ d’une chaıne, si elle existe, estl’unique distribution stationnaire, necessairement portee par les etats recur-rents.

Preuve limn→+∞π(n) = π∗ donc limn→+∞π

(n+1) = π∗ ; mais π(n+1) = π(n)P, doncpar passage a la limite des membres de l’equation, on obtient π∗= π∗P : donc π∗est une distribution stationnaire. Son unicite se prouve par une demonstrationclassique par l’absurde. �

Definition 7.20 Un etat recurrent positif et aperiodique est dit ergodique.Une chaıne irreductible, aperiodique et recurrente positive est dite ergodique.

Theoreme 7.20 Les etats d’une classe de communication qui contient au moinsun etat ergodique sont ergodiques.

Preuve On sait que les proprietes de recurrence et d’aperiodicite sont desproprietes de classe : l’ergodicite l’est donc aussi. Il suffit donc qu’un etat de laclasse soit ergodique pour que la classe qui le contient le soit. �

Theoreme 7.21 (de Chacon-Ornstein) Toute chaıne ergodique possede unedistribution limite unique π∗ = (π∗i )i qui s’identifie a l’unique distribution sta-tionnaire π = (πi)i de la chaıne ;

∀i, j ∈ E, lim(n→+∞)

p(n)j,i = π∗i = πi =1μi

ou π = πP.

Exemple 7.11 La chaıne d’Ehrenfest verifie les hypotheses du theoreme, etadmet une distribution limite. Considerons le cas etudie dans ce chapitre, ouE = {0,1,2,3,4} ; il est facile de verifier que la distribution stationnaire limiteest π∗ =

(1

16 ,14 ,

38 ,

14 ,

116

).

Si la chaıne possede n etats, on montre sans difficulte que π∗=(

12n ,

C1n

2n ,C2n

2n , ..,12n

)qui est la distribution binomiale B(n ; 1

2 ). Soit X∗ la v.a. associee a π∗ ; laloi B(n; 1

2 ) est approchee de facon satisfaisante, n etant tres grand, par la loi

N ( n2 ; σ2 = n4 ). Recherchons la constante c verifiant :

P(n2− c< X∗ <

n2+ c) = 99,999 %.

D’ou : P(− cσ <

X∗− n2

σ < cσ ) = 99,999 %.

La consultation d’une table gaussienne donne c � 4,8.√n

2 et une variation re-

lative egale a4,8.

√n

2n2

= 4,8√n , qui est extremement faible lorsque n est grand, ce

Page 178: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 169

qui est le cas dans les situations concretes ou n est un multiple du nombred’Avogadro 6,02.1023. Ce resultat corroborre le constat physique d’equilibredes pressions au sein des deux compartiments.

7.8 ♠♠ Modele markovien de gestion de stocksUn stock peut contenir au maximum s pieces. La v.a. Xn est le nombre

de pieces au debut de la n-ieme semaine ; la v.a. Yn est le nombre de piecessorties du stock au cours de la n-ieme semaine. On supposera que X1 = s et quepour tout j = 0,1, ..., i P(Yn = j|Xn = i) = 1

1+i , quel que soit n ∈N∗. Au debut dechaque semaine, on complete le stock, mais le delai de livraison est une semaine.

(1) Montrer que (Xn)n est une chaıne de Markov, et qu’elle admet une

distribution stationnaire definie par πi =2(i+1)

(s+1)(s+2) .

(2) Quel est le nombre moyen de pieces disponibles ?

Theoreme 7.22 Si (Xn)n est une chaıne irreductible, aperiodique, de distribu-tion stationnaire π, et f une fonction reelle definie sur l’ensemble des etats E,alors E( f (X)) definie par ∑ j π j f (e j) est egal a :

E( f (X)) =p.s. limn→+∞

1n+1

n

∑i=0

f (Xi),

ou X est la v.a. associee a la distribution stationnaire.

Theoreme 7.23 Soit une chaıne irreductible, recurrente positive, d-periodiqueet de distribution stationnaire π. Pour tout couple d’etats (i, j) :

limn→∞

pn.d+ki, j = d.π∗j si k = min

{q | p(q)i j > 0

};

= 0 sinon.

Resume des proprietes des chaınes

(1) Aucune chaıne finie n’est transiente.(2) Aucun etat d’une chaıne finie n’est recurrent nul.(3) Toute chaıne finie possede au moins une classe recurrente positive et

donc au moins une distribution stationnaire portee par cette classe.(4) Si la distribution limite d’une chaıne quelconque existe, elle est

confondue avec son unique distribution stationnaire et est portee par les seulsetats recurrents.

(5) Toute chaıne ergodique, par definition recurrente positive et aperio-dique, possede une distribution limite egale a la distribution stationnaire.

(6) Une chaıne infinie transiente ne possede pas de distribution station-naire.

Page 179: Yves caumel (auth.) probabilites et processus

170 Probabilites et processus stochastiques

7.5 Complements

7.5.1 Estimation de la matrice de transition P et de la loi

stationnaire π d’une chaıne finie irreductible

Etant donne une chaıne de Markov (Xn)n finie irreductible (donc recur-rente positive) dont on observe l’evolution, dont on ne connaıt que l’ensembledes etats, les theoremes suivants permettent sous certaines conditions d’estimersa matrice de transition et sa distribution stationnaire, a partir d’une realisation(Xi = xi)i=1,...,n de la chaıne.

Definition 7.21 Pour tout (i, j), on definit la v.a. p(n)i, j egale au rapport dunombre de transitions de ei a e j pendant la duree [0, n-1], sur le temps desejour en ei pendant la meme duree :

p(n)i, j =

n−1∑t=0

1{Xt=i, Xt+1= j}

n−1∑t=0

1{Xt=i}.

Theoreme 7.24 Pour tout (i, j), p(n)i, j verifie la propriete :

p(n)i, j →(n→∞) pi, j (p.s.).

Definition 7.22 Pour tout i, on definit la v.a. π(n)i egale a la proportion du

temps d’occupation de l’etat ei pendant la duree [0, n] : π(n)i = 1

n+1

n∑t=0

1{Xt=i}.

Theoreme 7.25 La v.a. π(n)i , verifie les proprietes :

(1) E(π(n)i )→(n→∞) πi ;

(2) π(n)i →(n→∞) πi (p.s.).

Illustration sur une chaıne a deux etats e1, e2 : etant donnee la trajectoire ob-servee pendant la duree [0,16], (e1,e2,e2,e1,e1,e2,e1,e2,e2,e1,e1,e1,e2,e2,e1,e1),

il est facile de verifier que : π(16)1 = 9

16 , π(16)2 = 7

16 , p(16)1,2 = 4

8 , p(16)1,1 = 4

8 , p(16)2,1 = 4

7

et p(16)2,2 = 3

7 .

Page 180: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 171

7.5.2 Probabilite d’absorption par les classes recurrentes

dans le cas d’une chaıne finie

Probleme : Etant donne une chaıne finie non irreductible possedantr classes recurrentes R1, . . . ,Rr ; quelle est la probabilite qij, partant d’un etattransitoire j, d’atteindre la classe de recurrence Ri, et donc d’y etre absorbe ?

Soient :– qij = P(d’etre absorbe par la classe Ri, partant de l’etat transitoire e j) ;

– q(i) = t(qij1 , . . . ,qijt ) ou jk parcourt l’ensemble ET des etats transitoires ;

– PT , la sous-matrice de transition de l’ensemble T des etats transitoires.

Theoreme 7.26 (Probabilites d’absorption par les classes recurrentes)Le vecteur q(i) des probabilites d’absorption par la classe Ri a partir de

l’ensemble des etats transitoires est solution du systeme :

(Id−PT )q(i) = t(∑

l∈Rip j1,l , . . . ,∑

l∈Rip jt ,l).

Exemple 7.12 Soit la chaıne, a trois etats, de matrice de transition :

P=

⎛⎝ 1/4 5/8 1/81/2 1/2 00 0 1

⎞⎠.

La matrice de transition des etats transitoires : PT =

(1/4 5/81/2 1/2

).

On verifie facilement que le vecteur q(3) = probabilite d’absorption parla seule classe de recurrence reduite ici a l’etat e3 est la solution du systeme :

(Id−PT )q(3) =

(1/8

0

).

Il est clair que : q(3) =

(11

): l’etat e3 est donc certainement atteint a

partir de e1 ou e2.

7.5.3 Temps moyens de sejour dans les etats transitoires

On suppose que la chaıne demarre a partir d’un etat transitoire ei. Queltemps moyen reste-t’elle dans cet etat ?

Definition 7.23 Etant donne l’ensemble ET des etats transitoires, soient ei ete j deux tels etats. Le nombre moyen de visites dans l’etat e j a partir de l’etatei est egal a E[Nj|X0 = ei], ou N j est la v.a. qui compte le nombre de passagesde la chaıne par l’etat e j.

Page 181: Yves caumel (auth.) probabilites et processus

172 Probabilites et processus stochastiques

Notons : TS la matrice (E(Nj|X0 = ei))i, j.

Theoreme 7.27TS = (Id−PT )

−1.

Exemple 7.13 Considerons la chaıne etudiee dans l’exemple (7.9) ; on pourraverifier que les temps moyens de sejour dans les etats transitoires sont egaux a2,665 dans e4, 1,668 dans e8 et 4,567 dans e10.

Probabilites d’absorption par les etats recurrents :

a partir de e4 e8 e10

par R1 → 0,152 0,139 0,109par R2 → 0,848 0,861 0,891

Temps moyens de retour dans les etats de la classe recurrenteaperiodique {e5,e6,e7} :

e5 e6 e7

3,06 4,11 2,31

Intermede historique : essor de la theorie des processus alea-toires

Tout au long de ces pages, ont ete evoquees les grandes etapes du deve-loppement de la theorie des probabilites aboutissant a une premiere synthesedue a Laplace. Ce n’est qu’au cours de la premiere moitie du siecle precedent,que le champ d’etude des probabilites s’est profondement transforme. L’etablis-sement de ses bases dans le cadre de la theorie de la mesure et de l’integrationdue en grande partie a l’ecole francaise dont les protagonistes furent HenriLebesgue (1872-1941) et Emile Borel (1871-1955), permit au mathematiciensovietique Andrei Kolmogorov (1903-1987) de produire en 1933, dans une ce-lebre monographie, une formulation axiomatique definitive de la theorie desprobabilites.

Chef de file de l’ecole probabiliste russe, Andrei Markov (1856-1922),qui etudia les processus qui portent son nom, est considere comme le fondateurde la theorie des processus aleatoires. Debuta alors une epoque feconde, ou sedeveloppa la theorisation des processus aleatoires : Levy (1886-1971) en France,Kolmogorov et Khintchine (1894-1959)) en URSS , Doob et Feller (1906-1970)

aux Etats-Unis en furent les createurs les plus inspires. Depuis 1950, la theoriedes processus stochastiques fait l’objet d’applications puissantes et nombreusesa la theorie du signal, a la physique, a l’economie mathematique et a biend’autres domaines.

Les problemes 15 et 16 se rapportent a ce chapitre.

Page 182: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 173

7.6 Corriges des exercices

Exercice 7.1Pour determiner Pn, on diagonalise P.On sait que λ1 = 1 est toujours valeur propre de P, associee au vecteur

propre t(1, · · · ,1), car ∑y∈E

px,y = 1. Pour trouver l’autre valeur propre, on utilise

la propriete λ1 +λ2 = trace(P) = 2−α−β : d’ou λ2 = 1−α−β �= 1 si P �= I : Pest donc diagonalisable.

Recherche des vecteurs propres : pour λ2 = 1−α−β , (1−α)x1 +αx2 =(1−α−β )x1 conduit a βx1 +αx2 = 0.

Soit la matrice de passageΩ egale a

(1 α1 −β

);Ω−1 = 1

α+β

(β α1 −1

)et

π(n) = π(0)Ω

(λ n

1 00 λ n

2

)Ω−1 =

(β +α(1−α−β )n

α+β,α−α(1−α−β )n

α+β

).

Exercice 7.2Soit Yi, le resultat du i-eme lancer.

(1) Xn+1 = max(Xn,Yn+1) est de la forme ψ(Xn,Yn+1) ; d’apres le theoreme7.2, (Xn)n est une chaıne de Markov.

(2) E = {1,2,3,4,5,6} et P=

⎛⎜⎜⎜⎜⎜⎜⎝1/6 1/6 1/6 1/6 1/6 1/6

0 1/3 1/6 1/6 1/6 1/60 0 1/2 1/6 1/6 1/60 0 0 2/3 1/6 1/60 0 0 0 5/6 1/60 0 0 0 0 1

⎞⎟⎟⎟⎟⎟⎟⎠.

(3) Soit π(0) = (p1, p2, p3, p4, p5, p6).

limn→+∞

Pn =

⎛⎜⎜⎜⎜⎜⎜⎝0 0 0 0 0 10 0 0 0 0 10 0 0 0 0 10 0 0 0 0 10 0 0 0 0 10 0 0 0 0 1

⎞⎟⎟⎟⎟⎟⎟⎠ .

d’ou : limn→∞

π(n) = limn→∞

π(0).Pn = (0,0,0,0,0,1).

Autrement dit : limn→∞

Xn = 6.

Page 183: Yves caumel (auth.) probabilites et processus

174 Probabilites et processus stochastiques

Exercice 7.3(1) E = Z. Pour etre de nouveau au point de depart apres n etapes, il

faut avoir fait autant de pas vers la droite que vers la gauche : ainsi, n doitetre pair (n= 2m). Il y a autant de trajets possibles que de 2m u-plets avec m« d » et m « g » (g et d designant respectivement un pas a gauche et un pas a

droite), soit Cm2m, et ils sont tous de probabilite

(12

)2m. Ainsi, p(2m)x,x =Cm

2m

(12

)2m

(et p(2m+1)x,x = 0).

Pour etudier la nature de la serie, on utilise la formule de Stirling quandn tend vers l’infini :

p(2m)xx =(2m)!(m!)2

(12

)2m

∼ (2m)2m

e2m

√2π×2m

(em

mm√

2πm

)2

× 122m =

1√πm

.

Ainsi, p(2m)xx ∼ 1√πm

terme general tendant vers 0 d’une serie divergente entraıne

que la chaıne est recurrente nulle.

(2) E = Z2. Pour etre de nouveau au point de depart apres n etapes, ilfaut avoir fait dans chacune des deux directions autant de pas dans un sensque dans l’autre : ainsi, n doit etre pair (n= 2m). S’il y a 2k pas verticaux (etdonc 2m− 2k pas horizontaux), alors il doit y avoir k pas vers le haut, k pasvers le bas, m− k pas vers la gauche et m− k pas vers la droite. Ainsi, dansces cas-la, il y a C2k

2m×Ck2k×Cm−k

2m−2k trajets possibles (on a C2k2m facons de choisir

les pas verticaux, puis, parmi ceux-ci, on en choisit Ck2k vers le haut et, parmi

les 2m−2k horizontaux, on choisit les Cm−k2m−2k vers la droite par exemple), et ils

sont tous de probabilite(

14

)2m. Mais, comme k peut prendre toutes les valeurs

de 0 a m, il vient :

p(2m)xx =m

∑k=0

(2m)!(2k)!(2m−2k)!

(2k)!(k!)2

(2m−2k)!((m− k)!)2

(14

)2m

= Cm2m

(14

)2m(

m

∑k=0

(Ckm)

2

)=

[Cm

2m

(12

)2m]2

∼ 1πm

,

carm∑k=0

(Ckm)

2 =m∑k=0

CkmC

m−km =Cm

2m (on peut par exemple developper (1+ x)2m =

(1+x)m(1+x)m de deux facons differentes et identifier le coefficient de xm danschacune des expressions). Meme conclusion que precedemment ; la chaıne estrecurrente nulle.

(3) E = Z3. Meme raisonnement qu’en (1) et (2) : apres n etapes, il fautavoir fait dans chacune des trois directions autant de pas dans un sens quedans l’autre : ainsi, n doit etre pair (n= 2m). S’il y a 2k1 pas dans la direction1, 2k2 pas dans la direction 2 (et donc 2m−2k1−2k2 pas dans la direction 3),

Page 184: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 175

alors il doit y avoir k1 pas dans chaque sens de la direction 1, k2 dans ceuxde la direction 2 et m− k1− k2 dans ceux de la direction 3. Ainsi, dans cescas-la, il y a C2k1

2m ×C2k22m−2k1

×Ck12k1×Ck2

2k2×Cm−k1−k2

2(m−k1−k2)trajets possibles et ils sont

tous de probabilite(

16

)2m(trois directions et deux sens dans chacune, donc six

possibilites a chaque pas). On demontre que p(2m)xx est egal a :

∑k1,k2

(2m)!(2k1)!(2m−2k1)!

(2m−2k1)!(2k2)!(2m−2k1−2k2)!

(2k1)!(k1!)2

(2k2)!(k2!)2

(2m−2k1−2k2)!((m−k1−k2)!)2

(16

)2m

= ∑k1,k2

(2m)!(k1!)2(k2!)2((m−k1−k2)!)2

(16

)2m.

On majore le terme general de cette serie par la fraction Km3/2 , ou K est

une constante : on conclut a la convergence de la serie et donc a la transiencede la marche aleatoire.

Exercice 7.4

0 1 2 k−1 kp1

p01− p0 1− p1

p2

1− pk−1

pk−1

pk

(1) La chaıne est irreductible etant donne la structure de son graphe.(2) Il suffit donc de montrer que l’un des etats, par exemple 0, est recur-

rent pour s’assurer que la chaıne est recurrente.P(temps de retour en 0 soit fini) = 1−P(temps de retour en 0 soit infini)

= 1−+∞

∏i=0

(1− pi), donc 0 est recurrent si+∞

∏i=0

(1− pi) = 0.

Ce qui equivaut a : ln

(+∞

∏i=0

(1− pi)

)=

+∞

∑i=0

ln(1− pi) =−∞. Sachant que, si x est

proche de 0, − ln(1−x)∼x, la serie precedente est de meme nature que −+∞

∑i=0

pi.

Conclusion : 0 est recurrent si et seulement si+∞

∑i=0

pi =+∞.

(3) La chaıne est recurrente positive si l’esperance de T0, temps de retouren 0, est finie.

P(T0 = n) = P(T0 > n−1)−P(T0 > n) = p(1− p)n−1,

donc T0 est une v.a. geometrique G (p) et E(T0) =1p ; la chaıne est donc recur-

rente positive.

Page 185: Yves caumel (auth.) probabilites et processus

176 Probabilites et processus stochastiques

Exercice 7.5(1) Xn et Yn sont independantes et Yn suit la loi de Poisson P(λ ) (P([Yn =

j]) = a j = e−λ λ j

j! ). On en deduit :

• si Xn = 0, alors Xn+1 = Yn, donc P(Xn+1 = j/Xn = 0) = P(Yn = j) = a j ;• si Xn � 1, alors Xn+1 = Xn+Yn−1 et P(Xn+1 = j/Xn = i) = P(Yn = j− i+

1) = a j−i+1.(Xn) est donc une chaıne de Markov de matrice de transition P = (pi j)

ou p0 j = a j, pi j = a j−i+1 si 1 � i et j � i−1, pi j = 0 sinon ;

P=

⎛⎜⎜⎜⎝a0 a1 a2 a3 · · ·a0 a1 a2 a3 · · ·0 a0 a1 a2 · · ·0 0

. . .. . .

⎞⎟⎟⎟⎠ .

(2) π = πP s’ecrit :⎧⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎨⎪⎪⎪⎪⎪⎪⎪⎪⎪⎪⎩

π0 = a0π0 +a0π1

π1 = a1π0 +a1π1 +a0π2

π2 = a2π0 +a2π1 +a1π2 +a0π3...

πk = akπ0 +akπ1 + · · ·+a0πk+1 = akπ0 +k∑i=0

akπk−i+1

...

Ainsi, en posant π ′i = πi+1, on a πk = akπ0 +k∑i=0

akπ ′k−i pour tout k ∈ N et

G(s) =+∞

∑k=0

πksk :

G(s) = π0A(s)+A(s)B(s),

ou B(s) =+∞

∑i=0

π ′i si =

+∞

∑i=0

πi+1si = 1s

+∞

∑i=0

πi+1si+1 = 1s [G(s)−π0].

Donc sG(s) = π0sA(s)+A(s)G(s)−π0A(s) et on a bien G(s) = π0(s−1)A(s)s−A(s) .

G(1+u) =π0ueλu

1+u− eλu�(Si u → 0)

π0

1−λ= G(1) = 1 donc π0 = 1− λ , ce

qui n’est possible que si λ ∈]0,1[.Le nombre moyen de vehicules dans la station en regime stationnaire est

alors donne par G′(1), que l’on peut obtenir en faisant un developpement limite

a l’ordre 1 de G(1+u), ou G(1+u) = (1−λ ) ueλu

1+u−eλu .

1+u− eλu = 1+u−(

1+λu+ λ 2

2 u2 +o(u2))

= (1−λ )u[1− λ 2

2(1−λ )u+o(u)],

Page 186: Yves caumel (auth.) probabilites et processus

7. Chaınes de Markov discretes 177

et ueλu = u(1+λu+ o(u)) donc G(1+ u) = 1+λu+o(u)

1− λ22(1−λ ) u+o(u)

= 1+[λ + λ 2

2(1−λ )]u+

o(u), d’ou le nombre moyen de vehicules egal a : λ + λ 2

2(1−λ ) .

Exercice 7.6(1) La connaissance de l’etat au n-ieme jour suffit pour determiner les

probabilites d’occupation des etats au (n+ 1)-ieme jour et celles-ci sont inde-pendantes de n. Ainsi, on a bien une chaıne de Markov telle que :

si Xn = 0 alors : Xn+1 = 1 si les deux machines tombent en panne le n-iemejour, et Xn+1 = 0 sinon ;si Xn = 1 alors : Xn+1 = 1 si la machine en service tombe en panne le n-iemejour, et Xn+1 = 0 sinon.

En notant pi j = P([Xn+1 = j]/[Xn = i]), on a p0,1 = q2 (les machines fonc-tionnent independamment) ; p0,0 = 1−q2 ; p1,1 = q ; p1,0 = 1−q.

P=

(1−q2 q2

1−q q

).

On cherche π = (π0,π1) tel que π = πP et π0 +π1 = 1.

Cela donne π1 = q2π0+qπ1, soit π1 =q2

1−qπ0 et π0

(1+ q2

1−q)= 1. La distribution

stationnaire est π =(

1−q1−q+q2 ,

q2

1−q+q2

).

(2) Le reparateur ne travaillant plus la nuit, il peut y avoir le matin 0, 1ou 2 machines en pannes.

si Xn = 0, on peut avoir Xn+1 = 0 (0 panne), Xn+1 = 1 (1 panne) ou Xn+1 = 2 (2pannes) ;si Xn = 1, (une seule machine en service), alors Xn+1 = 0 si elle ne tombe pas enpanne le n-ieme jour, et Xn+1 = 1 sinon (l’autre remarchera le lendemain) ;si Xn = 2, alors Xn+1 = 1, car la machine reparee remarchera. On a alors

P=

⎛⎝ (1−q)2 2q(1−q) q2

1−q q 00 1 0

⎞⎠.

π = πP et π0 +π1 +π2 = 1 donne ici :

⎧⎨⎩ π0 = (1−q)2π0 +(1−q)π1;π2 = q2π0;π0 +π1 +π2 = 1.

soit π1 =

2q−q2

1−q π0, π2 = q2π0 et π0

(1+ 2q−q2

1−q +q2)= 1, soit π0 =

1−q1+q−q3 .

Ainsi, la distribution stationnaire est π =(

1−q1+q−q3 ,

2q−q2

1+q−q3 ,q2−q3

1+q−q3

).

Exercice 7.7Les axiomes de Markov et de stationnarite sont clairement verifies.

Page 187: Yves caumel (auth.) probabilites et processus

178 Probabilites et processus stochastiques

Posons pour tout (x1,y1) appartenant a l’espace d’etats de (X (1)n )n et

pour tout (x2,y2) appartenant a l’espace d’etats de (X (2)n )n : An = (X (1)

n = x1),

An+1 = (X (1)n+1 = y1), Bn = (X (2)

n = x2) et Bn+1 = (X (2)n+1 = y2),

P(An+1∩Bn+1 |An∩Bn) =P(An+1∩An∩Bn+1∩Bn)

P(An∩Bn)

=P(An+1∩An)P(Bn+1∩Bn)

P(An)P(Bn)

= P(An+1|An)P(Bn+1|Bn).

P(X (1)n+1 = y1,X

(2)n+1 = y2 |X (1)

n = x1, X(2)n = x2)

= P(X (1)n+1 = y1|X (1)

n = x1)P(X(2)n+1 = y2|X (2)

n = x2).

Exercice 7.8(1) On a P([Xn+1 = k]/[Xn = i]) = P([s−Yn = k]/[Xn = i]) = P([Yn = s−

k]/[Xn = i]) = 1i+1 si 0 � s−k� i, c’est a dire si s− i� k� s. P([Xn+1 = k]/[Xn = i])

est donc independant de n : l’axiome d’homogeneite est bien verifie. En outre,la connaissance de X0, · · · ,Xn−1 n’apporterait rien de plus pour determiner la loide Xn+1, donc l’axiome de Markov est aussi verifie et (Xn)n est bien une chaınede Markov de matrice de transition P = (pi j) ou pi j = 1

i+1 si s− i � j � s et 0sinon.

Pour πi =2(i+1)

(s+1)(s+2) , on as∑i=0

πi =2

(s+1)(s+2)

s∑i=0

(i+1) = 2(s+1)(s+2)

s+1∑i=1

i= 1.

(πP) j =∑iπi pi j =

s∑

i=s− j

2(i+1)(s+1)(s+2)

1i+1 = 2

(s+1)(s+2) ( j+1) = π j. La chaıne etant irre-

ductible finie, elle admet une unique distribution stationnaire : c’est donc (πi)

ou πi =2(i+1)

(s+1)(s+2) .

(2) N =s∑i=0

iπi = 2(s+1)(s+2)

[s∑i=1

i(i+1)

]avec

s∑i=1

i2 = s(s+1)(2s+1)6 et

s∑i=1

i =

s(s+1)2 , donc

s∑i=1

i(i+ 1) = 16 [s(s+1)(2s+4)] = s(s+1)(s+2)

3 , donc N = 2s3 et pour

s= 30, N = 20.

Page 188: Yves caumel (auth.) probabilites et processus

Chapitre 8

Processus de Poisson et de

renouvellement

Les processus de Poisson et de renouvellement sont des processus alea-toires de comptage a temps continu qui conviennent a la description des phe-nomenes dont les occurrences surviennent en des temps successifs aleatoires.Ils sont utiles a la modelisation des files d’attente apparaissant a l’entree deservices et dans les reseaux de communication, et permettent de resoudre desproblemes de maintenance.

8.1 Processus de Poisson homogene

Definition 8.1 Un processus de comptage (Nt)t�0 est un processus qui per-met de denombrer les occurrences d’un evenement aleatoire donne en fonctiondu temps : temps d’arrivee des clients a un service, temps d’arrivee de requetesa un ordinateur, etc.

Nt est la v.a. egale au nombre d’occurrences appartenant a l’intervallede temps [0, t] ; (Nt −Ns) designe donc le nombre d’occurrences appartenant al’intervalle de temps ]s, t].

Definition 8.2 Un processus de Poisson homogene d’intensite λ estun processus de comptage (Nt)t�0 qui verifie les proprietes suivantes :

(1) (Nt)t∈R+ est a accroissements independants ; les occurrences surdes intervalles de temps disjoints sont donc independantes entre elles :

∀(ti)i=1,..,n verifiant 0 < t1 < t2 < ... < tn,

(Nt1 −N0), (Nt2 −Nt1), ..., (Ntn −Ntn−1) sont des v.a. independantes.

Page 189: Yves caumel (auth.) probabilites et processus

180 Probabilites et processus stochastiques

(2) Vs,t >0, la v.a. (Nt+s-Ns) est de loi de Poisson de pamme.tre A.t

-At (Atl (Vk E N) P(Nt+s -Ns = k) = e ~.

Le processus demarrant a l'instant t = 0 :

P(Nt = k) = e-At (At)k. k!

Theoreme 8.1 L'intensite d'un processus de Poisson, dejinie comme etant le nombre moyen d'occurrences par unite de temps, est egale a A.

D

Exemple 8.1 Le processus de comptage des voitures controlees a un guichet d'autoroute, durant un intervalle de temps donne ou I'intensite A est constante, est un processus de Poisson. Supposons que Ie nombre de voitures franchissant un peage donne est decrit par un processus de Poisson de parametre A = 300 (voitures par heure). Le nombre aleatoire de vehicuies franchissant Ie peage en une minute est decrit par Ia v.a. de Poisson N(s+ io) -N(s) de Ioi :

1 300 (300 l e-5 5k

VkP(N(s+60)-N(s)=k)=e- w ~! =~.

Graphe d'une realisation du processus de Poisson d'intensite A = 5.

t Ntl 4-i­

I I

3+ I

2+ I

1 + I I I I I I I ... ____ -+.Q,.t.5 _ _ -+ ___ + ___ -.J.... _o~~ __ -.J- _-+_

o TI T2 0,5 T3 T4 1 t

(Tn designe Ie temps de realisation de Ia n-ieme occurrence.)

8.1 •• Soient (Nt)r;.o un processus de Poisson d'intensite A et deux entiers i, j teis que i < j.

(1) Pour tout entier k, determiner P(Nu = k I (Ns = i) n (Nt = j) dans chacun des cas suivants : (a) s ~ t ~ u; (b) s ~ u ~ t; (c) u ~ s ~ t.

(2) Le flux des clients arrivant dans un service est decrit par Ie processus de Poisson d'intensite dix clients/h; determiner Ia probabilite pour qu'au bout

Page 190: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 181

d’une demi-heure deux clients soient arrives, sachant que dans le premier quartd’heure aucun client n’est arrive et que deux clients sont arrives durant lapremiere heure.

8.2 ♠♠ Etude du processus de BernoulliA une suite de v.a. (Xn)n independantes de meme loi de Bernoulli P(Xn =

1) = p = 1−P(Xn = 0), on associe le processus de Bernoulli (Bn)n, defini parBn = ∑n

i=1Xi.

(1) Demontrer que le processus de Bernoulli est une chaıne de Markov.(2) Soit Tn le temps d’occurrence du n-ieme saut d’amplitude egale a

l’unite, effectue par le processus. On pose : Un = Tn−Tn−1 ; determiner la loide Un et demontrer que Tn est de loi de Pascal, definie par : P(Tn = k) =Cn−1k−1 p

n(1− p)k−n ∀k � n.

(A) Caracterisation du processus de Poisson homogene fondeesur l’hypothese des evenements rares

Definition 8.3 Un processus de comptage (Nt)t�0 verifie l’hypothese des eve-nements rares si pour tout accroissement infinitesimal Δt du temps :

(1) P(NΔt = 1) = λΔt+o(Δt);

(2) P(NΔt � 2) = o(Δt).

On deduit de (1) et (2) : P(NΔt = 0) = 1−λΔt+o(Δt).

Theoreme 8.2 (Caracterisation du processus de Poisson par les hy-potheses d’evenements rares)Un processus de comptage a accroissements stationnaires independants et veri-fiant l’hypothese des evenements rares est un processus de Poisson.

Preuve P(Nt+h = k) = P((Nt = k)∩ (Nt+h−Nt = 0))+P((Nt = k−1)∩ (Nt+h−Nt = 1))+∑k−2

j=0P((Nt = j)∩ (Nt+h−Nt = k− j)).

La propriete caracteristique des processus a accroissements independantsstationnaires conduit aux egalites :

P(Nt+h = k) = P(Nt = k)P(Nh = 0)+P(Nt = k−1)P(Nh = 1)+

∑j�k−2

P(Nt = j)P(Nh = k− j)︸ ︷︷ ︸o(h)

.

Posons fk(t) = PNt (k) : fk(t + h) = fk(t) f0(h) + fk−1(t) f1(h) + o(h) (∗),equation de recurrence, resoluble des que sont connus les deux premiers termesf0(h) et f1(h).

Page 191: Yves caumel (auth.) probabilites et processus

182 Probabilites et processus stochastiques

(Nt)t etant un processus stationnaire a accroissements independants :f0(h) = e−λh et f1(h) = λ he−λh. Si h infiniment petit : f0(h) = 1−λh+o(h) etf1(h) = λh+o(h). D’ou en portant dans (∗) : f

′k(t) = λ ( fk−1(t)− fk(t)), qui est

l’equation de Kolmogorov du processus.

On pourra verifier que fk(t) =e−λ t (λ t)k

k! est la solution du systeme recur-rent differentiel. �

Theoreme 8.3 La v.a. Tn associee au temps de realisation de la n-ieme oc-currence verifie la relation :

{Tn � t}= {Nt � n}.

8.3 ♠ (1) Determiner FTn(t) en fonction de PNt , puis fTn(t).[Solution : loi gamma γ(λ , n).](2) Determiner la covariance et le coefficient de correlation du couple (Ns,

Nt) sachant que (0 < s< t) ; interpreter ces resultats en fonction des valeurs des et t. [Utiliser la decomposition : NsNt = Ns(Nt −Ns)+N2

s ].

Definition 8.4 Les v.a. Ui = Ti−Ti−1, ∀ i � 2 et U1 = T1 sont les intervallesde temps entre deux occurrences consecutives appeles aussi temps d’inter-arrivees.

(B) Caracterisation du processus de Poisson homogene par l’in-dependance des temps d’interarrivees et le caractere exponentiel deleur loi commune.

Elle repose sur le theoreme suivant :

Theoreme 8.4 (de Dirichlet) Si (X1, . . . ,Xn) sont des v.a. independantes dememe densite fX , alors la statistique d’ordre (X(1),X(2), . . . ,X(n)) formee de l’en-semble des Xi rangees par ordre croissant admet la densite :

f(X(1),...X(n))(x1, ....xn) =

{n!(∏n

i=1 fX (xi)) si (x1 < x2 < ... < xn)0 sinon.

Preuve Considerons n= 2 : X(1) = inf(X1,X2) et X(2) = sup(X1,X2). L’evenement(X(1) < x1,X(2) < x2) est egal a la reunion disjointe des evenements

(X1 < X2,X1 < x1,X2 < x2) et (X2 < X1,X2 < x1,X1 < x2) d’ou :

P(X(1) < x1,X(2) < x2) = P(X1 < X2,X1 < x1,X2 < x2)

+P(X2 < X1,X2 < x1,X1 < x2).

Ce resultat se generalise immediatement par recurrence au cas de n v.a. L’ega-lite :

P(X1 < x1,X2 < x2,X1 < X2) =∫ x1

−∞

∫ x2

−∞fX1(y1) fX2(y2)1(y1<y2)(y1,y2)dy1 dy2

Page 192: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 183

devient pour n v.a. :

P(X1 < x1,X2 < x2, ...Xn < xn,X1 < X2... < Xn) =∫ x1

−∞

∫ x2

−∞..∫ xn

−∞fX1(y1) fX2(y2)...

fXn(yn)1(y1<y2...<yn)(y1,y2, ...yn)

dy1 dy2...dyn.

Donc compte tenu de l’identite des lois des Xi : F(X(1),...X(n))(x1, ...xn) =

n!∫ x1−∞

∫ x2−∞ ...∫ xn−∞ fX1(y1) fX2(y2)... fXn(yn)1(y1<y2..<yn)(y1,y2, ...yn)dy1dy2...dyn

et

f(X(1),...,X(n))(x1, ...,xn) = n! fX (y1) fX (y2)... fX (yn)1(y1<y2...<yn)(y1,y2, ...,yn).

Theoreme 8.5 Le processus de comptage (Nt)t∈R+ est un processus de Poissond’intensite λ si et seulement si les temps d’inter-arrivees (Ui)i sont indepen-dants et de meme loi exponentielle E (λ ).

Preuve (1) Condition necessaire :

Soient n intervalles disjoints (ti, ti+hi) ou t1 < .. . < tn.

P(T1 ∈ (t1, t1 +h1), . . . ,Tn ∈ (tn, tn+hn))

= P(Nt1 = 0,Nt1+h1 −Nt1 = 1,Nt2 −Nt1+h1 = 0, . . . ,Ntn+hn −Ntn = 1)

= e−λ .t1 × e−λh1λh1× e−λ (t2−t1−h1)× . . .× e−λ (tn−tn−1−hn−1)× e−λhn

� e−λ tnλ nh1× . . .×hn.

On en deduit la densite du vecteur (T1, . . .Tn) aux points (t1, . . . , tn) tels quet1 < .. . < tn : f (t1, . . . , tn) = λ n e−λ tn .Calculons la loi du vecteur (U1, . . . ,Un) par la methode du changement devariables (voir chapitre 4) :

f(U1,...,Un)(x1, . . . ,xn) = λ e−λx1λ e−λx2 . . .λ e−λxn ∀(x1, . . . ,xn) ∈ Rn+,

dont la forme analytique permet de conclure : f(U1,...,Un)(u1, . . . ,un)=∏ni=1 fUi(ui).

Les Ui sont donc independantes de meme densite exponentielle λ e−λ u.

(2) Condition suffisante :

Calcul de la loi de Nt : exprimons d’abord la loi du vecteur (T1, . . . ,Tn) apartir de celle de (U1, . . . ,Un). D’apres le theoreme de Dirchlet :

fT1,...,Tn(t1, . . . , tn) = 1I{0<t1<...<tn}∏n−1i=0 λ e−λ (ti+1−ti) = 1I{0<t1<...<tn}λ

ne−λ tn .

Page 193: Yves caumel (auth.) probabilites et processus

184 Probabilites et processus stochastiques

Remarquons que ∀n : (Nt = n−1)≡ (Ti < t ∀i� n−1) et (Tn > t), d’ou :

P(Nt = n−1) =∫

1I{0<t1<...<tn−1<t<tn}λn e−λ tndt1 . . .dtn

=

∫1I{0<t1<...<tn−1<t<tn}dt1 . . .dtn−1

∫λ ne−λ .tndtn

=1

(n−1)!(λ t)n−1 e−λ t .

Montrons que le processus est a accroissements independants.

Soient Δi = [ti, ti+dti], Δ=∏ni=1Δi, et T = (T1, . . . ,Tn).

P(T ∈ Δ|Nt = n) = P(T∈Δ,Nt=n)P(Nt=n) .

Or P(T ∈ Δ,Nt = n) = 1{0<t1<...<tn} ×λ n× e−λ1.dt1dt2 . . .dtn, d’ou :

P(T ∈ Δ|Nt = n) = 1{0<t1<...<tn}n!tn dt1 . . .dtn. On utilise la propriete de Diri-

chlet : donnons-nous une subdivision (0 = r0,r1, . . . ,rk = t) de l’intervalle (0, t) ;la loi des nombres Si qui tombent dans les intervalles ri+1− ri est une multino-miale de parametres r1−r0

t , r2−r1t , . . . ,

rk−rk−1t .

Appliquons ce resultat au nombre des temps Ti tombant dans une tellesubdivision r1− r0, . . . ,rk− rk−1 et identifions la loi multinomiale de parametresr1−r0

t , r2−r1t , . . .,

rk−rk−1t .

P(Nr1 = n1,Nr2 −Nr1 = n2, . . . ,Nrk −Nrk−1 = nk|Nrk = n)

= n!n1!...nk! (

r1t )

n1( r2−r1t )n2 ...(

rk−rk−1t )nk P(Nr1 = n1, . . . ,Nrk −Nrk−1 = nk)

=∑ki=1 ni

n1!...nk!rn11 (r2−r1)

n2 ...(rk−rk−1)nk

∑ki=1 ni

× e−λ t (λ t)∑ni

(∑ni)!.

P(Nr1 = n1, . . . ,Nrk −Nrk−1 = nk) =

e−λ r1(λ r1)

n1

n1!.e−λ r2

(λ (r2− r1))n2

n2!. . .e−λ rk

(λ (rk− rk−1))nk

nk!.

(Nt)t est a accroissements independants et chaque accroissement (Nrj −Nrj−1) est de loi de Poisson de parametre λ (r j− r j−1). Conclusion : (Nt)t∈R+ estbien un processus de Poisson. �

8.4 ♠♠♠ Paradoxe de la station de busOn suppose que les arrivees de bus a une station constituent un processus

de Poisson d’intensite λ , ce qui n’est pas realiste compte tenu de la regulationimposee a un reseau citadin de bus. Un usager arrive a la station au temps θ :soient U le temps qui separe θ du temps de la prochaine arrivee et V le tempsqui separe θ du temps de la derniere arrivee.

Page 194: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 185

(1) Determiner la loi de U , puis la loi de V en determinant P(V > x) danschacun des deux cas : 0 < x< θ et x� θ .

(2) Demontrer l’independance des v.a. U et V , en calculant P((U > y)∩(V > x)) dans chacun des deux cas precedents. On constate que E(U+V ) est del’ordre de 2.E(T ), T designant la duree qui separe deux arrivees consecutives ;du point de vue d’un usager, l’intervalle moyen separant deux arrivees de busest donc deux fois superieur a 1

λ .

8.5 ♠♠♠ Sur une route a sens unique, l’ecoulement des voitures est de loi dePoisson d’intensite λ = 1

6 . Un pieton arrive a l’instant t sur le bord de la route.(1) Probabilite pour qu’il attende, sachant qu’il lui faut 4 secondes pour

traverser ?(2) Quelle est la duree moyenne des intervalles lui permettant de traver-

ser ?(3) Determiner la loi du nombre N de voitures qu’un pieton voit passer

avant de traverser. En moyenne, combien de temps doit-il attendre avant detraverser ?

Theoreme 8.6 (Proprietes des processus de Poisson)Le processus de Poisson (Nt)t∈R+ d′intensite λ et de suite (Tn)n∈N des

temps d’occurrences possede les proprietes suivantes.

(1) Absence de memoire :

∀s, t P(Tn � s+ t|Tn > s) = P(Tn � t).

(2) Invariance par translation : la v.a. TN(t)+1− t est de loi exponentielleE (λ ) et la suite des temps aleatoires (TN(t)+k−t)k∈N definit les occurrences d’unprocessus de Poisson de parametre λ .

(3) La v.a. (Tn+k−Tn) qui separe k occurrences est de loi gamma γ(λ ,k).

(4) ∀s, t (s< t) ∀k � n :

P(Ns = k|Nt = n) =Ckn

( st

)k(1− s

t

)n−k.

(5) La loi du vecteur aleatoire (T1, . . . ,Tn) conditionne par (Nt = n) est dedensite :

f(T1,....,Tn)(t1, . . . , tn) =n!tn1{0�t1�t2�...�tn�t}(t1, . . . , tn).

(6) Le processus de Poisson est une chaıne de Markov a temps continu,

de probabilite de transition P(Nt = n|Ns = m) = λ n−m (t−s)n−m(n−m)! e−λ (t−s) ou s < t, m

et n sont des entiers positifs tels que m � n ; on reconnaıt la loi de Poissond’intensite λ (t− s).

Page 195: Yves caumel (auth.) probabilites et processus

186 Probabilites et processus stochastiques

(7) Stabilite du caractere poissonnien par sommation finie de processus

de Poisson independants : soient n processus de Poisson (N(i)t )t independants

d’intensites (λi)i, alors

(∑ni=1N

(i)t )t est un processus de Poisson d′intensite ∑n

i=1λi.

(8) Processus de Poisson soumis a effacement : si chaque occurrence duprocessus est prise en compte avec une probabilite p, le processus de comptagequi en resulte est un processus de Poisson d’intensite p.λ .

Preuve(1) P(Tn � t+ s|Tn > s) = P(s<Tn�s+t)

P(Tn>s) = P(Tn�s+t)−P(Tn�s)P(Tn>s) = 1− e−λ t = P(Tn � t).

(2) Resulte de la propriete d’absence de memoire des v.a. exponentielles.(3) Tn+k−Tn = ∑n+k

i=n+1Ui somme de k v.a. exponentielles independantes de pa-

rametre λ , donc de loi gamma γ(λ ,k), de densite : fk(t) =λ ktk−1

(k−1)! e−λ t 1IR+(t).

(4) Se verifie facilement.(5) Consequence directe du theoreme 8.4.(6) La propriete de Markov a ete etablie dans l’exercice 8.1 (a). �

8.6 ♠♠ Demontrer les proprietes (7) pour n= 2 et (8).

8.7 ♠ Processus de Poisson decaleEtant donne un processus de Poisson (Nt)t d’intensite λ , on considere

les processus decales (N(1)t )t et (N

(2)t )t obtenus respectivement sous chacune des

deux hypotheses suivantes.

(1) Chaque temps d’arrivee est decale par translation d’un meme temps

constant α > 0. (N(1)t )t , le processus obtenu, est-il un processus de Poisson ?

(2) Chaque temps d’arrivee est decale par translation d’un temps alea-toire decrit par la v.a. X positive, independante du processus (Nt)t , de densite

fX ; soit (N(2)t )t le processus obtenu. Demontrer que (N(2)

t )t n’est pas un proces-sus de Poisson.

8.8 ♠♠ Des bus arrivent a un arret selon un processus de Poisson d’intensiteλ . De l’arret a votre domicile il vous faut t1 minutes en bus et t2 minutes apied. Vous decidez d’attendre le bus s minutes et de partir a pied s’il n’est pasarrive. Soit T le temps ecoule entre votre arrivee et celle du bus et W le tempsmis pour rentrer.

(1) Verifier que : W = (T + t1)1[0,s](T )+(s+ t2)1]s,+∞[(T ).(2) En deduire E(W ).(3) Temps moyen pour rentrer chez vous ? Trouver la valeur de s qui

minimise ce temps : considerer trois cas selon la valeur de λ par rapport a1

t2−t1 .

Page 196: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 187

8.9 ♠♠ Nombre d’occurrences sur un intervalle de temps aleatoire(1) Calculer la loi du nombre aleatoire X d’occurrences d’un processus

de Poisson d’intensite λ , sur une duree U aleatoire de densite fU . Applicationau cas ou U est de loi exponentielle E (α).

(2) Determiner la fonction generatrice GX (z) de X , et en deduire E(X) etV (X).

Simulation et estimation de l’intensite d’un processusde Poisson

On simule un processus de Poisson d’intensite λ sur un intervalle detemps donne [0, n] de la facon suivante : on repartit selon la loi uniforme surl’intervalle [0,n] , �λ .n� (egal au plus grand entier inferieur a λ .n) points et on

note T (n)i la position du i-eme point dans l’ordre croissant. Une propriete, non

enoncee ici, etablit que lorsque n tend vers l’infini, la suite (T (n)i )i converge

vers la suite des temps d’occurrences du processus de Poisson d’intensite λ .Supposons maintenant que l’on ait observe n occurrences du processus de Pois-

son au temps t ; l’estimation de l’intensite λ est donnee par la valeur du rapportnt . On demontre dans le cadre de la theorie de l’estimation que n

t , dit estimateurdu maximum de vraisemblance de λ , est un estimateur de λ sans biais, et devariance minimale. L’estimation de λ est d’autant meilleure que le temps d’ob-servation t est grand. Si on dispose des temps d’occurrences (Ti = ti)i=1,2,...,n, il

existe un estimateur de 1λ , egal a

Tnn , qui a des qualites equivalentes a l’estima-

teur de λ precedemment defini.

En pratique, il est souvent plus realiste de supposer un taux moyend’arrivee dependant du temps. C’est par exemple le cas des temps d’arrivee derequetes dans une unite de traitement informatique et de facon generale destemps d’arrivee dans un service, dont les frequences sont fonction de la periodede temps consideree. D’ou la necessite d’introduire la notion de processus dePoisson non homogene.

Definition 8.5 Un processus de Poisson non homogene d’intensite λ (t)fonction du temps est un processus de comptage non stationnaire et a accrois-sements independants verifiant les deux axiomes :

(1) ∀t P(N(t +Δt)−N(t) = 1) = λ (t)+ 0(Δt) ou λ (t) est une fonctionpositive ;

(2) ∀t P(N(t+Δt)−N(t)� 2) = 0(Δt).

Si l’intensite λ (t) est strictement positive, l’etude du processus homogenese ramene a l’etude d’un processus de Poisson classique, grace au theoremesuivant :

Page 197: Yves caumel (auth.) probabilites et processus

188 Probabilites et processus stochastiques

Theoreme 8.7 Si (Nt)t�0 est un processus de Poisson non homogene, d’inten-site λ (t) strictement positive, alors :

(1) P(N(s+ t)−N(s) = k) = e−(Λ(s+t)−Λ(s)). (Λ(s+t)−Λ(s))kk! .

(2) (NΛ−1(t))t est un processus de Poisson homogene d’intensite 1.

Preuve (2) La primitive Λ de λ definie par∫ t

0 λ (u).du est donc croissante et

P(N(Λ−1(t+h))−N(Λ−1(t)) = k) =Λ(Λ−1(t+h))−Λ(Λ−1(t))

k!e−h =

hk

k!e−h.

Definition 8.6 On appelle processus de Weibull, le processus de Poissonnon homogene de parametre Λ(t) = ( t

α )β ou α,β > 0.

8.2 Processus de Poisson spatiaux

Les processus de Poisson spatiaux permettent de rendre compte desrepartitions aleatoires uniformes de points dans des espaces non bornes de di-mension deux ou trois. Ils permettent par exemple de modeliser la repartitiondes etoiles dans certaines regions de l’espace, de plantes et d’animaux d’uneespece donnee dans une zone donnee. On munit l’espace Rk, de sa tribu bore-lienne βk et on se donne un ensemble infini de points aleatoirement repartis.A tout borelien B on associe la v.a. N(B) egale au nombre de points contenusdans B.

Definition 8.7 L’ensemble des v.a. N(B) ou B est un borelien de Rk est unprocessus de Poisson spatial homogene d’intensite λ , si sont verifies lesdeux axiomes suivants :

(1) ∀B, N(B) est de loi de Poisson P(λ |B|) ou |B| designe l’aire ou levolume de B ;

(2) si les boreliens (Bi)i sont disjoints, les v.a. N(Bi) sont independantes.

On appelle champ poissonnien l’espace Rk muni d’un processus spatialpoissonnien.

L’axiome (1) est intuitif : en effet, soit un sous-ensemble borne En de Rk

contenant n points ; si on considere que la repartition aleatoire est uniforme,pour tout B appartenant a la tribu βEn , N(B) est une v.a. binomiale B(n ; p),

ou p= |B||En| .

Page 198: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 189

Faisons tendre l’ensemble En vers l’espace Rk, de maniere que :

n|En| −→(n→+∞) λ .

On en deduit que :

p.n=|B||En| n−→(n→+∞) λ |B| ,

qui est la condition de l’approximation de Poisson de la variable binomiale ;N(B) est une v.a. de loi de Poisson P(λ |B|). L’axiome (2) est une generalisationde la propriete des accroissements independants.

Theoreme 8.8 (Proprietes des processus de Poisson spatiaux)(1) Si B1 et B2 sont de volumes egaux, N(B1) et N(B2) sont des v.a. de

meme loi.(2) Pour tout borelien de volume infinitesimal ΔB :

P(N(ΔB) = 1)� λ |ΔB| ;

P(N(ΔB)> 1)� o(|ΔB|).

Preuve La propriete (1) decoule du fait que la loi du processus depend uni-quement du volume de B et non de sa forme geometrique.(2) P(N(ΔB) = 1) = e−λ |ΔB|λ |ΔB| � (1−λ |ΔB|)λ |ΔB| � λ |ΔB| ;P(N(ΔB)> 1)� P(1− e−λ |ΔB| = 0)−λ |ΔB| � o(|ΔB|). �

On remarque l’analogie existant entre la propriete (1) et la proprietede stationnarite des processus de Poisson homogenes ; la propriete (2) est lapropriete des evenements rares etendue a un espace de dimension quelconque.

8.10 ♠ (1) Demontrer que si B1 ⊂ B2 : P(N(B1) = 1 | N(B2) = 1) = |B1||B2| .

(2) Demontrer que la v.a. (N(B1) | (N(B2) = n)) est binomiale B(n; |B1||B2| ).

Theoreme 8.9 Etant donne un processus de Poisson d’intensite λ dans leplan et un point quelconque du plan : la distance aleatoire D de ce point aupoint le plus proche est de densite :

fD(x) = 2λπx.e−λπx2

et d’esperance : E(D) = 1√λ.

8.11 ♠ (1) Demontrer le theoreme. [Indication : determiner P(D> x).](2) Soit Dn la distance au n-ieme plus proche voisin ; determiner fDn .

Page 199: Yves caumel (auth.) probabilites et processus

190 Probabilites et processus stochastiques

8.3 Processus de Poisson homogenes composes

Ces processus sont a la base de l’etude des evenements de Poisson qui seproduisent de facon groupee comme les arrivees simultanees de voyageurs dansun aeroport ou une gare, ou encore l’arrivee d’informations groupees arrivantdans une unite centrale informatique.

Definition 8.8 Etant donne (Nt)t un processus de Poisson homogene d’inten-site λ , et (Yi)i∈N∗ une suite de v.a. discretes independantes de meme loi PY , ondefinit le processus de Poisson compose (Wt)t∈R+ :

∀t ≥ 0, Wt =Nt

∑i=1

Yi et Wt = 0 si Nt = 0.

Supposons que des groupes de requetes arrivent dans une unite de trai-tement informatique selon un processus de Poisson d’intensite λ ; le n-iemegroupe contient Yn requetes. Si Nt designe le nombre de groupes arrives entrele temps 0 et le temps t, le processus (Wt = ∑

Nti=1Yi)t est un processus de Pois-

son compose. L’etude de ce processus necessite la connaissance de la loi deW = ∑N

i=1Yi ou N est une v.a. de Poisson de parametre λ . Les theoremes ci-dessous permettent de calculer les moments d’ordre quelconque deW, ainsi quela loi de W lorsque les Yi sont des variables entieres positives.

Theoreme 8.10 Etant donne un processus de Poisson compose (Wt)t∈R+ , pourtout temps t positif :

E(Wt) = λ t E(Y1) ;

V (Wt) = λ t E(Y 21 ).

Preuve E(Wt) = E(Nt)E(Y1) = λ t E(Y1)V (Wt) =(Theo de la variance totale) E(Nt)V (Y1)+V (Nt)E(Y 2

1 ) = λ t E(Y 21 ). �

Theoreme 8.11 La fonction generatrice GWt du processus de Poisson compose(Wt)t≤0 est egale a :

GWt (z) = exp(λ .t(GY (z)−1)).

Preuve GWt (z) = ∑n P(Nt = n).E(zY1 . . .zYn) = e−λ t∑+∞n=0(GY (z)λ t)n/n!

= exp(λ t(GY (z)−1)). �

On rappelle que la connaissance de GWt permet de determiner la loi Wt

en tout t :

∀k ∈ N, PWt (k) =1k!

dkexp(λ t(GY (z)−1))dzk

|z=1.

Page 200: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 191

8.4 Processus de renouvellement

Les processus de renouvellement constituent une extension des processusde Poisson au cas ou la loi des durees Un = Tn−Tn−1 entre deux occurrencesconsecutives n’est pas necessairement exponentielle. Ils permettent de modeliseret de resoudre les problemes de renouvellement des systemes, dans le cadred’une politique de maintenance.

8.4.1 Description et proprietes

Definition 8.9 Etant donne (Tn)n∈N∗ la suite des temps d’occurrence d’un eve-nement donne, ou pour tout n, Tn=∑n

i=1Ui ; les v.a. Ui sont positives et indepen-dantes, de meme loi definie par leur fonction de repartition commune F. Ondefinit le processus de renouvellement (Nt)t∈R+ :

∀t � 0, Nt = max{n|Tn � t}= ∑n�0

1[0,t](Tn).

Nt est donc le nombre d’occurrences de l’evenement dans l’intervalle [0, t].Si les Ui sont de meme loi exponentielle E (λ ), le processus de renouvellementest alors un processus de Poisson d’intensite λ .

Definition 8.10 La fonction de renouvellement, qui permet de suivre l’evo-lution temporelle de la moyenne du processus, est definie par :

t ∈ R+ −→ E(N(t)) =(note) m(t).

Theoreme 8.12 (Equation de renouvellement)(1) Les fonctions de repartition Fn des v.a. Tn verifient l’equation :

Fn+1(x) =∫ x

0Fn(x− y)dFUn+1(y).

(2) La fonction de renouvellement m verifie l’equation de renouvelle-ment :

∀t > 0, m(t) = F(t)+∫ t

0m(t− x)dF(x),

egale a+∞

∑n=1

Fn(t).

Preuve (1) Tn+1 = Tn+Un+1, donc :

Fn+1(x) =∫ x

0P(Tn+Un+1 � x |Un+1 = y)dFUn+1(y).

(2) Par definition Nt =∑+∞n=1 1(Tn�t) d’ou : E(Nt)=∑+∞

n=1P(Tn� t)=∑+∞n=1Fn(t).

Page 201: Yves caumel (auth.) probabilites et processus

192 Probabilites et processus stochastiques

D’autre part : E(Nt |T1 = x) = 0×1{t<x}+(1+E(Nt−x))1{t �x} ;

m(t) = E(Nt) = E(E(Nt |T1))

=∫ t

0(1+m(t− x))dF(x) = F(t)+

∫ t

0m(t− x)dF(x).

Theoreme 8.13 La transformee de Laplace de la fonction de renouvellementm est definie par :

∀s> 0, L(m)(s) =∫ +∞

0e−st .E(Nt)dt =

L(F)(s)1−L( f )(s)

=L( f )(s)

s(1−L( f )(s)).

Preuve ∀s> 0, L(m)(s) =+∞

∑n=1

L(Fn)(s) =+∞

∑n=1

L(F)(s)(L( f )(s))n−1 = L(F)(s)1−L( f )(s) ,

puisque L(Fn)(s) = L(Fn−1)(s)L( f )(s). �

8.12 ♠♠ Etude d’un processus de defaillanceUn systeme a reponse instantanee est sollicite a des instants aleatoires

(Tn)n constituant un processus de renouvellement de fonction de repartition F .A chaque sollicitation il a la probabilite p d’etre defaillant, les defaillances etantindependantes des sollicitations.

(1) La suite des instants de defaillance est-elle un processus de renouvel-lement ?

(2) Utiliser la transformation de Laplace pour determiner la fonction derenouvellement.

(3) Etudier le cas ou f est la densite exponentielle E (λ ).

8.4.2 Comportement asymptotique d’un processus de re-

nouvellement

Theoreme 8.14 (Proprietes asymptotiques des processus de renou-vellement)

Si (Nt)t est un processus de renouvellement dont les temps d’interarriveessont de moyenne 1

μ et de variance σ2, alors :

(1) la suite(Nt

t

)t>0 converge p.s. vers 1

μ , quand t tend vers +∞ ;

(2) la suite (Nt)t>0 converge en loi vers la v.a. N ( tμ ; σ

2tμ3 ).

Preuve (1) Soit TNt = ∑Nti=1Ui ; par definition TNt < t < TNt+1, et donc

TNtNt

<tNt

<TNt+1Nt

. OrTNtNt

est la moyenne des durees des Nt premiers intervalles entre

arrivees consecutives, qui converge p.s. vers 1μ quand t croıt vers l’infini.

Page 202: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 193

(2) Posons at = tμ + xσ

√tμ3 ; il vient

P

⎛⎝Nt − tμ

σ√

tμ3

< x

⎞⎠= P(Nt < at) = P(Tat > t)

= P

(Tat −atμσ√at

>−x(

1+xσ√tμ

)− 12).

La v.a.Tat−atμσ√at

converge vers N (0; 1) par l’application du theoreme

de la limite centrale et −x(1+ xσ√tμ )

− 12 converge vers −x quand t→+∞, d’ou la

proposition. �

Si (Nt)t est un processus de Poisson d’intensite λ , alors μ = σ2 = 1λ et

(Ntt )t converge en loi quand n tend vers +∞, vers la v.a. normale de moyenneet de variance egales a λ . Ce resultat permet de donner une estimation parintervalle de confiance, de la valeur de Nt lorsque t est grand : par exemplepour t = 100, la v.a. N100 est approchee par la v.a. N (m= 100, σ2 = 100).

Le graphe de la realisation d’un processus de Poisson quelconque d’in-tensite λ , s’enlace de facon aleatoire autour de la droite d’equation y = λ t :l’ecart quadratique moyen avec la droite y= λ t est mesure par la variance egalea λ 2t.

Le probleme 17 se rapporte a ce chapitre.

Page 203: Yves caumel (auth.) probabilites et processus

194 Probabilites et processus stochastiques

8.5 Corriges des exercices

Exercice 8.1

(1) P(Nu = k | Ns = i, Nt = j) =P(Nu = k, Ns = i, Nt = j)

P(Ns = i, Nt = j)ou :

P(Ns = i, Nt = j) = P(Ns = i, Nt −Ns = j− i)

= P(Ns = i)P(Nt −Ns = j− i)

= P(Ns = i)P(Nt−s = j− i)

= e−λ s(λ s)i

i!e−λ (t−s)

(λ (t− s)) j−i

( j− i)!

= e−λ tλ jsi(t− s) j−i

i!( j− i)!.

a) Cas s� t � u. Pour i� j � k :

P(Nu = k, Ns = i, Nt = j) = P(Ns = i, Nt −Ns = j− i, Nu−Nt = k− j)

= P(Ns = i)P(Nt −Ns = j− i)P(Nu−Nt = k− j)

= P(Ns = i)P(Nt−s = j− i)P(Nu−t = k− j).

P(Nu = k | Ns = i, Nt = j) = P(Nu−t = k− j) = e−λ (u−t) (λ (u−t))k− j

(k− j)! , qui est donc in-

dependant de l’evenement (Ns= i) anterieur aux evenements (Nt = j) et (Nu= k).

b) Cas s� u� t. Pour i� k � j :

P(Nu = k, Ns = i, Nt = j) = P(Ns = i, Nu−Ns = k− i, Nt −Nu = j− k)

= P(Ns = i)P(Nu−Ns = k− i)P(Nt −Nu = j− k)

= P(Ns = i)P(Nu−s = k− i)P(Nt−u = j− k).

On a donc

P(Nu = k | Ns = i, Nt = j) =P(Nu−s = k− i)P(Nt−u = j− k)

P(Nt−s = j− i)

=e−λ (u−s) (λ (u−s))k−i

(k−i)! e−λ (t−u) (λ (t−u)) j−k( j−k)!

e−λ (t−s) (λ (t−s)) j−i( j−i)!

.

P([Nu = k | Ns = i, Nt = j) =Ck−ij−i

(u− s)k−i(t−u) j−k

(t− s) j−i.

c) Cas u� s� t. Pour k � i� j :

Page 204: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 195

P(Nu = k, Ns = i, Nt = j]) = P(Nu = k, Ns−Nu = i− k, Nt −Ns = j− i)

= P(Nu = k)P(Ns−Nu = i− k)P(Nt −Ns = j− i)

= P(Nu = k)P(Ns−u = i− k)P(Nt−s = j− i).

On a donc

P(Nu = k Ns = i, Nt = j) =P(Nu = k)P(Ns−u = i− k)

P(Ns = i)

=e−λu (λu)k

k! e−λ (s−u) (λ (s−u))i−k(i−k)!

e−λ s (λ s)i

i!

.

P(Nu = k, Ns = i, Nt = j) =Ckiuk(s−u)i−k

si,

soit P(Nu = k | Ns = i, Nt = j) =Ckiuk(s−u)i−k

si.

(2) Application : u= 1/2, k = 1 et s= 1/4, t = 1, i= 0 et j = 2.On est dans le cas b) ; u− s= 1

4 , t−u= 12 , t− s= 3

4 , k− i= 1, j− k = 1,

j− i= 2 et la valeur de λ n’a pas d’importance. p= 2×14

12

( 34 )

2 , soit p1 =49 ≈ 0,44.

Exercice 8.2(1) Pour tout n : Bn = φ(Bn−1,Xn) = Bn−1 +Xn ou Xn independante des

(Bi)i�n−1 ; cette propriete caracterise une chaıne de Markov (voir chapitre 7.2).

(2) Pour tout n, P([Un = k]) = (1− p)k−1p : Un est de loi geometrique.Demonstration par recurrence de la loi de Tn :

P(T2 = i) =i−1

∑k=1

P(U1 = k)P(U2 = i− k)

=i−1

∑k=1

(1− p)k−1p(1− p)i−k−1p= p2i−1

∑k=1

(1− p)i−2

= (i−2)p2(1− p)i−2 =

(i−1

1

)p2(1− p)i−2.

On poursuit par une demonstration par recurrence fondee sur l’egalite :

P(Tn = k) =k−1∑i=n

P(Tn = k)P(Tn−1 = i).

Page 205: Yves caumel (auth.) probabilites et processus

196 Probabilites et processus stochastiques

Exercice 8.3 (1) FTn(t) =P([Tn :( t]) =P([Nt ~ n]) = 1-P([Nt :( n-l]) pour n ~ 1 et

n-l (At)k To = 0 : FTn (t) = 1- e-At E -,- pour n ~ 1 et t > O. On a alors :

k=O k.

h(t) = FfJt) = 1 _A/~l (ilt)k _A/~l Akktk- 1 /I.e 1... -- -e 1... ---

k=O k! k=l k!

[n-l Ak+ltk n-l Aktk- 1 1

e-At E --- E ...,....-----,­k=O k! k=l (k-l)!

[n-l Ak+ltk n-2 Ak+ltk]

e-At E--- E-- . k=O k! k=O k!

An et finalement fTn (t) = (n _ I)! e-At t n - 1 l jo,+oo[ (t) qui est la densite de la loi gamma

y(A,n).

(2) IE(NsNt ) = IE(Ns(Nt -Ns) +N;) = IE (Ns) IE (Nt -Ns) + IE(N;) , car Ns et Nt - Ns sont independantes. De plus, Nt - Ns a meme loi que Nt- s et si X suit la loi de Poisson 9(A), alors IE(X) = var(X) = A. Comme ici Nt est de loi 9(At) : Ns et Nt - Ns etant independantes donc decorrelees :

( ) - cov(Ns , Nt) - AS -If P Ns,Nt - - -- - -. vvarNsvvarNt AVSt t

En consequence, plus S est proche de t, plus Ns et Nt sont fortement cor­relees, ce qui semble evident.

Exercice 8.4 (1) Loi de V : \:Ix> B, P(V > x) = O.

v u •• ---------+. ..------------_. • • •

\:Ix E [0, B [, l'evenement [V > xl signifie que pendant la duree x precedant B, il n'y a aucune arrivee :

P(V > x) = P(Ne - Ne-x = 0) = P(Nx = 0) = e-h .

Si x > 0, P(V > x) = 0 : d'ou la loi de V definie par sa font ion de repartition:

Page 206: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 197

Loi de U : P([U > x]) = P([Nθ+x −Nθ = 0]) = P([Nx = 0]) = e−λx, car[U > x]. Pendant la duree x qui suit θ , il n’y a aucune arrivee.

(2) Independance de U et V .

Si 0 < x< θ et y> 0 : [V > x]∩ [U > y] signifie qu’il n’y a aucune arriveeentre θ − x et θ + y, donc :

P([V > x]∩ [U > y]) = e−λ (x+y) = e−λxe−λy = P([V > x])P([U > y]).

Si x� θ et y> 0 : P([V > x]∩ [U > y]) = 0 = P([V > x])P([U > y]).

IE(U) = 1λ ; IE(V ) =

∫ θ0 P([V > s])ds= 1

λ (1− e−λθ ) donc :

IE(U+V ) =2λ− 1

λe−λθ >

= IE(T ).

Le paradoxe reside dans le constat que l’ecart moyen entre les deux passages

consecutifs de bus, l’un avant θ et l’autre apres θ , est superieur a la dureemoyenne separant deux passages consecutifs quelconques.

Exercice 8.5Le pieton arrive au bord de la route a un instant θ . On note U la v.a.r.

qui separe θ de la prochaine arrivee de voiture.

(1) Le pieton ayant besoin d’au moins 4 secondes pour traverser, il devraattendre si U � 4.

Or P([U � 4]) =∫ 4

0λe−λu du=

[−e−λu

]4

0= 1− e−4λ , car on a vu a l’exer-

cice 8.4 que U suit la loi exponentielle E (λ ). Comme λ = 1/6, P([U � 4]) =

1−e−4/6 et la probabilite pour qu’il doive attendre est egale a 1−e−2/3 ≈ 0,487.

(2) On cherche IE[U>4](U), c’est-a-dire∫u f [U>4]

U (u)du. On a

F [U>4]U (u) = P[U>4]([U � u]) =

P([U � u]∩ [U > 4])P([U > 4])

=

{0 si u� 4P([4<U�u])P([U>4]) = FU (u)−FU (4)

P([U>4]) si u> 4

et donc f [U>4]U (u) =

fU (u)P([U > 4])

1]4,+∞[(u) = λ e−λ (u−4) 1]4,+∞[(u).

IE[U>4](U) =∫ +∞

4λue−λ (u−4) du =

v=u−4

∫ +∞

0λ (v+4)e−λv dv

=∫ +∞

0vλ e−λv dv+4

∫ +∞

0λ e−λv dv=

1λ+4,

Page 207: Yves caumel (auth.) probabilites et processus

198 Probabilites et processus stochastiques

car∫ +∞

0 vλ e−λv dv est l’esperance d’une v.a. de loi exponentielle E (λ ).

Ainsi, il faut en moyenne 10 secondes pour que le pieton puisse traverser.

(3) Soit N le nombre de voitures que voit passer le pieton avant de pouvoirtraverser la route. On a :

- [N = 0] = [U > 4], ou U est le temps entre l’arrivee du pieton et laprochaine voiture ;

- [N = 1] = [U � 4]∩ [U1 > 4] ou U1 est le temps entre la premiere et ladeuxieme voiture qui se presentent apres l’arrivee du pieton ;

- plus generalement, [N = k] = [U � 4]∩ [U1 � 4] · · ·∩ [Uk−1 � 4]∩ [Uk > 4]ou Uk est le temps entre la k-ieme et la (k+ 1)-ieme voiture qui se presententapres l’arrivee du pieton.Les v.a.r. U , U1, · · · ,Uk etant independantes et de meme loi exponentielle E (λ ),

on a P([N = 0]) = P([U > 4]) = e−4λ et

P([N = k]) = P([U � 4])P([U1 � 4]) · · ·P([Uk−1 � 4])P([Uk > 4])

= e−4λ (1− e−4λ )k = e−2/3(1− e−2/3)k.

On reconnaıt la loi geometrique G0(e−2/3) definie sur N definie par : P(X = k) =p(1− p)k.

E(N) = e2/3−1≈ 0,948.

Le pieton voit donc passer en moyenne une voiture avant de traverser.

Exercice 8.6(1) Montrons que (Nt)t = (N(1)

t +N(2)t )t est un processus de Poisson.

N0 = N(1)0 +N(2)

0 = 0 ; Ntk −Ntk−1 = (N(1)tk −N(1)

tk−1)+ (N(2)

tk −N(2)tk−1

) : les ac-croissements sont donc independants.

Soit T (1)1 et T (2)

1 les temps de realisation de l’evenement pour chacundes processus : le temps de realisation pour le processus somme est egal a

T1 = min(T (1)1 ,T (2)

1 ). Or les v.a. T (1)1 et T (2)

1 sont independantes de lois E (λ1) etE (λ2), donc T1 est de loi E (λ1 +λ2). On procedera de facon analogue pour lestemps d’interarrivees quelconques, le theoreme de caracterisation 8.5 permet-tant de conclure.

(2) Soit N′t le resultat du comptage prenant en compte l’effacement ;

P(N′t = k) =∑i�k

P(N′t = k|Nt = i)P(Nt = i) =∑i�k

Cki p

k(1− p)i−k e−λλ i

i!= e−λ p

(λ p)k

k!.

Montrons que les accroissements sont independants. Soit u< s< t :

Page 208: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 199

P(N′t −N′s = i et N′s−N′u = j) est egal a : P(( ∪k�i

(k occurrences et (k− i)

effacees entre s et t))∩ ( ∪l� j

(l occurrences et (l− j) effacees entre u et s)))

= P(N′t −N′s = i)P(N′s−N′u = j) par independance des emissions et des efface-ments sur [s,t] et [u,s]. Le processus verifie bien les axiomes de la definition8.2.

Exercice 8.7

(1)(∀t), (t < α), P(N(1)t = 0) = 1 et P(N(1)

t = k) = 0, ∀k � 1.

(∀t), (t � α), P(N(1)t = k) = P(Nt−α = k) = e−λ (t−α) (λ (t−α))

k

k! .L’independance des accroissements est evidente : le processus est un processusde Poisson.

(2) Soient (Ti)i les temps d’arrivee du processus (Nt)t et T ′i = Ti+Xi ouXi est la v.a. aleatoire associee a la i-eme translation de temps. Il est clair que

T ′i+1−T ′i = (Ti+1−Ti)+(Xi+1−Xi),

avec Ti+1−Ti de loi exponentielle E (λ ) et Xi+1−Xi de loi non exponentielle :

T ′i+1−T ′i est de loi non exponentielle et (N(2)t )t n’est pas un processus de Poisson.

Exercice 8.8 (1) Soit T le temps (aleatoire) ecoule entre notre arrivee et celledu prochain bus. On sait que T suit la loi exponentielle E (λ ). Le temps W mispour rentrer est :

- T + t1 si le bus arrive avant s, c’est-a-dire si T � s ;- s+ t2 si on rentre a pied, c’est-a-dire si T > s.

On a donc W = (T + t1)1[0,s](T )+(s+ t2)1]s,+∞[(T ) = h(T ).

(2) IE(W ) =∫

h(t) fT (t)dt =∫ s

0(t+ t1)λe

−λ tdt+∫ +∞

s(s+ t2)λe

−λ tdt

=[−te−λ t

]s0+∫ s

0e−λ tdt+ t1

[−e−λ t

]s0+(s+ t2)

[−e−λ t

]+∞

s

= −se−λ s+ 1λ− 1

λe−λ s+ t1(1− e−λ s)+ se−λ s+ t2e

−λ s

IE(W ) =(

1λ + t1

)+ e−λ s

(t2−

(1λ + t1

)).

(3) s �→ e−λ s decroıt de 1 (pour s= 0) a 0 (pour s→+∞) donc :

- si λ > 1t2−t1 , c’est-a-dire si 1

λ + t1 < t2, le minimum est obtenu lorsque

s→ +∞, et vaut 1λ + t1 : on a donc interet a attendre le bus jusqu’a ce qu’il

arrive ;

Page 209: Yves caumel (auth.) probabilites et processus

200 Probabilites et processus stochastiques

- si λ < 1t2−t1 , c’est-a-dire si 1

λ + t1 > t2, le minimum est obtenu lorsque

s= 0, et vaut t2 : on n’a donc pas interet a prendre le bus (il n’y en a pas assezsouvent) ;

- si λ = 1t2−t1 , c’est-a-dire si 1

λ + t1 = t2, IE(W ) est independant de s etquoi qu’on decide, le temps moyen est egal a t2.

Exercice 8.9

(1) P(X = k) =∫ +∞

0 P(X = k | U = u) fU (u)du=∫ +∞

0e−λu(λu)k

k! fU (u)du.

Si U est de loi exponentielle de parametre α,

P([X = k]) =∫ +∞

0

e−λu(λu)k

k!αe−αu du=

λ k

k!α∫ +∞

0e−(α+λ )uuk du

=λ k

k!α

1(α+λ )k+1 Γ(k+1) =

α+λ

)k( α

α+λ

).

Conclusion : X est une v.a. de loi geometrique G0

α+λ

).

(2) GX (s)=+∞

∑k=0

skP([X = k])=+∞

∑k=0

e−λu(λus)kk! fU (u)du=

∫ +∞0 eλu(s−1) fU (u)du.

Ainsi, G′X (s)=∫+∞

0 λueλu(s−1) fU (u)du et G′′X (s)=∫+∞

0 λ 2u2eλu(s−1) fU (u)du ;

pour s= 1, on obtient IE(X) = G′X (1) = λ IE(U) et G′′X (1) = λ 2IE(U2).

On en deduit : var(X) =G′′X (1)+g′X (1)−G′X (1)2, soit var(X) = λ 2var(U)+

λ IE(U).

Exercice 8.10

(1) P([N(B1) = 1]/[N(B2) = 1]) =P([N(B1) = 1]∩ [N(B2 \B1) = 0])

P([N(B2) = 1])

=e−λ |B1|λ |B1|e−λ |B2\B1|

e−λ |B2|λ |B2|=

e−λ |B2|λ |B1|e−λ |B2|λ |B2|

=|B1||B2| .

(2) Consequence triviale de (1).

Exercice 8.11(1) La probabilite qu’aucun point du champ poissonnien n’appartienne

au disque de rayon x est :

P(D> x) =(λπx2)0

0!e−λπx

2= e−λπx

2

Page 210: Yves caumel (auth.) probabilites et processus

8. Processus de Poisson et de renouvellement 201

d’ou : FD(x) = 1− e−λπx2et fD(x) = 2λπxe−λπx2

,

(2) Soit maintenant : Dn la distance au n-ieme plus proche voisin

FDn(x) = P(Dn � x) = e−λπx2+∞

∑k=n

(λπx2)k

k!,

d’ou : fDn(x) = 2λπx (λπx2)n−1

(n−1)! e−λπx2.

Exercice 8.12

(1) Soit Y1 le premier instant de defaillance : Y1 =N∑i=1

Xi ou N est de loi geo-

metrique G (p). Par les hypotheses d’independance, le processus de defaillanceest un processus de renouvellement de loi identique a celle de Y1 ;

L( fY )(s) =+∞

∑n=1

P(N = n)(L( fX )(s))n =

pL( fX )(s)1−qL( fX )(s)

.

L( fY ) est la transformee de Laplace de fY .

(2) La fonction de renouvellement M∗ du processus de defaillance admetla transformee de Laplace :

L(M∗)(s) =L( fY )(s)

s(1−L( fY )(s))=

1s

pL( fX )(s)(1−L( fX )(s))

= pL(M)(s).

(3) Si les (Xi)i sont de loi E (λ ) :

L( fY )(s) =pλ

pλ + s.

Y est donc de loi exponentielle E (pλ ).

Page 211: Yves caumel (auth.) probabilites et processus

Chapitre 9

Chaınes de Markov a temps

continu et files d’attente

La notion de chaıne de Markov a temps continu, denommee aussi proces-sus a sauts markoviens si l’espace d’etats est discret, prolonge a la fois la notionde chaıne de Markov a temps entier et la notion de processus de Poisson parl’enrichissement de son espace d’etats. Ce chapitre est une introduction a l’etudedes systemes d’attente mis en œuvre dans la modelisation des phenomenes d’at-tente apparaissant a l’entree des services tels que les centraux telephoniques,les reseaux de traffic urbain et aerien et, de facon generale, dans les reseaux decommunication. D’un point de vue pratique, une file d’attente apparaıt chaquefois que des clients se presentent en des temps aleatoires a une station compor-tant un ou plusieurs serveurs pour y recevoir un service de duree generalement(mais pas necessairement) aleatoire de loi connue. Les premiers travaux sur lesfiles d’attente sont dus au mathematicien danois Erlang (1878-1929), alors qu’ils’interessait a la modelisation du reseau telephonique de Copenhague, afin d’enreduire les phenomenes d’attente. La theorie mathematique des files d’attenteorientee aujourd’hui vers l’etude des reseaux informatiques et de telecommuni-cation s’est developpee par la suite grace notamment aux travaux de Palm, deKolmogorov et de Khintchine.

9.1 Chaınes de Markov a temps continu

9.1.1 Definition et proprietes

Definition 9.1 Le processus aleatoire (Xt)t�0 d’espace d’etats E = {ei}i∈I, finiou denombrable, est une chaıne de Markov a temps continu, si sont verifieesles deux proprietes :

(1) propriete de Markov : ∀(e1,e2, . . . ,en,en+1)∈ En+1, ∀(t1, t2, . . . , tn, tn+1)

Page 212: Yves caumel (auth.) probabilites et processus

204 Probabilites et processus stochastiques

∈ Rn+1+ tels que t1 < t2 < · · ·< tn < tn+1,

P(Xtn+1 = en+1 | Xtn = en, . . . ,Xt1 = e1) = P(Xtn+1 = en+1 | Xtn = en).

(2) homogeneite : ∀ t1, t2, t ∈ R+, ∀ ei,e j ∈ E :

P(Xt1+t = e j | Xt1 = ei) = P(Xt2+t = e j | Xt2 = ei) =note pi, j(t).

Les chaınes de Markov a temps continu etudiees dans ce chapitre sontsupposees etre regulieres : leur nombre de transitions en temps fini est presquesurement fini, ce qui est le cas si la chaıne est recurrente ou finie.

Exemple d’evolution d’une chaıne de Markov a quatre etats :

e3

e4

e2

e1

temps

Theoreme 9.1 La matrice de transition P(t) = (pi, j(t))i, j∈I verifie les deuxproprietes :

(1) ∀t,∀i, j ∈ I, pi, j(t)� 0 ;

(2) ∀t, ∀i ∈ I, ∑jpi, j(t) = 1.

Theoreme 9.2 (Equations de Chapman-Kolmogorov)

∀s, t et ∀i, j ∈ I, pi, j(s+ t) =∑k

pi,k(s) pk, j(t),

Soit, sous f orme matricielle : P(s+ t) = P(s)P(t).

L’ensemble des matrices de transition (P(t))t�0 muni du produit matricielconstitue un semi-groupe, dans lequel l’element neutre P(0) est la matrice iden-tite. La propriete P(s+ t) = P(s).P(t) est analogue a la propriete fondamentaledes matrices de transition des chaınes a temps discret :

∀m,n ∈ N P(m+n) = P(m)P(n).

Page 213: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 205

Preuve

pi, j(s+ t) = P(Xs+t = e j | X0 = ei) =∑k

P(Xs+t = e j,Xs = ek | X0 = ei)

= ∑k

P(Xs+t = e j | Xs = ek,X0 = ei)P(Xs = ek | X0 = ei)

= ∑k

P(Xs+t = e j | Xs = ek)P(Xs = ek | X0 = ei)

= ∑k

P(Xt = e j | X0 = ek)P(Xs = ek | X0 = ei)

= ∑k

pi,k(s) pk, j(t).

On utilisera desormais l’abreviation c.m.c. pour designer une chaıne deMarkov a temps continu.

Hypotheses de continuite et de derivabilite des pi, j(t)

Pour construire les concepts fondamentaux de generateur infinitesimalet d’equations de Kolmogorov associes a toute c.m.c, on supposera verifiees leshypotheses suivantes de continuite et de derivabilite des pi, j(t) :

H1 : ∀i et j, i �= j, limt↓0+pi, j(t) = 0 et ∀i, limt↓0+

pi,i(t) = 1.

H2 : ∀i et j i �= j, limt↓0+pi, j(t)−pi, j(0)

t existe et est egale a p′i, j(0) =note ai, j,

denomme taux de transition instantane de ei a e j ; ai, j est strictementpositif si la transition de ei a e j est possible, car la probabilite de transition deei a e j croıt en fonction du temps.

H3 : ∀i, limt↓0+pi,i(t)−pi,i(0)

t existe et est egal a p′i,i(0) =note ai,i denomme

taux de permanence ai,i en l’etat ei est negatif, puisque contrairement ala situation precedente, la probabilite de sejourner dans un etat quelconquedecroıt avec le temps.

Definition 9.2 Sous les hypotheses precedentes, la matrice A= (ai, j)i, j definiepar

limt↓0

P(t)−1dt

=ddt(P(t))(t=0+) existe ;

elle est nommee generateur infinitesimal de la c.m.c. (Xt)t�0.

A=

⎛⎜⎜⎜⎜⎝a1,1 a1,2 . . a1,n

a2,1 . . a2,n

.

.an,1 an,2 an,n

⎞⎟⎟⎟⎟⎠ .

Page 214: Yves caumel (auth.) probabilites et processus

206 Probabilites et processus stochastiques

Theoreme 9.3 Pour tout etat i :

ai,i =−∑j �=i

ai, j.

Preuve ∀i, ∑ni=1 pi, j(t) = 1 ; par derivation par rapport a t, ∑n

i=1 p′i, j(t) = 0 et

donc ∑ni=1 p

′i, j(0) = ∑ j ai, j = 0. �

Theoreme 9.4 Tout processus a accroissements independants verifie la pro-priete de Markov.

Preuve Soit la c.m.c. (Xt)t tel que X0 = 0 ; designons Xt j par X j.P(Xn< xn|X1 = x1, ., Xn−1 = xn−1)=P(Xn−Xn−1 < xn−xn−1|X1 = x1, .,Xn−1 =

xn−1)=P(Xn−Xn−1 < xn−xn−1|X1−X0 = x1, .,Xn−1−Xn−2 = xn−1−xn−2)=P(Xn−Xn−1 < xn− xn−1), car les (Xj−Xj−1) sont mutuellement independants.(Xn−Xn−1) etant independant du vecteur (X1−X0, X2−X1, ...,Xn−1−Xn−2), estdonc independant de la somme de ses composantes. En conclusion, l’expres-sion precedente est egale a : P(Xn−Xn−1 < xn−xn−1| Xn−1 = xn−1) = P(Xn < xn|Xn−1 = xn−1). �

Exemple 9.1 Un processus de Poisson (Nt)t�0 est une c.m.c., puisqu’il verifiela propriete de stationnarite et que la propriete des accroissements independantsimplique la propriete de Markov. Determinons son generateur infinitesimal :∀t,h > 0, P(Nt+h = i+1 | Nt = i) = λ he−hλ et P(Nt+h = i | Nt = i) = 1−λ e−hλ ,

d’ou :

ai,i+1 = limh→0P(Nt+h=i+1|Nt=i)−0

h = λ ;

ai,i = limh→0P(Nt+h=i|Nt=i)−1

h =−λ .

A=

⎛⎜⎜⎜⎜⎜⎜⎜⎜⎜⎝

−λ λ 0 · · · · · · 00 −λ λ 00 0 −λ λ 0...

. . . 0 −λ λ 0...

. . . 0. . .

. . .

0. . .

. . .. . .

⎞⎟⎟⎟⎟⎟⎟⎟⎟⎟⎠.

Theoreme 9.5 (Equations de Kolmogorov)

(1) Pour tout t � 0, la matrice de transition P(t) d’une c.m.c. verifie lesequations differentielles ci-dessous :

Page 215: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 207

(a) equations inverses ou du passe :

∀i, j p′i, j(t) = ∑k∈I ai,k pk, j(t),soit : P

′(t) = A.P(t) ;

(b) equations directes ou du futur :

∀i, j p′i, j(t) = ∑k∈I pi,k(t)ak, j,soit : P

′(t) = P(t).A.

(2) Lorsque le nombre d’etats est fini, P(t) est definie par :

P(t) = ∑n�0

(tA)n

n!= etA.

(La forme matricielle ci-dessus a surtout un interet theorique, mais saufcas particuliers, elle n’est pas analytiquement exploitable.)

Preuve (1.a ) On derive l’equation de Chapman-Kolmogorov par rapport as :dds pi, j(s+ t) = ∑k

dds pi,k(s)pk, j(t) ; pour s tendant vers 0 :

p′i, j(t) = ∑k p

′i,k(0)pk, j(t) = ∑k ai,k pk, j(t). On prouve (1.b) de facon analogue.

Schema formel de demonstration de (2) : P(t) = (P( tn ))n

�(n grand parrapport t)

(P(0)+ tnP

′(0))n = (Id +

tnA)

n qui converge vers eAt quand n tend

vers +∞. �

Theoreme 9.6 (Loi d’evolution d’une c.m.c.)

(1) Pour tout temps t le vecteur d’evolution π(t) verifie l’equation :

π(t) = π(0)P(t),

ou ∀i, πi(t) = P(Xt = ei) et π(t) = (π1(t), ...,πn(t)).

(2) π(t) est solution de l’equation d’evolution :

π′(t) = π(t)A.

Preuve (1) Pour tout j, π j(t) = ∑i pi, j(t)πi(0).(2) π

′(t) = π(0)P

′(t) =(d′apres equ de Kolmogorov) π(0)P(t).A= π(t)A. �

Page 216: Yves caumel (auth.) probabilites et processus

208 Probabilites et processus stochastiques

Remarque 9.1 Sauf dans le cas d’une c.m.c. ayant un petit nombre d’etats oubien lorsque la matrice A est creuse, ce qui est le cas des processus de naissanceet de mort, la resolution analytique de l’equation d’evolution est generalementlourde de calculs. On utilise souvent une methode analytique ou numeriquefondee sur la transformation de Laplace.

Theoreme 9.7 (Caractere exponentiel des temps de sejour)

Le temps de sejour Ui dans un etat quelconque ei est une v.a. exponen-tielle de parametre −ai,i.

Preuve Pour les temps t et h > 0, h etant petit par rapport a t : P(Ui > t+h) =P(Ui > t + h | Ui > t)P(Ui > t) egal a P(Ui > h)P(Ui > t), comme consequencede l’axiome d’homogeneite. Posons Φ(t) = P(Ui > t) ; l’egalite ci-dessus s’ecritΦ(t+h) =Φ(t)Φ(h). Or Φ(h) = pi,i(h)+o(h) = 1+ai,i h+o(h), d’ou l’on deduit

l’equation differentielle Φ′(t) = ai,iΦ(t), qui a pour solution Φ(t) = eai,i t , sachant

que Φ(0) = 1.On conclut que P(Ui � t) = 1− eai,i t et donc que Ui est de loi exponentielle. �

On a demontre au chapitre 7 que le temps de sejour dans un etat quel-conque d’une chaıne de Markov a temps entier est de loi geometrique, laquelleest, comme on le sait (voir chapitre 2.4), l’analogue discret de la loi exponen-tielle du temps de sejour dans un etat d’une c.m.c.

Exemple 9.2 Considerons un systeme dont la duree de vie T entre deuxpannes consecutives est de loi exponentielle E (λ ) et dont le temps de repa-ration R est de loi exponentielle E (μ). Le systeme comporte donc deux etats :l’etat de marche e1 et l’etat de reparation e2. On decrit l’evolution temporelledu systeme grace a une c.m.c. a deux etats (Xt)t . Determinons la matrice detransition et le generateur du processus .

Pour t petit, p2,2(t) = P(Xt = e2|X0 = e2) ≈ P(R > t) = e−μt , d’ou l’ondeduit :

a2,2 =dp2,2(t)

dt|t=0 =−μ ;

p1,1(t) = P(Xt = e1|X0 = e1) = P(T > t) = e−λ t , d’ou : a1,1 =−λ .

On en deduit le generateur :

A=

( −λ λμ −μ

).

Graphe d’evolution de la c.m.c. a deux etats :

Page 217: Yves caumel (auth.) probabilites et processus

9. Chaines de Markov a temps continu et files d'attente 209

t e1 ... ,-----,

I I I I

~----~----1--------t----------I I I I t

e2 ~ 1 1 .... 1 ____ _

On calcule facilement P(t) en diagonalisant A.

P(t) = eAt = _1_ ( 11 P+A 11

n(t) = (nl (t), n2(t)) = n(O).P(t).

-A ) 11

, d'ou l'on clf§duit :

Le systeme demarrant en etat de marche : n(O) = (1,0).

On aurait pu determiner n(t) en resolvant l'equation d'evolution :

0.2 Ii"

o o

n' (t) = n(t)A.

;cHI) i'~(I)

Figure 9.1- Graphes d'evolution des probabilites nl(t) et n2(t) pour A =0,3 et /1. = 1,5.

Lorsque t tend vers +00, les probabilites nl(t) et n2(t) convergent respec­tivement vers des probabilites constantes fJ.~A = ~ et fJ.!A = i· Pratiquement, sur un temps long, Ie systeme est en etat de marche pendant 83,3 % du temps.

Theoreme 9.8 A toute c. m. c. (X/)I on associe une chaine discrete, dite chaine immergee au incluse (l';,)n definie par:

Page 218: Yves caumel (auth.) probabilites et processus

210 Probabilites et processus stochastiques

ou Tn est l’instant de la nieme transition, defini par inf{t > Tn−1 | Xt �= XTn−1

}.

La matrice de transition Q= (qi, j)i, j de la chaıne incluse est definie par :

∀ i et j distincts : qi, j =−ai, jai,i

si j �= i ;

∀ i : qi,i = 0.

Exemple 9.3 La chaıne incluse associee a la c.m.c. de l’exemple 9.2 est definiepar la matrice de transition Q :

q1,2 =a1,2

−a1,1=

λ

−(−λ ) = 1, q2,1 =μ

−(−μ) = 1.

Simulation d’une c.m.c.

Si supi|ai,i| fini, condition de regularite de la chaıne (voir 9.1.1), on simule

la chaıne (Xt)t en appliquant successivement les deux regles ci-dessous :

(1) Lorsque la c.m.c. est dans un etat ei, elle y reste un temps aleatoirede loi exponentielle de parametre −ai,i.

(2) Au terme de ce temps, elle quitte cet etat vers l’un des etats e j avecla probabilite qi, j =

ai, j∑k �=i ai,k

.

Les proprietes d’irreductibilite, de recurrence positive ou nulle et de tran-sience d’une c.m.c. sont les memes que celles d’une chaıne discrete : le theoremeci-dessous est utile pour les caracteriser.

Theoreme 9.9 Une c.m.c. (Xt)t a les memes proprietes d’irreductibilite, derecurrence ou de transience que sa chaıne incluse (Yn)n.

Remarque 9.2 Une c.m.c. ne peut pas etre periodique puisque le temps passedans un etat quelconque est decrit par une v.a. continue.

9.1.2 Etude du regime stationnaire

Definition 9.3 Une distribution de probabilites π = (πi)i portee par les etats(ei)i est stationnaire si pour tout j et pour tout t � 0 :

∑iπi.pi, j(t) = π j,

qui s’ecrit aussi :

π.P(t) = π.

Page 219: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 211

Theoreme 9.10 (Equation d’equilibre d’une c.m.c.) Soit une c.m.c. degenerateur A, si π est une distribution stationnaire, elle satisfait l’equationd’equilibre :

π.A= 0,

equivalente aux equations

∀ j ∑i�= j

πi.ai, j =−π j.a j, j,

qui expriment l’egalite, en regime stationnaire, du flux moyen entrant dansl’etat e j et du flux moyen sortant vers l’ensemble des autres etats. On la de-termine en resolvant le systeme lineaire forme de l’equation d’equilibre et del’equation de normalisation ∑iπi = 1.

Preuve Par derivation de l’equation π.P(t) = π au temps t = 0. �

Theoreme 9.11(1) Une c.m.c. (Xt)t irreductible et recurrente positive a une unique distri-bution stationnaire (π j) j independante de la distribution initiale, et egale a(π j = limt→+∞ pi, j(t)) j.(2)Une c.m.c. transitoire ou recurrente nulle ne possede aucune distributionstationnaire.

9.1 ♠♠ Un systeme est constitue de deux composants independants de dureesde vie aleatoires de lois exponentielles E (λi) i = 1,2. Lorsque le composant itombe en panne, il est remplace par un composant de caracteristiques iden-tiques ; la duree du remplacement du composant i defaillant de loi E (μi) estindependante de la duree de vie du composant.

Soit Xt = (X (1)t ,X (2)

t ) le vecteur aleatoire decrivant l’etat au temps t dusysteme parmi quatre etats possibles : {(0,0),(0,1),(1,0),(1,1)}, ou 0 designel’etat de panne et 1 l’etat de marche.

(1) Determiner le generateur du processus de Markov (Xt)t .[Indication : calculer ∀t et h petit devant t, P(Xt+h = j|Xt = i).]

(2) Determiner sa distribution stationnaire.

9.2 ♠♠ Avions trimoteur et quadrimoteurUn avion est propulse par trois reacteurs identiques fonctionnellement

independants ; il continue a voler si deux reacteurs fonctionnent. Soit Ti (i =1,2,3) les durees de vie des reacteurs, toutes de loi exponentielle E (μ).

(1) Determiner le taux de panne de l’avion.(2) Meme question dans le cas d’un avion a quatre reacteurs ; l’avion

continuant a voler si et seulement si trois reacteurs fonctionnent ou bien sideux reacteurs, un sur chaque aile, fonctionnent. Quel est le gain en termes defiabilite de cette configuration par rapport a la precedente ?

Page 220: Yves caumel (auth.) probabilites et processus

212 Probabilites et processus stochastiques

9.2 Processus de naissance et de mort

Ce sont des c.m.c. a valeurs dans l’espace d’etats N et dont les seulestransitions possibles a partir de l’etat n se font vers les etats contigus (n−1) et(n+1). Les processus de naissance et de mort sont utilises pour modeliser lessystemes d’attente et l’evolution de populations. Le processus de Poisson estun processus de naissance et de mort pour lequel la seule transition possible apartir de l’etat n se fait vers l’etat (n+1).

9.2.1 Definition et proprietes

Definition 9.4 Un processus de naissance et de mort est une c.m.c. a valeursdans N, dont le generateur infinitesimal A= (ai, j)i, j verifie :

(1) ai, j = 0 si |i− j|� 2 ;

(2) ai,i+1 =note λi est le taux de croissance ou de naissance de l’etatei ; λ0 etant egal a a0,1 ;

(3) ai,i−1 =note μi est le taux de decroissance ou de mort de l’etat ei,pour tout i non nul.

Definition 9.5 Le generateur A d’un processus de naissance et de mort (Xt)test defini par la matrice tridiagonale :

A=

⎛⎜⎜⎜⎜⎜⎜⎝−λ0 λ0 0 0 . .μ1 −(λ1 +μ1) λ1 0 0 .0 μ2 −(λ2 +μ2) λ2 0 .0 0 μ3 −(λ3 +μ3) λ3 .0 0 0 μ4 . .. . . . . .

⎞⎟⎟⎟⎟⎟⎟⎠ .

Diagramme de transition :

0 1 2 3 n−1 n

μ1

λ0

μ2

λ1

μ3

λ2

μn

λn−1

Le theoreme suivant explicite l’equation d’evolution π ′(t) = π(t)A du pro-cessus de naissance et de mort.

Theoreme 9.12 Les probabilites (πn(t))n∈N verifient le systeme d’equationsdifferentielles :

π′0(t) =−λ0π0(t)+μ1π1(t) ;

∀n� 1, π′n(t) = λn−1πn−1(t)− (λn+μn)πn(t)+μn+1πn+1(t).

Page 221: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 213

Preuve Application directe du theoreme 9.5. �

Theoreme 9.13 (Proprietes du temps d’extinction)Soit Tk le temps qui s’ecoule jusqu’a l’extinction, lorsque la taille de la

population initiale est k.

(1) La fonction de repartition FTk de Tk est egale a Pk,0.

(2) Soit d j =μ1... μ jλ1..λ j

; la probabilite d’extinction est egale a∑+∞

j=k d j

1+∑+∞j=1 d j

si

∑+∞j=1 d j converge et a 1, sinon.

(3) Soit ρ j =1

d jλ j; le temps moyen de vie jusqu’a l’extinction a partir

de l’etat k est egal a :

E(Tk) =+∞

∑j=1

ρ j+k−1

∑i=1

di+∞

∑j=i+1

ρ j,

si+∞

∑j=1

ρ j converge ; dans le cas contraire, le temps moyen de vie est infini.

Preuve (2) La determination de la probabilite d’extinction necessite l’usagede la chaıne induite (Yn)n associee au processus de naissance et de mort. Onverifiera que sa matrice de transition est definie par les seuls termes matricielsnon nuls : pn,n−1 =

μnμn+λn

et pn,n+1 =λn

μn+λn. �

9.2.2 Etude du regime stationnaire des processus de

naissance et de mort

Theoreme 9.14 (Equations d’equilibre)La distribution stationnaire π = (π0,π1, ..,πn, .) est solution de l’equation

d’equilibre π.A= 0 equivalente au systeme lineaire :

−λ0π0 +μ1π1 = 0,

∀ n� 1, λn−1πn−1− (λn+μn)πn+μn+1πn+1 = 0.

La distribution stationnaire (πn)n existe et est unique si et seulement si

la serie ∑n�1λ0λ1...λn−1μ1μ2...μn

est convergente. Dans ce cas, elle est definie par :

π0 = (1+∑n�1

λ0.λ1...λn−1

μ1μ2...μn)−1 et ∀ n� 1 : πn = π0

λ0λ1...λn−1

μ1μ2...μn.

Preuve On calcule d’abord π0 et l’on en deduit par recurrence les valeurs desπi , i� 1. �

Page 222: Yves caumel (auth.) probabilites et processus

214 Probabilites et processus stochastiques

9.3 ♠♠ Une entreprise de location de voitures possede N voitures ; chacuned’elles peut tomber en panne avec un taux de panne egal a μ ; la duree de sa re-paration est de loi exponentielle E (λ ). Soit Xt le nombre de voitures disponiblesau temps t.

(1) Demontrer que (Xt)t est un processus de naissance et de mort.(2) Determiner la distribution stationnaire π.

9.4 ♠♠(1) Etude du processus a croissance pure

Hypotheses : λn = nλ μn = 0 X0 = 1. Demontrer par recurrence quepour tout t � 0 et tout entier positif n, la loi de Xt est geometrique : pn(t) =e−λ t (1− e−λ t)n−1. (Pour resoudre l’equation differentielle lineaire a laquelle onaboutit, utiliser la methode de la variation de la constante.)

(2) Etude du processus a decroissance pure

Hypotheses : λn = 0 et μn = nμ ; on suppose que X0 = N. Demontrer quela loi pn(t) de Xt est la loi binomiale de parametre e−μt .

Exemple 9.4 Processus de Ferry-YuleC’est un processus de naissance et de mort pour lequel les parametres

λn sont des fonctions affines de n, de la forme λn = nλ +α et μn = nμ . Sup-posons que la population initiale comporte N individus (X0 = N), ou α est letaux d’immigration du systeme. Les taux de transition d’un tel processus sontproportionnels a la taille de la population.

(1) Si λ �= μ , on demontre que pn(t) = (1− a(t))(1− b(t))(b(t))n−1 ou

a(t) = μ(e(λ−μ)t−1)(λe(λ−μ)t−μ) et b(t) = λ

μ a(t).

E(Xt) =

{αt+N si λ = μ

Ne(λ−μ)t + αλ−μ (e

(λ−μ)t −1) si λ �= μ

(2) Si μ = 0 et λ = 0, le processus de naissance et de mort s’identifie auprocessus de Poisson homogene d’intensite α.

9.3 Files d’attente

9.3.1 Definition et exemples

Definition 9.6 Un systeme de service est constitue d’un espace d’attente oules clients arrivent l’un apres l’autre, en formant une file, et d’un espace deservice. Il est decrit par les cinq caracteristiques suivantes :

(1) la nature du processus stochastique decrivant le flux des en-trees, independantes entre elles, determine par la loi des intervalles de temps

Page 223: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 215

entre deux arrivees. Si la loi est exponentielle E (λ ), le flux est decrit par leprocessus de Poisson d’intensite λ , qui est le taux moyen d’entree des clientsdans l’unique file d’attente.

(2) Le nombre s de services mis en parallele.

(3) La loi de probabilite de la duree de service S, de moyenne 1μ ;

les durees de service sont toujours des v.a. independantes de meme loi, qui estsouvent mais non necessairement exponentielle.

(4) La capacite K du systeme, nombre maximal de clients presentsdans le systeme.

(5) La discipline d’attente ou politique de service.La regle la plus frequemment utilisee s’exprime sous la forme « le pre-

mier arrive est le premier servi », connue sous l’abreviation anglo-saxonneFIFO (first in first out). Cependant, en theorie des reseaux, il existe d’autrespolitiques, cherchant par exemple a maximiser differentes formes d’unites ou agarantir des proprietes temporelles.

Representation d’un systeme d’attente :

S1

S2

SsDepart des clientsArrivee

des clients

File d’attente

Services

La notation dite de Kendall permet de symboliser une file d’attente parla suite de caracteres : A/S/s/K.

La lettre A caracterise la loi du processus d’entree et S la loi de service ;par exemple, si on affecte la lettre M en A ou en S, on indique que le flux desentrees est poissonnien ou que les temps de service sont de loi exponentielle.La lettre s dans la notation de Kendall designe le nombre de services et lalettre K la capacite du systeme qui s’exprime par un entier strictement positif.(La lettre M a ete choisie par Kendall pour exprimer le caractere markovien

Page 224: Yves caumel (auth.) probabilites et processus

216 Probabilites et processus stochastiques

d’un processus dont les temps entre deux arrivees sont independants et de loiexponentielle.) Ces quatre symboles peuvent etre suivis par un cinquieme quiqualifie la politique du service. On peut adjoindre a la nomenclature prece-dente deux symboles supplementaires designant le nombre maximal de clientspotentiels et le sigle symbolisant la discipline de service.

Exemples systemes d’attente classiques

(1) Guichet de poste du type M/M/s/K∞ : un service comporte plusieursserveurs de memes caracteristiques, le client en attente choisit la premiere sta-tion qui se libere, et la file est de capacite bornee.

(2) Central telephonique (voir figure ci-dessous) ou informatique du typeM/M/s/s, possedant un nombre s de serveurs ; c’est un systeme sans attente eta perte, car si un appel n’est pas pris par l’un des serveurs, il est rejete et doitse representer.

(3) Station-service, salle d’attente du type M/M/s/K ou K > s ; systemesa capacite K bornee.

S1

S2

SsArrivee des appels

Rejet

Services

9.3.2 Etude du regime stationnaire des files d’attente

L’etude du regime transitoire des systemes d’attente generaux est gene-ralement tres difficile, voire analytiquement impossible, sauf dans quelques cascomme le systeme M/M/1. Il s’agit d’un moindre mal du point de vue pratiquepuisque, dans ce domaine comme dans beaucoup d’autres, seuls les regimes sta-tionnaires importent. Soient Xt la v.a. associee au nombre de clients presents al’instant t dans le systeme de service et pn(t) la probabilite P(Xt = n). S’il existeun regime stationnaire, on le decrit par la v.a. X independante de t, et on notesa distribution stationnaire par :

(P(X = n) = pn)n∈N.

Page 225: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 217

Definition 9.7 Parametres descriptifs d’un systeme d’attente

λ = taux moyen d’entree.

1μ = temps moyen passe dans une unite de service.

L= nombre moyen E(X) = ∑n�1 n pn de clients dans le systeme.

Lq = nombre moyen ∑n�1+s(n− s) pn de clients dans la file.

W= duree moyenne de presence d’un client quelconque dans le systeme.

Wq = duree d’attente moyenne d’un client quelconque dans la file.

ρ = intensite λμ du trafic, dont l’unite est appelee erlang.

u = taux d’utilisation de chaque serveur (proportion du temps pendantlequel il est occupe).

Les parametres L, Lq, W, Wq et u sont aussi appeles parametres deperformance du systeme.

Theoreme 9.15 (Relations entre les parametres de performance)

(1) L= Lq+λ

μ. (2) L= λ .W (Formule de Little).

(3) W =Wq+1μ. (4) Lq = λWq.

Etude de la file M/M/1

Le systeme d’attente le plus simple est constitue d’un serveur et d’unefile a capacite illimitee, designe par M/M/1 ou M/M/1/∞. C’est un processusde naissance et de mort de parametres : λn = λ , μn = μ si n �= 0 et μ0 = 0. Dansce cas, le taux moyen d’entree λ est egal a λ .

0 1 2 3 n−1 n

μ

λ

μ

λ

μ

λ

μ

λ

Definition 9.8 (Systeme de service M/M/1)(1) Le processus (Tn)n∈N des temps d’arrivee des clients est suppose pois-

sonnien, d’intensite λ ; les durees Un = Tn+1−Tn entre deux arrivees consecu-tives, sont donc independants et de loi exponentielle E (λ ).

(2) Les durees de service (Sn)n∈N representees par des v.a. independantessont de meme loi exponentielle de parametre μ definissant le taux de service ;la duree moyenne de service est donc egale a 1

μ .

Page 226: Yves caumel (auth.) probabilites et processus

218 Probabilites et processus stochastiques

On supposera verifiee la condition d’existence d’un regime stationnaire : l’in-tensite ρ du trafic est strictement inferieure a 1.

Theoreme 9.16 La distribution stationnaire (π j) j est de loi geometrique :

∀ j, π j = (1−ρ)ρ j.

Preuve Pour tout n, λn = λ , μn est egal a μ si n �= 0 et a 0 si n= 0.D’autre part : πn = π0ρ

n, d’ou : πn = ρn(1−ρ). �

Theoreme 9.17 La duree d’attente T d’un client dans le systeme est de loiexponentielle de parametre (μ−λ ).

Preuve Si, lorsque le client arrive, (n− 1) clients sont dans la file, et unclient est en service, son temps d’attente W est egal a la somme de (n+ 1)temps d’attente au service, soit ∑n+1

i=1 Ti. En effet, compte tenu de l’absence dememoire de la loi exponentielle, le temps de service restant au client en traind’etre servi verifie la meme loi exponentielle. L’application de la formule derecomposition (Theoreme 6.3) permet d’etablir : fW (t) = ∑∞

n=0πn fT1+...+Tn+1(t).

On calcule la transformee de Laplace L ( fW )(s) = (1−ρ)μ(1−ρ)μ+s , puis par inversion

de ladite transformee, on obtient : fW (s) = (μ−λ )e−(μ−λ )t . �

Theoreme 9.18 (Caracteristiques du systeme M/M/1)

u= ρ = λρ

L= ρ1−ρ = λ

μ−λ = ρ1−ρ

Lq =ρ2

1−ρ = λ 2

μ(μ−λ )W = 1

μ−λWq =

Lμ = λ

μ(μ−λ ) =ρ

μ(1−ρ) .

Preuve u= ∑+∞n=1πn = 1−π0 = ρ .

Par definition : L= ∑n�1

nπn =ρ

1−ρ et Lq = ∑n�2(n−1)πn = L−ρ = ρ2

1−ρ . Soient

Tq le temps d’attente d’un individu dans la file, et En l’evenement « n clientssont dans le systeme quand arrive l’individu ».

P(En) = (1− λμ )(

λμ )

n = (1−ρ)ρn et E(Tq | En) =nμ .

Wq = E(Tq) = ∑n�0E(Tq | En)P(En) = ∑n�0nμ (1−ρ)ρn = 1

μ ∑n�0 n pn =Lμ ,

d’ou : W =Wq+1μ = L+1

μ . �

Page 227: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 219

Exemple 9.5 Soit un systeme d’attente M/M/1 ou un client arrive en moyennetous les quarts d’heure, et dont la duree moyenne de service est 10 minutes.

(1) Calculons les probabilites pour que deux clients, trois clients, k clientssoient en attente dans la file, ainsi que la longueur moyenne de la file et le tempsmoyen d’attente pour un client. (On prend l’heure pour unite.)

π2 =(

23

)2. 1

3 = 0,15 ; π3 =(

23

)3. 1

3 � 0,1 ; πk =(

23

)k. 1

3

Lq =ρ2

1−ρ = 43 et Wq =

ρμ(1−ρ) =

13 soit 20 minutes d’attente moyenne par

client.

(2) Si le taux d’arrivee augmente de 25 %, voyons comment evoluent lalongueur moyenne de la file et le temps moyen d’attente pour un client.

Le taux d’arrivee initial est de 4 par heure, et apres augmentation il estde 5 par heure ; d’ou ρ = 5

6 .

Lq = 256 soit une file moyenne trois fois plus longue que precedemment.

Wq =56 , soit deux fois et demi plus d’attente moyenne.

On constate un phenomene analogue lorsque la duree moyenne de serviceμ augmente : choisir par exemple μ = 4,5 et λ = 4.

Conclusion : de facon generale, une augmentation petite de l’intensite ρau voisinage de 1 se traduit par une augmentation significative de la longueurmoyenne de la file et du temps moyen d’attente.

D’un point de vue pratique, il y a donc conflit d’interets entre les clientsqui souhaitent passer le moins de temps possible en attente et le gestionnairequi souhaite minimiser le nombre de services. Si le gestionnaire du service sou-haite diminuer le risque de perte des clients, il faudra qu’il choisisse un nombreminimal de services de facon a ce que l’intensite du trafic ρ ne soit pas tropproche de 1.

Etude des systemes d’attente M/M/s/K

(1) Cas ou la capacite K est non bornee

On rappelle que la capacite est le nombre maximal de clients en attenteou en service. Ce modele convient aux situations ou l’espace d’attente est detres grande taille, donc d’une capacite beaucoup plus grande que le nombre deserveurs s.

Page 228: Yves caumel (auth.) probabilites et processus

220 Probabilites et processus stochastiques

0

10

20

30

40

50

0 0.2 0.4 0.6 0.8 1

Figure 9.2 – Graphe d’evolution de Lq en fonction de ρ montrant la forte crois-sance de Lq au voisinage de ρ = 1.

Theoreme 9.19 (Caracteristiques du systeme M/M/s/∞)

Condition d’existence d’un regime stationnaire : ρ = λμ < s.

(1) π0 =

(s−1

∑k=0

ρk

k!+

ρs

(s−1)!1

s−ρ

)−1

, πk =

{ρk

k! π0 si k � sρk

s!.sk−s π0 si k � s.

(2) Lq =π0ρ

s+1

(s−1)!(s−ρ)2 ; Wq = π0ρs

μ(s−1)!(s−ρ)2 .

(3) La probabilite pour que tous les services soient occupes est egale a :

π0sρs

s!(s−ρ).

9.5 ♠♠ Demonstration du theoreme

(1) Tracer le diagramme de transition et ecrire les equations bilan.(2) Les resoudre dans chacun des cas : 0 � k � s et k > s.(3) Determiner Lq.

Exemple 9.6 Optimisation de la production d’un atelierUn atelier emploie deux ouvriers qui produisent chacun quatre pieces

par semaine dans le cadre d’une sous-traitance. La demande etant passee a dixpieces, le chef d’atelier envisage d’embaucher un ouvrier supplementaire, tan-dis que les deux ouvriers proposent de produire chacun six pieces si leur salaireest augmente de la moitie du traitement prevu pour le nouvel ouvrier. Pourqui cette derniere solution est-elle avantageuse ? Determinons les parametresde performance dans chacun des cas.

(1) Embauche d’un ouvrier :s= 3 ; soit ρ = λ

μ = 52 .

Page 229: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 221

π0 = (1+ρ+ ρ2

2 + ρ3

2(3−u) )−1 = (1+ 5

2 +258 + 125

8 )−1 = 489

π3 = p0ρ3

3!∼= 0,117; Lq ∼= 3,51 ; L∼= 6,01; Wq

∼= 0,35(semaine); W ∼= 0,6.

(2) Pas d’embauche :

s= 2 ; posons u= 53 . π0 = (1+u+ u2

2−u )−1 ∼= 0,126 ; Lq ∼= 3,78 ; L∼= 5,45 ;

Wq∼= 0,38(semaine) ; W � 0,54.

9.6 ♠ Calculer et comparer les competences des deux systemes d’attente :M/M/1 de parametres (λ , 2μ) et M/M/2 de parametres (λ , μ). Montrer qu’ilest preferable de disposer d’un service ayant un serveur deux fois plus rapideque d’un service ayant deux serveurs de memes caracteristiques.

(2) Cas d’une capacite K finieLes systemes d’attente a capacite limitee sont dits a perte : lorsqu’un

client trouve le ou les services occupes, il est refuse et repart ; c’est typiquementle cas d’un central telephonique. Dans la notation de Kendall, on les designepar : M/M/s/K, ou K est la capacite maximale du systeme. Le probleme 19 enpropose l’etude.

Systeme d’attente M/G/1

Ce systeme d’attente est caracterise par une duree de service de loi quel-conque symbolisee par G en notation de Kendall. On considere donc que leprocessus d’arrivee est toujours poissonnien d’intensite λ et que le temps deservice TS de densite f, d’esperance 1

μ et de variance σ2 sont independants entre

eux. Il s’agit de determiner la distribution stationnaire du processus (Xt)t .Soit (XTi)i la chaıne incluse representant le nombre de clients dans le

systeme aux instants aleatoires respectifs T1,T2, ..., ou le premier client, respec-tivement le second client, quittent le service.

Soit Nk le nombre de clients entrant dans le systeme pendant la duree deservice du k-ieme client ; les Nk sont independantes entre elles, de meme loi :

P(Nk = n) =∫

P(Nk = n | TS = t) f (t)dt =∫

e−λ t (λ t)n

n!f (t)dt ≡ an.

Les durees de service n’etant plus de loi exponentielle, le processus (Xt)tn’est plus markovien, alors que la chaıne (XTi)i l’est, de matrice de transitionP= (pi, j)i, j definie par :

p0, j = a j si j � 0,

pi, j = a j−i+1 si 1 � i� j+1,

pi, j = 0 sinon.

Page 230: Yves caumel (auth.) probabilites et processus

222 Probabilites et processus stochastiques

Ainsi :

P=

⎛⎜⎜⎜⎜⎝a0 a1 a2 . .a0 a1 a2 . .0 a0 a1

0 0 a0 a1

. . . a0 a1

⎞⎟⎟⎟⎟⎠ .

On peut demontrer que la chaıne (XTi)i est irreductible, aperiodique et recur-rente positive, et possede donc d’apres le theoreme de Chacon-Ornstein uneunique distribution stationnaire (π j) j. Grace a l’utilisation des fonctions gene-ratrices des distributions (ai)i et (π j) j, on etablit que :

L=

(1+C2

S

2

)ρ2

1−ρ+ρ ou C2

S = μ2σ2.

L’etude du systeme d’attente G/G/1 ou le processus des arrivees n’estpas poissonnien et la duree de service n’est pas de loi exponentielle, se traitegrace a la transformation de Laplace.

9.3.3 Reseaux de Jackson

De nombreux reseaux de communication ou de services sont constitues desystemes d’attente communiquant entre eux. En general, il n’y a pas de solutionanalytique aux problemes poses par l’evolution temporelle de ces reseaux ; seulesdes methodes de simulation permettent d’en faire une approche numerique.Toutefois les reseaux dits de Jackson (du nom de leur createur), dans lesquelsne circule qu’un type de clients, comme c’est souvent le cas pour les reseauxinformatiques, sont modelisables dans le cadre theorique des files d’attente.

Definition 9.9 Un reseau de Jackson est un ensemble de K systemes d’attenteM/M/1 interconnectes ayant chacun une capacite infinie, de durees moyennesde service (μi)i=1,...,K , dans lequel ne circule qu’une classe de clients. Au termedu service procure par la station i, le client (ou l’unite) se transporte a l’une desK−1 stations, par exemple j, avec une probabilite pi, j, ou bien sort du reseauavec la probabilite βi.

Notons que tout client a la possibilite de revenir a la station i qu’il vientde quitter sans toutefois sortir du systeme ; dans ce cas pi,i > 0. D’autre part,des clients peuvent venir de l’exterieur du systeme dans la station i, suivant leprocessus de Poisson d’intensite αi.

Definition 9.10 Un reseau de Jackson est ferme si αi = βi = 0 pour tout i ;il est ouvert sinon. Dans un reseau ouvert les clients peuvent entrer et sortirdu systeme ; dans un reseau ferme, leur nombre est constant, et ils y evoluentindefiniment.

Page 231: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 223

S1

μ1

μ2

p0,1p1,3

p2,3

Reseau ouvert

S2

λ p0,2

S3

μ3

p3,1

S2 S4

S1

μ3μ1

μ4μ2

S3

p4,2

p1,3

p1,2

p2,4

p2,1

Reseau ferme

Etude des reseaux ouverts a un serveur par stationOn appelle λ j le taux d’arrivee dans la file d’attente j, egale a la somme du

taux d’arrivee p0, j des clients venant de l’exterieur et des taux d’arrivee pi, jvenant de l’ensemble des files d’attente.

Theoreme 9.20 Pour toute station j, les probabilites de transition (pi, j)i, j ve-rifient l’equation de flux ou de trafic du reseau :

α j+K

∑i=1

λi pi, j = λ j. (∗)(α j+

K∑i=1

λ j pi, j

)est le taux de trafic de la station i, egal au taux d’arri-

vee λ j.

Si on designe l’intensite du flux entrant total par λ et que l’on poseλi = λ ei ou ei est le taux de visite du service i et p0,i =

αiλ , les equations de flux

s’ecrivent :

p0,i+K

∑j=1

e j p j,i = ei i= 1,2, ...,K. (∗∗)

La connaissance des p j,i permet donc de determiner les taux de visiteaux stations ei, en resolvant le systeme d’equations lineaires precedent.

Page 232: Yves caumel (auth.) probabilites et processus

224 Probabilites et processus stochastiques

Preuve Sachant que pi, j est la probabilite qu’un client aille du service i auservice j, ∑K

j=1λ j pi, j est le flux moyen parvenant de l’ensemble du reseau ; d’oule resultat en y ajoutant le flux moyen externe atteignant i. �

Notons X (i)t la v.a. associee au nombre de clients dans la station i, au

temps t ; (Xt)t = (X (1)t ,X (2)

t , ...,X (i)t , ...,X (K)

t )t est le processus stochastique vec-toriel decrivant l’evolution du nombre de clients dans chacun des services dureseau. Le theoreme suivant etablit l’existence d’un comportement stationnairedecrit par la distribution stationnaire definie par :

P(X (1) = x1, X(2) = x2, ..., X

(i) = xi, ..., X(K) = xK).

Theoreme 9.21 (Regime stationnaire d’un reseau de Jackson ouvert)

(1) Le processus (Xt)t admet une distribution stationnaire definie par :

∀(x1,x2, · · · ,xK) ∈ NK , P(∩i(X

(i) = xi)) =K

∏i=1

P(X (i) = xi) =K

∏i=1

πi

ou πi = (1−ρi)ρxii .

(2) La file d’attente de la station i est M/M/1 de parametres (λi,μi).

(3) Le reseau est stable si pour tout i : λi < μi.

En regime stationnaire, un reseau de Jackson ouvert de K stations secomporte comme un ensemble independant forme des K systemes d’attenteM/M/1 qui le constituent.

Les flux a l’entree des stations ne sont generalement pas poissonniens ; ilen est ainsi par exemple lorsque des boucles sont incluses dans le reseau. Tou-tefois il existe des reseaux ou les flux a l’entree des stations sont poissonniens,comme c’est le cas dans les deux configurations suivantes.

(1) Stations en serie (qui ont ete etudies dans l’exercice precedent).

(2) Stations en forme de bifurcation aleatoire : tout client qui sort de lastation S1 a la probabilite pi d’aller dans la file d’attente Si ou i = 2,3, . . . ,k.Cette decomposition probabiliste du flux poissonnien initial d’intensite λ conservele caractere poissonnien des flux secondaires d’intensites respectives λ pi.

Page 233: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 225

S1

S2

S3

Sk

λλ

λ p2

λ pk

La forme analytique de la distribution stationnaire,K∏i=1

P(Xi = xi), est a

l’origine de la denomination reseau a forme produit pour designer un reseaude Jackson stable et ouvert.

Theoreme 9.22 (Caracteristiques d’un reseau de Jackson ouvert)

(A) Pour chaque systeme i :

(1) debit moyen : λi = λei ;(2) nombre moyen de clients : Li =

ρi1−ρi ;

(3) temps moyen passe dans le systeme i : Wi =Liλi.

(B) Pour l’ensemble du reseau :

(1) debit moyen λ = ∑iλi pi,0 ;(2) nombre moyen de clients L= ∑i

ρi1−ρi ;

(3) temps moyen passe dans le reseau W = Lλ .

9.7 ♠ Etude des reseaux constitues de deux systemes d’attente M/M/1 enparallele et en serie.

Determiner la distribution stationnaire et les parametres de performance.

Remarque 9.3 Des reseaux peuvent avoir des structures differentes et posse-der la meme distribution stationnaire. C’est par exemple le cas des deux reseauxsuivants :

(1) le reseau forme de deux systemes de caracteristiques μ1 et μ2, enserie.

S1

μ1

λS2

μ2

λ

Page 234: Yves caumel (auth.) probabilites et processus

226 Probabilites et processus stochastiques

(2) le reseau ayant le graphe de transition ci-dessous :

S1

μ1

μ2

1/2 1/2

1/2

1/2

1/2

S2

λ 1/2

Traitement pratique d’un reseau ouvert

(1) Determination des taux de service ei, puis des taux d’arrivee λi dansla file d’attente ;

(2) Verification des conditions de stabilite (λi < μi, ∀i), garantissantl’existence d’un regime stationnaire ;

(3) Calcul des caracteristiques du reseau.

Reseaux de Jackson ouverts avec K stations possedant plusieursserveurs

Soit si le nombre de serveurs de la station i ; les taux ei et les taux moyensd’arrivee se calculent de la meme facon. La condition d’existence d’un regimestationnaire pour le reseau est :

∀ i : λi < si μi.

En regime stationnaire, ces reseaux sont toujours equivalents a l’ensemblede K files d’attente M/M/si qui les constituent ; la distribution stationnaire a

la meme forme que dans le cas d’un seul serveur, avec ρi =λisiμi

.

Reseaux de Jackson fermes (dits de Gordon-Newel)

Definition 9.11 Un reseau de Gordon-Newel est un reseau ferme de K sys-temes monoserveurs de taux de service respectifs (μi)i , contenant un nombreconstant N de clients, caracterise par les proprietes :

(1) Pour toute station i : ∑Kj=1 pi, j = 1.

(2) Pour tout temps t : ∑Kj=1Xj(t) = N.

(3) Pour toute station i, le taux moyen de visite ei est egal a :

ei =K

∑j=1

e j p j,i. (∗)

Page 235: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 227

Le systeme d’equations (∗) est indetermine, sa resolution necessite que l’un destaux de visite soit fixe pour l’une des stations dite de reference. Sachant qu’unclient passe un nombre illimite de fois par chaque station, le taux moyen devisite ei de chaque station i est donc egal au nombre moyen de visites de i entredeux passages par la station de reference.

Exemple 9.7 Soit le reseau forme de trois stations interconnectees selon legraphe suivant :

S1

μ1

S2

μ2

μ3

S3

Relations entre les taux moyens de visite : 12 e1 = e2 = e3. Donc entre

deux passages par S1, chaque client passe en moyenne une fois sur deux par S2

et par S3.

Etude du regime stationnaire des reseaux de Gordon-Newel

Theoreme 9.23 La distribution stationnaire d’un reseau de Gordon-Newel aK stations est definie par :

(∗) P(X (1) = n1, ..,X(K) = nK) =

1G(K)

ΠKi=1(

eiμi)ni

ou G(K) est une constante de normalisation, verifiant :

∑(n1,..,nK)

P(X1 = n1, ..,XK = nK) = G(K),

les K-uplets (n1, ..,nK) sont tels que ∑Ki=1 ni = N.

D’apres le theoreme ci-dessus, les v.a. (X (i))i ne sont pas independantes : unreseau de Gordon-Newel n’est pas equivalent a un ensemble de files M/M/1independantes.

La determination des probabilites stationnaires marginales πi et descaracteristiques du reseau necessite souvent, sauf dans quelques cas particu-liers, l’utilisation d’algorithmes specifiques. Il existe deux types d’approche :l’approche fondee sur le calcul de la constante G(K) a l’aide d’algorithmes ditsde convolution, et l’approche plus recente qui s’est revelee plus efficace, enpermettant de determiner par recurrence les caracteristiques du reseau (voirB.Baynat, Theorie des files d’attente).

Page 236: Yves caumel (auth.) probabilites et processus

228 Probabilites et processus stochastiques

9.8 ♠♠ Un systeme informatique est constitue d’une unite centrale (μ1 = 2)et d’une unite entree/sortie (μ2 = 2) dans lequel arrivent des requetes selon unprocessus de Poisson d’intensite λ , (voir : figure ci-dessous)

(1) Determiner les taux de visite ei et les taux d’arrivee λi. Pouvait-onprevoir sans calcul que λ1 > λ2 ?

(2) A quelle condition le reseau admet-il une distribution stationnaire ?Determiner les taux moyens de requetes dans chacune des stations.

(3) Si λ = 1 et p = 13 , quel est le temps moyen passe par une requete

dans la file d’attente de l’unite centrale ?(4) On suppose qu’il n’y a ni arrivee, ni sortie de requetes et que N

requetes circulent dans le systeme. Determiner la distribution stationnaire duvecteur (X1,X2).

S1

μ1

S2

μ2λ

(1− p)

p

La theorie des reseaux s’etend a des configurations plus generales que lesprecedentes. C’est le cas des reseaux fermes multiserveurs, des reseaux traitantdifferentes classes de clients ayant des comportements non standards : clientsestimant une file trop longue et refusant d’y entrer, clients arrivant par groupes,constituant un processus de Poisson compose. Leur etude fait l’objet de traitesspecialises.

Les problemes 8, 19 et 20 se rapportent a ce chapitre.

Page 237: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 229

9.4 Corriges des exercices

Exercice 9.1(1) Calculons P(Xt+h = e j | Xt = ei) quand h est petit par rapport a t ; on

en deduit par derivation les taux de transition instantanee.Par exemple, P(Xt+h = (1,0) | Xt = (0,0)) designe la probabilite que le

composant (1) tombe en panne a l’instant t soit en etat de marche en t+h.Elle est egale a

∫ h0 μ1e−μ1u du ≈ μ1h., d’ou un taux de probabilite egal a μ1.

Le calcul des autres probabilites de transition s’effectue de la meme facon. On

obtient le generateur :

A=

⎛⎜⎜⎝−(μ1 +μ2) μ1 μ2 0

λ1 −(λ1 +μ2) 0 μ2

λ2 0 −(λ2 +μ1) μ1

0 λ2 λ1 −(λ1 +λ2)

⎞⎟⎟⎠ .

e2 e4

e1 e3

μ2

λ2

λ2

μ2

λ1 μ1 λ1 μ1

(2) Ce processus de Markov continu est irreductible et recurrent positif :il admet donc une unique distribution stationnaire π solution de l’equation

d’equilibre πA= 0. On obtient π0,0 =λ1λ2D ; π0,1 =

λ1μ2D ; π1,0 =

μ1λ2D ; π1,1 =

μ1μ2D

ouD= (λ1 +μ1)(λ2 +μ2).

Exercice 9.3(1) (Xt)t�0 est un processus de Markov continu dont les seules transitions

se font d’un etat quelconque vers les etats contigus ; c’est donc un processus denaissance et de mort de diagramme de transition :

0 1 2 N−1 N

μ1 = μ

λ0 = Nλ

μ2 = 2μ

λ1 = (N−1)λ

μN = Nμ

λN−1 = λ

Taux de transitions : λi = (N− i)λ et μi = iμ pour 0 � i� N. En effet :

Page 238: Yves caumel (auth.) probabilites et processus

230 Probabilites et processus stochastiques

« 0 » est l’etat « aucune voiture n’est disponible » ; autrement dit, toutessont en reparation et le taux de sortie d’une voiture des ateliers est donc egala Nλ . Lorsqu’il y a une seule voiture en marche (etat 1), elle peut tomber enpanne avec un taux egal a μ .

(2) π0 =

(1+

λ0

μ1+

λ0λ1

μ1μ2+ · · ·+ λ0 · · ·λN−1

μ0 · · ·μN

)−1

=

(C0N +

λ

μC1N + · · ·+

μ

)N N1N−1

2· · · 1

N

)−1

=

μ+λ

)N

,

d’ou par definition des π j, π1 = π0λ0μ1

=(

μμ+λ

)NNλμ et π j =C j

N

λ+μ

)N− j(λ

λ+μ

) j.

La distribution stationnaire est donc de loi binomiale B

λ+μ ; N).

Exercice 9.4(1) On peut trouver pn(t) par recurrence ascendante sur n (la matrice A

est triangulaire superieure).p′0(t) = 0 donc p0(t) = p0(0) = 0.

p′1(t) =−λ p1(t) donc p1(t) =Ce−λ t avec C = p1(0) = 1.

Supposons que pn−1(t) = e−λ t(1− e−λ t)n−2 pour n� 2. On a

p′n(t)+nλ pn(t) = (n−1)λe−λ t(1− e−λ t)n−2.

C’est une equation differentielle lineaire du premier ordre avec secondmembre ; pour la resoudre, on applique la methode de la variation de la constante.pn(t) =C(t)e−nλ t avec C′(t)e−nλ t = (n−1)λe−λ t(1− e−λ t)n−2.

C′(t) = (n−1)λe(n−1)λ t(1− e−λ t)n−2

= (n−1)λeλ t(eλ t −1)n−2 =ddt

((eλ t −1)n−1

),

donc C(t)−C(0) = (eλ t −1)n−1 et C(0) = pn(0) = 0 pour n� 2. Finalement,

pn(t) = (eλ t −1)n−1e−nλ t = e−λ t(1− e−λ t)n−1.

Xt suit donc la loi geometrique de parametre e−λ t .

(2) p′N(t)+Nμ pN(t) = 0 donc pN(t) =Ce−Nμt avec C = pN(0) = 1.Supposons maintenant que pn+1(t) = Cn+1

N (e−μt)n+1(1− e−μt)N−n−1 pour n ∈{1, · · · ,N−1}.

p′n(t)+nμ pn(t) = (n+1)μCn+1N (e−μt)n+1(1− e−μt)N−n−1.

Page 239: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 231

On applique la methode de la variation de la constante : pn(t)=C(t)e−nμt .

C′(t) = enμt × (n+1)μN!

(n+1)!(N−n−1)!e−(n+1)μt(1− e−μt)N−n−1

= (N−n)μCnNe−μt(1− e−μt)N−n−1 =

ddt

(CnN(1− e−μt)N−n

),

donc C(t)−C(0) =CnN(1− e−μt)N−n avec C(0) = pn(0) = 0 pour n< N et

pn(t) =CnNe−nμt(1− e−μt)N−n.

Xt suit donc la loi binomiale B(N,e−μt).

Exercice 9.5

0 1 2 3 s−1 s s+1

μ

λ

λ

λ

λ

λ

(1) Equations bilan :

⎧⎨⎩ λπ0 = μπ1 ;(λ + kμ)πk = (k+1)μπk+1 +λπk−1 pour 0 < k < s ;(λ + sμ)πk = sμπk+1 +λπk−1 pour k � s.

.

(2)

{πk =

ρk

k! π0 pour k = 0,1, · · · ,sπk =

ρk

s!sk−s π0 pour k � s+1avec ρ = λ

μ et

π0 =

(s−1

∑k=0

ρk

k!+(

1− ρ

s

)−1 ρs

s!

)−1

.

(3)

Lq =+∞

∑k=s+1

(k− s)πk =ss

s!π0 ∑

k�s+1

(k− s)(ρs

)k=

ss

s!π0

+∞

∑m=1

(ρs

)m+s=(ρs

)s+1 ss

s!

(1− ρ

s

)−2

=ρs+1

(s−1)!π0

(s−ρ)2

et Wq =Lqλ . On retrouve les caracteristiques du systeme d’attente M/M/1 en

prenant s= 1.

Exercice 9.7(1) Reseau en parallele :

Page 240: Yves caumel (auth.) probabilites et processus

232 Probabilites et processus stochastiques

S1

μ1

S2

μ2

λλ (1− p)

λ p

λ

λi = λ p0,i.

e1 = p0,1 et e2 = p0,2 = 1− p ; L1 =λ p

μ1−λ p et L2 =λ (1−p)

μ2−λ (1−p) .

L= L1 +L2 ; W = Lλ .

Pour μ1 et μ2 connus, il est possible de determiner p, c’est-a-dire d’ajus-ter le flux vers chacun des services de facon a minimiser W (p).

(2) Reseau en serie :

S1

μ1

S2

λ

μ2

λ λ

L= λμ1−λ + λ

μ2−λ .

Exercice 9.8

(1)

{e1 = 1+ e2

e2 = pe1donc e1 =

11−p et e2 =

p1−p ; λ1 = λe1 et λ2 = λe2.

(2) (λ1 < 2 et λ2 < 1) ⇐⇒ λ < min(

2(1− p) ; 1−pp

).

L1 =λ1

2−λ1= λ

2−2p−λ ; L2 =λ p

1−p−λ p .

(3) W1 = 2.

(4) Le reseau etant ferme, la loi stationnaire est definie par :

∀(n1, n2) (n1 +n2 = n) P([X1 = n,X2 = n2]) =C.

(e1

μ1

)n2(e2

μ2

)n−n1

.

Page 241: Yves caumel (auth.) probabilites et processus

9. Chaınes de Markov a temps continu et files d’attente 233

Soit e1 = 1 alors e2 = 1 ; P([X1 = n1])=P([X1 = n,X2 = n−n1])=C 1μn

2

(μ2μ1

)n1,

d’ou

C =μ1−μ2

μn+11 −μn+1

2

(μ1μ2)n.

Page 242: Yves caumel (auth.) probabilites et processus

Chapitre 10

Processus du second ordre

Ce chapitre est une introduction a la theorie des processus et des signauxaleatoires du second ordre completee par une introduction a la theorie desprocessus browniens a la notion de bruit blanc, presents dans de nombreuxdomaines allant de la physique a l’economie.

10.1 Generalites

Definition 10.1 Processus du second ordreUn processus aleatoire a valeurs complexes ou reelles (Xt)t∈T, ou T est

un sous-ensemble de temps inclus dans R, est du second ordre si sa puissanceinstantanee en un temps t quelconque E(Xt .Xt)=(note) Pt est finie pour tout tempst ∈ T.

Caracteristiques des processus du second ordre :

Esperance mt au temps t : E(Xt) = mt .

Variance σ2t au temps t : V(Xt) = σ2

t .

Puissance Pt instantanee au temps t : Pt = E(Xt .Xt) = σ2t + |mt |2 .

Autocovariance RX (s, t) ou R(s, t) :

∀s, t (s< t) RX (s, t) = cov(Xs,Xt) = E(Xs.Xt)−E(Xs).E(Xt).

Autocorrelation :

RX (s, t)σs.σt

=(note) ρX (s, t).

L’autocorrelation ρX (s, t) entre les etats Xs et Xt du processus nous ren-seigne sur le degre de dependance lineaire de Xt par rapport a Xs : si ρX (s, t) estproche de +1 ou −1, la correlation entre les etats Xs et Xt est forte, inversementsi ρX (s, t) est proche de 0, les etats sont tres peu correles.

Page 243: Yves caumel (auth.) probabilites et processus

236 Probabilites et processus stochastiques

Si 'IT' est lLn intervalle de JR., Ie proceSSlLS est dit analogique ; si 'IT' est lLn sOlLs-ensemble alL plus derwmbmble de JR., par exemple N, Ie processus est dit discret.

Exemple 10.1 Le processus du telegraphe

Etant donne Ie processus de Poisson (Nt )tER+ d'intensite A, on de£init Ie processus d u telegraphe (Zt) t par Zt = ( -1 )Nt •

Graphe d'une realisation demarrant en Zo = 1

t +1 , I I I I I

I I I I I I o ~ ____ -+!1+ _________ !2 ___ (~ __ (~ _____ -+~ ~

I I I I I I t I -I , L-...J L-I

• La moyenne E(Zt) = mt = e 2At

Preuve: mt = 1 xP(Zt = 1) + (-1) xP(Zt = -1). P(Zr = 1) = LkE'i'iJP(Nt = 2k) = e-At cosh(M) ; P(Zt = -1) = LkENP(Nt = 2k+ 1) = C-Al sinh(At). Par sommation, on aboutit a : mt = e 2Ar

• La puissance E(Z;) = I pour tout t.

Preuve: Z; = 1 d'ou E(Z1) = 1.

• L'autocovariance R(s,t) = e-2A (I-S).

Preuve: R(s,t) E (( _ I )Ns I Nt )

E((_1)2N s+(Nt -Ns )) =E((_I)Nt -Ns )

E((-I)N, ')=ml-S=e 2A(r s).

L'autocovariance R(s, t) decroit si (t - s) croit; pratiquement, on considere que la valeur de Zt est decorrelee de Zs lorsque (t - s) a une valeur superieure a t-

Definition 10.2 Un processus dlL second ordre est centre si pOlLr tOlLt temps t, sa moyenne ml est nlLlle.

Page 244: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 237

Definition 10.3 Une suite de vecteurs aleatoires (Xn)n∈N converge en moyenne

quadratique vers le vecteur aleatoire X si limn→+∞

E(‖Xn−X‖2) = 0.

On rappelle qu’une suite convergente en moyenne quadratique converge enprobabilite et donc en loi.

Definition 10.4 Un processus du second ordre a temps continu (Xt)t est continuau temps t en moyenne quadratique, si la suite (Xt+hn)n converge en moyennequadratique vers Xt pour toute suite (hn) convergente vers 0 :

limn→+∞

E(|Xt+hn −Xt |2) = 0.

Les realisations d’un processus continu en moyenne quadratique ne sont pasnecessairement continues partout au sens des fonctions. Il en est ainsi du pro-cessus de Poisson qui est un processus du second ordre continu en moyennequadratique, dont les realisations sont, comme on le sait, des fonctions etageesdiscontinues aux temps d’occurrence.

10.2 Processus stationnaires du second ordre

De nombreux processus intervenant dans les sciences de l’ingenieur ouen physique sont tels que leur autocovariance R(s, t) ne depend que de la duree(t−s) : si de plus leur esperance est constante, ces processus sont dits faiblementstationnaires conformement a la definition suivante.

Definition 10.5 Un processus du second ordre (Xt)t∈R est stationnaire ausens large ou faiblemement stationnaire si :

(1) Pour tout temps t, son esperance E(Xt) est constante,

E(Xt) = m ;

(2) Pour tout couple de temps (s, t), l’autocovariance R(s, t) du processusne depend que de (t− s) ; on la notera R(t− s).

Theoreme 10.1 La puissance instantanee Pt au temps t d’un processus fai-blement stationnaire est constante :

∀t, Pt = R(0)+m2.

Preuve E(XtXt) = cov(Xt ,Xt)+E(Xt) E(Xt) = R(t− t)+m2 = R(0)+m2. �

Desormais, les processus du second ordre etudies dans ce cha-pitre seront supposes etre stationnaires au sens large et symbolisespar l’expression SSL.

Page 245: Yves caumel (auth.) probabilites et processus

238 Probabilites et processus stochastiques

Theoreme 10.2 (Proprietes de l’autocovariance des processus SSL)

(1) Parite : pour tout u ∈ T, R(−u) = R(u).(2) L’autocovariance est majoree par la puissance : ∀u, |R(u)|� R(0).(3) L’autocovariance est une application du type positif : ∀n∈N∗,∀t1, ..., tn

tels que t1 < t2 < ... < tn et ∀ a1, ...,an ∈ C :

n

∑i=1

n

∑j=1

aia jR(ti− t j)� 0.

Preuve(1) R(−u) =(de f ) E(X(t−u)Xt) = E(XtX(t+u)) = R(u).

(2) |E(Xt+uXt)|2 �(Cauchy−Schwarz) E(|Xt+u|2)E(|Xt |2) donc|R(u)|2 � |R(0)|2.(3) ∑n

i=1∑nj=1 aia jR(ti− t j) = E(∑i aiXti ∑ j a jXt j) = E(|∑i aiXti |2)� 0. �

Definition 10.6 Un processus du second ordre est dit asymptotiquementstationnaire au sens large, si lorsque t tend vers +∞, son esperance mt

converge vers une constante m et si son autocovariance converge lorsque s et ttendent vers +∞, vers une fonction de la forme R(t− s).

Le processus du telegraphe etudie dans l’exemple 10.1 est un processusasymptotiquement SSL.

Il existe un autre type de stationnarite dite stationnarite forte, qui en-traıne la stationnarite faible, mais n’a pas d’interet pratique dans le cadre dece cours.

Definition 10.7 Un processus du second ordre (Xt)t∈T est fortement sta-tionnaire si ∀τ > 0, ∀m ∈ N∗, ∀ t1, ..., tm ∈ T :

(Xt1 , ...,Xtm) et (Xt1+τ , ...,Xtm+τ) ont meme loi.

10.3 Proprietes spectrales des processus SSL

L’etude spectrale des processus SSL s’apparente a l’analyse harmoniquedes signaux ou des fonctions deterministes et conduit a la notion importantede densite spectrale.

Theoreme 10.3 (de Wiener-Khintchine)La densite spectrale S d’un processus SSL (Xt)t a temps discret (respecti-vement : a temps continu) de covariance R, est la serie (respectivement : latransformee) de Fourier de son autocovariance. On distingue trois cas :

Page 246: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 239

(1) Temps entier :

S(ν) =k=+∞

∑k=−∞

R(k)e−2iπνk et ∀k ∈ Z, R(k) =∫ 1

2

− 12

S(ν)e2iπνk dν .

(2) Temps continu et fonction de covariance R integrable :

S(ν) =∫ +∞

−∞R(τ)e−2iπντ dτ et R(τ) =

∫ +∞

−∞S(ν)e2iπντ dν .

Dans le cas d’un processus reel :

R est symetrique et S(ν) = 2∫ +∞

0R(τ) cos(2πντ)dτ .

(3) Temps continu et fonction de covariance R defini par une distribution tem-peree :

S= F (R) (au sens des distributions temperees).

10.1 ♠♠ Spectre du processus harmonique (∑nk=1Ak e(2iπνkt))t

Etant donne les v.a. Ak centrees, decorrelees, de variances σ2k et les fre-

quences νk constantes. Demontrer que :

(1) pour tout t : E(Xt) = 0.(2) pour tous t1, t2 : R(t1, t2) = E(Xt1 Xt2) =∑n

k=1σ2k e(2iπνk(t1−t2)) et le pro-

cessus est donc stationnaire.(3) la densite spectrale est definie par la distribution S(ν) = ∑n

k=1σ2k δνk

qui caracterise le spectre de raies de support frequentiel {ν1, ...,νn} ; σ2k etant

la puissance moyenne du signal e2iπνkt .

Attention ! Des processus SSL peuvent avoir la meme densite spectraleet etre differents.

(1) Le signal du telephone et le signal-reponse obtenu par filtrage RCd’un bruit blanc ont meme densite spectrale :

f (ν) =λ

λ 2 +ν2π2 .

(2) Le bruit blanc gaussien et le bruit blanc poissonnien constitue les distri-butions de Dirac dont les supports sont les temps d’occurrence d’un processuspoissonnien, ont meme le spectre constant.

10.2 ♠♠ Etude spectrale du signal de transmission binaireCe signal est decrit par le processus aleatoire (Xt)t∈R+ , qui prend les

valeurs +1 et −1 sur les intervalles In = [(n− 1)a,na] avec la probabilite 12

(a> 0).

Page 247: Yves caumel (auth.) probabilites et processus

240 Probabilites et processus stochastiques

(1) Tracer une realisation du processus.(2) Le processus est-il SSL ?(3) Soit le processus (Yt)t∈R+ defini par Yt =Xt−θ ou θ est la v.a. uniforme

sur [0,1] ; demontrer que (Yt)t∈R+ est SSL. Determiner sa densite spectrale.

10.4 Processus gaussiens stationnaires

Ces processus constituent une extension de la notion de vecteur gaussiena des familles infinies de composantes.

Definition 10.8 Un processus (Xt)t∈R+ reel est gaussien si :

∀n, ∀ t1, ..., tn ∈ R+, le vecteur (Xt1 , ...,Xtn) est gaussien.

Par definition un processus gaussien est necessairement du second ordre,car pour tout i, E(X2

ti ) est egal a V (Xti) + E(Xti)2, qui est fini.

Theoreme 10.4 (Caracterisation d’un processus gaussien SSL)Un processus gaussien (Xt)t∈R+ est SSL si et seulement si :

(1) ∀t > 0, E(Xt) est une constante egale a m ;(2) ∀ (t1, t2, ..., tn), la matrice de covariance :

Cov(Xt1+h, ...,Xtn+h) est independante de h.

Preuve ∀i, j E(Xti+hXt j+h) = cov(Xti+h, Xt j+h)+m2 est independant de h. In-versement, R(s, t) = cov(Xs,Xt) = cov(X0,Xt−s) fonction de (t− s). �

Remarque 10.1 Un processus gaussien faiblement stationnaire l’est aussi ausens strict et c’est le seul processus a verifier cette propriete, analogue a la pro-priete d’equivalence pour la classe des vecteurs gaussiens, entre l’independancedes composantes d’un vecteur et leur decorrelation.

10.3 ♠♠ Construction de processus gaussiens classiques

(1) Si X est une v.a. N (0,σ2) et f une fonction bornee de R+ dans R,demontrer que ( f (t)X)t∈R+ est un processus gaussien.

(2) Demontrer que si (Xt)t est un processus gaussien, la v.a. Y definie par∫ ba ϕ(t)X(t)dt, ou ϕ est une fonction continue, est gaussienne. [Indication : com-mencer par faire une approximation en serie de l’integrale.]

Page 248: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 241

10.5 Processus ergodiques

Il arrive que l’on ne dispose que d’une seule realisation d’un processuspendant une longue duree. Quelles doivent etre les proprietes de ce proces-sus pour que l’on puisse en estimer de facon satisfaisante ses caracteristiquesstatistiques (moyenne, puissance et autocovariance) a l’aide de cette uniquerealisation ?

Definition 10.9 Caracteristiques temporelles d’un processusOn suppose que le processus (Xt)t est indexe par des temps variant dans

R, la transposition des resultats ci-dessous au cas de R+ etant immediate.On suppose de plus que pour toute realisation (Xt(ω))t du processus, la v.a.φT (ω)= 1

2T

∫ T−T Xt(ω).dt est bien definie (ce qui est le cas si la fonction t �→Xt(ω)

est continue) et converge p.s quand T tend vers +∞, vers une v.a. mX (ω), ap-pelee moyenne temporelle de la realisation. On suppose enfin que pour toutω, limT→+∞

12T

∫ T−T (Xt+τ(ω)−mX (ω))(Xt(ω)−mX (ω))∗dt existe, notee Rω(τ) et

appelee autocovariance temporelle de la realisation (Xt(ω))t .

La moyenne temporelle mX (ω) de la realisation (Xt(ω))t du processusest la v.a. definie par :

(1) limT→+∞

12T

∫ +T−T Xt(ω)dt dans le cas d’un processus a temps continu ;

(2) limN→+∞

12N+1 ∑

k=Nk=−N Xk(ω) dans le cas d’un processus a temps entier.

L’autocovariance temporelle Rω(τ) de la realisation (Xt(ω))t est de-finie par :

(1) limT→+∞

12T

∫ +T−T (Xt+τ(ω)−mX (ω))(Xt(ω)−mX (ω))∗ dt dans le cas d’un

processus a temps continu ;

(2) limN→+∞

12N+1 ∑

k=Nk=−N(Xk+τ(ω)−mX (ω))(Xk(ω)−mX (ω))∗ dans le cas d’un

processus a temps entier.

Definition 10.10 Un processus SSL (Xt)t est faiblement ergodique par rap-port a la moyenne si la moyenne temporelle mX (ω) d’une realisation (Xt(ω))tquelconque est egale (p.s.) a sa moyenne m :

P(m= mX (ω)) = 1.

Theoreme 10.5 Un processus stationnaire (Xt)t est faiblement ergodiquepar rapport a la moyenne si :

V ( Xω) = limT→+∞

V

(1

2T

∫ +T

−TXt(ω)dt

)= 0.

Page 249: Yves caumel (auth.) probabilites et processus

242 Probabilites et processus stochastiques

Preuve Si limT→+∞V ( 12T

∫ +T−T Xt(ω)dt)= 0, alors la v.a. 1

2T

∫ +T−T Xt(ω)dt converge

vers sa moyenne. �

A l’instar de la propriete de stationnarite, l’ergodicite admet deux ver-sions : l’une au sens faible, qui est la plus pratiquee, l’autre au sens strict (oufort), impliquant la precedente.

Definition 10.11 Un processus SSL (Xt)t est ergodique au sens strict si,pour pour tout n, toute suite de temps (t1, ..., tn) et toute fonction φ de Rn dansR telle que E(|φ(Xt1 , ...,Xtn)|) soit finie, alors :

12N+1 ∑N

i=−N φ(Xt1+i, ...,Xtn+i) converge p.s. vers E(φ(Xt1 , ...,Xtn)).

Le theoreme suivant donne deux conditions suffisantes d’ergodicite faible,faciles a verifier et tres utiles.

Theoreme 10.6 Un processus SSL (Xt)t est faiblement ergodique par rapporta la moyenne si l’une des deux conditions est verifiee :

(1)∫ +∞−∞ |R(t)| dt est f inie ;

(2) R(0) est f ini et lim|t|→+∞ R(t) = 0.

Exemple 10.2 (1) Les suites de v.a. (Xn)n independantes de meme loi et lesprocessus gaussiens, stationnaires du second ordre, tels que lim

τ→+∞R(τ) = 0 et

R(0) est fini, sont ergodiques.(2) Le processus harmonique (∑n

k=1Ak(ω)e(2iπνkt))t dont l’autocovariancetemporelle depend de l’epreuve ω n’est pas ergodique.

10.4 ♠ Demontrer que le signal sinusoıdal a phase aleatoire, defini parXt = cos(2πν t+Φ), ou la phase Φ est une v.a. de loi uniforme sur [0,2π],

est un SSL faiblement ergodique par rapport a la moyenne.

10.6 Processus de Wiener ou brownien et bruit

blanc

Le processus de Wiener porte le nom du mathematicien americainqui en donna une definition axiomatique en 1923. Il est l’aboutissement de lamodelisation mathematique du mouvement brownien mis en evidence un siecleauparavant par le botaniste ecossais Brown, grace aux observations qu’il fit dumouvement erratique de particules de pollen s’agitant a la surface d’un liquide

Page 250: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 243

chauffe. C’etait le debut d’une saga physico-mathematique particulierementriche dont on donne un apercu en fin de chapitre. Le processus de Wiener estun processus stationnaire a accroissements independants (voir la definition desprocessus de Poisson au 8.1) caracterise par la normalite de ses elongations.

Un processus a accroissements independants note PAI, et PAIS s’il estde plus SSL, verifie la propriete de Markov (voir : theoreme 9.4).

Theoreme 10.7 Tout PAIS (Xt)t∈R centre, tel que X0 = 0, veri f ie les proprietes :

(1) ∀ t : V (Xt) = K |t| (K > 0) ;

(2) cov(Xs,Xt) =

{K.min(|s|, |t|) si s.t > 0 ;

0 si s.t < 0 ;(3) ∀s, t tels que t > s> 0 : ρ(s,t) =

√ st .

Preuve (1) ∀t1 t2 > 0,

V (Xt1+t2) = V (Xt1+t2 −Xt1 +Xt1 −X0)

= (independance des acc)V (Xt1+t2 −Xt1)+V (Xt1 −X0)

= (stationnarite)V (Xt2)+V (Xt1) ;

si on pose V (Xt) = f (t), l’equation precedente s’ecrit :(∗) f (t1+ t2) = f (t1)+ f (t2), ou f est positive donc par (∗), croissante. La

seule fonction solution de (∗) est lineaire : f (t) =Kt. Un raisonnement analoguepour des ti negatifs permet de conclure.

(2) Pour calculer la covariance distinguons trois cas :

(a) 0 � s� t : cov(Xs,Xt) = cov(Xs,(Xt −Xs)+Xs)

= cov(Xs,(Xt −Xs))+ cov(Xs,Xs)

= cov(Xs−X0,Xt −Xs)+K.s= K.s

car les accroissements (Xs−X0, Xt −Xs) etant independants ;

(b) s� t � 0 : idem ; on parvient a cov(Xs,Xt) =−Kt ;

(c) s� 0 � t : cov(Xs,Xt) =−cov(X0−Xs, Xt −X0) = 0.

(3) est une consequence de (1) et (2). �

Definition 10.12 Le processus de Wiener (Wt)t�0 sur R+ est defini par lesaxiomes :

Page 251: Yves caumel (auth.) probabilites et processus

244 Probabilites et processus stochastiques

(1) W0 = 0 ;(2) (Wt)t�0 est un PAIS ;(3) ∀t,Wt est de loi N (0, σ2 t). Si σ = 1, le processus de Wiener est dit

standard.

Le theoreme ci-dessous donne un ensemble de conditions suffisantes pourqu’un processus gaussien soit un processus de Wiener.

Theoreme 10.8 Un processus gaussien (Wt)t�0 est un processus de Wienersi :

(1) ∀t E(Wt) = 0, V (Wt) = σ2t ;(2) ∀s, t R(s, t) = σ2 min(s, t).

L’exercice ci-dessous montre qu’un processus de Wiener peut etre appro-che asymptotiquement par une marche aleatoire symetrique.

10.5 ♠♠Approximation du processus brownien a une dimension par la marchealeatoire symetrique

Soit un processus de Bernoulli (Xn)n∈N ou les Xn sont independantes dememe loi : ∀n ∈ N, P(Xn = 1) = P(Xn = −1) = 0,5. Pour tout t � 0, definissonsZt = Δx(X1 + · · ·+X[ t

Δt ]), ou Δx et Δt sont des accroissements tres petits de x et

de t ; [ tΔt ] represente la partie entiere de t

Δt .

(1) Demontrer que le processus (Zt)t est un PAIS.(2) Demontrer que Zt converge en loi vers la v.a. normale N (0,σ2t) et

conclure. [Indication : faire tendre Δx et Δt vers 0 de maniere que Δx√Δt

= σ ].

D’un point de vue physique, σ =√

2D ou D est le coefficient de diffusion de laparticule brownienne dans son milieu.

On generalise le processus de Wiener aux espaces R2 et R3. Par exemple,lorsque l’espace d’etats est R2, (Wt)t est le modele d’evolution d’une particuleevoluant a la surface d’un liquide, et soumise aux impacts incessants de sesvoisines, qui comme on le sait sont fort nombreuses et dissipees. Les compo-santes sur chacun des axes d’un repere orthonorme d’un processus de Wienerde dimension quelconque dans tout repere sont aussi des processus de Wienerde dimension 1.

Theoreme 10.9 (Proprietes du processus de Wiener)

(1) Le processus de Wiener est gaussien et ergodique par rapport a lamoyenne.

Page 252: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 245

-700

-600

-500

-400

-300

-200

-100

0

100

200

300

-1200 -1000 -800 -600 -400 -200 0 200

Figure 10.1 – Trajectoire d’un processus de Wiener isotrope d’origine 0 dans unreseau carre.

(2) Etant donne s, t tels que t > s, la densite conditionnelle de Wt sachantWs = x, est definie par :

fWt/(Ws=x)(y) =1

σ√

2π(t− s)exp

(− (y− x)2

2σ2(t− s)

);

E(Wt |Ws = x) = x ; V (Wt |Ws = x) = σ2(t− s).

A partir de toute abscisse d’elongation x, atteinte au temps s, l’elonga-tion du processus est de loi gaussienne. L’egalite E(Wt |Ws = x) = x signifie quel’elongation moyenne de Wt , autour d’un point d’abscisse quelconque x atteinten un instant s precedent est nulle ; il faut imaginer cela pour toutes les posi-tions x atteintes par le processus. Si l’on pose Zt =Ws+t , (Zt)t≤0 est le processusde Wiener demarrant au temps 0 en Ws egal a x. L’egalite V (Wt |Ws = x) =σ2(t − s) signifie que la dispersion moyenne quadratique autour de ce memepoint est fonction lineaire du temps (t− s). Pour tout t, Wt se trouve a l’inte-rieur ou au voisinage de la parabole d’equation x2 = (1,96)2σ2t, et la probabiliteP(|Wt |� 1,96σ

√t) est approximativement egale a 0,95. (Voir la figure suivante)

(3) (Wt)t est continu (p.s.) et nulle part derivable (p.s.).

(Les deux proprietes precedentes font de ce processus un candidat revepour la galerie des notions mathematiques longtemps considerees comme « mons-trueuses » ; c’est ainsi que certains mathematiciens de la fin du xix

e siecle, etnon les moindres, concevaient les fonctions continues et non derivables, dontdes exemples fameux ont ete exhibes par Weierstrass et Lebesgue.)

Page 253: Yves caumel (auth.) probabilites et processus

246 Probabilites et processus stochastiques

Preuve Montrons que (Wt)t est continu en probabilite :

∀h> 0,1hP(|Wt+h−Wt |)> ε)< 2

∫ +∞

ε

e−εx2h

√2π h

32

dx= 4e−ε22h

ε√

2πh

qui tend vers 0, quand h tend vers 0. Il est plus delicat d’etablir qu’il est continupresque surement.

Le processus n’est pas derivable en probabilite ; en effet, soit Z =Wt+h−Wt

h ,

Z est une v.a. N (0, σ2

h ). ∀a > 0 , P(|Z| > a) = P(∣∣∣ Whσ√h

∣∣∣ > aσ

√h), avec Wh

σ√h∼

N (0,1). Donc, pour tout a P(|Z| > a) converge vers 1 si h tend vers 0 ; d’oula non derivabilite en probabilite, et par consequent la non derivabilite (p.s).Cependant on demontre que les realisations du processus de Wiener sont de-rivables au sens des distributions et que leurs derivees sont des bruits blancsgaussiens, succinctement presentes a la fin du paragraphe.

Le processus de Wiener sur l’axe reel est recurrent ; le processus de Wie-ner bidimensionnel revisite tout voisinage d’un point, aussi petit soit-il, uneinfinite de fois. Dans le cas tridimensionnel, la propriete precedente n’est pasverifiee.

Sur la figure 10.2, les graphes dans l’espace de phase, d’une quarantainede realisations d’un processus de Wiener de moyenne nulle, qui confirmentvisuellement l’accroissement moyen de V (Wt) en fonction du temps ainsi que lecaractere asymptotiquement parabolique de l’enveloppe des trajectoires.

-1000

-500

0

500

1000

0 10000 20000 30000 40000 50000 60000 70000 80000 90000 100000

Pos

ition

Time unit

Figure 10.2 – Realisations d’un processus de Weiner.

Page 254: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 247

10.6 ♠ La densite du processus brownien est solution de l’equation de lachaleur.

Considerons une barre rectiligne de section homogene petite par rapporta la longueur. La chaleur accumulee au temps t = 0, dans un petit voisinaged’un point donne distinct des extremites, resulte de l’agitation thermique d’unemultitude de molecules excitees. On sait que la temperature T (x, t) en un point

x au temps t est solution de l’equation de la chaleur : ∂T∂ t = 1

k .∂ 2T∂x2 .

Demontrer que la densite conditionnelle fWt/(Ws=x) du processus brow-

nien est solution de l’equation de la chaleur (la constante k s’identifiant a σ2).Trouver une contrepartie physique a cette preuve.

Definition 10.13 Le processus (WDt )t�0 defini par WD

t =Wt + μt est appeleprocessus de Wiener avec derive, μ etant le parametre de derive.

Theoreme 10.10 (Proprietes du processus de Wiener avec derive)

(1) Pour tout t � 0, WDt ∼N (μt,σ2t).

(2) (WDt )t est un PAIS gaussien.

(3) Sa fonction d’autocovariance R(s, t) est celle de (Wt)t�0.

10.7 ♠♠ Processus brownien integreCet exercice prolonge l’etude du processus gaussien integre proposee dans

l’exercice 10.3. Etant donne le processus brownien standard (Wt)t de varianceσ2 = 1, on definit le processus brownien integre (Zt)t de (Wt)t par :

∀t � 0, Zt =∫ t

0Ws ds.

(1) Demontrer que (Zt)t est un processus gaussien non stationnaire decovariance cov(Zs,Zt) = s2( t2− s

6 ) si (s< t). [Indication : on considerera que ∀t, Ztest egal a lim(n→+∞)

tn∑

nk=1W ( tkn ), pour demontrer que tout vecteur (Zt1 ,Zt2 , ...,Ztn)

est gaussien].(2) Deduire de l’expression de la covariance que cov(Zu+v−Zu,Zu) �= 0 ; en

conclure que (Zt)t ne verifie pas la propriete d’independance des accroissements.Le processus brownien integre n’est donc ni stationnaire ni markovien.

Definition 10.14 Un processus de diffusion (Xt)t∈R+ est un processus atemps continu ayant un espace d’etats continu E inclus dans Rk, markovien ethomogene, dont les trajectoires t → Xt sont continues presque partout et veri-fient les hypotheses suivantes.

(1) Existence de l’esperance instantanee :

∀x ∈ E,∀t ∈R+, limh↓0+( 1hE(Xt+h−Xt) | Xt = x) existe, est notee μ(x, t) et

represente le gradient de l’elongation moyenne au temps t, a partir de l’etat x.

Page 255: Yves caumel (auth.) probabilites et processus

248 Probabilites et processus stochastiques

(2) Existence de la variance instantanee :

∀x∈E,∀t ∈R+, limh↓0+( 1hE((Xt+h−Xt)2 |Xt = x) existe, et est notee σ2(x, t).

(μ(x, t) et σ2((x, t) sont supposees continues.)

(3) Propriete de regularite :

∀x ∈ E,∀t ∈ R+, ∀ε > 0, limh↓0+( 1hP(| Xt+h−Xt |> ε | Xt = x) = 0.

Theoreme 10.11 La densite conditionnelle fXt/Xs=x verifie l’equation de Chapman-Kolmogorov :

∀(s, u, t) reels verifiant s< u< t et ∀(x, y) ∈ Rk×Rk :

fXt/Xs=x(y) =∫R

fXt/Xu=z(y). fXu/Xs=x(z)dz. (∗)

Preuve Multiplions chacun des membres par fXs(x) ; on obtient pour le pre-mier membre f(Xs,Xt )(x,y) et pour le second membre :

∫fXt/Xu=z(y). f(Xs,Xu)(x,z).dz=

∫fXt/Xu=z,Xs=x(y). f(Xs,Xu)(x,z).dz

=∫

fXs,Xu,Xt (x,y,z).dz= f(Xs,Xt )(x,y).

Les deux expressions obtenues etant identiques pour tout x, on concluta l’egalite (∗). �

Cette equation est analogue a l’equation qui porte le meme nom, verifieepar les chaınes de Markov a temps entier (voir theoreme 7.5).

Theoreme 10.12 (Equations de diffusion) Soit (Xt)t est un processus dediffusion, la densite conditionnelle fXt/Xs=x verifie les equations de diffusion :

Equation directe ou de Fokker-Plank :∂ f∂ t

(y) =− ∂ (μ(y, t) f )∂y + 1

2∂ 2(σ2(y, t) f )

∂y2 .

Equation inverse :∂ f∂ s

(x) =−μ(x,s) ∂ f∂x − 1

2σ2(x,s) ∂ 2 f

∂x2 .

Exemple 10.3 Deux processus de diffusion classiques

(a) Le processus de Wiener (Wt)t�0 est le processus de diffusion pourlequel μ(x, t) = 0 et σ2(x,s) = σ2.

(b) Le processus de diffusion d’Ornstein-Uhlenbeck, (Ut)t�0, est le pro-cessus de diffusion defini par μ(x, t) =−β x et σ2(x,s) = σ2. Ce processus a eteconcu pour decrire la vitesse d’une particule dans un milieu visqueux, soumisecomme dans le cas du mouvement brownien aux chocs incessants des moleculesqui lui sont voisines.

Page 256: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 249

10.8 ♠♠ Demontrer que si (Wt)t est un processus de Wiener, le processusdefini par U(t) = e−β t W(eβ t−1) est un processus d’ Ornstein-Uhlenbeck.

Le bruit blanc

On sait que la densite spectrale de la lumiere blanche est approximati-vement constante sur tout le spectre visible ; par analogie avec cette propriete,les specialistes de la theorie du signal ont donne le nom de bruit blanc a toutbruit dont la densite spectrale est constante dans un domaine plus etenduque le domaine de frequences du systeme bruite. On definit ci-dessous la notionmathematique de bruit blanc qui est le modele idealise du bruit blanc physique.

Definition 10.15 Le bruit blanc (Bt)t est un processus centre, stationnaireau sens large, de densite spectrale constante, de covariance R(τ) = δ0(τ). Doncsi s �= t, Bs et Bt sont decorrelees ; d’un point de vue physique, cela signifie queles v.a. Bs et Bt ont un comportement independant meme lorsque s et t sonttres proches. Le bruit blanc gaussien est un bruit blanc tel que pour tout t, Bt

est de loi normale N (0,σ2).

Le bruit blanc n’est pas un processus du second ordre puisque sa den-site spectrale est egale a la transformee de Fourier F (δ0) = 1R (au sens desdistributions temperees) qui n’est pas un signal de puissance finie. De facon ge-nerale, les bruits blancs sont construits a partir de processus a accroissementsindependants et possedent une densite spectrale constante ; on peut les genererpar derivation temporelle au sens des distributions d’un PAIS du second ordre.

Montrons que le bruit blanc peut etre approche par le processus de-fini comme derivee du processus de Wiener (Wt)t≥0. Considerons le processus

(B(h)t )t≥0, pour h fixe strictement positif, defini par :

∀t ≥ 0, Bht =

Wt+h−Wt

h.

(a) (B(h)t )t≥0 est centre : E(B(h)

t ) = 0.

(b) Son autocovariance R(s, t) est egale a : σ2

h2 |h−|t− s|| pour tout t telque s−h≤ t ≤ s+h.

Demontrons (b) :

R(s, t) =1h2 E ((Wt+h−Wt)(Ws+h−Ws)) .

Considerons trois configurations possibles pour (s, t) :

Page 257: Yves caumel (auth.) probabilites et processus

250 Probabilites et processus stochastiques

• si t < s-h ou t > s+h, les intervalles [t,t+h] et [s,s+h] sont disjoints; la propriete des accroissements finis verifiee par (Wr)t implique la nullite de R(s,t) ;

2 • si s - h < t < s, il est facile d'etablir que R(s,t) = ~(h + t - s) ;

• 2 • S1 S < t < s+h, R(s,t) = ~(h+s-t).

Conclusion: Ie processus (B~h))t?:o est stationnaire puisque R(s,t) ne depend que de (t - s) et, lorsque h devient tres petit, R(t - s) converge vers une fonction de Dirac. Un traitement rigoureux de cette convergence necessite l'usage de la tMorie des distributions.

On decrit ci-dessous deux bruits blancs qui, bien que de natures diffe­rentes, ont une densite spectrale identique.

(1) Soit (Xt)t un processus qui prend sur chaque intervalle h = [To+kr, To + (k + 1) r[ ou To est une v.a. equirepartie sur [0, rJ, une valeur aleatoire dec rite par la v.a. de Bernoulli Xk de loi :

(Les v.a. Xk sont supposees independantes.)

a X-I .Jt Xo X2

r--I I I I

0 10 -' h 12 h h I

to iT to totT to -Ij-2T

I I I I I I I

-a XI .Jt

Le processus est stationnaire : en effet, grace au caractere aleatoire de To, la fonction d'autocorrelation E(XtXt+u ) ne depend que de u, notee R(u) de support [-r,+r].

D'autre part R(u) = E(XtXt+u I A).P(A) + E(XtXt+u I N)P(AC ), ou A designe l'evenement« t et t+ u sont dans un meme intervalle h »; R(u) = ~2 x (1-~) + o x ~. Par parite, on obtient :

Page 258: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 251

-" " u

Par application du theoreme de la densite spectrale, on obtient :

( ) _ 2 sin2(nvr) S" V - (j (nvr)2.

La suite des densites spectrales S" converge vers la fonction constante (j2 quand r tend vers o.

(2) Considerons maintenant la suite des temps d'arrivee (Tk)kEZ d'un processus de Poisson de£ini sur lR, d'intensite A, et tel que To = 0; les v.a. Yk sur les intervalles h = [Tk' Tk + r] etant des v.a. de Bernoulli independantes de loi commune

(j -(j 1 P(Yk = rVI) =P(Yk = rVI) = 2:.

Le processus (It)t est decrit par l'une de ses realisations:

10.9 •• Etude du processus (It)t Afin d'eviter Ie phenomene de recouvrement des intervalles Ik, on suppose

que r« 1. Par construction, ce processus est stationnaire d'ordre deux. Calculer son autocorrelation. Comparer les proprietes des deux processus

(Xt)t et (It)t quand r tend vers 0, et conclure. On remarquera que les realisations des deux processus lorsque r tend

vers 0 ne sont pas des fonctions mais des distributions au sens de l'analyse fonctionnelle.

10.7 Histoire de la modelisation d u mouvement brownien

Robert Brown (1773-1858) ne fut pas Ie premier a observer cette etrange agitation de particules en suspension dans un liquide; d'autres comme G. Buf­fon (1707-1788) ou 1. Spallanzani (1729-1799) l'avaient fait avant lui. Son me­rite est d'en avoir fait une etude systematique, dont il present a les resultats

Page 259: Yves caumel (auth.) probabilites et processus

252 Probabilites et processus stochastiques

en 1831 et dans laquelle il ecarta toute tentative d’explication fondee sur l’hy-pothese vitaliste alors dominante en biologie. Rappelons que cette conceptionaffirme que les phenomenes vitaux sont irreductibles aux phenomenes physico-chimiques sous-jacents et manifestent l’existence supposee d’une force vitale.C’est dans la seconde moitie du xix

e siecle qu’ont eu lieu de nombreuses expe-rimentations dont la plupart conduisirent a la conception d’un mouvement duaux forces attractives ou repulsives.

Les protagonistes de cette saga sont des savants connus comme P. Lange-vin, A. Einstein ou N. Wiener, et moins connus comme Louis Bachelier (1870-1946) qui soutint une these en 1900, sous la direction de Poincare et danslaquelle il pose les bases de l’analyse financiere moderne. En 1888, le physicienfrancais L.G. Gouy, fin observateur du mouvement brownien, en proposa unecaracterisation qui fut acceptee par la communaute des physiciens :

- tres forte irregularite et independance des trajectoires ;- mouvement d’autant plus rapide des particules qu’elles sont petites et

que le fluide est peu visqueux et de temperature elevee ;- mouvement incessant et independant de la nature materielle des parti-

cules.

A cette epoque, l’hypothese moleculaire due a Daniel Bernoulli, etaitopposee a la conception continuiste de la matiere defendue par le grand meca-nicien allemand E. Mach. En 1905, Einstein et Sutherland, physicien australiendont l’histoire a injustemment oublie le nom, proposerent, independammentl’un de l’autre un premier modele du mouvement brownien fonde sur la theoriecinetique de la chaleur. Dans son article, Einstein voulait prouver l’existencedes molecules, en calculer la taille et en deduire le nombre d’Avogadro ; il dis-posait de deux theories de nature apparemment contradictoire : la theorie deVan’t Hoff concernant la pression osmotique, fondee sur l’hypothese de l’agita-tion moleculaire et la theorie hydrodynamique de Stokes fondee sur l’hypothesed’un fluide continu. Il etablit l’equation qui exprime le coefficient de diffusionD en fonction de la constante R des gaz parfaits, du nombre d’Avogadro N ,de la temperature T du fluide, du rayon a de la particule et de sa viscosite η :

(1) D=RT

6πη aN.

Einstein demontra que la densite spatiale de la particule au temps tf (x,y,z; t), definie par :

P(particule appartienne au borelien B au temps t) =∫ ∫ ∫

B f (x,y,z; t).dx.dy.dz,etait solution de l’equation de diffusion

∂ f (x, y, z; t)∂ t

= DΔ f (x ,y, z; t).

f (x,y,z, t) est la densite conditionnelle :

Page 260: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 253

fWt/(W0=0)(x, y, z, t) =1

(4πDt)32

exp(−x2 + y2 + z2

4Dt),

ou Wt est la position de la particule au temps t.

Einstein calcula ensuite la valeur moyenne quadratique du deplacementselon l’une des coordonnees (par exemple x) de la particule pendant le tempst. En notation moderne, ce resultat s’ecrit :

(2) E(W 2t,x |W0 = 0) = 2Dt,

qui met en relation les proprietes de dissipation et de viscosite d’unliquide avec une propriete de fluctuation moyenne, etablissant ainsi la linearitede l’elongation quadratique moyenne en fonction du temps.

Langevin produisit en 1908 une nouvelle et elegante demonstration decette equation, fondee sur l’equation de l’energie cinetique moyenne d’une par-ticule dans un fluide :

(3)12mE(V 2) =

RT2N

ou V = vitesse aleatoire de la particule.

Demonstration de Langevin : la particule est soumise a une resistance duea la viscosite egale a −6πηaV, ainsi qu’a une force F aleatoire, d’esperance nulleresultant des chocs incessants des molecules sur la particule, supposee avoir unetaille bien superieure a celle des molecules. V est solution de l’equation :

(4) mdVdt

=−6πηaV +F.

Multipliee par l’elongation aleatoire X , l’equation (4) se transforme en :

m2(X2)

′′ −mV 2 =−μ 12(X2)

′+XF,

ou : μ = 6πηa.

Langevin calcula l’esperance des deux membres de cette equation et ob-tint apres l’application du theoreme de derivation d’une integrale :

(5)m2(E(X2))

′′ −mE(V 2) =−μ 12(E(X2))

′+E(X .F).

Il postula ensuite que E(X F) = 0, ce qui n’est pas acquis, compte tenude la correlation possible entre la force F et l’elongation X qu’elle provoque !

Posant U = 12 (E(X

2))′, il ecrivit (5) sous la forme :

Page 261: Yves caumel (auth.) probabilites et processus

254 Probabilites et processus stochastiques

(6)m2dUdt− RT

N+μU = 0,

dont la solution generale est :

U(t) =RTμN

+ ce(−μm t).

En regime stationnaire, le terme exponentiel tend rapidement vers 0, carμm est tres grand, d’ou :

U(t) =RTμN

.

Il en deduisit la moyenne du carre de l’elongation sur un intervalle detemps de duree t et retrouva l’equation d’Einstein, en identifiant X2 a W 2

t,x :

(7) E(X2) =2RTμN

t =RTN

13πηa

t.

On sait actuellement resoudre dans le cadre de la theorie des equa-tions stochastiques l’equation (4) dont la solution est le processus d’Ornstein-Uhlenbeck ; le probleme 20 propose une etude de l’equation de Langevin dis-crete. Pour un approfondissement de la genese de cette « merveille » qu’est lemouvement brownien, on lira avec profit les articles de J. P. Kahane et de B.Duplantier, dont je me suis inspire pour ce bref historique. Le physicien polo-nais Smoluchowski (1872-1917) mit a profit sa conception claire de la cinetiquedu mouvement brownien pour en donner une conception originale grace a lanotion encore inedite de marche aleatoire isotrope dans le plan. Il demontraque la moyenne du carre de la distance separant l’origine quittee au temps 0 etle point atteint au temps t par le processus de marche aleatoire est proportion-nelle a t, resultat conforme a ceux obtenus par Einstein et Langevin. Puis, parl’etude dynamique du mouvement de la particule, il aboutit a l’equation dited’Einstein-Sutherland, a un facteur constant multiplicatif pres imputable auxapproximations faites au cours des calculs. Ce n’est qu’une vingtaine d’anneesplus tard que Norbert Wiener construisit, dans le cadre de la theorie de lamesure et de l’analyse harmonique, l’objet mathematique (qui porte son nom)decrivant le processus brownien.

10.10 ♠♠ Etude d’un processus SSL a spectre borneSoit (Xt)t un processus SSL a temps continu, a spectre borne (dont la

densite spectrale est nulle en dehors d’un intervalle [−ν∗,ν∗]).

(1) Demontrer que pour tout τ :E((Xt+τ −Xτ)

2) est egal a 2(R(0)−R(τ)) et inferieur a (2πν∗τ)2R(0).

Page 262: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 255

(2) Appliquer l’inegalite de Tchebycheff a la v.a. (Xt+τ −Xτ), pour de-

montrer que : ∀t,τ � 0 P(|Xt+τ −Xτ |> ε) � (2πν∗τ)2

ε2 R(0). En deduire que lavariation d’un tel processus pendant une duree τ est d’autant plus faible quesa puissance est faible, resultat confirme par l’interpretation physique du phe-nomene.

Les problemes 21 et 22 se rapportent a ce chapitre.

Page 263: Yves caumel (auth.) probabilites et processus

256 Probabilites et processus stochastiques

10.8 Corriges des exercices

Exercice 10.1

(1) IE(Xt) = ∑kIE(Ak)e2iπνkt = 0.

(2) IE(Xt1Xt2) = ∑j,kIE(Aj.Ak)e2iπν jt1e−2iπνkt2

= ∑�IE(A�.A�)e2iπν�(t1−t2),

car IE(Aj.Ak) = 0 si j �= k, d’ou : R(t1, t2) = ∑�σ2� .e

2iπν�(t1−t2).

(3) Le spectre associe est defini par la distribution ∑kδνkσ

2k .

Exercice 10.3(1) Il suffit de montrer que le vecteur ( f (t1)X , · · · , f (tn)X) est gaussien :

ce qui est vrai puisque, pour tout (a1,a2, · · · ,an) reels,n∑i=1

ai f (ti)X est une v.a.

gaussienne.

(2) Soit l’equipartition de [a,b] en n intervalles de longueur egale,(t1 = a, t2 · · · , tn = b) verifiant ti+1− ti = Δ.

Yn = Δn∑i=1

ϕ(ti).Xti ; Yn est une combinaison lineaire finie de v.a. gaus-

siennes : c’est donc une v.a. gaussienne.Demontrons que la suite (Yn)n converge en moyenne quadratique vers Y :

IE((Y −Yn)2) = IE(Y 2)−2IE(Y.Yn)+IE(Y 2

n );

On verifie facilement IE(Y 2n ) et IE(Y.Yn) convergent vers IE(Y 2) ; d’ou la

convergence en moyenne quadratique de (Yn)n vers Y , qui entraıne la conver-gence en loi et donc de la normalite de Y .

Exercice 10.4∀t, IE(Xt) = 1

∫ 2π0 cos(2πνt+φ)dφ = 0.

IE(Xt .Xt+s)=1

∫ 2π0 cos2πν(t+s)+φ)cos(2πνt+φ)dφ = 1

2 cos(2πνs). (Xt)t

est donc un SSL centre. Pour tout φ fixe, mX (φ) =1

2T

∫ T−T cos(2νt+φ)dt = 0 =

IE(Xt) : (Xt)t est donc ergodique par rapport a la moyenne.

Page 264: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 257

Exercice 10.5(1) Montrons que : P(Zs = y,Zt −Zs = x− y) = P(Zs = y)P(Zt −Zs = x− y)

pour x,y entiers, x� y et les temps s, t verifiant s< t.

P(Zs = y, Zt −Zs = x− y) = P

(Δx

[s/(Δt)]

∑i=1

Xi = y, Δx

([t/(Δt)]

∑j=1

Xj−[s/(Δt)]

∑i=1

Xi

)= x− y

)

= P

(Δx

[s/(Δt)]

∑i=1

Xi = y, Δx[t/(Δt)]

∑j=[s/(Δt)]+1

Xj = x− y

)

= P

(Δx

[s/(Δt)]

∑i=1

Xi = y

)P

(Δx

[t/(Δt)]

∑j=[s/(Δt)]+1

Xj = x− y

).

car les v.a. Δx[s/(Δt)]

∑i=1

Xi et Δx[t/(Δt)]

∑j=[s/(Δt)]+1

Xj sont independantes.

La stationnarite est triviale a demontrer.

(2) Zt est une somme finie de v.a. i.i.d. d’esperance nulle et de variance(Δx)2

4 , donc, par le theoreme central limite, Zt converge en loi vers

N

(0; [t/Δt]. (Δx)

2

4

).

Si Δx→ 0 et Δt→ 0 de maniere que Δx√Δt→ σ , alors

[t/Δt](Δx)2

4=

t4

(Δx√Δt

)2

→ tσ2

4.

Donc, le processus (Zt)t converge vers le processus de Wiener (Wt)t ou

pour tout t, Wt ∼N

(0, σ

2t4

)= N

(0, D2 t

).

Exercice 10.7(1) Par approximation : Z(t) = lim

n→+∞Zn(t) ou

Zn(t) =1n

n

∑k=1

W

(tkn

).

Zn(t) est une combinaison lineaire des composantes du vecteur gaussien(W

(tkn

))k=1,··· ,n

;

c’est donc une v.a. gaussienne et, par passage a la limite, Z(t) est une v.agaussienne d’esperance :

IE(Z(t)) = limn→+∞

1n

n∑k=1

IE(W(tkn

))= 0.

On en deduit grace a la defintion (3.14) que, pour tout r-uplet, (ti)i=1,··· , r(Zt1 , · · · , Ztr) est un vecteur gaussien.

Page 265: Yves caumel (auth.) probabilites et processus

258 Probabilites et processus stochastiques

Pour s< t,

R(s, t) = IE(Z(s).Z(t)) = IE

(∫ t

0W (x)dx

∫ s

0W (y)dy

)=

∫ t

0

∫ s

0IE(W (x)W (y))dxdy=

∫ s

0

(∫ y

0min(x,y)dx+

∫ t

ymin(x,y)dx

)dy

=∫ s

0

(∫ y

0xdx+

∫ t

yydx

)dy=

∫ s

0

(y2

2+ y(t− y)

)dy

= s2( t

2− s

6

).

Conclusion : R(s, t) n’est pas fonction de (t−s), d’ou la non-stationnaritedu processus brownien integre.

(2) cov(Z(t)−Z(s),Z(s))= IE((Z(t)−Z(s))Z(s))= s2(s3 +

t−s2

)− s3

3 =− 4s3

6 +32t6 �= 0, d’ou la dependance des v.a. Z(t)−Z(s) et Z(s).

Le processus brownien integre n’est donc pas un processus de Wiener.

Exercice 10.9Il existe trois types d’evenements :

– A : t et t+ τ appartiennent a un seul Ik.– B : t et t+ τ sont dans deux Ik distincts.– C : t ou t+ τ n’est dans aucun Ik.

Les (Yk) sont independantes, d’esperance nulle et de support[−T,T ].Pour tout τ ∈ [0, T ] :

R(τ)= IE(Y (t)Y (t+τ)/A)P(A)+IE(Y (t)Y (t+τ)/B)P(B)+IE(Y (t)Y (t+τ)/C)P(C).

Les deux derniers termes sont nuls et,

P(A) = P(« au moins un Tk ∈ [t+ τ−T, t] ») = λ (T − τ)(1+ ε(T )),

ou limT→0

ε(T ) = 0. Donc, pour T tres petit :

R(τ) = σ2 T −|τ |T 2 1[−T,T ](τ)

identique a la densite spectrale du processus etudie precedemment.

Les deux processus (Xt)t et (Yt)t) ont meme autocorrelation. La densitespectrale tend vers σ2 quand τ→ 0 et (Yt) est constitue d’un train d’impulsionde Dirac, aux points (Tk)k d’amplitude ±σ√

λ.

Page 266: Yves caumel (auth.) probabilites et processus

10. Processus du second ordre 259

Exercice 10.10(1) (Xt)t etant stationnaire :

E((Xt+τ −Xt)2) = E

(((Xt+τ −E(Xt+τ))− (Xt −E(Xt))

2)= 2(R(0)−R(τ))

R(0)−R(τ) =∫ ν∗

−ν∗S(ν)dν−

∫ ν∗

−ν∗S(ν)e2iπν t dν .

Or R(0)−R(τ) est reel, donc S(ν) est paire.

R(0)−R(τ) = 2∫ ν∗

0S(ν)(1− cos(2πντ))dν = 4

∫ ν∗

0S(ν)(sin(πνt))2 dν

� 4π2ν∗2τ2∫ ν∗

0S(ν)dν = R(0).

Donc : 2.(R(0)−R(τ))� 4π2ν∗2τ2.R(0).

(2) P(|Xt+τ −Xt |> ε)� (2πν∗τ)2R(0)ε2 .

Conclusion : les variations de (Xt)t sont d’autant plus faibles (P(|Xt+τ −Xt |> ε est petit) que ν∗, τ et R(0) sont petits.

Page 267: Yves caumel (auth.) probabilites et processus

Chapitre 11

Problemes

11.1 Enonces des problemes

Probleme 1 ♠ Denombrement de chemins dans un reseau plan regulier carreOn considere le reseau carre regulier forme par les points de Z2. On

appelle chemin une succession de segments de longueur 1, diriges soit vers lehaut, soit vers la droite.

(1) Determiner le nombre de chemins reliant l’origine au point (m,n).[Indication : on pourra considerer la bijection entre l’ensemble des chemins etl’ensemble des (m+n)-uplets contenant m lettres « d » et n lettres « h » ; « d »

et « h » designant respectivement les segments unitaires orientes vers la droiteet vers le haut.]

(2) Si m> n, en deduire que : Cnm+n =

n∑k=0

Cnn+k.C

m−nm−k .

Probleme 2 ♠♠ Quelques problemes pour les amateurs de combinatoire(1) En combien de parties, un ensemble de n droites dsachant que trois

quelconques d’entre elles ne se coupent pas en un meme point et que deuxquelconques d’entre elles ne sont pas paralleles, partitionnent le plan ? Memequestion dans le cas de n plans dans l’espace dont trois quelconques d’entre euxne se coupent jamais selon une meme droite ?

(2) Si σ kn designe le nombre de partitions d’un ensemble de n elements

en k classes, demontrer que :

σ kn+1 = σ k−1

n + k.σ kn .

(3) Question ouverte : combien y a-t-il de facons de plier une bande den timbres ? (Il n’existe pas, semble-t-il, de solution de forme recurrente, a cejour.)

Page 268: Yves caumel (auth.) probabilites et processus

262 Probabilites et processus stochastiques

Probleme 3 ♠♠On effectue une suite de tirages successifs avec remise dans une urne

contenant des jetons gagnants (portant le numero 1), en proportion p (p∈]0,1[),et des jetons perdants (portant le numero 0), en proportion q= 1− p. On designepar « serie », une suite de numeros identiques.

Soit X la longueur de la premiere « serie » et Y la longueur de la deuxieme« serie ». Ainsi, par exemple, pour la suite de tirages 111001011 · · · , on a X = 3

et Y = 2 et pour 01101 · · · , on a X = 1 et Y = 2. [On rappelle que+∞

∑k=1

kxk = x(1−x)2

pour |x|< 1.]

(1) a) Determiner la loi de la v.a. X ;b) Determiner E(X). Montrer que E(X) est minimale lorsque p= 1

2 .

(2) a) Montrer que pour tout (i, j) ∈ (N∗)2, P([X = i]∩ [Y = j]) = pi+1q j+qi+1p j ;

b) En deduire la loi de la v.a. Y et montrer que E(Y ) = 2.(3) a) Si p �= 1

2 , etablir que les v.a. X et Y ne sont pas independantes

[considerer, par exemple, P([X = 1]∩ [Y = 1])]. Demontrer que, si p= 12 , les v.a.

X et Y sont independantes ;

b) Montrer que cov(X ,Y ) =− (1−2p)2

p(1−p) .

Probleme 4 ♠♠ L’etrange loi de BenfordL’astronome S. Newcomb remarqua en 1881 que l’ensemble des pages

des tables de logarithme, qu’on utilisait alors frequemment, etaient inegalementusees : l’usure allait en decroissant des premieres pages comportant les nombresdebutant par le chiffre 1, jusqu’aux dernieres ou les nombres debutent par 9.Il etendit son enquete a d’autres domaines de donnees scientifiques et socio-economiques et obtint des observations qui confirmerent ses premiers resultats.Cela signifiait-il que, dans la jungle des nombres brasses par une societe, il yaurait plus de nombres commencant par 1, qu’il y en aurait commencant par2, lesquels seraient plus nombreux que ceux commencant par 3 et ainsi de suitejusqu’a 9 ?

Il proposa la loi de probabilite suivante pour la repartition de la variableX associee au premier chiffre d’un nombre quelconque :

Pour tout i= 1,2, ...,9 P(X = i) = log10(1+1i).

Meconnaissant les travaux de Newcomb, le physicien F. Benford proposala meme loi en 1957, a laquelle la posterite donna (injustement) son nom seul. Ilremarqua que cette loi ne convenait pas pour tous les ensembles de nombres telsque les numeros de telephone d’un pays distribues selon des criteres specifiques,les tailles des etres humains, les prix d’un type de voitures et generalement les

Page 269: Yves caumel (auth.) probabilites et processus

11. Problemes 263

ensembles de donnees variant a l’interieur d’un intervalle de faible etendue. Enrevanche, des series numeriques telles que (rn)n, ou r est un reel positif tel quelog10(r) ne soit pas un rationnel, ou encore (n!)n et (nn)n, ainsi que les echan-tillons issus de melanges de distributions numeriques aleatoires quelconquessuivent la loi de Benford. La loi doit etre invariante par rapport aux change-ments de mesure ou d’unites mis en œuvre dans les diverses regions du monde.Cette idee est a la base de la construction de la loi par R. Pickam en 1961 :la seule probabilite sur les mantisses d’un ensemble de nombres invariante parchangement d’echelles est la loi de Benford.

Appelons mantisse d’un reel positif x, le nombre M(x)∈ [1,9], defini par :x=M(x).10k pour un certain entier k. Benford conjectura que la proportion denombres x tels que M(x) ∈ [a,b[, ou 1 � a< b� 10, est egale a (log(b)− log(a)) :

P(M(x) ∈ [a,b[) = log(b)− log(a).

(1) Deduire la loi de Benford de son postulat.(2) Demonstration de la conjecture, due a Pinkham.L’invariance par changement d’echelle s’exprime par :

(∗) P(M(x) ∈ [a,b[) = P(M(α.x) ∈ [a,b[).

∀ x> 0 ,α > 0 et les entiers a et b tel que : 1 � a< b� 10.

Par definition : log10M(x) = Partie f ractionnaire log10(x).Par exemple : x= 847,63 , M(x) = 8,476 , log10(x) = 2,928log10(M(x)) = 0,928 = Partie f ractionnaire (log10(x)) =(notee) {log10(x)} .

(2.1) Exprimer les membres de l’equation (∗) a l’aide de {log10(x)} . Sa-chant que la partie fractionnaire d’une somme est egale (modulo 1) a la sommedes parties fractionnaires, en deduire :

P(M(α.x)∈ [a,b[)=P({log10(x)}∈ [log10(a)− log10(α), log10(b)− log10(α)[.

(2.2) Un changement de variables transforme l’equation precedente en :P(log10(x) ∈ [s, t[) = P({log10(x)} ∈ [s+ v, t+ v[) pour v reel et s,t tels que

0 � s< t � 1 et ou, s+ v et t+ v sont definis modulo 1.

En deduire P(log10(x) ∈ [s, t[) = t− s, puis P(M(x) ∈ [a,b[)= log10(b)− log10(a) et enfin la loi de Benford.

Des tests statistiques fondes sur la loi de Benford ont permis aux expertsdu fisc americains, depuis les annees 1980, de debusquer des fraudes au seinde comptabilites d’entreprises americaines, qui avaient maquille leurs comptes.Gageons, sans exces de pessimisme de notre part, que depuis ce temps lesditesentreprises et bien d’autres sans doute falsifient leur bilans en tenant comptecette fois de la loi de Benford. Certaines compagnies informatiques ont meme

Page 270: Yves caumel (auth.) probabilites et processus

264 Probabilites et processus stochastiques

envisage, dans un souci d’optimisation, de conformer la structure de leurs futursordinateurs en fonction des frequences des entiers 1,2,3...,9 repartis selon la loide Benford (voir Janvresse. E., La loi de Benford).

Probleme 5 ♠♠ Etude d’un modele classique d’evolution : le modele autore-gressif d’ordre un

Soit une suite finie de v.a. (Xk)k=1,..,n verifiant les proprietes :(a) Xk+1 = a.Xk+ εk et X0 = 0 ;(b) pour tout k, εk est de loi N (0,σ2). (εk)k est le modele classique d’un

bruit discret si les εk sont decorrelees : E(εk.εl) = 0 si k �= l.

(1) Exprimer Xk en fonction de ε1,ε2, ...,εk et des puissances de a ; endeduire sa loi, son esperance et sa variance.

(2) Que vaut la correlation ρ(Xk+1,Xk) et sa valeur limite quand n devienttres grand, selon les valeurs de a ?

(3) Supposons que a soit inconnu, et que les v.a. Xk soient observees etprennent les valeurs xk ; comment envisageriez-vous d’estimer a ?

Probleme 6 ♠♠♠ Etude du vecteur gaussien en coordonnees spheriquesSoit le vecteur normal (X1, X2, X3) de composantes independantes, cha-

cune de loi N (0,1). Soit T la bijection :(x1, x2, x3) ∈ R3 −→ T (x1, x2, x3) = (r, φ , θ) ∈ [0,+∞[×[0,π[×[−π,π[,

avec

⎧⎨⎩ x1 = r sinθ cosφx2 = r sinθ sinφx3 = r cosθ .

Soit (R,Φ,Θ) le vecteur aleatoire image de (X1,X2,X3) par T ; on rappelle queJT−1(r,φ ,θ) = r2 sinφ .

(1) Calculer la densite conjointe de (R,Φ,Θ), ainsi que les densites mar-ginales ; en deduire le caractere isotrope du vecteur (X1,X2,X3). Caracteriser laloi de probabilite portee par toute sphere centree en 0.

(2) Calculer la loi de R2.

Probleme 7 ♠♠♠ Etude des vecteurs aleatoires ordonnes dits aussi statistiquesd’ordre

Considerons un vecteur aleatoire de n variables independantes X1,X2, ....Xnde meme densite f , auquel on associe le vecteur reordonne (X(1),X(2), ...,X(n))defini par :

X(1) = min(X1,X2, ...,Xn) ;X(2) = min((X1,X2, ...,Xn)\X(1)) ;...

Page 271: Yves caumel (auth.) probabilites et processus

11. Problemes 265

X(n) = max(X1,X2, ...,Xn).

(1) Demontrer que P(X(1) � x1,X(2) � x2, ....,X(n) � xn) est egal a :

∑σ∈Perm{1,2,.,n}

P(Xσ(1) � x1,Xσ(2) � x2, .,Xσ(n) � xn ; Xσ(1) < Xσ(2) < .... < Xσ(n))

ou Perm(n) est l’ensemble des permutations de {1,2, ....,n}. [Envisager d’abordle cas ou n= 2.]

(2) En deduire :

f(X(1),X(2),...,X(n))(x1, ...,xn) = n!Πni=1 f (xi).1(x1<x2<..<xn)(x1, ...,xn).

(3) Soit Nx la v.a. egale au nombre des Xi inferieures au reel x. Demontrerque Nx est de loi binomiale. Determiner la fonction de repartition et la densitede X(k).

Application : les Xi sont de densite uniforme sur [0,1].Determiner la densite de X(k) et son esperance, que l’on calculera grace

a l’egalite :∫ 1

0 xp−1.(1− x)q−1dx= Γ(p).Γ(q)Γ(p+q) , ou p,q> 1.

(4) Quelle est la limite de la suite (n.X(k))n pour la convergence en loi,pour k fixe. Trouver intuitivement la loi limite de X(k) lorsque k et n tendentvers l’infini selon le rapport constant n

k = α.

Probleme 8 ♠♠On considere trois composants electroniques dont les durees de fonction-

nement X1, X2 et X3 sont supposees independantes, de loi exponentielle E (λ ).Un appareil utilise les composants 1 et 2 simultanement et lorsque l’un ne fonc-tionne plus, on le remplace par le troisieme.

(1) Determiner la densite de (X1,X2−X1). En deduire que :

fX2−X1(x) =λ

2

[eλx 1]−∞,0[(x)+ e−λx 1[0,+∞[(x)

].

Montrer alors que Y = |X2−X1| a meme loi que les Xi.

(2) En utilisant l’independance de Y et X3, exprimer la densite de Y −X3,puis FY−X3(0). [On verifiera ainsi que le composant 3 a la probabilite P([X3 �

Y ]) = 12 d’etre le dernier a tomber en panne.]

(3) Determiner la densite de Z = min(X1,X2) puis la densite, l’esperanceet la variance de T = Z+X3 [T represente l’instant de panne du composant 3 ].

Page 272: Yves caumel (auth.) probabilites et processus

266 Probabilites et processus stochastiques

Probleme 9 ♠♠♠On considere deux composants electroniques dont les durees de vie X et

Y sont supposees independantes, de loi exponentielle E (λ ).(1) Un appareil utilise ces composants l’un apres l’autre (lorsque l’un ne

fonctionne plus, on fait appel a l’autre). Montrer que le couple (U,V )=(X , X+YX

)a pour densite : fU,V (u,v) = λ 2ue−λuv 1]0,+∞[(u)1]1,+∞[(v). En deduire la loi de V ,quotient de la duree de vie totale de l’appareil par la duree de vie du premiercomposant. La variable V admet-elle une esperance ?

(2) Des composants demarques presentent un defaut, qui reduit leurduree de vie de moitie, avec une probabilite de 10 %.On note Z = TX , ou T est une v.a. independante de X , telle que P([T = 1]) = 0,9et P([T = 1

2 ]) = 0,1. Que represente Z ? Determiner P([Z � z]) et en deduire unedensite de la loi de Z. Determiner la duree de vie moyenne d’un composantdemarque.

Probleme 10 ♠♠ Etude de la marche aleatoire isotrope a pas constants dansle plan

Le statisticien anglais Karl Pearson introduisit en 1905 la notion demarche aleatoire, afin de rendre compte des migrations de populations d’in-sectes dans une region donnee. On se propose plus modestement de modeliserle deplacement erratique d’une particule dans le plan, muni d’un repere ortho-norme, effectuant a chaque instant n un pas de longueur constante a dans unedirection aleatoire isotropique mesuree par l’angle Θn, par rapport a l’axe x′x.Les Θn sont supposes independants entre eux et (X0,Y0) = (0,0).

(1) Exprimer les coordonnees (Xn,Yn) au temps n, en fonction des angles Θn.Calculer l’esperance et la variance de Xn et Yn.

(2) Sont-elles correlees ?(3) Loi de (Xn,Yn) quand n est grand ? En deduire la loi de (Rn,Tn), de Tn et de

Rn si Xn = Rn cosTn et Yn = Rn sinTn. Calculer E(Rn), E(R2n) et V (Rn).

Interpreter ces derniers resultats. Tn est l’angle que fait OMn avec l’axe desabscisses.

θ1

θ2

θ3

(0,0) X1 X2

M1

M3

M2Y2

Y1

Page 273: Yves caumel (auth.) probabilites et processus

11. Problemes 267

Probleme 11 ♠♠ Calcul d’une integrale simple par la methode de Monte-CarloCette methode d’approximation d’integrales est une application directe de laloi des grands nombres ; elle est tres utilisee et d’autant plus efficace par rap-port aux methodes numeriques que le nombre k de variables dont depend lafonction a integrer est grand et que la fonction est irreguliere. En effet, les me-thodes numeriques deterministes necessitent que les fonctions n’aient pas untrop grand nombre de points de discontinuite ; d’autre part, le temps de calculqui leur est necessaire est egal a une constante elevee a la puissance k, alorsqu’il est proportionnel a k pour la methode de Monte-Carlo. Des methodes dece type ont ete developpees pour resoudre des equations aux derivees partiellesde type transport ou de diffusion comme les equations de Fokker-Planck oude Kolmogorov. Pour memoire, on rappelle que c’est Buffon qui en 1777, uti-lisa sans avoir une idee claire de son assise theorique, la premiere methode deMonte-Carlo (voir probleme de l’aiguille de Buffon, chapitre 2), afin de donnerune estimation convergente de la valeur de π.

Soit une fonction f continue definie sur [a,b], a valeurs dans [m,M]⊂R+ ;(m=min( f ), M =max( f )). On note D= [a,b]× [m,M] et A= {(x,y) ∈D; f (x)�y� 0}.L’aire de A=

∫ ba f (x).dx et p= aire de A

aire de D .

Pour tout k = 1, . . . ,n, on considere le couple (Xk,Yk) de v.a. uniformessur D, et on definit la v.a. Zk par :

Zk =

{1 si Yk � f (Xk)0 sinon.

On pose Zn =Z1+...Zn

n . (Les couples de v.a. (Xn,Yn) sont supposes indepen-dants.)

(1) Calculer E(Zk), Var(Zk), E(Zn), Var(Zn).(2) En utilisant la loi des grands nombres, demontrer que Zn converge en

probabilite vers p.(3) En utilisant l’inegalite de Bienayme-Tchebychev, determiner le plus

petit entier n tel que :

P[|Zn− p|> 1100

]<5

100.

Probleme 12 ♠♠ Evolution des suites de recordsLe but de ce probleme est de demontrer que les records d’une suite de

variables i.i.d. (Xi)i=1,2,...,n, definis comme etant la suite des maxima relatifsconsecutifs de la suite, decrivant par exemple l’evolution d’un parametre cli-matique ou d’une performance sportive, devraient evoluer tres lentement. Onremarquera que compte tenu des modifications profondes subies par le climat

Page 274: Yves caumel (auth.) probabilites et processus

268 Probabilites et processus stochastiques

depuis quelques decennies, l’hypothese d’equidistribution des v.a. (Xi)i=1,2,...,n

n’est plus recevable de nos jours.On supposera que les v.a. sont positives de densite fX et on pose :

Yn = sup(X1,X2, ...,Xn).

(1) Demontrer que pour toute permutation σ des n premiers entiers :

P(Xσ(1) < Xσ(2) < ... < Xσ(n)) =1n!.

(2) Pour tout n� 1, on definit la v.a. Rn egale a 1 si Yn = Xn et egale a 0,sinon. Demontrer que P(Rn = 1) = 1

n .

(3) Soient Sn = ∑ni=1Ri et T p

n = Sn+p− Sn le nombre de records entre lestemps n et n+ p. Demontrer que limn→+∞E(T

pn ) = 0. [Indication : on utilisera

l’approximationn∑i=1

1i = lnn+ γ+o(1) ou γ est la constante d’Euler.

(4) On admettra le resultat : si m< n, P(Rm = 1,Rn = 1) = 1m.n . En deduire

que cov(Rm,Rn) = 0.

(5) Montrer que limn→+∞ Var(T pn ) = 0.

(6) Supposons que fX (x) = e−x. Calculer P(Yn < y) et en deduire la densitede Yn ; calculer E(Yn) lorsque n est grand, en utilisant l’approximation de laquestion (3). Interpreter ce resultat.

Probleme 13 ♠♠A chaque instant n, il entre Yn personnes dans une ville donnee et il en

part Zn. Soit Xn le nombre de personnes dans la ville a l’instant n. Chaquepersonne peut en partir avec la probabilite p ∈]0,1[. On suppose que les v.a. Ynsuivent une loi de Poisson P(λ ) et sont independantes des v.a. Xi et Zj pouri� n−1, j � n. Notons φn la fonction generatrice de Xn.

(1) Determiner IE[Xn=i](sXn) ; en deduire que E(sXn−1−Zn |Xn−1 = k) = (p+(1− p)s)k, puis exprimer φn en fonction de φn−1.

(2) On pose Kn(u) = φn(u+1). Montrer par recurrence que :

Kn(u) = exp(λup(1− (1− p)n))K0(u(1− p)n).

En deduire limn→+∞Kn(u) puis limn→+∞ φn(s) et en deduire que Xn converge enloi vers la v.a. de Poisson P(λp ).

Probleme 14 ♠♠ Le processus de branchement ou de ramificationIl s’agit d’un modele adapte a l’evolution d’une population d’etres vivants

ou de particules (par exemple des neutrons), engendrant a chaque instant n unedescendance de taille aleatoire Xn. Historiquement, ce modele fut propose par les

Page 275: Yves caumel (auth.) probabilites et processus

11. Problemes 269

mathematiciens anglais Galton et Watson a la fin du xixe siecle pour expliquer

la disparition avec le temps de certains noms de famille.On definit : Xn = nombre d’individus a la n-ieme generation.

ξ in = nombre de descendants appartenant a la (n+1)-ieme generation, de

l’individu i appartenant a la n-ieme generation.Les ξ i

n sont des v.a. entieres positives ou nulles, independantes et dememe loi. On etudiera le processus de ramification, pour lequel la populationinitiale se reduit a un seul individu (X0 = 1).

(1) Demontrer que : ∀ j,k ∈ N , P(Xn+1 = j|Xn = k) = P(∑kl=1 ξ

ln = j).

En deduire que (Xn)n est une chaıne.(2) Montrer que : ∀n gn+1(s) = gn(g(s)) ou g(s) est la fonction generatrice

de ξ et gn(s) la fonction generatrice de la v.a. Xn.(3) En deduire les equations de recurrence verifiees par E[Xn] et V [Xn].

On suppose : X0 = 1, E[ξ ] = m , V [ξ ] = σ2.

Montrer que E[Xn] = mn et V [Xn] =

{n.σ2 si m= 1σ2mn−1 mn−1

m−1 si m �= 1

}Comment evolue la population selon les valeurs de m ?

Probleme 15 ♠♠Un operateur telephonique propose a un client deux types d’abonnements men-suels. Soit Xn le type utilise par le client pour le mois n. On observe que l’abon-nement du type 1 est reconduit le mois suivant avec la probabilite 1

2 et que

l’abonnement du type 2 est reconduit avec la probabilite 14 .

(1) Determiner le graphe, la matrice, et, si elle existe, la distributionstationnaire de la chaıne de Markov ainsi obtenue. Quelle est la probabilited’utiliser l’abonnement 1 au mois de juillet si celui-ci est utilise au mois d’avril ?

(2) Quel est, en mois, le temps moyen de retour a chaque type d’abon-nement ? Retrouver ceux-ci apres avoir calcule P(X0=i)(Ti = n) pour tout n ∈ N

et pour tout i ∈ {1,2}.(3) Quel est le cout moyen mensuel de l’abonnement si les tarifs sont de

100 euros pour le type 1 et de 200 euros pour le type 2 ?(4) Meme question, en considerant qu’un changement d’abonnement

coute 50 euros. [On fera intervenir Xn et Xn−1 avant de passer a la limite.]

Probleme 16 ♠♠♠Lorsqu’une equipe de foot a joue n matches, on note Xn la serie de matches encours sans defaites. Si Xn = k, on note pk la probabilite de ne pas perdre le matchsuivant. Ainsi, P([Xn+1 = k+1]/[Xn = k]) = pk et P([Xn+1 = 0]/[Xn = k]) = 1− pk.

(1) Montrer rapidement que (Xn) definit une chaıne de Markov irreduc-tible et faire son graphe. Si T0 est l’instant de premier retour en 0, exprimerP([T0 = n]/[X0 = 0]) et donner des conditions pour que la chaıne soit transitoire,recurrente nulle ou recurrente positive (a l’aide des rn = p0p1 · · · pn−1).

Page 276: Yves caumel (auth.) probabilites et processus

270 Probabilites et processus stochastiques

(2) On suppose que pk = p pour tout k. Determiner la distribution sta-tionnaire de la chaıne et la longueur moyenne d’une serie sans defaite. [Appli-cation numerique : p= 1

2 .]

Probleme 17 ♠Un radar est place sur une route ou il passe en moyenne cinq vehicules

en exces de vitesse par heure. On admet que ces vehicules forment un processusde Poisson (Nt).

(1) Determiner la probabilite qu’une voiture ait ete prise dans le premierquart d’heure, sachant que deux voitures ont ete prises en une heure.

(2) On suppose ici que la duree de fonctionnement du radar T suit uneloi exponentielle de moyenne 100 heures. Determiner la loi du nombre N devehicules detectes par le radar et le nombre moyen de ces vehicules. Pour cela :

a) expliquer la relation P(T=t)([N = k]) = P([Nt = k]) ;b) en utilisant P([N = k]) =

∫P(T=t)([N = k]) fT (t)dt, etablir que N

suit une loi geometrique sur N.

Probleme 18 ♠♠♠Une station assure deux types de service, prioritaire ou non prioritaire. Letaux d’arrivee pour le service prioritaire (respectivement non prioritaire) estegal a λ1 (respectivement : λ2). Si un service prioritaire est demande pendantqu’un service non prioritaire est en cours, la station cesse ce service et s’occupeimmediatement du service prioritaire. Les taux de service prioritaire (respecti-vement : non prioritaire) sont μ1 (respectivement : μ2).On pose pm,n = P(m prioritaires, n non prioritaires).

(1) Determiner les equations d’equilibre pour les diverses valeurs de(m,n).

(2) Determiner la fonction generatrice g(s1,s2) = ∑m�0

∑n�0

sm1 sn2pm,n, de la

distribution de probabilite (pm,n)m,n.(3) Faire un developpement limite a l’ordre deux de g(s1,s2) au voisi-

nage de (1,1), et en deduire les nombres moyens de clients prioritaires et nonprioritaires dans la station.

Probleme 19 ♠♠♠ Etude des systemes d’attente a capacites bornees

(A) Systeme M/M/1/K

(1) Decrire la file comme une c.m.c. dont on construira le diagramme detransition et definira le generateur. On pose ρ = λ

μ .

(2) Demontrer que la distribution stationnaire est definie par πn = π0ρn

Page 277: Yves caumel (auth.) probabilites et processus

11. Problemes 271

avec

π0 =

(1+

(1−ρK)ρ

1−ρ

)−1

si ρ �= 1 et π0 = (1+K)−1 si ρ = 1.

(3) Demontrer que la probabilite pour qu’un client soit rejete, s’il y en a

deja K dans la file, vaut : ρK−ρK+1

1−ρK+1 . En deduire que l’esperance d’attente d’un

client est egale a :L−KπKμ(1−πK)

.

(4) Determiner la fonction generatrice gX (z) de la v.a. X de loi (πn)n. En

deduire la valeur de L= E(X) qui, on le rappelle, vaut g′X (1).

[L = ρ(1−(K+1)ρK+KρK+1)(1−ρ)(1−ρK+1)

; si K tend vers +∞, on retrouve la valeur de L pour

M/M/1.]

(B) Systeme sans attente M/M/K/K : dans ce cas, ou il n’y a pas de filed’attente, un client qui arrive est immediatement servi ou bien il est rejete.

(1) Demontrer que λn est egal a λ si n� K et a 0 sinon et que μn est egala nμ si 1 � n� K et a 0, si n= 0 ou est strictement superieur a K. Construirele diagramme de transition et le generateur.

(2) Determiner la distribution stationnaire et la probabilite de perte.(3) Determiner les caracteristiques du systeme.(4) Application : soient s ordinateurs qui traitent des requetes avec une

duree moyenne de traitement egale a 1μ ; les requetes arrivent selon un processus

de Poisson tel que la duree moyenne separant deux requetes est egale a 1λ . Toute

requete qui arrive lorsque les s ordinateurs sont occupes, est refusee. Supposonsque K = 3, λ = 10/h et μ = 8. Determiner la distribution stationnaire. Quel estle pourcentage de requetes perdues ?

Probleme 20 ♠♠Un systeme est constitue de trois composants A, B et C de durees de vie alea-toires independantes X1, X2 et X3, de lois exponentielles de parametres λ1, λ2

et λ3. On suppose qu’en t = 0 les trois composants fonctionnent. La pannedu troisieme composant ou la panne des deux autres entraınent la panne dusysteme.

(1) Decrire les etats du systeme. Demontrer que le processus (Yt)t�0 as-socie a l’evolution du systeme est une c.m.c. ; determiner son generateur infini-tesimal.

(2) Resoudre les equations de Kolmogorov. [Calculer p1(t), puis, grace ala transformation de Laplace, p2(t) et p3(t).] Si T designe la duree de vie dusysteme, on utilisera l’egalite : E(T ) =

∫+∞0 P(T > t)dt.

(3) Calculer la loi et l’esperance de la duree de vie du systeme.

Page 278: Yves caumel (auth.) probabilites et processus

272 Probabilites et processus stochastiques

Probleme 21 ♠♠ Modele discret de LangevinSoit une particule evoluant sur un axe oriente ; Xn sa position et Vn sa

vitesse a l’instant n.h, h etant un pas de temps fixe. En prenant en comptela force de frottement qui s’oppose au deplacement de la particule mais ennegligeant la pesanteur, Langevin proposa le modele dynamique suivant :

Vn+1−Vn =−λhVn+Yn+1λ√

2Dh

ou λ est le coefficient de frottement, et (Yn)n un processus discret gaussiencentre de variance σ2 et de composantes decorrelees. Posons : a = 1− h.λ etb= λ

√2Dh, h etant suffisamment petit pour que a> 0.

(1) Etant donne que Xn+1−Xn = h.Vn, X0 = 0 et V0 = v, determiner lesesperances, les variances et la covariance du vecteur gaussien (Xn,Vn).

(2) Pour tout t positif, posons t = nh ; determiner les caracteristiques de(Xt ,Vt) en considerant que n tend vers +∞ et h tend vers 0, et les interpreterquand t devient grand. (voir Malrieu F., Vitesse et position d’une particule.)

Probleme 22 ♠♠ Temps de sortie d’un processus de Wiener unidimensionnelhors d’un intervalle borne

Soit un processus de Wiener standard (Wt)t ,Wt est de loi N (0, t2). Etantdonne un reel c strictement positif, appelons Tc = inf{t > 0, Xt � c} le tempsaleatoire de premiere atteinte de la valeur c.

(1) Determiner P(Wt � c), puis en deduire FTc et fTc .(2) Demontrer que P(Tc <+∞) = 1) et E(Tc) = +∞.

Page 279: Yves caumel (auth.) probabilites et processus

11. Problemes 273

11.2 Corriges des problemes

Probleme 1(1) Bijection entre l’ensemble des chemins joignant 0 a un point (m,n)

et l’ensemble des (m+n)-uplets (x1,x2, · · · ,xm+n) constitues de n elements « h »

et m elements « d » : il y a donc(m+n

m

)chemins.

(2) Si on suppose que m> n, tout chemin allant de 0 a (m,n) se decomposeen un chemin de 0 a (n,k) et en un chemin de (n,k) a (m,n). On en deduit que :

(m+nn

)=

n

∑k=0

(n+ kn

)×(m−n+n− k

m−n

)=

n

∑k=0

(n+ kn

)×(m− km−n

).

(On a note :( ji

)=Ci

j)

Probleme 2(1) Un dessin montre clairement que lorsqu’il y a n droites, la derniere

partage en deux parties chacune des n parties obtenues a l’aide de n−1 droites.Si Pn est le nombre de parties obtenues pour n droites, on a la relation derecurrence :

Pn = 2n+Pn−1−n= n+Pn−1.

Raisonnement analogue pour des plans.

(2) Soit En−1 = {1, 2, · · · , n−1} : toute partition de l’ensemble En admet{n} comme singleton ou comme element d’un sous-ensemble plus grand.

Le nombre de partitions contenant k parties de En est donc egal aunombre de partitions contenant (k−1) parties de En.

Si une partition de En ne contient pas {n} comme singleton, on construitune partition contenant (k−1) parties de En−1 a k partitions differentes de En

en ajoutant {n} a chacune des parties de k elements de cette partition.Conclusion : σ k

n+1 = σ k−1n + kσ k

n .

Probleme 3On notera Ak l’evenement « le k-ieme jeton tire est gagnant ».

(1) a) X(Ω) = N∗ et X = k signifie que la premiere serie a pour longueurk, c’est-a-dire que les k premiers jetons sont gagnants et le (k+1)-ieme perdantou bien les k premiers jetons sont perdants et le (k+1)-ieme gagnant. On adonc :[X = k] = (A1∩·· ·∩Ak∩Ak+1)∪ (A1∩·· ·∩Ak∩Ak+1) et P([X = k]) = pkq+qk p sik ∈ N∗.

Page 280: Yves caumel (auth.) probabilites et processus

274 Probabilites et processus stochastiques

b)+∞

∑k=1

kP([X = k]) =+∞

∑k=1

kpk(1− p)++∞

∑k=1

k(1− p)k p. gIE(X) = p1−p +

1−pp .

Soit f (x) = x1−x +

1−xx : f ′(x) = 1−x+x

(1−x)2 − 1x2 = x2−(1−x)2

x2(1−x)2 = 2x−1x2(1−x)2 .

f ′ est negative sur ]0, 12 [, nulle en 1

2 et positive sur ] 12 ,1[, et IE(X) = f (p). On a

donc :

IE(X) est minimal et vaut 2, lorsque p= 12 .

(2) a) [X = i]∩ [Y = j] signifie que la premiere serie est de longueur i etla deuxieme de longueur j. On a donc, si pi j = P([X = i]∩ [Y = j]) :pi j = P

[(A1 ∩·· ·∩Ai ∩Ai+1∩·· ·Ai+ j ∩Ai+ j+1

)∪ (A1 ∩·· ·∩Ai ∩Ai+1∩·· ·Ai+ j ∩Ai+ j+1)]

et, toujours en utilisant l’independance des tirages, on obtient :

pour tout (i, j) ∈ (N∗)2, P([X = i]∩ [Y = j]) = pi+1q j+qi+1p j.

b) P([Y = j]) =+∞

∑i=1

P([X = i]∩ [Y = j]) =+∞

∑i=1

pi+1q j ++∞

∑i=1

qi+1p j avec+∞

∑i=1

pi+1 =

+∞

∑i=2

pi = p2

q et+∞

∑i=1

qi+1 = q2

p . On en deduit P([Y = j]) = p2q j−1+q2p j−1 pour j∈N∗.

+∞

∑j=1

jP([Y = j]) =+∞

∑j=1

j(p2q j−1 +q2p j−1) = p2

q

+∞

∑j=1

jq j+ q2

p

+∞

∑j=1

jp j soit IE(Y ) = 2.

(3) a) P([X = 1]∩ [Y = 1]) = p2q+ pq2 = pq(p+ q) = pq. D’autre partP([X = 1]) = 2pq et P([Y = 1]) = p2 +q2 = 2p2−2p+1. On a donc :

P([X = 1])P([Y = 1])−P([X = 1]∩ [Y = 1]) = pq(4p2−4p+2−1) = pq(2p−1)2.

Si p �= 12 , P([X = 1]∩ [Y = 1]) �= P([X = 1])P([Y = 1]) : X et Y ne sont pas inde-

pendantes.Si p = q = 1

2 , pour (i, j) ∈ (N∗)2, on a P([X = i]∩ [Y = j]) = 12i+ j , P([X =

i]) = 12i

et P([Y = j]) = 12 j , donc P([X = i]∩ [Y = j]) = P([X = i])P([Y = j]) et les

v.a. X et Y sont independantes.

b) IE(XY ) = ∑i, j�1

i jpi j =

(+∞

∑i=1

ipi+1

)(+∞

∑j=1

jq j

)+

(+∞

∑i=1

ipi)(

+∞

∑j=1

jq j+1

)=

p2

q2qp2 +

pq2

q2

p2 donc IE(XY ) = 1q +

1p = 1

pq et IE(XY )− IE(X)IE(Y ) = 1pq − 2 p2+q2

pq ,

soit

cov(X ,Y ) =− (1−2p)2

p(1− p).

Probleme 4(1) P(M(x) ∈ [i, i+1[) = log10(i+1)− log10(i) = log10

(1+ 1

i

).

(2.1) P(M(x) ∈ [a,b[) = P({log10(x)} ∈ [log10(a), log10(b)[) ;

P(M(α.x) ∈ [a,b[) = P({log10(x)+ log10(α)} ∈ [log10(a), log10(b)[)

Page 281: Yves caumel (auth.) probabilites et processus

11. Problemes 275

egal a P({log10(x)} ∈ [{log10(a)− log10(α)},{log10(b)− log10(α)}[) les bornes del’intervalle precedent sont a prendre modulo 1.

(2.2) Posons s= log10 a, t = log10 b, v=− log10α.L’equation P(M(x) ∈ [a,b[) = P(M(α.x) ∈ [a,b[) s’ecrit :

P({log10 x} ∈ [s, t[) = P([{log10 x} ∈ [s+ v, t+ v[),

ou s+ v et t+ v sont definis modulo 1.Ce resultat exprime que la proportion des x tels que {log10(x)} ∈ [s, t[ ne

depend que de l’intervalle [s, t[. On montre, en considerant successivement [s, t[de bornes egales a des rationnels, puis des a des reels que :

P({log10 x} ∈ [s, t[) = t− s

et en reintroduisant la mantisse M(x) :

P(M(x) ∈ [a,b[) = log10 b− log10 a.

Probleme 5

(1) Xk = aXk−1 + εk = a(aXk−2 + εk−1)+ εk = a2Xk−2 +aεk−1 + εk.

Par recurrence : Xk =k∑j=1

ak− jε j.

Donc Xk est une combinaison de v.a. normales : elle est donc normale, d’es-

perance IE(Xk) =k∑j=1

ak− jIE(ε j) = 0 et de variance V (Xk) =k∑j=1

(ak− j)2V (ε j) =

σ2 1−a2k

1−a2 .

(2) ρXk+1,Xk =cov(Xk+1,Xk)σXk+1

σXk; cov(Xk+1,Xk) = IE((aXk+ εk+1)Xk) = aIE(X2

k )+

IE(εk+1.Xk)= aV (Xk)+IE(εk+1.(εk+aεk−1+ · · ·+ak−1ε1))= aσ2k , car les IE(εk+1εi)

pour i= 1, · · · ,k, sont nuls.Conclusion :

• si a= 1, ρXk+1,Xk =√

kk+1 → 1 quand k→+∞ ;

• si a �= 1, ρXk+1,Xk = a√

1−a2k

1−a2k+2 , qui tend vers 1 quand k tend vers +∞,

si a> 1.

(3) L’estimateur qui convient ici est l’estimateur des moindres carres :

il s’agira donc de minimiser la somme des carres des erreursk∑i=1

ε2i =

k∑i=1

(xi−axi−1)

2, qui est une fonction convexe de a. Il suffit de rechercher le point sta-tionnaire a∗ de la fonction precedente :(

∂∂a

k∑i=1

(xi−axi−1)2

)a=a∗

= 0 donne a∗ =

(k∑i=1

xixi−1

)(

k∑i=1

x2i−1

) .

Page 282: Yves caumel (auth.) probabilites et processus

276 Probabilites et processus stochastiques

Probleme 6(1) On va utiliser les coordonnees spheriques⎧⎨⎩ x1 = r sinϕ cosθ

x2 = r sinϕ sinθx3 = r cosϕ

h : (x1,x2,x3) �→ (r,ϕ,θ) ; h−1 : (r,ϕ,θ) �→ (x1,x2,x3).

Jh−1 (r,ϕ,θ) =

∂x1∂ r

∂x1∂ϕ

∂x1∂θ

∂x2∂ r

∂x2∂ϕ

∂x2∂θ

∂x3∂ r

∂x3∂ϕ

∂x3∂θ

=sinϕ cosθ r cosϕ cosθ −r sinϕ sinθsinϕ sinθ r cosϕ sinθ r sinϕ cosθ

cosϕ −r sinϕ 0

= r2 cos2 ϕ cos2 θ sinϕ+ r2 sin3 ϕ sin2 θ + r2 cos2 ϕ sin2 θ sinϕ+ r2 sin3 ϕ cos2 θ

= r2 cos2 ϕ sinϕ+ r2 sin3 ϕ = r2 sinϕ.

h est une bijection de R3 \ (Oz) sur ]0,+∞[×]0,π[×]− π,π] sur lequelJh−1 �= 0.

fh(X1 ,X2 ,X3)(r,ϕ,θ) = fX1 ,X2 ,X3 (h

−1(r,ϕ,θ))×|Jh−1 (r,ϕ,θ)|1]0,+∞[(r)1]0,π[(ϕ)1]−π,π[(θ)

= fX1 ,X2 ,X3 (h−1(r,ϕ,θ)) r2 sinϕ 1]0,+∞[(r)1]0,π[(ϕ)1]−π,π[(θ)

avec fX1,X2,X3(x1,x2,x3) = fX1(x1) fX2(x2) fX3(x3) =1

(√

2π)3e−

12 (x

21+x2

2+x23).

Or x21 + x2

2 + x23 = r2, donc :

fR,Φ,Θ(r,ϕ,θ) =1

(√

2π)3e−

r22 × r2 sinϕ 1]0,+∞[(r)1]0,π[(ϕ)1]−π,π[(θ) (a)

fR(r) =∫ ∫

fR,Φ,Θ(r,ϕ,θ)dϕ dθ = 1(√

2π)3 e− r2

2 × r2 1]0,+∞[(r)×2π [−cosϕ]π0 ,

soit :

fR(r) =

√2πr2 e−

r22 1]0,+∞[(r), et par (a) :

(2) FR2(u) = P([R2 � u]). Si u� 0, FR2(u) = 0. Si u> 0 :

FR2(u) = P([−√u� R�√u]) = FR(

√u)−FR(−

√u) = FR(

√u).

On en deduit :

fR2(u) = F ′R2(u) =1

2√ufR(√u)1]0,+∞[(u) =

12

√2π× 1√

u×ue−

u2 1]0,+∞[(u),

soit : fR2(u) =1√2π

√ue−

u2 1]0,+∞[(u) . R2 est donc de loi gamma γ

(12 ,

32

), d’es-

perance E(R2) = 3, de variance V (R2) = 6.

Page 283: Yves caumel (auth.) probabilites et processus

11. Problemes 277

(Γ(

12

)=√π donc Γ

(32

)= Γ(

12 +1

)= 1

2Γ(

12

)=√π

2 .

Probleme 7(1) Envisageons le cas ou n= 2 : X(1) = min(X1, X2) et X(2) = max(X1, X2).

L’evenement [X(1) < x1, X(2) < x2] est egal a l’union disjointe des evenements :[X1 < X2, X1 < x1, X2 < x2] et [X2 < X1, X2 < x1, X1 < x2].

P([X(1) < x1, X(2) < x2]) = P([X1 < X2, X1 < x1, X2 < x2])+P([X2 < X1, X2 < x1, X1 < x2]).

Ce resultat se generalise facilement par recurrence au cas de n v.a., donnantainsi la formule indiquee.

(2) Dans le cas de deux v.a. :

P([X1 < X2,X1 < x1,X2 < x2]) =∫ x1

−∞

∫ x2

−∞fX1(y1) fX2(y2)1(y1<y2)(y1,y2)dy1 dy2.

Ce resultat se generalise a n v.a. :

P([X1 < · · ·< Xn,X1 < x1, · · · ,Xn < xn]) =∫ x1−∞ · · ·∫ xn−∞ fX1(y1) · · · fXn(yn)1(y1<···<yn)(y1, · · · ,yn)dy1 · · · dyn

donc, compte tenu de l’identite des lois des Xi et de la premiere relation :

F(X(1),··· ,X(n))(x1, · · · ,xn) = n!∫ x1

−∞· · ·∫ xn

−∞1(y1<···<yn)(y1, · · · ,yn)dy1 · · · dyn

et

f(X(1),··· ,X(n))(x1, · · · ,xn) = n! fX1(x1) · · · fXn(xn)1(x1<···<xn)(x1, · · · ,xn).

(3) L’evenement [X(k) � x] est equivalent a [k au moins des xi sont infe-rieurs a x], lequel equivaut a [Nx � k] = [Nx = k,Nx = k+1, · · · ,Nx = n]. Or Nx est lav.a. qui compte le nombre d’evenements independants de la forme [Xi � x], tousde meme probabilite egale a F(x) : en consequence, Nx est une v.a. binomiale,de parametre n et p= F(x).

Il s’ensuit que FX(k) (x) = P([Nx � k]) =n∑i=k

(ni

)(F(x))i(1−F(x))n−i.

Page 284: Yves caumel (auth.) probabilites et processus

278 Probabilites et processus stochastiques

Supposons les Xi de densite uniforme sur [0,1] :

fX(k) (x) =n

∑i=k

(ni

)(ixi−1(1− x)n−i− xi(1− x)n−i−1(n− i)

)=

n

∑i=k

(ni

)ixi−1(1− x)n−i−1−

n

∑i=k

n

(ni

)xi(1− x)n−i−1

= n

(n−1

∑i=k−1

(n−1i

)xi(1− x)n−i−1−

n

∑i=k

(n−1i

)xi(1− x)n−i−1

)

= n

(n−1k−1

)xk(1− x)n−k.

E(X(k)) =k

n+1 ; pour n suffisamment grand, ce resultat est conforme a l’intui-

tion, car X(k) se situe au voisinage de kn+1 .

(4) fnX(k) (x) =1n fX(k)

(xn

)est approche grace a la formule de Stirling par :

(n−1)n−1√

(n−1)2π en−k xk−1(1− x

n

)n−knen−1(n− k)n−k

√(n− k)2π(k−1)!nk−1

,

qui converge lorsque n tend vers +∞, vers xk−1e−x(k−1)! , densite d’une loi gamma de

parametres (1,k).

Plus la statistique d’ordre (X(1),X(2), · · · ,X(n)) est de grande taille, plus elle atendance a s’equirepartir sur [0,1].

Application : fX(1) (x) = n(1−F(x))n−1 f (x) = 10(1−x)9, fX(2) (x) = 90x(1−x)8, fX(3) (x) = 360x2(1− x)7,..., fX(10)

(x) = (F(x))10 = 10x9.

Pour tout k= 1,2, · · · ,10, fX(k) (x) a un unique maximum en x= k−19 , egal

a :

Mk =10!

(k−1)!(10− k)!

(k−1

9

)k−1(1− k−1

9

)10−k.

Remarque : Mk =M11−k.

Probleme 8(1) Posons : U = X1, V = X2−X1. Soit h : (x1,x2) �→ (u,v) = (x1,x2− x1) ;

h est une bijection de R2 sur lui-meme, avec h−1 : (u,v) �→ (x1,x2) = (u,u+ v).fU,V (u,v) = fX1,X2(h

−1(u,v))|Jh−1(u,v)|= fX1,X2(u,u+v) = fX1(u) fX2(u+v), car X1

et X2 sont independantes. On a donc fU,V (u,v) = λ 2e−λ (2u+v)1]0,+∞[(u)1]0,+∞[(u+v) avec 1]0,+∞[(u+ v) = 1 si u+ v> 0, c’est-a-dire si u>−v.

On a fV (v) =∫fU,V (u,v)du avec fU,V (u,v) = λ 2e−2λue−λv1]max(0,−v),+∞[(u).

Page 285: Yves caumel (auth.) probabilites et processus

11. Problemes 279

Ainsi, fX2−X1(v) = λ 2e−λv[− 1

2λ e−2λu

]+∞

max(0,−v)= λ

2

[eλv 1]−∞,0[(v)+ e−λv 1[0,+∞[(v)

].

Y = |V |, donc FY (x) = P([Y � x]) = P([|V | � x]) = P([−x � V � x])1[0,+∞[(x) etP([−x�V � x) =FV (x)−FV (−x) donc fY (x) =F ′Y (x) = ( fV (x)+ fV (−x))1[0,+∞[(x),

avec fV (x)= λ2 e−λ |x| (fonction paire) et fY (x)= 2 fV (x)1]0,+∞[(x)= λe−λx1[0,+∞[(x).

Y a meme loi E (λ ) que les Xi.

(2) P([X3 � Y ]) = P([Y −X3 � 0]) = FY−X3(0) = FX2−X1(0), car X1, X2, X3

etant independantes, il en est de meme de X3 et Y = |X2−X1| donc Y −X3 a

meme loi que X2−X1 et FY−X3(0) =∫ 0−∞ fY−X3(x)dx =

λ2

∫ 0−∞ e

λx dx = 12 [e

λv]0−∞,soit P([X3 � Y ]) = 1

2 .

(3) P([Z� z) = 1−P([Z> z]) = 1−P([min(X ,Y )> z]) = 1−P([X > z]∩ [Y >z]) avec P([X > z]∩ [Y > z]) =P([X > z])P([Y > z]), d’ou P([Z� z]) = 1−(1−F(z))2

et fZ(z) = 2(1−F(z)) f (z), soit fZ(z) = 2λe−2λ z1]0,+∞[(z).Z et X3 etant independantes, on a :

fT (t) =∫

fZ(z) fX3(t− z)dt = 2λ 2∫

e−2λ ze−λ (t−z)1]0,+∞[(z)1]0,+∞[(t− z)dt

= 2λ 2e−λ t∫ t

0e−λ z dz1]0,+∞[(t) = 2λe−λ t(1− e−λ t)1]0,+∞[(t)

IE(T ) = IE(Z)+IE(X3) =1

2λ + 1λ et, grace a l’independance V (T ) =V (Z)+

V (X3) =1

4λ 2 +1λ 2 , soit finalement

IE(T ) = 32λ et V (T ) = 5

4λ 2 .

Probleme 9

(1) Soit h : (x,y) �→ (u,v) =(x, x+y

x

). C’est un C1 diffeomorphisme de R∗×

R sur lui-meme, avec h−1(u,v) = (x,y) = (u,uv−u). On a :

fX ,Y (x,y) = fX (x) fY (y) = λ 2e−λ (x+y) 1]0,+∞[(x)1]0,+∞[(y),

car X et Y sont independantes et fh(X ,Y )(u,v) = fX ,Y (h−1(u,v)) |Jh−1(u,v)| avecJh−1(u,v) =

1 0v−1 u

= u d’ou fU,V (u,v) = λ 2e−λuv|u|1]0,+∞[(u)1]0,+∞[(u(v− 1))

avec u > 0 et u(v− 1) > 0 si et seulement si u > 0 et v > 1. On a donc bienfU,V (u,v) = λ 2ue−λuv 1]0,+∞[(u)1]1,+∞[(v). On en deduit fV (v) =

∫fU,V (u,v)du=

λ 2 ∫ +∞0 ue−λuvdu 1]1,+∞[(v) avec, si t = λuv,

∫ +∞0 ue−λuvdu = 1

λ 2v2

∫ +∞0 te−tdt =

1λ 2v2 . D’ou fV (v) = 1

v2 1]1,+∞[(v) et comme v fV (v) ∼ 1v au voisinage de +∞, V

n’admet pas d’esperance.

Page 286: Yves caumel (auth.) probabilites et processus

280 Probabilites et processus stochastiques

(2) Z represente la duree de vie d’un composant demarque (egale a X s’iln’a pas de defaut et a X/2 sinon).

P([Z � z]) = P([TX � z]) = P

(([TX � z]∩ [T = 1])∪

([TX � z]∩ [T =

12]

)).

On a alors, en utilisant l’independance de X et T , P([T = 1]) = 0,9 etP([T = 1

2 ]) = 0,1 : P([Z � z]) = P(([X � z]∩ [T = 1])∪ ([X � 2z]∩ [T = 1

2 ]))

=

0,9FX (z)+0,1FX (2z), soit, avec FX (x) = (1− e−λx)1]0,+∞[(x), d’ou : P([Z � z]) =(1−0,9e−λ z−0,1e−2λ z

)1]0,+∞[(z).

En derivant, on obtient fZ(z) = F ′Z(z) = λ(0,9e−λ z+0,2e−2λ z

)1]0,+∞[(z).

En remarquant que PZ = 0,9.E (λ )+ 0,1.E (2λ ), on obtient IE(Z) = 0,9× 1λ +

0,1× 12λ , soit IE(Z) =

0,95λ .

Probleme 10PΘk = U ([0,2π[) donc fΘk(θ) =

12π 1[0,2π[(θ).

(1) IE(cosΘk) =∫

cosθ fΘk(θ)dθ = 12π

∫ 2π0 cosθ dθ = 0. De meme,

IE(sinΘk) =∫

sinθ fΘk(θ)dθ =1

∫ 2π

0sinθ dθ = 0,

IE(cos2Θk) =∫

cos2 θ fΘk(θ)dθ =1

∫ 2π

0cos2 θ dθ =

12π

∫ 2π

0

cos2θ +12

dθ =12,

var(cosΘk) = IE(cos2Θk)− IE(cosΘk)2 =

12,

IE(sin2Θk) = IE(1− cos2Θk) =12et var(sinΘk) =

12.

IE(cosΘk) = IE(sinΘk) = 0, var(cosΘk) = var(sinΘk) =12.

X0 = 0, X1 = acosΘ1, X2 = acosΘ1+acosΘ2, soit, par recurrence, Xn= an∑k=1

cosΘk

et Yn = an∑k=1

sinΘk.

Par linearite de l’esperance, on en deduit IE(X) = IE(Y ) = 0.

var(Xn) = a2var

(n∑k=1

cosΘk

)= a2

n∑k=1

var(cosΘk) = a2 n2 , car les Θk sont in-

dependantes donc les cosΘk aussi. De meme, var(Yn) = a2 n2 , d’ou var(Xn) =

var(Yn) = a2n2 .

(2) XnYn = ∑1�i, j�n

a2 cosΘi sinΘ j, avec :

• si i �= j, IE(cosΘi sinΘ j) = IE(cosΘi)IE(sinΘ j) = 0 ;

Page 287: Yves caumel (auth.) probabilites et processus

11. Problemes 281

• IE(cosΘi sinΘi) = IE(

12 sin2Θi

)= 1

∫ 2π0 sinθ cosθ dθ = 1

[sin2 θ

2

]2π

0= 0

donc IE(XnYn) = 0 et comme IE(Xn) = 0, cov(Xn,Yn) = 0.

(3) On applique le T.C.L generalise a la suite des vecteurs aleatoires :

(Xn,Yn) =

(n

∑k=1

acosΘk,n

∑k=1

asinΘk

):

P(Xn,Yn) ≈N

((IE(Xn), IE(Yn)), ΓXn,Yn =

(var(Xn) cov(Xn,Yn)

cov(Xn,Yn) var(Yn)

)),

donc ici P(Xn,Yn) ≈N

((0,0),

(na2

2 0

0 na2

2

))de densite

fn : (x,y) �→ 1√2π

1√na2

2

e− x2

2 na22 × 1√

1√na2

2

e− y2

2 na22 =

1πna2 e

− (x2+y2)na2 .

On utilise les coordonnees polaires classiques. Soit h : (x,y) �→ (r, t) labijection de R2 \ {(0,0)} sur ]0,+∞[×[0,2π[, dont la fonction inverse est h−1 :

(r, t) �→ (x,y) = (r cos t,r sin t) : d’ou le jacobien Jh−1(r, t) =cos t −r sin tsin t r cos t

= r .

fRn,Tn(r, t) = fXn,Yn(r cos t,r sin t)× r1]0,+∞[(r)1]0,2π[(t).

Soit fRn,Tn(r, t) =1

πna2 e− r2

na2 r1]0,+∞[(r)1]0,2π[(t), et fRn(r) =∫fRn,Tn(r, t)dt.

fRn(r) =2na2 re

− r2

na2 1]0,+∞[(r).

fTn(t)=∫fRn,Tn(r, t)dr=

12π

[−e− r2

na2

]+∞

01]0,2π[(t), soit fTn(t)=

12π 1]0,2π[(t) :

PTn = U (]0,2π[).

IE(Rn) =∫r fRn(r)dr =

2na2

∫ +∞0 r2e−

r2

na2 dr = 2na2 × 1

2

∫ +∞−∞ r2e−

r2

na2 dr.

Or, si Z est une v.a.r. de loi N

(0, na

2

2

), on a :

var(Z)= 1√2π√

na22

∫ +∞−∞ z2e−

z2

na2 dz= na2

2 , d’ou∫ +∞−∞ z2e−

z2

na2 dz= na2

2 ×a√πn et IE(Rn)=

a2

√nπ. La distance moyenne de la particule au temps n a l’origine depend donc

lineairement de√

2.

IE(R2n)=

∫r2 fRn(r)dr=

2na2

∫ +∞

0r3e−

r2

na2 dr =u= r2

na2

∫ +∞

0na2ue−u du= na2Γ(2)= na2

Page 288: Yves caumel (auth.) probabilites et processus

282 Probabilites et processus stochastiques

et IE(X2n ) = var(Xn) = na2

2 (on retrouve ainsi que IE(R2n) = IE(X2

n )+IE(Y 2n ) = na2).

On a alors var(Rn) = na2− a2

4 nπ, soit var(Rn) = na2(

1− π

4

).

P([Rn > r]) =∫ +∞r fRn(u)du=

[−e− u2

na2

]+∞

rd’ou fRn(r) = 2r.e−

r2

na2 .

Probleme 11(1) Zk = 1 si f (Xk)� Yk, soit (Xk,Yk) au-dessous de la courbe (dans A).

P([Zk = 1]) =aire de Aaire de D

= p,

aire de A=∫ b

a( f (x)−m)dx=

∫ b

af (x)dx−m(b−a).

IE(Zk) = p et var(Zk) = p(1− p), car PZk = B(p).

IE(Zn) =

n∑i=1

IE(Zi)

n= p et var(Zn) = 1

n2 var

(n∑i=1

Zi

)= 1

nvar(Zi) =p(1−p)

n , car

les Zi sont independantes. D’ou, finalement :

IE(Zn) = p et var(Zn) = 1n p(1− p).

(2) Par la loi des grands nombres, ZnP→ IE(Zi) = p.

(3) P([|Zn− p|� 10−2]

)� 0,95 equivaut a P

([|Zn− p|> 10−2]

)< 0,05 =

5.10−2.

Or P([|Zn− p|> 10−2]

)�

110−4 IE((Zn− p)2) =

var(Zn)10−4 =

p(1− p)10−4n

.

On cherche n tel quep(1− p)10−4n

< 5.10−2, soit n>p(1− p)5.10−6 .

Une approximation grossiere de p permet de determiner la taille n del’echantillon : par exemple si p� 1

3 , n�13

23

15.10−6 � 45.000.

Si l’on connaıt l’integrale d’une fonction g sur [a,b], g proche de f , alorsil suffira d’estimer la surface comprise entre f et g.

Probleme 12(1) Par hypothese, la densite fX (x1) fX (x2) · · · fX (xn) du vecteur (X1, X2,

· · · , Xn) est symetrique : pour toute permutation σ de {1,2, · · · ,n}, on a :

P([X1 < · · ·< Xn]) = P([Xσ(1) < · · ·< Xσ(n)])

ou les evenements [Xσ(1) < · · ·< Xσ(n)] sont disjoints. Donc :

∑σ

P([Xσ(1) < · · ·< Xσ(n)]) = n!P([X1 < · · ·< Xn]) = 1

Page 289: Yves caumel (auth.) probabilites et processus

11. Problemes 283

d’ou, pour tout σ , P([Xσ(1) < · · ·< Xσ(n)]) =1n! .

(2) [Rn = 1] =⋃

σ ; σ(n)=n[Xσ(1) < · · ·< Xσ(n)] reunion de (n−1)! evenements

equiprobables.

On conclut que P([Rn = 1]) = (n−1)!n! = 1

n .

(3) IE(Sn) =n∑i=1

IE(Ri) =n∑i=1

1i = lnn+ γ+o(1) quand n grand, ou γ est la

constante d’Euler.

IE(T pn ) = IE(Sn+p)− IE(Sn)

, donc :

IE(T pn )− (ln(n+ p)− lnn) = IE(Sn+p)− IE(Sn)− ln

(1+

pn

)→

n→+∞0

d’ou IE(T pn ) →

n→+∞0.

(4) ∀i, IE(Ri) =1i ; IE(Rm.Rn) = P(Rm = 1,Rn = 1) = 1

m.n d’ou :cov(Rm,Rn) = 0.

(5) V (T pn ) =

p∑i=1

V (Rn+i) =p∑k=1

1n+k −

p∑k=1

(1

n+k

)2 →n→+∞

0.

(6) P([Yn � y]) = (1− e−y)n d’ou fYn(y) = ne−y(1− e−y)n−1.

IE(Yn) se calcule en posant u= (1− e−y) ;

IE(Yn) =∫ 1

0−n ln(1−u)un−1 du≈

n

∑i=1

1i(serie harmonique).

Sous l’hypothese tres restrictive d’invariance des lois des v.a. Xk, les re-cords ont une croissance tres lente ; ce qui n’est evidemment pas le cas, parexemple, des records sportifs ou climatiques.

Probleme 13

(1) IE[Xn=i](uYn) = (pu+1− p)i et ϕZn(s) = eλ s−λ .La loi conditionnelle de Yn sachant Xn = i etant la loi binomiale B(i, p),

on a :

IE[Xn=i](sXn−Yn) = siIE[Xn=i](s−Yn) = siIE[Xn=i]

((1s

)Yn)

= si(p

1s+1− p

)i

= (p+(1− p)s)i.

Page 290: Yves caumel (auth.) probabilites et processus

284 Probabilites et processus stochastiques

On a alors : ϕn+1(s) = IE(sXn+1) = IE(IEXn(sXn−Yn+Zn+1)).

IE[Xn=i](sXn−Yn+Zn+1) = (p+(1− p)s)iIE(sZn+1), car Zn+1 est independante de Xnet de Yn. Or Zn+1 suit la loi de Poisson P(λ ) donc IE(sZn+1) = exp(λ (s− 1))d’ou :

IEXn(sXn+1) = exp(λ (s−1))(p+(1− p)s)Xn .

Puis, en prenant l’esperance des deux membres :

IE(sXn+1) = exp(λ (s−1))IE((p+(1− p)s)Xn),

ce qui donne ϕn+1(s) = exp(λ (s−1))ϕn(p+(1− p)s).

(2) On pose u= s−1. On a alors, d’apres (1),

ϕn+1(u+1) = exp(λu)ϕn(p+(1− p)(u+1)) = exp(λu)ϕn((1− p)u+1)

soit Kn+1(u) = exp(λu)Kn((1− p)u).

• Pour n= 1, K1(u) = exp(λu)K0((1− p)u) et la propriete est verifiee.• Supposons la propriete vraie au rang n, alors :

Kn+1(u) = exp(λu)Kn((1− p)u)

= exp(λu)exp

(λ (1− p)u

p(1− (1− p)n)

)K0(u(1− p)n+1)

= exp

(λu(1+

1− pp

(1− (1− p)n)

)K0(u(1− p)n+1)

= exp

(λup(1− (1− p)n+1)

)K0(u(1− p)n+1),

et la propriete est vraie au rang n+1. On a donc :

Kn(u) = exp(λup (1− (1− p)n)

)K0(u(1− p)n) pour tout n� 1.

Comme 1− p∈]0,1[, limn→+∞

(1− p)n = 0 et limn→+∞

Kn(u) = exp(λup

)K0(0) et K0(0) =

ϕ0(1) = 1 : d’ou limn→+∞

ϕn(s) = exp(λp (s−1)

), car ϕn(s) = Kn(s− 1). On a donc

limn→+∞

PXn = P

(λp

).

Probleme 14(1) Xn+1 ne depend que de Xn et de la somme ∑k

l=1 ξl , independantes des

(Xi)i=1,...,n : (Xn)n verifie donc l’axiome de Markov.D’autre part P(Xn+1 = j|Xn = k) = P(∑k

l=1 ξl = j−k) est independante du

temps n : l’axiome d’homogeneite est verifie.

Page 291: Yves caumel (auth.) probabilites et processus

11. Problemes 285

(2) P(Xn = k) = ∑i P(∑ij=1 ξ

jn−1 = k).P(Xn−1 = i)

gn(s) = ∑k∑iskP(

i

∑j=1

ξ jn−1 = k).P(Xn−1 = i)

= ∑iP(Xn−1 = i).g(s)i = gn−1(g(s)).

D’ou : gn(s) = (g◦g◦ . . .◦g)(s).(3) E(Xn) = g′n(1) = g′n−1(g(1)).g

′(1) = m.g′n−1(1).Par recurrence, E(Xn) =mm. On applique la meme methode pour le calcul

de la variance. Si m> 1, la population croıt ; si m< 1, elle decroıt ; si m= 1, samoyenne est constante et sa variance s’accroıt.

Probleme 15(1) La chaıne ainsi obtenue est une chaıne a deux etats E = {1,2}, de

matrice de transition P=

( 12

12

34

14

).

C’est une chaıne irreductible finie, donc recurrente positive admettantune unique distribution stationnaire, solution de π = πP avec π1 +π2 = 1. Lapremiere equation donne π1 =

12π1+

34π2, soit π1 =

32π2. Puis

32π2+π2 = 1 = 5

2π2

donne π2 =25 et π1 =

35 . L’unique distribution stationnaire est donc π =

(35 ,

25

).

Pour calculer p(3)1,1, on peut faire le calcul direct de P3 ou bien ecrire

p(3)11 = p11p11p11 + p11p12p21 + p12p21p11 + p12p22p21

=(

12

)3+(

12

)2 34 +

12

34

12 +

12

14

34 = 1

8 +3

16 +3

16 +3

32 = p(3)1,1 =1932 = 0,593.

Si l’abonnement d’avril est du type 1, on a 59,3 % des chances de l’avoiraussi en juillet.

(2) On sait que, pour une chaıne irreductible recurrente positive, le tempsmoyen de retour a l’etat i est μi = 1

πiou π est l’unique distribution stationnaire.

Cela donne ici μ1 =53 et μ2 =

52 .

P[X0=1]([T1 = 1]) = p1,1 = 12 , P

[X0=1]([T1 = 2]) = p1,2p2,1 = 12 × 3

4 et, pour n � 3,

P[X0=1]([T1 = n]) = p1,2(p2,2)n−2p2,1 =

12

(14

)n−2 34 d’ou G[X0=1]

T1(s) = s

2 +38

+∞

∑n=2

sn

4n−2 =

G1(s), soit G1(s) = s2 +

38 s

2 11− s

4et G′1(s) =

12 +

34 s

11− s

4+ 3

8 s2 1(1− s

4 )2

14 et G′1(1) =

12 +1+ 3

8 × 49 .

On retrouve bien μ1 = IE[X0=1](T1) = G′1(1) =53 .

De meme, P[X0=2]([T2 = 1]) = p2,2 = 14 , P

[X0=2]([T2 = 2]) = p2,1p1,2 = 34 × 1

2 et,

pour n � 3, P[X0=2]([T2 = n]) = p2,1(p1,1)n−2p1,2 = 3

4

(12

)n−2 12 d’ou G[X0=2]

T2(s) =

Page 292: Yves caumel (auth.) probabilites et processus

286 Probabilites et processus stochastiques

s4 +

34

+∞

∑n=2

sn

2n−1 =G2(s), soit G2(s) = s4 +

38 s

2 11− s

2et G′2(s) =

14 +

34 s

11− s

2+ 3

8 s2 1(1− s

2 )2

12

et G′2(1) =14 +

32 +

34 = 5

2 .

On retrouve μ2 = IE[X0=2](T2) = G′2(1) =52 .

(3) On a IE(C) = 100π1 + 200π2 = 60+ 80 d’ou un cout moyen mensuelde 140 euros.

(4) Si les changements sont payants, on a alors :

IE(Cn) = 100×P([Xn−1 = 1]∩ [Xn = 1])+150×P([Xn−1 = 2]∩ [Xn = 1])

+ 200×P([Xn−1 = 2]∩ [Xn = 2])+250×P([Xn−1 = 1]∩ [Xn = 2]),

avec P([Xn−1 = 1]∩ [Xn = 1]) = 12π

(n−1)1 , P([Xn−1 = 2]∩ [Xn = 1]) = 3

4π(n−1)2

P([Xn−1 = 2]∩ [Xn = 2]) = 14π

(n−1)2 , P([Xn−1 = 1]∩ [Xn = 2]) = 1

2π(n−1)1

ou (π(n−1)) designe la loi de Xn−1. Par passage a la limite quand n→ +∞, ilvient :

IE(C) = 100× 310

+150× 310

+200× 110

+250× 310

= 30+45+20+75 = 170.

Si les changements coutent 50 euros, le cout moyen mensuel est donc de 170euros.

Probleme 16(1) La valeur de Xn n’est fonction que de Xn−1 et du resultat du n-ieme

match (c’est Xn−1 + 1 si le n-ieme match n’est pas perdu et c’est 0 si le n-ieme match est perdu). Ainsi, l’axiome de Markov est verifie. En outre, P(Xn =k+1 | Xn−1 = k) = pk et P(Xn = 0 | Xn−1 = k) = 1− pk independants de n doncl’axiome d’homogeneite est aussi verifie. On a donc bien une chaıne de Markovde matrice de transition (pk, j) :

pk, j =

⎧⎨⎩ pk si j = k+11− pk si j = 00 sinon

P[X0=0]([T0 = 1]) = 1− p0, P[X0=0]([T0 = 2]) = p0(1− p1) et, pour n � 3, ilfaut aller jusqu’a n− 1 matches sans defaites, puis perdre, d’ou P[X0=0]([T0 =n]) = p0p1 · · · pn−2(1− pn−1).L’etat 0 est recurrent si et seulement si P[X0=0]([T0 <+∞]) = 1.

Or P[X0=0]([T0 < +∞]) = P[X0=0]

(+∞⋃k=1

[T0 = k]

)= lim

n→+∞P[X0=0]

(n⋃

k=1[T0 = k]

)avec

P[X0=0]

(n⋃

k=1[T0 = k]

)= (1− p0)+ (p0− p0p1)+ · · · − p0p1 · · · pn−1 = 1− rn. rn =

p0p1 · · · pn−1 est l’element d’une suite decroissante de reels positifs, qui convergenecessairement vers une limite r� 0. L’etat 0 est donc recurrent si et seulement

Page 293: Yves caumel (auth.) probabilites et processus

11. Problemes 287

si r = limn

p0p1 · · · pn−1 = 0.

La chaıne etant irreductible, tous les etats sont de meme nature. Elle ad-met une distribution stationnaire si et seulement si elle est recurrente positive.

On cherche donc a resoudre π = πP avec P=

⎛⎜⎜⎜⎜⎜⎝1− p0 p0 0 · · · · · ·1− p1 0 p1

. . .

1− p2 0 0 p2. . .

......

. . .. . .

. . .

⎞⎟⎟⎟⎟⎟⎠.

On obtient, a partir de la deuxieme equation, π1 = p0π0, π2 = p1π1,...,πn =pn−1πn−1,..., puis π2 = p0p1π0,...,πn = p0p1 · · · pn−1π0 = rnπ0 et on doit avoir

π0

(1+

+∞

∑n=1

rn

)= 1. On a donc une solution si et seulement si (∑rn) converge,

et cette solution est alors unique.

La chaıne est donc :

• transitoire si limn

p0p1 · · · pn−1 �= 0 ;

• recurrente nulle si limn

p0p1 · · · pn−1 = 0 et (∑np0p1 · · · pn−1) diverge ;

• recurrente positive si (∑np0p1 · · · pn−1) converge.

(2) Dans le cas ou pn = p pour tout n, on a rn = pn, avec p∈]0,1[, donc lachaıne est recurrente positive, de distribution stationnaire donnee par πn = pnπ0

et donc π0

(1+

+∞

∑n=1

pn)= π0

1−p = 1, soit π0 = 1− p et finalement πn = (1− p)pn

pour tout n.Le temps moyen de retour a l’etat 0 est μ0 =

1π0

= 2 si p= 12 ; lorsque le temps

de retour a 0 est n, la longueur de la serie est n− 1. Ainsi, si p = 12 , il y a en

moyenne 1 match sans defaite.

Probleme 17

(1) En utilisant successivement les proprietes d’un processus de Poisson(independance des accroissements, stationnarite, et Nt de loi P(λ t)), il vient :

P(N1/4 = 1 | N1 = 2) =P(N1/4 = 1, N1 = 2)

P(N1 = 2)=

P(N1/4 = 1, N1−N1/4 = 1)

P(N1 = 2)

=P(N1/4 = 1)P(N1−N1/4 = 1)

P(N1 = 2)=

P(N1/4 = 1)P(N3/4 = 1)

P(N1 = 2)

=e−

λ4 λ

4 × e−3λ4 3λ

4

e−λ λ 2

2!

=3×24×4

=38.

(2) Pour T = t, le radar aura enregistre les vehicules de 0 a t et leur

Page 294: Yves caumel (auth.) probabilites et processus

288 Probabilites et processus stochastiques

nombre est exactement Nt . Sachant que fT (t) = 1100e

− t100 1]0,+∞[(t), on a alors :

P([N = n]) =∫

PT=t([N = n]) fT (t)dt =∫

P([Nt = n]) fT (t)dt

=∫ +∞

0e−λ t

(λ t)n

n!1

100e−

t100 dt =

λ n

100n!

∫ +∞

0tn e−(λ+

1100 )t dt

et en posant u=(λ + 1

100

)t, on a

∫ +∞0 tn e−(λ+

1100 )t dt = Γ(n+1)

(λ+ 1100 )

n+1 = 100n+1 n!(100λ+1)n+1

donc P([N = n]) = (100λ )n

(100λ+1)n+1 = 1100λ+1

(100λ

100λ+1

)nde la forme pqn. Ainsi, avec

λ = 5, N suit la loi geometrique G0(

1501

), et IE(N) = q

p = 500.

Probleme 18

Equations d’equilibre, en regime stationnaire :

• en (0,0) : (λ1 +λ2)p0 = μ1p10 +μ2p01,• en (1,0) : (λ1 +λ2 +μ1)p10 = μ1p20 +λ1p0,• en (0,1) : (λ1 +λ2 +μ2)p01 = μ2p02 +λ2p0,et, pour m+n� 2 :• en (m,0) : (λ1 +λ2 +μ1)pm0 = μ1pm+1,0 +λ1pm−1,0,• en (0,n) : (λ1 +λ2 +μ2)p0n = μ1p1n+λ2p0,n−1 +μ2p0,n+1,• en (m,n) ∈ N∗2 : (λ1 +λ2 +μ1)pmn = μ1pm+1,n+λ1pm−1,n+λ2pm,n−1,

• pour m �= 0 : (λ1 +λ2 +μ1)pmn = μ1pm+1,n+λ1pm−1,n+λ2pm,n−1,• pour m= 0 : (λ1 +λ2 +μ2(1−δn0))p0n = μ1p1n+λ2p0,n−1 +μ2p0,n+1.

En posant g(s1,s2) =+∞

∑m=0

+∞

∑n=0

sm1 sn2pmn, on a alors :

(λ1 +λ2 +μ1)g(s1,s2)−μ1

+∞

∑n=0

sn2p0,n + μ2

+∞

∑n=1

sn2p0n =μ1

s1

(g(s1,s2)−

+∞

∑n=0

sn2p0n

)

+ (λ1s1 +λ2s2)g(s1,s2)+μ2

s2

+∞

∑n=1

sn2p0n.

En regroupant les g(s1,s2) d’un cote et les ∑sn2p0n de l’autre, on obtient :

(λ1(s1−1)+λ2(s2−1)+μ1(

1s1−1)

)g(s1,s2) = μ1(

1s1−1)

(+∞

∑n=0

p0nsn2

)

− μ2(1s2−1)

(+∞

∑n=1

p0nsn2

).

Pour faire le developpement limite a l’ordre 2 au voisinage de (1,1), onpose s1 = 1+h et s2 = 1+ k, puis m1 =

∂g∂ s1

(1,1) et m2 =∂g∂ s2

(1,1)

Page 295: Yves caumel (auth.) probabilites et processus

11. Problemes 289

(λ1h+λ2k+μ1((1+h)−1−1)

)g(1+h,1+ k) =

μ1((1+h)−1−1)

(+∞

∑n=0

p0n(1+ k)n)−μ2((1+ k)−1−1)

(+∞

∑n=1

p0n(1+ k)n)

qui donne :

(λ1h+λ2k+μ1(−h+h2)

)(G(1,1)+m1h+m2k) = μ1(−h+h2)

(+∞

∑n=0

p0n+ k+∞

∑n=0

np0n

)

− μ2(−k+ k2)

(+∞

∑n=1

p0n+ k+∞

∑n=1

np0n

)+ o(‖(h,k)‖2).

Par unicite du developpement limite, on identifie alors les coefficients :

• terme en h : λ1−μ1 =−μ1

(+∞

∑n=0

p0n

)avec ρ1 =

λ1μ1, on a alors

+∞

∑n=0

p0n = 1−ρ1 ;

• terme en k : λ2 = μ2

(+∞

∑n=1

p0n

)avec ρ2 =

λ2μ2, on a alors

+∞

∑n=1

p0n = ρ2 ;

• terme en h2 : (λ1− μ1)m1 + μ1 = μ1

(+∞

∑n=0

p0n

), soit (ρ1− 1)m1 = −ρ1, d’ou

m1 =ρ1

1−ρ1;

• terme en k2 : λ2m2 = μ2

(−

+∞

∑n=1

p0n++∞

∑n=1

np0n

), d’ou

+∞

∑n=1

np0n = ρ2(m2 +1) ;

• terme en hk : (λ1−μ1)m2 +λ2m1 =−μ1

(+∞

∑n=1

np0n

), d’ou λ2

μ1m1 = (1−ρ1)m2−

ρ2(m2 +1). On en deduit (1−ρ1−ρ2)m2 = ρ2 +ρ2μ2μ1m1.

Nombre moyen de clients prioritaires : m1 =ρ1

1−ρ1.

Nombre moyen de clients non prioritaires : m2 =ρ2

1−ρ1−ρ2

(1+ μ2

μ1

ρ11−ρ1

)ou l’on

a pose ρ1 =λ1μ1

et ρ2 =λ2μ2.

Probleme 19

(A)

0 1 2 3 K−1 K

μ

λ

μ

λ

μ

λ

μ

λ

(1) Equations bilan :

⎧⎨⎩ λπ0 = μπ1

(λ +μ)πk = μπk+1 +λπk−1 pour 0 < k � K−1μπK = λπK−1

.

Par recurrence, on obtient λπk = μπk+1 pour 0 � k � K−1, soit πk+1 =ρπk, puis, πk = ρkπ0 pour 0 � k � K.

Page 296: Yves caumel (auth.) probabilites et processus

290 Probabilites et processus stochastiques

(2) On obtient π0 en ecrivantK∑k=0

πk = 1 = π01−ρK+1

1−ρ si ρ �= 1, soit π0 =

1−ρ1−ρK+1 si ρ �= 1 (et si ρ = 1, π0 =

1K+1 ).

(3) La probabilite cherchee est πK = ρKπ0 = ρK−ρK+1

1−ρK+1 . Le temps moyen

d’attente de quelqu’un qui arrive alors qu’il y a k clients est kμ et cela se produit

avec la probabilite πk1−πK pour 0 � k� K−1. On a donc Wq =

K−1∑k=0

k

μ(1−πK) =L−KπKμ(1−πK) .

C’est aussi, par la formule de Little,Lq

λ (1−πK) avec Lq =K∑k=1

(k− 1)πk =

L− (1−π0).

(4) GX (z) =K∑k=0

zkπk = π01−(ρz)K+1

1−ρz . Pour calculer L, on peut soit calculer

G′X (z) pour z = 1, soit faire un developpement limite a l’ordre 1 de GX (z) auvoisinage de 1, soit utiliser les deux expressions de la question 3. On obtient

alors sans probleme L= ρ(1−(K+1)ρK+KρK+1)(1−ρ)(1−ρK+1)

.

(B)

0 1 2 3 K−1 K

μ

λ

λ

λ

λ

(1) Equations bilan :

⎧⎨⎩ λπ0 = μπ1

(λ + kμ)πk = (k+1)μπk+1 +λπk−1,0 < k � K−1KμπK = λπK−1

La distribution stationnaire existe quelles que soient les valeurs de λ etμ . Notons que, si λ est plus grand que μ , alors πK converge vers 1 : le systemea tendance a etre sature.

(2) En posant ρ = λμ , on a pour k = 0,1, · · · ,K, πk =

ρk

k!K∑i=0

ρii!

. On peut

remarquer que (π0,π1, · · · ,πK) est une distribution de Poisson tronquee definiepar :

∀k,k � K,πk = P(X = k |X � K) =ρk

k!K∑i=0

ρ i

i!

.

La probabilite de perte d’un client est egale a la probabilite πK que tousles serveurs soient occupes :

πK =ρk

k!K∑i=0

ρ i

i!

.

(3) Le taux d’entree λ est egal a λ (1−πK).

Page 297: Yves caumel (auth.) probabilites et processus

11. Problemes 291

L= λW (formule de Little) ; Lq =Wq = 0.

(4) π0 =(

1+ρ+ ρ2

2 + ρ3

6

)−1avec ρ = 10

8 = 1,25 ;

π0 = (1+1,25+0,78125+0,32552)−1, soit π0 ≈ 0,298.

Probleme 20(1) Le systeme possede quatre etats :e1 : « les 3 composants fonctionnent » ; e2 : « A est en panne, B et C

fonctionnent » ; e3 : « B en panne, A et C fonctionnent » ; e4 : « le systeme esten panne ».

A=

⎛⎜⎜⎝−(λ1 +λ2 +λ3) λ1 λ2 λ3

0 −(λ2 +λ3) 0 (λ2 +λ3)0 0 −(λ1 +λ3) (λ1 +λ3)0 0 0 0

⎞⎟⎟⎠ .

Equation de Kolmogorov : p′1(t) =−(λ1 +λ2 +λ3)p1(t).D’ou p1(t) = exp(−(λ1 +λ2 +λ3)t), et p′2(t) = λ1p1(t)− (λ2 +λ3)p2(t).

Considerons la transformee de Laplace de l’equation differentielle prece-dente :

L2(s) =λ1

(s+λ2 +λ3)(s+λ1 +λ2 +λ3)=

1s+λ2 +λ3

− 1s+λ1 +λ2 +λ3

d’ou : p2(t) = e−(λ2+λ3)t − e−(λ1+λ2+λ3)t .

On obtient de la meme facon : p3(t) = e−(λ1+λ3)t − e−(λ1+λ2+λ3)t .D’ou, si T est la duree de vie : P([T > t]) = p1(t)+ p2(t)+ p3(t) = 1− p4(t)

et

IE(T ) =∫ +∞

0P([T > t])dt =

1λ1 +λ3

+1

λ2 +λ3− 1

λ1 +λ2 +λ3.

Probleme 21(1) On suppose que h est tel que 1 > a> 0.

Vn+1 = aVn+bYn−1.

Entre les instants nh et (n+1)h, Xn+1−Xn = hVn.

(Xn,Vn) est un vecteur gaussien (stabilite par somme de v.a. gaussiennes).

IE(Xn) = v1−an

λ; IE(Vn) = v.an

V (Xn) =b2h2

(1−a)2

(n−1− 2+a

1−a2 +2an

1−a− a2n

1−a2

)

Page 298: Yves caumel (auth.) probabilites et processus

292 Probabilites et processus stochastiques

V (Vn) =b2

1−a2 (1−a2n)

cov(Xn,Vn) =b2h

(1−a)2

(a

1+a−an+

a2n

1+a

).

(2) Le couple (Xn,Vn) converge en loi vers le vecteur gaussien (Xt ,Vt)

IE(Xt) = v1− e−λ t

λ

IE(Vt) = v.e−λ t

cov(Xt ,Vt) =

(2Dt+ D

λ (−3+4e−λ t − e−2λ t) D(1− e−λ t)D(1− e−λ t) λD(1− e2λ t)

).

Quand t→+∞, IE(Vt)→ 0, V (Vt)→ λD et limt→+∞

(Vt) est de loi N (0,λD).

Probleme 22

(1) P(Wt � c) se reduit a P(Wt � c | Tc � t).P(Tc � t) = 12

P(Tc � t) = 2.P(Wt � c) = 2√2.π

∫ +∞c√te−

x22 .dx

fTc(t) =c√2.π

t−32 e−

c22t (∀t > 0).

(2) P(Tc <+∞) = 1

E(Tc) =∫ +∞

0 P(Tc > t)dt = 2a2√2π

∫ +∞0

1x2 e

− x22 .dx

qui est superieur a 2a2.e−12√

2.π

∫ +∞0

1x2 dx=+∞.

Page 299: Yves caumel (auth.) probabilites et processus

Annexes

Page 300: Yves caumel (auth.) probabilites et processus

Bibliographie

Theorie des probabilites

Barbe Ph., Ledoux M. (2007) Probabilite, BelinBon P.L., Fiabilite des systemes (1995) MassonBouzitat C., Pages G., En passant par hasard : les probabilites de tous les jours

(1999) VuibertBouleau N., Probabilites de l’ingenieur (2002) HermannBreiman L., Probability (1992) Addison-WesleyCottrell M. et al, Exercices de probabilite (1999) CassiniCover T.M., Thomas J.A., Elements of information theory (2006) WileyDauxois J., Hassenforder C., Toutes les probabilites et les statistiques (2004) El-lipsesDelmas J.P., Introduction aux probabilites (1993) EllipsesFeller W., An introduction to probability theory and its application (1970) WileyFoata D., Fuchs A., Calcul des probabilites (2003) DunodGirardin V., Limnios N., Probabilites (2001) VuibertNeveu J., Bases mathematiques du calcul de probabilites (1970) MassonOuvrard J.Y., Probabilites (1998) CassiniToulouse P.S., Themes de probabilites et statistiques (2000) DunodTuffin B., La simulation de Monte-Carlo (2010) Hermes Science-Lavoisier

Processus aleatoires

Baynat B., Theorie des files d’attente (2000) HermesBercu B., Chafai D., Modelisation stochastique et simulation (2007) DunodBouleau N., Processus stochastiques et applications (2000) HermannBremaud D., Markov chains (1998) SpringerCharbit M., Elements de theorie du signal : aspects aleatoires (1996) EllipsesChung K.L., Aitsahlia F., Elementary probability theory (2003) SpringerCocozza-Thivent C., Processus stochastiques et fiabilite des systemes (1997) Sprin-gerDelmas J.F., Jourdain B., Modeles aleatoires (2006) SpringerFoata D., Fuchs A., Processus stochastiques (2002) DunodGrimmett G.G., Stirzaker D.R., Probability and random process (1994) OxfordScience PublicationKleinrock L., Queuing systems, vol. I et II (1975) Wiley and sonsLefebvre M., Processus stochastiques appliques (2005) HermannOksendal B., Stochastic differential equations (2003) SpringerPardoux E., Processus de Markov et applications (2007) DunodYcart B., Modeles et algorithmes markoviens (2002) Springer

Analyse fonctionnelle, mesure et integration

Caumel Y., Cours d’analyse fonctionnelle et complexe (2003) CepaduesGasquet C., Witomski P., Analyse de Fourier et applications (1996) DunodSamuelides M., Touzillier L., Analyse fonctionnelle (1989) Cepadues

Page 301: Yves caumel (auth.) probabilites et processus

296 Probabilites et processus stochastiques

Articles

DUPLANTIER E., Le Mouvement brownien, « divers et ondoyant » (2005) Seminaire Poincare I JANVRESSE E., La loi de Benford, Images mathematiques http://images.math.cnrs.fr/ KAHANE J.P., Le Mouvement brownien, (1998) Societe mathematique de France MALRIEU F., Vitesse et position d'une particule (2009) Preparation a l'agre­gation Rennes-I MANSUY R., Des des diaboliques (2009) Quadrature, n° 74

Page 302: Yves caumel (auth.) probabilites et processus

Annexes 297

Quelques resultats particulierement interessants

• Repartition des nombres premiers 11• Probleme de Buffon 54• Construction de la loi de Gauss 38• Caracterisation geometrique du vecteur gaussien 64• Le paradoxe du prisonnier 116• Caracterisation entropique des lois de probabilites 137• Loi arcsinus ou le paradoxe du jeu de pile ou face 163• Paradoxe de la station de bus 184• L’etrange loi de Benford 262• Marche aleatoire isotropique 266• Calcul d’integrale par la methode de Monte-Carlo 267• Evolution des suites de records 267

Intermedes historiques et bibliographiques

• Andrei Kolmogorov 5• Emile Borel 6• L’origine de la notion de probabilite 9• Systemes generateurs de hasard 11• Mathematisation du hasard au xvii

e siecle 28• Carl Friedrich Gauss 35• Simeon Denis Poisson 73• De Jacques Bernoulli a Gauss 94• Paul Levy 97• Les methodes de Monte-Carlo 100• Pierre-Simon de Laplace 103• Le hasard en physique 107• Essor de la theorie des processus aleatoires 172• L’entropie en physique statistique 137• Suites aleatoires 141• Modelisation du mouvement brownien 251

Page 303: Yves caumel (auth.) probabilites et processus

298 Probabilites et processus stochastiques

Theoremes importants

• Proprietes d’une probabilite 4• Probabilites totales 5• Proprietes de l’esperance 24• Proprietes de la variance 25• Inegalites classiques 33• Proprietes de l’esperance et de la covariance d’un vecteur aleatoire 51• Independance des composantes d’un vecteur aleatoire 56• Proprietes du coefficient de correlation lineaire 56• Fonction caracteristique d’une somme de v.a. independantes 59• Probabilite image 73• Calcul de loi par diffeomorphisme 74• Identification fonctionnelle 75• Stabilite de la normalite par somme independante 76• Theoreme de Levy 96• Loi faible des grands nombres 99• Theoreme limite centrale 100• Formules bayesiennes 115• Proprietes de l’esperance conditionnelle 128• Conditionnement gaussien 134• Chapman-Kolmogorov (chaınes discretes) 155• Caracterisation des etats recurrents 158• Chacon-Ornstein 168• Wiener-Khintchine 238• Proprietes du processus de Wiener 244• Equation de Chapman-Kolmogorov (c.m.c.) 204• Equation d’equilibre (c.m.c.) 211• Equations de diffusion 248• Flux dans un reseau ouvert 223

Page 304: Yves caumel (auth.) probabilites et processus

Annexes 299

Formulaire mathematique

n!�(n grand)

(ne

)n √2πn.

Pour tout p et q> 1∫ 1

0xp−1(1− x)q−1 dx=

Γ(p)Γ(q)Γ(p+q)

≡(note) B(p,q).

Pour tout p� 1 :∫ +∞

0xp−1e−x dx≡(note) Γ(p) egal a (p−1)! si p entier.

Pour tout reel a �= 0 :∫ +∞

0e−a

2x2dx=

√π

2|a|n

∑i=1

i=n(n+1)

2≡ S1

n

∑i=1

i2 =n(n+1)(2n+1)

6≡ S2

n

∑i=1

i3 =n2(n+1)2

4≡ S3 = S2

1.

Les symboles F et L (ou L) designent les transformations de Fourier et de La-place appliquees a des fonctions dont les transformees correspondantes sont supposeesexister.

F ( f )(ν) =∫ +∞

−∞f (t)exp(−2iπtν)dt

F

(1

σ√

2πexp

(− t2

2σ2

))(ν) = exp(−2π2ν2σ2)

F

(exp(− tT

)1R+

(t))(ν) =

T1+2iπνT

.

Pour tout a> 0, F

(f( ta

))(ν) = aF ( f )(aν)

F ( f �g) = F ( f ).F (g)

L ( f )(s) =∫ +∞

0f (t)e−st dt.

Pour tout t > a> 0, L ( f (t−a))(s) = exp(−pa)L ( f )(s)

a> 0 ; L

(− t2

2a2

)(s) =

√π

2aexp

(a2s2

2

)erfc

(as√

2

)L ( f �g) = L ( f ).L (g).

Page 305: Yves caumel (auth.) probabilites et processus

Index

Symbols

Evenements, 2

A

Absence de memoire, 31Absorbant (etat), 155Aperiodique (etat), 164Arrangement, 8Autocorrelation, 235

B

Benford (loi), 262Bernoulli, 55Borel, 1Box-Muller (methode de), 82Brown, 242Bruit blanc, 150Buffon (probleme de), 54

C

Cardano, 9Chaıne de Markov, 149

ergodique, 168homogene, 152induite (ou incluse), 213irreductible, 158recurrente, 160

Chacon-Ornstein (theoreme), 168Changement de variables (methode),

74Chapman-Kolmogorov (equation), 155

Codage, 135Coefficient

de correlation, 56multinomial, 9

Combinaison, 8avec repetition, 8

Combinatoire, 7Complementaire, 2Conditionnements successifs (theoreme),

116Convergence, 93

en loi, 93en moyenne quadratique, 93en probabilite, 93presque sure, 93

Convolution, 54Covariance, 50

d’un vecteur aleatoire, 50de deux v.a., 56

Cycle, 164

D

Densite, 29conditionnelle, 119conjointe, 61de probabilite, 29marginale, 52spectrale, 150

diagramme, 21Diffeomorphisme, 74Doob, 172Droite de regression, 130

E

Ecart-type, 25Einstein, 108Ellipse de dispersion, 63Entropie, 135Equation

d’equilibre, 213de flux, 223

Erlang, 203Esperance conditionnelle, 117Espace

Page 306: Yves caumel (auth.) probabilites et processus

Index 301

fondamental, 2probabilise, 6produit, 20

Evenementscertains, impossibles, 2disjoints, incompatibles, 2independants, 6mutuellement independants, 7rares (hypothese des), 181

F

Fiabilite, 78, 124Files d’attente, 150Fonction

caracteristique, 58d’erreur, 37de repartition, 21de renouvellement, 191de survie, 124generatrice, 25, 57mesurable, 52

Formulede Bayes, 115de Stirling, 9des erreurs relatives, 57

G

Gauss, 35Gaussien

vecteur, 60vecteur (degenere ou non), 62

Gestion de stocks, 169Grandes deviations, 102

I

Identite de Poincare, 4Inegalite

de Bienayme-Tchebycheff, 267de Cauchy-Schwarz, 56de Jensen, 33de Markov, 33

Independance, 6conditionnelle, 115

mutuelle, 7Indicatrice, 30Information, 135Intensite (d’une loi de Poisson), 26

J

Jackson (reseaux), 222

K

Kendall (notation), 215Kolmogorov, vii

L

Levy (theoreme), 96La Vallee-Poussin (theoreme), 12Langevin, 252Laplace, 95Limite Centrale (theoreme), 34Little (formule), 217Loi

Arcsinus, 297binomiale, 21conjointe, 46de Bernoulli, 58de Cauchy, 32de Fisher-Snedecor, 83de Gauss, 34, 95de Pareto, 37de Poisson, 26de probabilite, 46de Student, 84de Weibull, 125exponentielle, 30faible des grands nombres, 99forte des grands nombres, 104geometrique, 27gamma, 78gaussienne, 94initiale (d’une chaıne), 155limite, 168marginale, 49multinomiale, 184normale, 34

Page 307: Yves caumel (auth.) probabilites et processus

302 Probabilites et processus stochastiques

stationnaire, 165uniforme, 30

M

M/G/1, 221M/M/1, 217M/M/s/K, 219Methode

d’identification fonctionnelle, 75Marche aleatoire, 266Matrice

de covariance, 50de transition, 154

Mesure absolument continue, 29Moivre-Laplace (theoreme), 97Moment

d’ordre n, 59d’une v.a., 59

Monte-Carlo, 81Multisenseur, 48

N

Nombres premiers (repartition), 11

P

Paradoxe des stations de bus, 184Paradoxe du prisonnier, 116Parametres de performance, 217Passe-dix (jeu du), 10Presque sur (evenement), 5Probabilite, 3

conditionnelle, 113de transition, 152produit, 20

Probabilites composees, 95Processus

aleatoires, 149autoregressif, 264d’Ornstein-Uhlenbeck, 254de branchement, 268de comptage, 179de croissance, 214de decroissance, 214

de Ferry-Yule, 214de Poisson, 179de Poisson decale, 186de Poisson non homogenes, 187de Poisson spatiaux, 188de renouvellement, 191du second ordre, 93ergodique, 241gaussien, 240

Produit de convolution, 76

R

Realisation (d’un processus), 152Recurrent (etat), 158

nul, 159positif, 159

Regressionlineaire, 130non lineaire, 131

Reseaude files d’attente, 222de Gordon-Newel, 227de Jackson, 222de Jakson ouvert, 222

Regle des trois sigmas, 33Radon-Nykodim (theoreme), 29

S

Shannon, 135Signal du telephone, 149Simultations de lois, 81Stabilie

pour la somme de v.a., 72Stationnaire (distribution), 165Support d’une probabilite, 30Systeme

complet d’evenements, 115en parallele, 79en serie, 79

T

Taux d’utilisation, 217Taux de defaillance instantane, 124

Page 308: Yves caumel (auth.) probabilites et processus

Index 303

Taux de defaillance moyen, 124Taux de transition instantane, 205Transformation

de Fourier, 58Transition

graphe, 153probabilite, 151

Transitoire (etat), 158Tribu, 3

borelienne, 3produit, 20

U

Urne d’Ehrenfest, 153Usure, 31

V

v.a.absolument continue, 29discrete, 21

Variables mixtes, 80Variance, 24

d’une v.a., 25totale (theoreme), 133

Vecteur aleatoire, 46

W

Wiener-Khintchine (theoreme), 238