Theorie Des Probabilites

363
Ftç a: ---' _ -- t-r,r.r,]l 1l école notionole supérieure du pétrole et des moteurs Ph. TASSI et S. LEGAIT théorie des probabilités en vue des applications statistiques ffi? .$ffiffi ,dffifl ,:*- ,, i -l ,tri'[e;Ë t" .',: o) 6 {) o = o L o o. c o f o .c (D E o .o o a a f o- / .. tj.i.' rll:-9.:l:11 .\ ,#fr.&TfrIr .ri'*1H1i*'r *;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':* TUTIONS TECHNIP

Transcript of Theorie Des Probabilites

Page 1: Theorie Des Probabilites

Ftça:

---' _ -- t-r,r.r,]l

1l

école notionole supérieure du pétrole et des moteurs

Ph. TASSI et S. LEGAIT

théoriedes probabilitésen vue des applicationsstatistiques

ffi?.$ffiffi

,dffifl,:*- ,, i -l

,tri'[e;Ë t" .',:

o)6{)o=oLoo.co

f

o.c(DEo.ooaafo-

/ .. tj.i.'

rll:-9.:l:11 .\

,#fr.&TfrIr

.ri'*1H1i*'r

*;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*

TUTIONS TECHNIP

Page 2: Theorie Des Probabilites

-lI

i3

I

III

I

IIII

I

I

, ll'i:

,t**jt-"\{u ':, :'r- Q''|ra

1lilitfiil

5l-9.21-:3il352

i-IlI

TAS

Page 3: Theorie Des Probabilites

, .r - I r' .- "l f

{,1' ù '') '-' i 't

519. ?1-:3il TASAR?

Page 4: Theorie Des Probabilites

INSTITUT FRANÇAIS DU PETROLE

École Nationale Supérieuredu Pétrole et des Moteurs

Centre d'études supérieuresd'économie et gestion

Théoriedes probabilités

en vue des applications statistiques

Philippe TassiDirecteur scientifique de Médiamétrie

Professeur à I'ENSPM et à I'ENSAE

Sylvia LegaitAttaché de t'INSEE

Éotnorus rEcHNtp27, rue Giroux75737 Paris Cedex 15

Page 5: Theorie Des Probabilites

@ lgg0. Editions Technip, Paris

et Institut Frmtçais du Pétrole, Rueil-Malmaison

tsBN 2-7108-0582-OrssN 0758-147X

Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soilest rigouretnement interdite par les lois en vigueur

Page 6: Theorie Des Probabilites

AVANT-PROPOS

déjà longue histoire des méthodes scientifiques montre que la principalevictoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge du doute. Lescientifique éclairé remprace de prus en prùs fréquemmenio"" uttirrations comme"le résultat est ...> par des interrogations : *queile est ra probabirité pour que rerésultat soit ..". Le calcul et la théàrie des probabilités jouent, et joueront un rôlefondamental dans ra démarche scientifique, d'une part en raison de ra nature aréa_toire de la plupart des problèmes réels, d""utr" part grâce à la nécessité de recouriraux méthodes statistiques de traitement de donnée-s sans cesse plus nombreuseset complexes à analyser.

Le déterminisme étant souvent une réduction hâtive de la réalité, il n'est plus,maintenant, d'ingénieur chimiste. physicien, fiabiriste, astronome, sans parrer biensûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement des sciencessociales et humaines, qui n'aient à manipurer res "onË"pt,

ài r"" modères de raprobabilité et de la statistique. Mentionnons, à titre 0,""".pie, ra physique desparticules : les électrons ne décrivent pas des trajectoires autour du noyau commele font les planètes autour du soleil. Les particules obéissent en effet aux lois de lamécanique quantique, et la notion de trajectoire doit être abandonnée. De manièregénérale, la seure chose qu'ir est possiÉre de connaître est la probabilité de pré_sence d'une particule en un point donné et à un instant donné.

, .L',ouvrage propose une introduction aux principales notions des probabilitésdont le praticien sera amené à se servir. ll est rédigé pour des lecteurs déjà familia-risés avec un certain bagage mathématique en anaryse et en argèbre. En effet,l'usage de plus en plus repându des méthodes proba'bilirt""-I qui ira encore engrandissant de par re déveroppement de rogiciers adaptés - montre qu'une mau-vaise connaissance des propriétés fondamentares des techniques est à r,origined'interprétations parfois aberrantes des résultats. ll nous apparaît donc importantd'insister sur les bases, afin de faciliter la compréhension des méthodes. La rédac-tion fait en outre appel à de nombreux exemples d'applications et exercices résolusou à résoudre.

. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique.maintenant classique, de Kormogorov. il'contient égarement res résurtats sur reconditionnement er [indépendanCe. et le célèbre théJrème dû à Thomas Bayes, ditde nprobabilité des causes>

chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare,de la mesure et présenre res principaux étéments de rintàgr"tion générarisée ausens de Lebesgue, dont ra pubrication, au début du 2o'"siècre, a permis une

PH. TASSi - S. LEGAIT

Page 7: Theorie Des Probabilites

AVANT PROPOS

approche unifiée des probabilités. Nous avons adopté cette démarche car elleapparaît pédagogiquement intéressante, de par l'unification du langage qu'ellepermet et la portée des propriétés qu'elle engendre.

Dans le troisième chapitre sont regroupés les principaux résultats sur les varia-bles aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des casparticuliers de ceux obtenus au chapitre 2.

Le chapitre 4 est important pour le praticien: il fournit les définitions et pro-priétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applica-tions. ll donne également les principes des papiersfonctionnels adaptés à la déter-mination d'une loi de probabilité au vu des données, ainsi que des éléments sur lagénération d'échantillons aléatoires souvent utilisés en simulation.

Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoirdonné une représentation géométrique de certains des outils de la statistique des-criptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et larégression.

Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsquel'on veut connaître la loi d'une somme de variables ou étudier les comportementsasymptotiques : il s'agit de la fonction caractéristique.

Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreu-ses applications statistiques sont fondées sur des propriétés (aux limites,, autori-sant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'undes indices les plus utilisés en statistique est le nornbre des observations: lorsqu'ilest impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorisel'usage de résultats approximés.

Un certain nombre de compléments et d"approfondissements font l'objet duchapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance,existant entre deux lois de probabilités. ou entre des observations et un modèlethéorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.

L'observation de données aléatoires fait parfois apparaître un ordre naturel :

ainsi un phénomène qui va en s'amplifiant donnera naissance à des données ran-gées en ordre croissant. En outre, depuis quelques années, on voit se développer'des méthodes statistiques utilisant des observations ordonnées, méthôdes dont lespropriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacréaux résultats probabilistes particuliers à ce type de modèle ordonné.

Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une géné-ralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent estcelui des séries temporelles, dont l'observation varie non seulement en fonction del'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournitdes résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exem-ples de processus, en particulier les processus autorégressifs et moyenne mobiletrès répandus en automatique et en prévision.

Les auteurs

PH. TASSI S. LEGAIT

Page 8: Theorie Des Probabilites

TABLE EES MATIERES

AVANT PROPOSTABLE DES MATIERES

Chapitre 1 : LES eONCEPTS pROBAB|L|STES1 Espace probabitisable

1 .1 Ëxpérience aléatoire1.2 Evénement

2 Propriétés des tribus3 Ouelques tribus particulières

3.1 Exemples "...3.2 Tribu engendrée3.3 Tribu borélienne

4 Probabilité sur un espace probabilisable4.1 Définirion d'une probabiliré4.2 Propriétés d'une probabilité

Fonction de répartitionProbabilité conditionnelle, indépendance d,événernents

6.1 Probabilité conditionnelle .6.2 lndépendance . .

6.3 Théorème de BayesExercices

Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON1 La théorie de la mesure : histoire et apport aux probabilités2 Notion de mesure

2.1 Déf initions2.2 Propriétér . ::::' '

2.3 Meiure.iriin, sii ".:: :.:. :::::::.'3 Mesurabilité

3

5

11

121212

13

161616

5

6

17

181821

22

2323

3.1 Application mesurable3.2 Mesure-image3.3 Tribu-produit .

242729

33

33

35353739404A4344464648

4lntégration ...4. 1 lntégration des fonctions mesurables étagées positives4.2 lntégration des fonctions mesurablei positives

PH TASSI . S. TEGAIT

Page 9: Theorie Des Probabilites

TABLE DFS MATIERES

4.3 Fonctions intégrables4.4 Propriétés de l'intégrale4.5 Généralisation4.6 Exemples ...

5 Négligeabilité .

5.'l Définitions5.2 Propriétés

6 Mesure définie Par une densité

7 lntégration par rapport à une mesure-image

8 lntégration par rapport à une mesure-produit8.1 Mesure-produit8.2 lntégration

Exercices

Chapitre 3 : LES VARIABLES ALEATOIRES

1 Caractéristiques des variables aléatoires réelles (unidimensionnelles)

1.1 Fonction de répartition . . ' .

1.2 Densité de probabilité . . ' .

1.3 Moments ...1.4 Fractiles1.5 Changement de variables

2 Vecteurs aléatoires2.1 Fonction de répartition2.2 Densité de probabilité . . ' .

2.3 Moments ...2.4 Changement de variables2.5 Lois marginales2.6 lndépendance2.7 Lois conditionnelles

Exercices

Chapitre 4 : LES LOIS DE PROBABILITE USUELLES

1 Les lois discrètes . . " .

1.1 La loi de Dirac1.2 Loi indicatrice (ou loi de Bernoulli) .. .'1.3 Loi de Poisson1 .4 Loi binomiale1.5 Loi multinomiale . . .

1,6 Loi hypergéométrique1.7 Loi binomiale négative

2 Les lois continues elassiques2.1 Loi uniforme2.2 Loi gamma

50515253

545455

59

61

646465

67

71

727273757778

8080808285868791

103

107

107107108109110110113115

1161161171192.3 Loi de Weibull

PH TASSI S. LEGAII

Page 10: Theorie Des Probabilites

TABLE D.ES MATIERES

2.42.52.62.72.82.92.102.11

Loi bêta

Loi normale unidimensionnelleLoi normale multidimensionnelle

Loi de Gumbel

Loi log-normaleLoi du khi-deuxLoi de Student

121124124131135136138140

142143143147

148148150152154158

165

165165rob169

171171174175180

185

185185187190

191

Loi de Fisher-Snedecor

Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES ...1 Espaces de variables aléatoires

1.1 Les espaces 9, elL. . . _. '

1.2 Lesespaces7jett'. -._. ' "1 .3 Les espaces 9É et I

z - ' '

Un peu de géométrie2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : : : : : : :. :. : : :. : : : :2.2 Géométrie dans.L,

3 I ltry"'jmarion.daÀ's L, ....... : :...

3 Les papiers fonctionnels3 1 Principe des papiers fonctionnels:.: _,,,,v,r/ç uçù pcrpters toncltonnels3.2 txemples de construction de papier fonctionnel3.3 Cas de variables discrètes

4 Divers4.1 Création de lois de probabilité4.2 Les coefficients de symétrie et d.ailaiissement11 Y:" srrucrure générâre , ra tamiirËïfànentierre4.4 Génération d'éôhantillons aléatoires

Exercices

2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent

Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE1 Définition et propriétés d,une fonction caractéristique

1.1 Définition ...1 .2 Propriétés1 3 Un "^".ft"

j" i"i'jËii"i;;;, ;;i;'2 Fonctions caractéristiques des lois de probabilité usuelles

2.1 Loi de Dirac ....2.2 Loi de Bernoulli2.3 Loi binomiale2.4 Loi de Poisson2.5 Loi uniforme continue2.6 Loi gamma2.7 Loi normale2.8 Loi du khi-deux2.9 Loi de Cauchy

191191191191192192192192192

1PH TASSI . S. LFGAIT

Page 11: Theorie Des Probabilites

TABLE DFS MATIERES

2.10 Loi de Laplace 192

2.11 Loinormale multidimensionnelle 193

2.l2Loimultinomiale.'. 193

3 Applications de la fonction caractéristique

3.1 Loi d'une somme de vecteurs aléatoires3.2 Caractérisation de l'indépendance de3.3 Obtention des moments non centrés . .

4 Seconde fonction caractéristique . . . .

4.1 Définitionsetpropriétés '. """":4.2 Applications aux développements d'Edgeworth et de

Gram-Charlier ...Exercices

Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES

3.1 Définition de la convergence en loi

3.2 Caractérisation de la convergence en

Comportements asymptotiquement gausslens

Application aux lois de probabilité classiques

aléatoires

'roi".:::::.::::::.::::::: î12

227

231

deux vecteurs

194194195196

199199

202

206

207

247'! Convergence Presque sûre .

2 Gonvergeneeenprobabilité .""! 209

2.1 Cas des variables aléatoires réelles 209212

2132.2 Cas des vecteurs aléatoires . . ' . .

3 Convergence en loi . . .

4 Relations entre les diverses formes de convergence

4.1 lmplicationsdiverses ..'.4.2 Théorèmes de combinaison . '

Les lois des grands nombres

218218221

223

231232234235

236238

241

241

241242243244

5

6

77.1 Loi de Poisson7.2 Loi binomiale7.3 Loi gamma7.4 Loi du khi-deux7.5 Précision de l'approximation gaussienne donnée par le théorème

central limite

Exercices

chapitre 8 : COMPLEMENTS ET APPROFONDISSEMENITS SUR LES

LOIS DE PROBABILITE

tr Les distances,1 La distance de Paul LévY2 La distance en variation.3 La distance de Hellinger.4 La distance de LiPschitz

PH TASSI , S. LEGA]T

Page 12: Theorie Des Probabilites

TABLE DES MATIFBFS

La distance de prohorovComparaison de distancesAutres indicateu rs ci'écartRetour sur les convergences

Application à la fonction de répartition empirique2.1 Propriétés à distance finie2.2 Propriétés asymptotiques2.3 Vitesse de convérgence : loi du logarithme itéré2.4 lndicateurs de proiimité avec Fn . " . .-. .

3 Ordres sur les variables aléatolres

Chapitre 9 : OBSERVATTONS OFDONNEES1 Loi de l'échantillon ordonné

1.1 Définition de la staristique d,ordre1.2 Loi de la statistique d,ordre

3 Comportement asyrnptotique3.1 Convergence d'un fractile empirique3.2 Convergences des valeurs exirêmes

2 Lois particulières de l'échantillon srdonné . . . . 263?1L"' de X1r1

2632.2 eas partiiulier des valeurs extrêmes 2662.3 Loijointe d,un couple (X1py X1l/ 2672.4 Catcutdesmomenrs ..'.':..':'......:.:::.:.:.:::.:::.. 268

1.51.61.71.8

244245246249

251252252253254

258

261

26a,

261262

3.3 Les lois des extrêmes3.4 Eléments sur la démonstration des convergences en loi 6e Xlny

4 La loi de l'étendue4.1 'Résultar

général4.2 L'étendue W

Chapitre't 0 : NOTTONS ELEMENTATRES SUR LES PROCESSUS .....1 Définition d'un processus aléatoire

1.1 Définition d'un processus1.2 Processus équivalent

2 Processus stationnaires . .

2.1 Stationnarité stricte2.2 Stationnarité faible2.3 Remarques diverses sur la stationnarité

3 Corrélation et corrélogramme3.1 Le coeff icient d'autocorrélation3.2 Exemples de corrélogrammes

PH.TASSI .S LEGAIT

273273275276280

284284286

289

289289290

291291292293

296296298

Page 13: Theorie Des Probabilites

TABLE DES MATIEBES

4 Fonction d'autocorrélation partielle . . .

4.1 Définition générale4.2 Le théorème de Frisch et Waugh ' .. . . . '4.3 Système de dé4.4 Un exemple

termination de (h)

5 Les opérateurs B et F

Chapitre 11 : EXEMPLES DE PROCESSUS ' ' ' 3O7

1 Le processus de Poisson 3O7

1.1 Les processus à accroissements indépendants 3O7

1.2 Le processus de Poisson 308

Les processus de vie et de mort 310

311

311311312

Le mouvement brownien

302

302302303304

304

2

3

4 Les processus autorégressifs4.1 Définition .. .

4.2 Etude du modèle AR(P) .

5 Les processus moyenne mobile 319

5.1 Définition ... 319

5.2 ProPriétés d'un MA(q) 319

5.3 Remarque sur le lien'entre AR et MA ' : ' ' ' ' 320

BIBLIOGRAPHIE . 323

TABLES NUMERIOUES 327

INDEX 355

1CPI'J. TASSI - S. LEGAIT

Page 14: Theorie Des Probabilites

Chapitre 1

Les concepts probabilistes

Dans de nombreux domaines relevant ou non de I'expérimentation scientifi-que' le langage courant fait de plus en plus appel au vocabulàir.e probabiliste. engen-rant d'ailleurs de nombreux barbarismes ou'impropriétés o,usàge. on parlera ainsid'événement (plus que probabreu ; un match de sérection en rugoy opposera resupossiblesn contre les uprobabres) ; une situation à venir sera décrite comme <pos_sible. sinon probable, I etc.

De telles expressions, mQme impropres, montrent que rincertain, r,aréatoire,prennent le pas sur le déterminisme.'Raison supplémeniaire pour fonder sur desbases solides la théorie et le calcul des probabilités. développer son enseignementet vulgariser ses résultats

si le concept des probabirités remonte aux Egyptiens et aux Grecs, ra probabi-f ité en tant que nombre compris entre o et r #Àuià

"pp"Ëitr" au 17. siècre.Fermat et Pascal connaissent implicitement l'axiome o'aâ'oitivite et la notion deprobabilité conditionnelle. Dès ta iin oe ce siècre ""irt"niià"pLrance, tes tois desgrands nombres de Bernoulli. Le 18" siècle voit se développài'le conoitionnement,la formule de Bayes, ra théorie asymptotique,.et |usage des probabirités en physi_que et en astronomie. ce^s applications aux science. "i."t". ôt àrr sciences socia-

[:f;":"rr.uivent au 19" siècte, sous t,imputsion de A"fàrann, Laplace, Ouétef"t,

De nombreuses approches du concept de probabirité ont été proposées : onpeut citer, par exempre, r'interprétation fréqueniiste tIàprace, von Mises) fondéesur la norion d'expériences répétées, ta pronaoitite;;t;;;ri;;(Keynes, Koopman),la théorie logique (carnap), la'formaiisaiion suolective ioe rinetïi, savage), t,appro-che purement mathématique (Kolmogorov).

Le lecteur intéressé par l'étude comparative de ces diverses fondations desprobabilités pourra se reporter à r'ouvrage de T. Fine- p* il;iË#;Ëï;;avons choisi la présentation abstraite deé axiomes oe ror,.nogolJu,

"ouu"nt apperée(point de vue de ra théorie de ra mesure>, comme nous re verrons au chapitre 2.cette approche définit une structure purement mathématique, peu interprétable apriori

.en pratique. Elle n'est cependant pas sans liaison "u""

i;int"rprétation fré-quentiste, mais ne la requiert point. On gardera néanmoins en mémoire cette der-nière, pour la facilité de compréhension.

PH TASSI - S. LEGAIT 1 1

Page 15: Theorie Des Probabilites

LES CONC EPTS PFOBABILISTES

1 ESPACE PROBABILISABLE

1.1 Expérience aléatoire

En guise d'introduction, nous allons considérer I'expérience physique qui

consiste à .esuret la différence de potentiel U s'exerçant entre les bornes d'un

circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité| : 2 ampères. Si le montage de l'expérience est parfait, le voltmètre indiquera une

d.d.p. U : Rl : 20 volts. Tôutes choses égales par ailleurs, les mêmes conditionsd'eipérience conduiront toujours au même résultat de 2O volts. Ce type d'expérience

sera qualifiée de déterministe, le résultat étant parfaitement déterminé par laconnaissance des paramètres qui la régissent (résistance. intensité).

par opposition, une expérience sera dite aléatoire si son résultat ne peut être

prévu a priori.

On note par Q I'ensemble de tous les résultats possibles pour une expérience

donnée ; Q esi le référentiel, ou l'espace fondamental de l'expérience. Un élément

a,l de O est dit résultat élémentaire.

Exemples

a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé

régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }'

b) Soit l'expérience consistant à tirer au hasard un individu dans une popu-

lation de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S!

l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé

d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des

Cff échanti llons potentiels.

1.2 Evénementll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)

élémentaires : on peut concevoir sanS difficulté un oévénement complexe> compre-

nant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effec-

tuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est

l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement telque *le résultat d'un lancer est pair, est un événement aléatoire complexe, com-josé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant

I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme

tous les échantillons de taille n contenant l'individu L Cet événement E est donc la

réunion O"s Ci-] échantillons vérifiant cette propriété.

A un événement E (complexe), peuvent donc être associés tous les événe-

ments élémentaires qui le définissent'; si l'un d'entre eux est réalisé iors de l'expé-

rience, l'événement E le sera également.

12 PH. TASSI S. LEGAIT

Page 16: Theorie Des Probabilites

LES C ONC EPTS PROBABITISTES

Notons ,41'ensemble de tous les événements aléatoires ; en |,absence de touteidée a priori sur res événements susceptibres d'intéresser i,""perir*nt;Ë;,;;pourra prendre .& : g (A), ensemble des parties Oe O. - - - -

Historiquement, des conditions de manipulation des événements ont conduità doter -4 d'une structure d'algèbre, c'est-à-dire que .4"rt-un" crasse de parties,de Q, contenant Q, et stabre pa'. intersection et comprémentation (et donc par réu_nion) ; sont vérifiées les conditions suivantes :

oQtr-'.r4o A€ ,tC., B€.4+ A)B€.&c A € .4 + Ae u4 Â désigne le complémentaire de A dans e).Cependant' dans une structure d'algèbre, la stabilité par réunion ou inter-section dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à rfi,

"st une suite crois_

sante d'événements de ,4, c'est-à-dire une suite te'ile que An C An*r,de rimiteo: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, oun

I e e; de même pour la limite d'une suite décroissante. cette non-stabilité <auxlimites" a conduir natureilemenr à munir ,4 a'""e sii"cilàê,riu", ou a-argèbre.

Définition 1

Une tribu (ou o-argèbre) sur |espace fondamentar e est une crasse .dl departies de e vérifiant ;

o Q€,"r/o,-4 est stable par complémentation, i.e. :A Ç .4+Ae .&.,(/ eststable par réunion dénombrable : Ane .il,yn€ lN +

n !,* Ona,

Le couple &, ,',/7 est apperé espace probabirisabre (on dit aussr espace mesu-rable) ; un élément de -4 est un événement.

Remarque : la théorie des probabirités a son vocabulaire propre ; ainsi deux évé_nements A et B sont dits incompatibles si A O B: e,

2 PROPRIETES DES TRIBUS

cette partie est composée de rappers mathématiques sur res tribus, et peutêtre omise par le lecteur bien au fait des propriétés de ces structures. Certainesdémonstrations font l'objet d'exercices simples.

Propriété I

Une tribu est stable par intersection dénombrable.

PH. TASSI - S. LEGAIT

Page 17: Theorie Des Probabilites

LES CONCEPTS PROBABILISTES

En effet, (An)ne ru

étant une suite d'éléments de ''&' on a:

ô An= (uA").nn

Or UÂ e.& d'après b et c. et (U4) €.& d'après b ; le résultat est établi.n.n

Propriété 2

Q€.&.

Propriété 3

A,B€ ,'4, avecACB: B-AÇ"'('Cela découle de B - A : B Ct Â.

Propriété 4

Soit (An)n61*,An € ,&,Vn € lN, une suite d'événements de '4: on définit

timinf À"-: I "!*

AnetlimsupAn:1n9* An;alorsliminf Anet

lim sup An sont des événem ents de "4'

L.événement lim inf An est réalisé si tous les événements An sont réalisés

sauf un nombre fini. De même, lim sup An est réalisé si une infinité d'événements

An est réalisée.

Théorème 1

soit ,-& une algèbre de parties de Q ; -4 est une tribu sur O si et seulement

si- L& est rn" .i"r." stable par limite monotone (croissante ou décroissante' au

choix).

Démonstration

o CN:,.4estunetribu.Soit (An)n une suite croissante d'événements de ''&' et notons par A la

lim/An;onsaitqueA : Y

On, or U An e "{puisque .&estunetribu;

.4, est donc stable par limite croissante'

o CS : .& est une algèbre stable par limite croissante'.& étant une algèbîe, on sait que O € ''4'et que '4' est stable par complé

mentation. é"iiâoti'Àn) une suite d'événements ; a-t-on nE,*

On e '4 ?

PH TASSI . S. LEGAIT

Page 18: Theorie Des Probabilites

LES CONC EPTS PROBABILISTES

. . to::l. Bn :

_ 9^ A. i Bn € ,,4 puisque ,_& est une algèbre donc stable parréunion finie : m(n

Y on : lim '/ Bn

..,

''

Par construction, (B j est une suite croissante d'éréments de ,-4. puisque .&est stable, par passage à la limite croissante, u An e ,,&. .Oest une tribu.

Théorème 2

:::A.4,e r. I C lN, une famille de tribus sur e; .& - n ,4,esl une tribui€l '

Démonstration

o ViC l, O € &i - Oe ,-&o A€ .4 e Vi€1, Ae,-&i <+Vi, € &, o Ae -4o Soit (AJne

h{ une suite d'événements ae k:vi e t, (Anl €. &i

ce qui implique que, pour tout i €', y O" e &, et donc U Ane ,,&.

Théorème 3

Soit .& une tribu sur e, O.C O.La classe 9n, : {ClC : Ann,, A4_,,4}est unetribu surO., appeléetrace de ,,4 sur e,.

Démonstration

o O' : OnO';comme Ae. ,&, e,e Ga,o soit c e Gn,; en notant, pour distinguer, par * ra comprémentation par

rapport à O' et par - la complémentation par rapport à O, on a :

..* - lCA appartena ntà ,4,c* est."nI-A!O'

: A o o'

Soit (Cjn61, une suite d.éléments de 6n; on peut écrire:

et : cn: An o Q' Pour tout n€ lN

Y t" : ,Y o",ÔQ' ; uAnc ,'4,doncYa"a Ga,

ll en résulte que la classe G * est une tribu sur e,.

PH TASSI - S. LEGATT 1 b

l

l

i

I

I

I

Page 19: Theorie Des Probabilites

LES CONC EPTS PBOBABILISTES

Corollaire; si f)' € &, G n, = { C/C e .4, e

Théorème 4

Considérons une partition finie (A'), i :n: A, = O; la classe .4: { I Ati:f i€lest une tribu sur O'

Dérnonstration

R

oO:.>.Aieill: I

c(I A.,) : >-4e.t/i€! i€l

c Soit (l*) une suite cje parties de { 1, ..., n }'

U(: A') : : Aie",k i€lk i€u lk

dsnc .& est une tribu sur O'

3 OUELOUES TRIBUS PARTICULIERES

3,I ExemPles

o I : \ A, Alest de façon évidente une tribu, appelée tribu grossière' I est

la tribu la plus fruste sur O.

.9p., ensemble des parties de o, est également une tribu. appelée tribu

discrète, la plus fine existant sur Q.

o soit A e g@l; 9= {Q, A,A, O } est une tribu sur Q, dite tribu oengendréen

par A.

3.2 Tribu engendrée

Supposonsmaintenantque,-pouruneexpérience-donnée'seulesquelquespartiei d" n, torrunt rn"

"iu.i "'G a" g @'), soient intéressantes en tant qu'évé-

nements. plutôt que de munir O de la tribu a'événements la plus gross.e, c'e:l-È

dïe g{Ol, on prè{ér"ra définir -4 comme étant la plus petite tribu contenant v'Montrons qu'une telle définition est admissible'

c o'].

1 à n, de f), telle que :

te g (11,2,. , n])]

16PH TASSl S, LEGAIT

Page 20: Theorie Des Probabilites

LES CONC EPTS PROBABILISTES

i € t. :;"l"ffnrrU,",us" de parries de O, et considérons toutes tes tribus (.4,),

- il existe au moins une tribu contenant G, c,est g @) ; donc I * e- d'après re théorème ,,? o,est une tribu qui, "n

àuii", contient G, et estcontenue dans chaque tribu .&i, i e l.

Définition 2

on appelle tribu engendrée par une crasse G rJe parries de e ra prus petitetribu contenant G-, c'est-à-dire I'intersection de toutes les tribus contenantG. On ta note o (Gl.

Exemples

o G: [Q]:a(G):tA,A1o G : {A} avec A + e et A * e : o(Gl :{@.A.À,A}

oG:[Ar,...,An] où I A, :e:i:1

o(4t,...,An) : {.I. A,, I e gU1, ., n})}i€t

En effet, o (At,....An) étant une tribu contenant chacun des événe_ments A, :

vte g({1,.... n}),ie I

A' e o (Ar' "'' An)

donc: {,è, o,, t€g({1,...,n})} Ca(A1,...,An)

ona monrré(théorème4)que{ r Ai.rÇ g({1. .,n})} éraitunetribu;elle contient chacun des A,. oonc eltJFJn,,"nt la prus petite des tribus contenantles A, :

er iAr, ...,An) c I I. Ai, I Ç g{i1, .. , n}}}it-t

L'inclusion étant étahrie erans les deux sens, re résurtat est démontré.

3.3 TrËbu borcéEiemme

[-es notions d"aigèbre ou de tribu oni été définies jusqu,à présent sur desesBaces f,) amorBhes, c'est-à-dire sans aucune référence à i'eirr toporogie. i\éen_rnoins, dans les situations usuelles elassiqures, fl est iR, ou lRp, au z, au lf{. ll est

PH. TASSI S. LEGAIT 17

Page 21: Theorie Des Probabilites

LES CONC EPTS PROBABILISTES

donc fréquent de supposer qLle Q est un espace topologique, et même métrique ; ilest alors cohérent de souhaiter disposer d'une tribu d'événements compatible avec

la topologie de Q. Plus précisément, on imposera que les ouverts et les fermés pour

la topologie de O soient des événements.

Définition 3

soit Q un espace topologique ; on appelle boréliens les éléments de la tribuengendrée par la famille O des ouverts de Q :

I : o(Ol

ll est évident que fi est également engendrée par la classe ,9 des fermés de

A; I s'appelle la tribu borélienne.

Eans le cas particulier usuel où O est lR, la tribu borélienne, notée 9l estengendrée par les diverses classes des intervalles :l* co, x1, l- -, xl, lx, + -1,1x, + -[, [x, y], [x, yt, ]x, y[. x et y étant deux réels tels que x < y. La classe des

ouverts { l- -, x[ ] iouera par la suite un rôle privilégié.

De même, sur lRp, la tribu borélienne frP est engendrée, entre autres, par laclasse des pavés ouverts ]- -, xt I x .." x ]- -, xp[.

Remargue.' on notera ,4 l" t ibu borélienne de lR.

4 PROBABILITESUR UN ESPACE PROBABILISABLE

Comme nous I'avons annoncé dans l'introduction, la présentation de la pro-

babilité adoptée est celle de A. Kolmogorov (1933). Celui-ci propose une axiomati-que cohérente au niveau du langage mathématique, fondée sur la notion de ome-

sur" norrnaliséeo (cf. chapitre 2) et la théorie des ensembles, mais dans laquelle

l'interprétation concrète des concepts n'apparaît pas. Les hypothèses portant sur

les événements ont été énoncées dans les paragraphes précédents. Suivent les

axiomes portant sur la probabilité elle-même.

4.1 Définition d'unc Probabilité

Définition 4

Soit un espace probabilisable (O, .41. On appelle probabilité sur (O, .41l'application P : ,-4' - tO. 1 l, telle que :

a) P{O) : 1

1B PH TASSI - S. LEGAIT

Page 22: Theorie Des Probabilites

tES CONC EPTS PROBABILISTES

b) Si (An)est une suite d,événements disjoints :

p( ; A.) : ; p(A-)n:1 " r"i:l n'

Les conditions a et b portent respectivement les noms d'axiomes de normalisationet de a-additivité.

Définition 5

Soit un espace probabirisabre (o, &). on appeile probabirité sur (e, .41l'application p : ,r/ - IO, 1l telle que :

a) P(Q) = 1

c) Ae .&, Be e,llB: e: p(A+B) : p(A)+p(B)d) soit une suite d'événements (Anldécroissant uér" @',ii, \ p (An) : o.

Les conditions c et d portent respectivement les noms d'axiomes d'additivité, decontinuité monotone. Au plan des notations, I'intersection A O B de deux événe-ments sera aussi notée AB.

ll est aisé de montrer que res définitions 4 et 5 sont équivarentes :

oor|.,1"l:o9ï::; :i" 'u condition (b) soit vérifiée' Alors. en prenant An : a

P(A., + Arl : P(A1)+ p(Az)

D'autre part, soit une suite (An) décroissant vers @ :

æAn: _r- (A.n-Ar*1),

m=nce qui implique :

P(An) : _I- p(An.,-A',*r).m:n

P (An) est alors le reste d'ordre n de ra série u, - p (A, -Ar*1) eui estune série convergente car :

I. u.: -:.

P(Ar-Ar*1): P(A')m: I m:1ll s'ensuit que lim \ p (An) : O.

PH. TASSI - S. LEGAIT19

Page 23: Theorie Des Probabilites

LES C ONC EPTS PROBABILISTES

b) Supposons vraies (c) et (d), et soit (Aj une suite d'événements disjoints ;

on note :

A- ; An,Ae-on:1

Soit Bn : a A.; par construction, la suite Bn converge en croissant versm<n

A, A : lim / Bn. La suite {Bn - A) converge donc en décroissant vers @ ; I'axiome(d) implique que P (Bn - A) converge vers O quand r * oo.

D'autre part, si let J sont deux événements de .& tels que lC J, on peutécrire J : I + (J - l), avec I et J - I disjoints. L'axiome(e) implique que :

P (J - l): P (J)- P (l)ll s'ensuit :

Vn. P (Bn-A) : P (Bn) - P(A)

En outre, en étendant l'axiome (c) à un nombre fini d'événements :

'|

P (Bn) : >. P (Am)m:l

et par conséquent :

æoolimP(Bn) : >_ p(Am) :p(A) :p(n m:1 m=1

Exemple: Supposons Q fini, ç : {cdr, .... ,r,r }, où tous les "individus, de Q sont

discernables par un indice identifiant s, a : 1à N. telle une population de person-nes physiques identifiées par leur numéro nSécurité Socialeu ou une populationd'entreprises identifiées par leur numéro SIRENE. A toute partie A de O, on associela fonction f définie par :

A * f 1R1 : cardinal de A

N

Montrons que f est une probabilité sur P, g@l).ll est évident que l'on a :

o f (Q) : 1

o A€ g (al, Be g(al, AnB - e: I (A+B) : f (A)+f (B).

91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs danst0, 1 l, est bien une probabilité.

20 PH. TASSI S. LEGAIT

Page 24: Theorie Des Probabilites

LES CONCEPTS PROBABILISTES

4.2 Propriétés d'une probabilité

Les démonstrations sont, en général, immédiates.

Propriété 5

P(@) : 0

Propriété 6

A,Be .4: ACB;alors p(B-A) : p(B)-p(A) > O.

Propriété 7 (probabilités totales)

P(AUB) + P(AnB) = p(A)+p(B).

Démonstration

AB

On peut écrire :

AUB:A+(BoÂ),B:(BoA)+(BnÂ).

D'après l'axiome (c) :

P(AUB):P(A)+p(BnÂ)P(B):P(AnB)+p(BnÀ).

En éliminanr p (B n Â;, on obtient le résultar.

Généralisation : formule de poincaré

P(A1 uAzU..'uA") : r.!r P(Ak)-,Ii ,(A,ôA,)+...+

(-1)n+1 p(Arn...nAn)

Propriété 8 (sous a-additivité)

t'?o"' =; P(An)

Démonstrafron.'soit (Bn) la suite d'événements définie de la façon suivante :

Br : A' Bz : AzO Â,,, ..., Bn: An O An_t a ... n Â1

PH. TASSI - S. LEGAIT

Page 25: Theorie Des Probabilites

LES CONC EPTS PFOBABILISTES

Les événements(Bn) sont 2 à 2 disjoints et U Bn : Y

On

Comme, pour tout n. Bn C An, on a P (Bn) < P (An).

ll s'ensuit :

P(U An) : P(UB.) : _>" P(Bn) ( > P(An)n"'nà1 n

Remarques

1) Si (An) est une suite décroissante d'événements de limite A, alors

P (A)= lim \ P (An)'

2) Si (An) est une suite croissante d'événements de limite A, alors

P(A) : lim/P(An)'

Pour démontrer 1), il suffit de se ramener à la condition (d) en écrivantBn : An - A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne

façon. on écrit Bn = A - An.

Définition 6

Le triplet (A, ,-4, P) porte le nom d'espace probabilisé.

5 FONEflON DE REPARTITION

Soit P une probabilité définie sur l'espace probabilisable (lR, fr'l; on sait que

fr, contienl en particulier tous les intervalles de type l- -' x[.

Définition 7

On appelle fonction de répartition de P l'application F : lR - tO, 1l définie

Par : vx € lR, F (x) : P (l- -' x[)

Remargue

On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la

définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de

P ({x}), probabilité de l'événement élémentaire {x}.

Les propriétés de F résultent pour la plupart des propriétés 5 à 8.

Propriété 9

La fonction F est croissante.

PH. TASSI - S. LEGAIT

Page 26: Theorie Des Probabilites

LES C ONC EPTS PROBABILiSTES

En effer, soirx( y;l_æ, xlcl_ *, y[; ta propriété 6 étabtir te résutrat.

Propriété 1O

La fonction F est continue à gauche.

Soit (xn) une suite de points de lR telle que lirn , ^n:x; alors la suite (J__, xn[)

converge en croissant vers'- -. x[) et donc p(]_;, xn[) = F (xn) converg" àncroissant vers P(l- oo, x[): F (x).

Propriété 11

e lim F (x)= 1

X*+oo.

o lim F (x)= Ox--oo.

Ces résultats proviennent de p (lR) = 1 et p (el : O.

Remargue

De façon analogue on définirait la fonction_de répartition d'une probabilitédéfinie sur lRp. muni de sa tribu d,événements æ n """;;;';x. x1--

^oti ,

' trrwuuEverrerlrenrs ,j7''Pconlenantlespavés(J--, x,|[

f (xr, . xo) : P (l-oo, xl [x ... x]--, ;o 1;

6 PROBABILITE CONDITIONNELLE,IN DEPE N DANCE D'EVENT rVr ÈrVrS

L'axiomatique de Kolmogorov contient une spécification de la probabilité d'unévénement conditionnellemeni a ,n uutià.

6.1 Probabilité conditionnelle

Définition 8

Soit un espace probabilisé p, .4, p) et_B e,r/tetque p(B) ) O. On appelteprobabilité de A conditionneilemeni a a, o, p.ooutiùté tonortionnele de Asachant que B va être réalisé (ou est réalisé) le'nombre :

P(AnB)P (AiB) :

P (B)

PH TASSI - S LEGAII ..

Page 27: Theorie Des Probabilites

L.ES CONC EPTS PBOBABILISTES

Vérifions que la fonction ainsi définie est bien une probabilité sur Q, *41:

O < P(A/B) < 1, VA e .& car AaBCB

P(Q'B) : P(OîJL : P(B) :1P (B) P (B)

Soit (An) une suite d'événements disjoints. Comme les événements (An n B)

sont aussi disjoints, on a :

P (U An,/B) :n

P ((U An)a B) P (U (An n B)) : P (Ann B)

nnnP (B) P (B) P (B)

P(AnaB):

n P(B) n

P l\./Bl est bien une probabilité sur (A, .el

Remargue

En écrivant P (B/A), et en tenant compte du fait que P (A Ô B) = P (B n A) par

commutativité, on établit :

P(A/Bl.P(B) : P(B/A) .P(A)

La définition de la probabilité conditionnelle peut être généralisée à un nom-bre fini d'événements :

P(An B n C) :P lA/Bn C) . P(B a C)

= P (A/Ba c) . P (B/C) . P (C).

Soit (A,), i : 1 à n, une famille finie d'événements; on établit aisément :

nnnP(.n. An) : PlA,/ et A,).P(A"/ n A').......P(An)

r:r i:2 ' 'i:3

6.2 lndépendance

Définition 9

Deux événements A et B sont dits indépendants si :

P(AnB):P(A) .P(B)

24 PH, TASS1 ' S' LEGAIT

Page 28: Theorie Des Probabilites

tES CONC EPTS PROBABILISTES

Remargues

o L'indépend3lq" esr une propriété des événements er de ra probabirité.o si P (A) et p (B) sont tous d'eux strictemeni poriiil., porturer que A er B sontindépendants revient à imposer :

P (B/A): P (B) ou P (A,zB) : p (A)

<L'information> apportée sur l'événement conditionné par l,événement ucondi-tionnant" est nulle.

Définition 1O

i"i[J:":ii!".Ji"'" e rarmée des n événemenrs A,, ..., Ao ; ,e est dite

ko,Air ... rl (Aik) : ,!,

p (Aii)

pour tout k, pour toute suite (i1. .... ik) de (1, ..., n).

Remarques

_""",it,3,1 dit parfois que tes événemenrs A1, ..., An sont uindépendants dans teur

b) Pour savoir si ra famiile .gest indépendante. ir faut donc vérifier :

ci* . * cl : 2"- c3- cl : 2n - n- 1 retations.

Exemple

Soit l'expérience consistant au lancer de deux dés;

Q:{(i, j), i:1à6, j:1à6}On considère les événements :

A:(iest impair). B:(jest impair), e:(i+ jest impair).

On vérifie facilement :

P(A) : P(B) : P(C): 172P(AB) = P(AC) : P(BC) :1/4P (ABC) : 9.

Les événements A, B et c sont indépendants 2 à 2, mais ra famiile (A. B, c) n,estpas indépendante.

PH TASSI - S LFGATT 25

Page 29: Theorie Des Probabilites

LES CONC EPTS PROBABILISTES

Dé{inition 1 1

(An)ne N*

est une suite d'événements indépendants si :

kvk € tN* v (ir, ..., ik), P (Ai1 n ... n o,J

i!,, t(o,/

Propriétés 12

1)Si A et B sont deux événements indépendants alorsA et B le sont aussi,

ainsi que A et B.

2) Si (A^) est une suite d'événements indépendants, on obtient encore une' suiiet'éuénurn"nts indépendants en remplaçant un nombre quelconque

de A' Par leurs comPlémentaires.

Démonstration

P(AnB) : PtA-AnBl: P(A)-P(AnB)

= P(A)-P(A)P(B) : P(A)(1 -P(B)) : P(A)P(B)

P(ÂnB) = t -P(AUB) = 1-P(A)-P(B)+P(AÔB)

- 1-P(A)-P(B)--P(A)P(B) = (1 -P(A))(1 -P(B)): P (Â)P (B)

Propriété 13

Soit (An)neru* une suite d'événements indépendants; on a :

P( n An) : n P(A")n€lN* neN* rr

Démonstrationkk

P( n An) : n_P(An)n:1 " n:l

k-Comme n An est une suite d'événements décroissant vers Ô

" An' on a :

n=1 " n=1

kooP( a A^)\P( n An)

n:1 " n:1 "

d'oùt : æt<kæP( n A.) : lim P( n An) =.lim n. P(An) = n. P(An)

'n= 1 n' k-cê n:1 " k-æ n:1 n= 1

zo PH. TASSI - S. LEGAIT

Page 30: Theorie Des Probabilites

LES CONC EPTS PROBABILISTÊS

Définition 12 : Généralisation

Soit (Q, .4, el un espace probabitisé et soit {G,, 1 ( i (n} une famiile departies de ,*/. Les parties ? ,, 14 i ( n, sont indépendantes si :

ko ,Air ... a Aik) :

,! ., e tR,)

wur Lou| k, pour toute suile (i1, ..., ik) de (1, ..., n) et pour tout événement A,de-ijJ

Définition 13

Dans le cas particurier où res G,sontdes sous-tribus de .4, res G,, l <i<n,sont indépendantes si :

P(A A,) : ti p(A,)i=1 i-l '

pour tout Ai appartena nt à G,.

. Le théorème qui suit propose une condition suffisante d'indépendance de tri-bus engendrées.

Théorème 5

Pjl'_!{t 1=.i s n} une famiile de parties de .dreile que ,g,soitsrabre partntersection finie, pourtout 1 ( i ( n :

o ( 9,1, 1< i < n, indépendantes <ê g,, 1{ i s< n. indépendantes.

6.3 Théorème de Bayes

Théorème 6

soient A et B deux événements de probabirité strictement positive ; on a :

P(A/B) - P(B/A) P(A)

P (B/AI. P(A) + P(B/À). P(À)Démonstration

ll suffit d'écrire l'événement B sous la forme :

B : (BaA) U (BnA)d'où :

p(A/Bt- P(AnB) : P(B/A]P(A)

PH TASSI . S. LEGAIT

P(B) PB/AIP(A) + P(B/Â)P(A)

Page 31: Theorie Des Probabilites

LES CONC EPTS PBOBABILISTES

Généralisation

Soit A.,, Ar, ..., An, n

V1 <i(n. F(A,))O:P (B/Ai) P (Ai)

P (4,,/B) =

P (B/Ai) P (Ai)

Exemple

On dispose de 3 pièces de monnaie : la première est parfaitement équilibrée.la seconde a 2 côtés npilen, la troisième est truquée de façon que la probabilité

d'obtenir.pileo soit de 1/4. On tire une pièce au hasard. on la lance et elle donne

"pilen. Ouelle est la probabilité d'avoir lancé la deuxième pièce ?

B l'événement (obtenir pile", et A, l'événement <tirer et lancer la ième

1,2, 3.

P (B/A2l P (A2l

P (Ar/Bl :P (B/A1) P (A1) + P (B/A2l P (42) +

1x1/3

P (B/A3) P (43)

1/2x1/3+ 1 x1/3+ 1/4x1/3 7

L'importance du théorème de Bayes dépasse très largement le simple énoncédu théorème 6. et porte sur les concepts. En effet, s'il existe un lien de type causalentre A et B, c'est-à-dire si B est, en un certain senS, une <cause> de A, le principe

bayésien revient à calculer P (A/B) à partir de probabilités portant sur B, sur la cause.

d'où son interprétation cornme nthéorème sur la probabilité des causes> très impor-

tante pour l'étude de l'environnement causal B d'un phénomène observé A. ll exis-

tera done des rnéthodes statistiques bayésiennes liées aux probabilités bayésiennes.

événements formant une partition de Q, tels que

n:j:1

Soitpièce, i =

4

2B PH.TASSI -S LEGAIT

Page 32: Theorie Des Probabilites

EXEREICES

1'1 un facteur doit distribuer n letlres dans n boîtes aux leftres dont on a retiré les plaques, les rendantindiscernables.

Comme les n lettres portent n noms différents, le facteur suppose qu'il y a une lettre et une seule àdistribuer dans chaque boîte et il dispose donc les lettres au hasard.

calculer la probabilité qu'une lettre au moins soir distribuée à son destinataire réel. calculer salimite quand n croît.

lndication

1l.t:t: -A l'événemenl ,,;. 1ème leftre est distribuée à son desrinataire réei>. 0n chercheP(ArUAzU...UAn).0na:

n

P ( U A,) :2 p (A,)- tr p (A. n A.)+ ... +i:1 ' '' i<j 'r I

(- l;t'*t > . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a An)(i1'..., ik) '1 rk'

Ce résultat est connu sous le nom de formule de poincaré.

L'ensemble o des résultats possibles de l'expérience est l'ensemble des permutations de{1, .... n}. 0n te munir de ia piobabitiré :

VA€ 3 (ni, p(A) : ##P(A a...fiA.): ln-k) !

'l ,k' t ' Vk€ {1'2' ',nld'où :

llre1.Û.n,1 :n ' -r:

(n-2) I

+ ... + (- l)k+l çk (n - k) !

i:l ' n n nl n nl

+..+ (-l)n'l -1- = i (-l)k*, .t. ------> t-e-rnl k:l ' ' k! n-oo

PH, IASSI S. LEGAIT

Page 33: Theorie Des Probabilites

LES CONCEPTS PROBABILISTES

1.2 soir Q : { 1, 2, ..., nl (n } 1).

I1) Délinir une probabilité P sur O telle que:Vi€ Q, P ({i}) :;

2) Trouver une condition nécessaire et suffisante sur n pour que :

: (A, B) e g (al - t@, a], A et B indépendants,

3) 0n note :

Vp € Q A- : {i€Q/pdivise i}, K: {p, p diviseurpremier de n}'p

I (n) = Card {q e Q/q est premier avec n }'

a) Montrer que si p,, ..., pk sont élérnents de K alors Oo',, ',, Oo* sont indépendants.

Ib) MontrerquerP(n) : n l'l (l--)'

p€K P

lndications

Card AllLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et

vérifie:Vi€O P({i}): I '

n

n

2) S'il existe A et B indépendants (A et B non égaux à @ ou O) alors on a ;

n Card A f-l B: Card A x Card B.

Card Adivise n (CardAn B< Card A) doncn estnonpremier. Réciproquementsi n estnon

premier, 1 k> 2 et p2 2, n : kp. Soit A : {1, 2, ...,k} et B : {k, k + 1, ..., k + p - 1 } ;

onabienP(AnB) : P(A) P(B)

3)a) Sipdivisen, lk€O, n:kp et Ao: {p,2p,...,kp} d'où;

kklPiAi: -:-= -'p' n kp p

p {Ao' n ... n Apk} : P (Ao' oJ car les p, sont premiers

1: _ car Pt '.. Pn divise n

Pr " Pr

k: n PlAl. P:'

l- I I

30 PH TASSI - S. LEGAIT

Page 34: Theorie Des Probabilites

LES CONCEPTS PROBABILISTES

b) Soit B : [q € Q/q est premier avec n].

$: nd'où: P€K

P(B) =?(n) = n PtÀIn p€K p'

puisque les Ào sont indépendants.

Àp

:np€K

1(1--)p

PH. IASSI S. LEGAIT

Page 35: Theorie Des Probabilites
Page 36: Theorie Des Probabilites

Chapitre 2

Probabilité, mesure, intégration

L'axiomatique de Kormogorov (1933) qui a servi de base pour re chapitre précé-dent repose sur des concepts mathématiqués générau^ qr" uJni les mesures et l,in_tégrale par rapport à une mesure. Le déveroppement de ra notion de mesure de rafin du 19" siècle et du début du 20' siècle donne naissance à une théorie dont laprobabilité ne peut que profiter, celle-ci en étant un cas purti.rri"r. ce chapitre, quipeut être omis en première lecture, fournit aux lecteurs familiarisés

"u". unu ;r;;J;-tation mathématique abstraite. les principaux résultats rattachés au concept de me-sure, et qui seront repris et utilisés dans la suite de l'ouvrage pour les probabilités.

1 LA THEORIE DE LA MESURE :HISTOIRE ET APPORT AUX PROBABILITES

Les fondements de ra probabirité mathématique présentés au chapitre précé_dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement ni les débutsde cette science. Les premiers écrits sur le calcul des probabilités semblent remon-ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre cohérent deconcepts probabilistes, reprenant nombre de résultats obtenus par Blaise pascal etPierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn" variabre aréa_toire prenant ses valeurs sur un nombre fini de points.

Le 18" siècle est marqué par la contribution de la famille Bernoulli -Jacques,Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, "oni""tandi,

publié en1718 énonce la loi des grands nombres. En 1733, de Moivre obiient la loi normale(ainsi qu'elle sera dénommée bien plus tard par poincaré) en approfondissant lescalculs de la loi des grands nombres et en utirisant |approximation asympotique den ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra premièreforme du théorème central limite. Autre personnalité importaîte : pierre Simon deLaplace; commencés en 1778, ses travàux servent de référence jusqu'à ra fin du19" siècle et au début du 20' siècle.

Citons Jean Dieudonné : n... le cercle vicieux de la définitionfd'une probabititélen termes de cas équipossibtes, I'apparition de variables aléatoires discrètes mais ànombre infini de valeurs possibles, telles que celles de Poisson, et des variablesaléatoires à loi absolument continue telles que des variables aléatoires nor-atii.

PH TASSI S LEGA]T aa

Page 37: Theorie Des Probabilites

PROBABILITE MESUFF, lNTEGRATION

ont amené graduellement à une idéatisation mathématique qui engloberait toutes

ces possibilités,. Le développement de la théorie de la mesure va y contribuerfortement.

En 1881, A. Harnack introduit la notion d'ensemble discret, puis, en 1882,

celle *d'égalité en général,, qui anticipe le concept d'égalité presque sûre du para-

graphe 5. La nmesure, d'un ensemble apparaît ensuite dans de nombreux travaux ;

ies définitions sont différentes selon les auteurs (Cantor, 1884; Peano, 1887;Jordan, 1892). Mais c'est Emile Borel qui va introduire la notion d'ensemble de

mesure nulle (1894), et la théorie des ensembles mesurables (1897). Travaillant

sur lR, et, plus précisément sur [0, 1 ], il privilégie la classe des ensembles ouverts,

qu'il .mesure, à partir de la longueur des intervalles; il montre que l'on peut définirsur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure>

p vérifiant les propriéiés, vues au premier chapitre, de s - additivité et de différence:

(ACB:s(B-A) : s(B) - s(A))

La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebes-

gue, ou intégrale généralisée. qui va permettre à I'intégrale de Riemann et aux

[robabilités Oe Oépasser certaiRs contre-exemples gênants. En effet. jusqu'à la fin

du 19" siècle. la seule façon de déf inir l'intégraie d'une fonction f sur un segment

Ia, b]consistait à utiliser les sommes de Riemann-Darboux. Néanmoins, à partir de

tgZO, t'integrale de Riemann s'était vu opposer des particularités où elle était

inemployable, comme les cas où f- converge simplement vers f, f n intégrable au

sens de Riemann pour tout n, f norlnleman-n-intégrable.

En 1901, H. Lebesgue donne une théorie de l'intégration plus générale que

Riemann, à partir ciu concept de mesure introduit par Borel. C'est cette construc-

tion de l'intégrale de Lebesgue qui est présentée dans ce chapitre, ainsi que ses

applications. -Sous

l'impulsion de J. Radon, les concepts de mesure et d'intégrationqlitt"tont vite IR et lRn; ainsi apparaîtra la théorie de la mesure abstraite définie

,ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de

mesure absiraite qui a permis le développement de la théorie mathématique des

probabilités. Par exemple, pour définir dans tous les cas I'espérance E (X) d'une

variable aléatoire X, il fallait l'intégrale de Lebesgue et ses extensions. L'achève-

ment de la construction des théories de la mesure et de l'intégration peut être daté

de 1g30, avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence

des densités.

Ainsi. la théorie de la mesure et de l'intégration ont jeté les bases d'une

formalisation homogène et cohérente des probabilités, en y introduisant la rigueur

du raisonnement mathématique ; rappelons en effet que Keynes, en 1921, écrivait

À propo, des probabilités que ./es savants y décèlent un relent d'astrologie ou d'al-

chimie,, et que von Mises est encore plus direct en affirmant (1919) que n/e calcul

des probabilités n'est pas une discipline mathématique"'

La probabilité étant un cas particulier de mesure se voit donc, à partir des

années trente, appliquer une grande partie des résultats de mesure et d'intégration'

PH, TASSI - S. LEGAIT

Page 38: Theorie Des Probabilites

PROBABILIIE, MESURE, INTEGRATION

2 NOTION DE MESURE

2.', Définitions

Définition 1

soit (Q' 4 un espace mesurabre..on appere mesure positive sur (Q, .4)toute appticarion 1u définie sur "4 a u"ràlis Oa;;"iRî-: [0, + oo] vérifianrl'axiome de a_additivité :

Pour toute suite (An) d'éléments de .r/, n € lN*, deux à deux disjoints :

tr(;_A^) :; p(A-)n=1 n' n=1 ' '"n'

Remargues

a) Par la suite, on dira mesure pour mesure positive.

u*",:)"u?"?.l:l?il;;;1""* d'une mesu re p te nombre (positif) p (a);p (Q) peut être

c) Une probabilité est une mesure de masse 1.

Définition 2

Le triplet (o, 'i/, !r) est appelé espace mesuré (ou probabilisé si g est uneprobabitité).

Une autre définition de la mesure peut être donnée

Définition 3

soit (Q' '''/y un espace mesurabre. une apprication lr défini e sur .4à vareursdans lR*, non identiqu"r"nreô"i"'à-+ *, est une mesure si ;

1) g est addirive

V(A, B) e ,,æ, AnB :e, tt(AUB):1l(A)+s{B)

(ouvA,,...,Andeuxàdeuxdisjoints u \Q. AJ : .! gfn,ttt:l i_1 ,

2) V (An) suite croissante d,éléme nts de ,4,

lim i g(A^) : g (tim 1 A )n"n

PH. TASSI - S., LEGAIT 35

Page 39: Theorie Des Probabilites

I

PROBABILITE, MESURE, INTEGFATION

Montrons que les définitions 1 et 3 sont équivalentes :

a) La a-additivité entraîne I'additivité de façon triviale'

De plus, si An 1 A, alors;

A : A., + (Az-A.,) +... + (An-An-r) +'..

avec Vn, An - An-,r éléments de ,'4, deux à deux disjoints ; d'où :

s(A) : s(A.,) + nlru(An-An-')

: n'A nl,

ll(An-An-,r) + l(Al)

or:/(An-An- tl : u(An) - p(An-r) car An-r C An

et donc :

An-1 +(An-An_r) :An

d'où :

g (A) = lim Ét (Ar)k*oo

b) Réciproque :

Soit (An) une suite d'éléments de ,'4, deux à deux disjoints'

n.-B = U A, est une suite croissante d'éléments de ,4 dont la limite est U AL'en -

tI t ^k vvt v,,s Ju,.e v, v,ooq

k= 1 tr

Ona:

lim 1p(Bn) : g(lim l Bn) : ll(U Ak)

c'est-à-dire' ,irn r s r*1,, ont : /(uAk)

Or / est additive donc :

et. en passant à la limite :

nn1l(U Au) : I_P(An)

k:1 ^ k=1

n!' '(Ar.) : p (u Ak)

36 PH. TASSI - S. LEGAIT

Page 40: Theorie Des Probabilites

PFUUAUTLl' L \ltSuRL TNTFGFAIIO\

Définition 4

Une mesure g sur (o. 4 sera dite a-finie si Q est réunion dénombrabred'événements(An), n € tN. tetsquepÀJ <** v n. ïi ulôr (+oo. ta mesure1r est dite finie, e 1It P:

g(cD Pestuneprobabilité.

Exemple

Soit a.r € e. On définit l,application 6.upar:

V A€.4, ô,,(A)=1siar€Aô, (A)-f si u É A

ô, est une mesure (c'est même une probabilité). dite mesure de Dhac au point ar.

Définition S

o on appete mesure discrète s,ur (1: ,*/7 to_ute mesure / tete qu,ir existe rdénombrabte appartenant à _dvéiitiant p @ _ti : ô-et V A e,,4,s(A) :Ér(AOl) = : p({ull

o on dit que 1, est concentrée sur r. al€Aôl

Exempte.'l : { 1,2, ..., n}

V1 <i(n pUit) =].tt(l):1

g est appelée probabilité uniforme sur { 1, 2, ..., n}.

2.2 Propriétés

Propriété 1

s'il existe au moins un événement A ter que / (A) < + oc, (c'est-à-dire siTl est non dégénérée), p (e) = O.

En effet :s (A U e) : p (A) + p @1.

Propriété 2

V(A,B) e &,p(AUB) :p(Al+u a) _s(AnB)

PH. TASSI. S. LEGAIT 37

Page 41: Theorie Des Probabilites

PROBABILITE, MESURE, INTFGFATION

Propriété 3

ACB + ll(A)( s (B).

Propriété 4

s(UAn) (Ig(An).nn

Propriété 5

soit (An) suite décroissante d'éléments de ,4 de limite A ; on suppose qu',il

existek'telque p(An) . + -.Alors lim\g(An) : l(A)'

En effet, V n ) 1, (Ar - An)/ (Ak - A).

ll s'ensuit : rr (Ak - An) / p (An - Al

+ s(A*) - p(An) / 1t(Anl - lt(A)

La condit'ion g (Ak) < + oo fait que l'on peut simplifier. Remarquons que

pour une probabilité. la ôondition 3 k : g (An) est f inie, est toujours vérifiée.

Propriété 6 : Composition de mesures

Soit (gn), n e lN, une suite de mesures sur (O, '*/7 et (in), n C lN' une suite

de réeià positifs; alors P : > ,1n /n est une mesure sur 1A' '41' ,n

Démonstration ' ,

soit à établir la o-additivité de g :

æ

u( : A ):I Ànqn (IAr)' 'n.'':1 m' n " " m

nm- t : Ànln (An.')

mn: I p (A.).

m

En particulier, si (Pn) est une suite de probabilités sur (o,,-41 et si2 ^

n:,1,,^n :.'alors p : LÀ^ P^ est une probabilité sur @, ,,4\ Cette propriété permettra la

Iàî.tir"ti* o"''tnisuiàs ou oË pronabilités.

PF], .IASSI , S. LEIGAIT

Page 42: Theorie Des Probabilites

PROBABITITE, MESURE, INTEGRATION

Théorème 1 ; Egalité de deux mesures

. };t: A,,47 un espace mesurabre ter que -4. estengendrée par une famiile17 de parries .ç( - mesurabtes de e, stàote pur. intàrrËiion tini".

o si g et v sont deux mesures a-finies sur (e. ,,4) co:incidant sur G, arorselles coincident su( ,,4.

En particulier, si deux mesures finies sur (lR, &) co'incident sur les intervalles,alors elles sont égales.

2.3 Mesures sur (lR, gî/l

Définition 6

on appelle mesure continue sur (rR. fr') toute mesure p vérifiant :

Vx€ lR. p({x}) : O

a) Mesure de Lebesgue

On appelle mesure de Lebesgue sur (lR, fr.y la mesure i définie par :

i(la,bl) - b-a, Va,b.a < b

on admettra I'existence et l'unicité d'une telle mesure. La mesure,À prolongela notion de longueur, et est continué.

- -

Propriétés

1) .à est a-finie :

tR: 9_ln,n+11et,tr'n,n+tl) : in€Z

2) Y aC lR,,À ({aJ) : O donc,À est une mesurecontinue.

3) Va, b, .à (la, bl) : ,a (ta, bl) = ,i fla, b[) : i (ta, b]y.

Remarque

De la même façon, on définit Àu. mesure de Lebesguq sur (lïk, frly:

!kpin(,!. la,,b,J) :.t-t. À JaLb,l) : n (b,-ai)t=l i:l r r i:l 'l

PH. TASSI - S. LEGAIT39

Page 43: Theorie Des Probabilites

PROBABILITE, MFSUBE, lNTEGRATION

b) Mesure de comptag" * *On définit sur (lN, g lNll l'ètre p" : : ô . 6 masse de Dirac en x,

x:o x' x

x C lN . gc est une mesure d'après la propriété 6. Si A € g (N ), gc (A) est égalau nombre d'éléments de A. La mesure p^ s'appelle la mèsure de comptage. C'estune mesure discrète sur (lR, frl puisque boncentrée sur lN.

3 MESURABILITE

3.1 Application mesurable

Définition 7

Soient (O, .&l et (O', ,,4,'lrdeux espaces mesurables. Une application f :Q -O' est dite mesurable si :

v A' e -4', f' iA'l e ,4.

ou: r' 1.&'y c,4

Définition 8

f-1 1,4i : {f-1 (A'), A' € .4.' } est une tribu ; c'est la plus petite triburendant f mesurable, dite tribu engendrée par f, notée a (f).

Propnélé 7

Soit A C O : A e ,4'e 1o est mesurable de lA, ,'&) dans (lR, g,L

Démonstration

Soit A e ,,&.Montronsque loestmesurable. SoftBe &:oSi BcontientOetl 1;1 (B) :Qe .&

o Si B ne contient ni O ni 1 l;t (B) : Q e .4

r Si B contient O er pas 1 l;t te) : A e .4

o Si B contient 1 et pas 0 1;1 {B) : A € .4

DoncVB e &,1;1 (B) e ,,4 et 1o estmesurable.Réciproquement:si loestmesurable, alors 111 ({1}} : A e -4..

40 PH, TASSI - S. LEGAIT

Page 44: Theorie Des Probabilites

PFOBABILITE, MESURE, INTFGRATION

Vocabulaire; Si A e ,,&, on dit que A esl -ol-mesurable.

Propriété 8

Soient @, ,r/)et (O', .&'y Ae,2<espaces mesurables oit .d,, est engendrée paruneclasse G'departiesde e', etf :e * A,;ators, --

o (l-' (G')l : f' (,4'l : t-, @ (G)lDémonstration

. G' C.4+ 1-' (G'l C t' (,,&')

+ o(f-, (G,l) c o1t1 1.4,y1 : I-, (.&,)puisque f' (,,4,1 est une tribu.

o Soit 8r: {A' C e,/f A,) € o(t-1 (çqTton montre facirement gue fi rest une tribu, dite tribu induite de o 1f-1 1G,ypar f. En outre, 8, contient G, ..

VA.€ G't-, (A,) € r, (G) C o6-1 1G,yd'où: o(G')C8,

f-'(o( G'D C tn ( g) C o(f-1 1G,y1 pardéfinition de fir.Propriété 9 : Critère de mesurabilité

Soitf : (O,.4) -.@',^.4'l où.4, : o(6,1, G, C A,.f mesurable <+ f-' ( G,y C ,,4

Démonstration

o Si f esr mesurable,. f-1_-1 ,,4,) C -4 et o (t-1 ( G)l C ,d. @,après lapropriété B)d'où t1 1G;1 C .4.

o Réciproquemenr : si f-' ( G,) C,4, o g-i ( ç6,)l C,-4, donc f1 1,,4,y c,4(propriéré 8). f est mesurable.

Exemple

!1e aoolication f : (o, .r/7 - 1n, â) est mesurable si et seutement si v a € tR,1 (J - *, all est ./-mesurabre. En effet ,4 est engendrée par ra crasse desintervalles l--,a1.Théorème 2

Soit Q et Q' deux es^paces topologiques, ,-4 et ,,&, leurs tribus boréliennes.Touteapplicationf :O - O'contiÀue est mesurable.

PH. TASSI - S. LEGAIT

Page 45: Theorie Des Probabilites

PROBABILITE, ]VESURE, INTEGRAT1ON

Démonstration

On note / l'ensemble des ouverts de O et O' l'ensemble des ouverts de O' :

.04 : o(O) et "4' : o(O'lf est continue de Q dans O' <+ f-l @'l C O

=+ f-' @') c o @l : -4.=à f mesurable (d'après la propriété 9).

Théorème 3

Soient trois espaces mesurables (O, .rl), (A', .r4, P", .4:'l et deux applicationsf :O-Q'et g:Q'-O":

t-' (a (g)) : a (gof)

et si f et g sont mesurables alors gof est mesurable.

Démonstration

a(gof) - (gof)-' G&"1 : f-l [g-t (4"11: f-l (e,(S))

Si f et g sont mesurables s" k&"1 C .&' et ï1 G4'l C .4, donc (sofl-1 G.4"1c f1 G'{') C .4' et gof est mesurable.

Propriété 1O : Critère de mesurabilité

Soit (Ei, ,/),1, i € l, une famille d'espaces mesurables et (f i)i€, des fonctionsde Q'dans E. On munit Q'de la tribu engendrée par les (fi). i € l, c'est-à-direde a p us o"n"I?":ïH,lËï.:":,il;:l:l.ul,

i€l I I

f : (A, .47 - @', "4'l est mesurable <+ V i € l, f of est mesurable.

Démonstration

Vi e l, f of est mesurabte <+ Vi € I (f of)-x (fi il C .&o .9. (f

, of)-1 ç4 il C .d

tel<+ f-' [ !, [' ç4 ill c -4

i€te ol'f-'',!, [' Ftgil]l c '4<+ f-' [a( !. q' çni)l] c,t{

iel l

o 11 ç&'7 c '4'<+ f est mesurable.

42 PH, TASSI - S. LFGA]T

Page 46: Theorie Des Probabilites

PROBABII ITE, MESURE, iNTEGRATION

Théorème 4

a) si f et g sont deux apprications me_surabres de (e, .d,r - (rR, fr,r arors f + g,fg sont mesurabtes de e, 4 _ (tR, fr) "- \--' v? t

O) Si (fn)ne rN est une suite d,applications mesurables de (O, ,4) * lR, g.)

alors supf n, inf fn. rim sup f n, rim inf fn sont mesurabres à condition qu,eilesne prennent pas des valeurs infinies. En particulier, si lim fn : f existe,alors f est mesurable.

Définition 9 : Variable aléatoire

soit (o, .&, p) un espace probabirisé, er (a', -{') un espace probabirisabre. onappelle variable aléatoire une application mesurabte i oetinie s", ta, kl'ivaleurs sur (e' , _{,) ,.

v A' e ,4' x-1 A') Ç -4

Notations

o si (o" ,r/r : (rR, &7,X est une variabre aréatoire réeile, ou unidimensionneile,ou univariée (v.a.r.)

o Si (O', ."1'l : (R", 9."1, X est une variable aléatoire n_dimensionnelle, oun-variée, ou un vecteur aléatoire de dimension no si(Q', ,rl') esttout ou partie de (2, g1zy,X est une v.a.r. discrète.

3.2 Mesure-image

soient @, '4' ') un espace mesuré, f une apprication mesurabre de (o, .4rdans (o" ,/'t. oo oerinit ""àï""ii"" J l'", k; i"{,"--''-" " 'vi

V A' € .&', pf (A') : p{f-, (A,)}

gf est une mesure sur .4;,dite mesure-image depparf. En effet:c pl a un sens puisque t-1 (A,,) e .4. pf est à valeurs dans IR* par constructiono Soit (A'n) une suite disjointe d,événem ents de .d,

sr (:A'J : p{f-1 (:A.n)}: tt{> f-1 (A,n)}:zp{f_1 (A.n)}

PH TASST - S LFGA|T 43

Page 47: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGRATION

Application : Loi d'une variable aléatoire

Définition 1O

o Soient @, ,,4, P) un espace probabilisé , @', ,,4' ) un espace probabilisable,

X une v.a. définie sur (Q' .4'1à valeurs dans (O', ''4'l

o on appelle loi de probabilité de la v.a. X la probabilité image de P par X

notée Px.V A, e .4;, px (A') : p (X-1 (A'))

Notations

X-t (R') : {u € A / x(ar) € A'} : {X € A'}

o On écrira souvent :

px (A,) : p(X € A')

o On donnera fréquemment à une variable aléatoire le nom de sa loi de

probabilité, Par abus de langage.

3.3 Tribu-Produit

Définition 1 1

o Soient (O, .&i), i € l, (l quelconque inclus dans lN), des espaces mesurables.

o On note n : ,!,

n,"t Pn,l" projection de O sur Q,:

(r.r;);e r _ @i

o La tribu-produit des ,,4 , notée @ &, est la tribu engendrée par les (pn ),

iel. ' icl

@ il. : o ( l) ,-' 1..0(,lli€l ' i€l ..l

Théorème 5 : Cas d'un produit fini de tribus

o Soient LQr&rl, i:1àn, nespacesmesurablestelsque &r: o1 G,leta € G..'

oonnote' .,=knE: 1,,=T=" A'AeG i

PH. TASSI S. LEGAIT

Page 48: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGRATION

Alors :

A ,,4.=o ( n e,ll(i(n ' 'l(i(n

' En particulier :

@ ,-4.: o ( n ,,4.11(i(n ' l(i(n t'

on dit que ra tribu-produit est engendrée par res pavés mesurabres.

Démonstration

Soit :

nA e Gi,,I. A, : ,*2n p; (Ai) .

,*T*n -,donc :

nn G,C a ,-{.

i:1 " 1=<i(n I

oou:

no( n G) C a ,,4

i:l 1(i(n I

Réciproquement, montrons que Vi : 1 à n

np-; G{t) C o ( n 61"i ' i:1 t'

nVi:1àn.VA.€G..oi,te1 :Ai X.l.O, e o( n G,)I r )rt , i:1 |

donc:n

o-l lG,) C o ( n c1,.i , .i: 1

'etnp-; ç4à) - oâ, @(G)t - s(nrli rc1 c r t,!. c,

t- |

donc: n8 &i: o (,8, o-l t-d,ll . " ,,!., G,l

PH. TASSI - S, LEGAIT

Page 49: Theorie Des Probabilites

PROBABILITF, MESURE, INTEGRATION

corallaire g n.g.e g,: fr'z el A fi'ni- fi:1

1<i<dThéorème 6 : Mesurabilité des applications à valeurs dans un espace produit

Une application f : (O,.&) * (fl Qi, .9,il),, - (fi (ar))ie r est mesurableiet

si et seulement si V i € I f. est mesurable.

ll suff it d'appliquer la propriété 10 aux fonctions pn.

4 INTEGRATION

On se place, dans tout le paragraphe, dans un espace mesuré @, &, pl'

4.1 Intégration des fonctions mesurables étagéespositives

Définition 12

On appelle fonctiotr étagée une fonction mesurable f définie sur (O, ,4 a

valeurs dans (lR, fr.1, ne prenant qu'un nombre fini de valeurs x,, i : 1 à n.

Notations

Soit : n

Ai : f-l ({x,})' A' e -4 ' f : ,-r. ^' 1o,I- |

6* est I'ensemble des fonctions étagées positives'

Théorème 7 (sans démonstration)

Toute fonction numérique positive est mesurable si et seulement si elle est

limite croissante d'une suite de fonctions étagées positives'

Définition 13

Soit :

r e é*, f :,_t, *, to, (x, ) o)l: I

46 PH. TASSI - S. LEGAIT

Page 50: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGRATION

On définit :

I ldp : I x, ll(A,)i:1 | r.

La quantité J f Op est appelée intégrale de f par rapport à p.

Remargues

1)Si A €,,4, p(A) : ! 1a dp

2) On fait la convention 0 X (+ -) - O

fl ryl3) si f =,1', "' to' :,1., uj lri

1t-1rs : x, l(A,) - :yj l(B,). cequi donne un sens à ta notation I I a a,dont ta

définition est intrinsèque au s'ens où elle ne dépend pas de la spécification choisiepour f.

n4) Onnote J fdp: ! 1ofd1t:,:r,, x, l(A, O A)

Propriété 1 1

1) Soit f e 8*, ge 8*, atorsf +ge g* etJ(f +g) dp : !tap + lsdttSi .À€lR,ators

^f e 8* et J(,f fldp: À jlaU

2) f € 8*, ge 6*,sif (g ators !f dp (.l"Sdp.

Démonstration

1) f :. ). *, to, n:,],, y, 1r,t- |

On suppose, sans perte de généralité, que :

,r. A, = Q:l:l j:1 I

On peut alors écrire que :

PH. TASSI - S. LEGAIT

A, :' i:1 J :-r I IJ-r t-t

Page 51: Theorie Des Probabilites

d'où :

or:

d'où

PROBABILITE, MESURE, INTEGRATION

f +g: (x,+Y;) oo, n t,

I 4*,rt(Ai nBj) +> lrtuln nB,)ij 'rtt tap + "[ sdll

s -f € 6., I gdtt : I ldtt + -i (g -fl dP

"i(s-ïdtt2O

J sdtl21ldp

nm

i:1 j:1

f (f + g)d/

2l g: f +g-f

Exempte: On munit (lR, g'l de la mesure de Lebesgue i'Soit : n

t : ,I.,

f (ti) I rti- 1, ril' t € lR*' t'- ',

<t

alors :

J fdÀ:,I., f (ti) i(lti-r,t,l) :,j1 t(ti) (ti-ti-1)

ce qui revient à calculer une intégrale de Riemann'

4.2 lntégration des fonctions mesurables positives

On note ,tt* l'ensemble des fonctions mesurables positives'

4BPH. TASSI _ S. LEGAIT

Page 52: Theorie Des Probabilites

PROBABILITF, MESURF, INIEGRAT|ON

Définition 14

Soit f une fonction mesurable positive.

On définit t tdp : sup _f gdrrg€8*s<f

Théorème 8 (Beppo-Levi)

soit (fn), n € IN. une suite croissante de fonctions de "lt teile que rim l tne ,.1(,*alorsJlim lfndg = lim I ! fnd1t.

En particulier, d'après le théorème 7, si f e ,,/(,*, I (fn)ne ru

e g*,croissante,f : lim 1 fn alors :

I lap : lim 1 Jfn dp

Propriétés 12

1)Vf e ,/(*, g€ "(/,., l(f+g) dp:ltdp+lgfpV.À e R. J (nll dp: À I tdp

2)îe "4L*, ge,tr,, f ( g + [ fdp( .1" sd1,r

Propriété 13

Si (fn)ne rrv est une suite de fonctions de ,/L*

r; r^ dtt: ; lr-artn:O n n=O "

'n -r

cette propriété est une apprication directe du théorème g de Beppo-Levi à rasuite de fonctions croissantes :

n

9n: : f-p:o p

Lemme de Fatou

Si (fn)ne rru est une suite de fonctions mesurables positives alors :

liminf fn:tim I inf f_€,.4L*i o_æ p>n p

et:

J (tim inf fn) dp ( tim inf (,ifn ds)

PH TASSI - S LEGAIT 49

Page 53: Theorie Des Probabilites

PROBABILITE, MESURF, INTEGFATION

Démonstration

Par application du théorème 8 (Beppo-Levi),

| (tim t inf f^) dl/ : lim 1 "i ( 'If fo) dln pln ' Pàn

"i ( ilf fo) dr ç Jfo dtt, vp 2 npàn

+J(inf f^) dp( inf lr^dpp>n ' P2n '

d'où :

J (lim inf f^) d/ ( lim 1 inf I 1^ dp: lim inf J fn dgn'np>nPn

4.3 Fonctionsintégrables

Définition 15

soit f une fonction mesurable définie sur (o. ,,41à valeurs dans B, fr.|. ondéfinit les fonctions :

f* = f .i{rro}et:

f_ _ _f .l{r*o}f* et f - sont mesurables puisque les ensembles {f } 0} et {f < 0} sont,/-mesurableset f : f* - f-.

f est dite intégrable (ou g-intégrable) si :

11*dg<+oôetJf-dp1+æonPosealors:

Itatt: îr* dp- Jr att

Définition 16

f mesurableestintégrablesi J ltl dg < + æ'

En remarquant que lfl : f* + f-, on r;1on[;" que les deux définitions sont

équivalentes.

Propriété 14

On note î (O, ,,&,g) l'ensemble des fonctions intégrables définies sur lQ, ,'41.

1, @, ,'4,11) est un espace vectoriel sur lR et la fonction de 'C (O, "4, p) dans lR'

f * I Idp est une fonction linéaire'

PH TASSI - S. LEGAIT

Page 54: Theorie Des Probabilites

PROBABITITE, MESURE, INTEGRATION

Cas des variables aléatoires réelles

Définition 17

SoitX:(A,.,4, p) - !n,8,y unev.a. p_intégrabte(i.e. -i lXl dp < +*) .

on appelle espérance de X la quantité :

E(X) : -lXoP

4.4 Propriétés de l,intégrale

Propriété 15

Soient f et g deux fonctions mesurables telles quelil < S ; si g est intégrable,alors f est intégrable.

ll suffitderemarquerquef* ( g et f- ( S donc:

et: I f* dp ( -f sd1r ( +oo

J {- dp ( "i gdrr ( +æ

Propriété 16

Sif est intégrabte,ll +apl < "i ltl ap.

En effet :

II tapl : l"f f*dp - I f-dpl < .f ftdp + ! r-dp : I ltl dp

Propriété 17 : Inégalité de Cauchy_Schwarz

Soient f, g mesurables. de carré intégrable, alors :

("i f sds)' < (1 t" aû (1 s" ap)

ll suffit d'écrire que, pour tout réel ,À,

!(t+lg)'dtt>o

Propriété 18

Soit f une fonction mesurable intégrable ;

st{lfl )a}t< 1rildpa

PH. TASSI - S, LEGAIT 51

Page 55: Theorie Des Probabilites

PROBABII ITF, MESUBE, INTEGRATION

Démonstration

J lrl os

d'où :

: Jrl,lrur lfl ds + J1lrl<ar lfl ds >'l rlrl>ut lfl

,l ltl os >- a l1{l,l=u} dp: ap({lfl > a})

dtt

Propriété 19 : lnégalité de Bienayrné-Tchebychev

sa première démonstration est due à Tchebychev et date de 1863.

Soit une v.a. X telle que (X - E {X))'soit intégrable'

À,r., r/v\l \.t - E(X-Eg))2

P(lx-E(x)l > t) +E2

Démonstration

llsuffitd'utiliserlapropriétél8avecf : (X-E(X))', a: €2 et g: P'

Propriété 2O : lnégalité de Jensen

soit p : lR * lR une fonction convexe, X une v.a.r. telle que X et (p (x) soienl

intégrables; alors :

É {P(x))> P (E(x))

4"5 Généralisation

Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;

ll .ll désigne une norme sur lRn (toutes les normes sont, rappelons-le, équivalentes)'

o Une fonction f mesurable @, .&,l/)-* (1R", fr,n1 sera dite intégrable si :

"l llfll ds ( +oo \

o UnebasedelRnayantétéchoisie.onécrit f : (f,), i: 1 à n;alors:

I f dtt: (J fidp) (i : 1 à n)

o X: (Q,i:1

.il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées (X')'

àn:

/*'\l\X:l I\1\x I\ n,/

52 PH- TASSI S, LEGAIT

Page 56: Theorie Des Probabilites

X est intégrabte si J I X,l Oe < + oo,donc :

PROBABILITF, ]\IESURF, lNTEGRATION

l=

E(X) :

1 à n. Le vecteur-esBéranee est

J x., on\\

I

II x"ae 1

Bour tout

('"

\. ,,",

4.6 Exemples

a) lntégration par rapport à une mesure discrète

Soit un espace T":yr.é LO, { , /) ret que g est discrète, c.est_à_dire f I dénom_brable, élément de ay', VAe -d,

s(A) : : p({a})ar€Atll

Alors :

vf e "u,* lfap: : f(u)p({wllar€l

et toute fonction f mesurabre est intégrabre si ra série r r (4 p (uil estabsolument convergente u€lApplication à la mesure de comptage sur ( IR, gt1

:

F": : ô-n:O n

Une fonction mesurable réelle f est /c_intégrable si :

J lrl cs. : i^ tr(n)l < +- \- n:0

c'est-à-dire si la série de terme générar f (n) est absorument convergente.On a alors :

I rdp": i- ,,n,- n:ob) lntégration pat rapport à ta mesure de Lebesgue sur (lR, fr)

on peut montrer que si une fonction f est intégrabre au sens de Riemann surun intervalle Ia, b], arors f est intégrabre par rapport à ra ,.nesure de Lebesgue et :

PH TASSI - S. LEGAIT 53

Page 57: Theorie Des Probabilites

PROBABILITF. MESUFE, lNTEGRATION

J1a, bl f d : -i3 tl*t o"

De même sur la, b[ {- oo

absolument convergente , on montre que f est intégrable par rapport à la mesure

de Lebesgue et :

J, .. IdÀ: J!t1^1 or: lim ,i3tl^t o*lir,'l-

:r|,

5 NEGLIGEABILITE

C'est une notion cousine de "l'égalité en généralo citée au paragraphe 1 ; en

1882, Harnack définit l'égalité en général de deux fonctions f et g si, pour tout € > O,

{x/lf (x)- S (x)l > e} esl un ensemble discret. L'apparition quelques années après

de la mesure conduit assez naturellement à la négligeabilité.

5.1 Définitions

Soit (Q, .&, pl un espace mesuré.

Définition 18

Un ensembleAest ditg-négligeablesi f Be ,t4, AC B et,t,r(B) : 0.

Définition 19

une propriété n définie sur o sera dite vérifiée /-presque-partout (/-p.p.) si

I'ensemble des ar € Q pour lesquels elle est fausse est pr-négligeable.

Définition 2O

Une fonction mesurable réelle estp-négligeable si :

{ol Î(ul + o}est g-négligeable, i.e.

tt{ul Î(al * 0} : 0

Remargue

Dans le cadre d'un espace probabilisé P,,,4, P), on emploie le qualificatif npres-

que sûrement" (p.s.).

54 PH' TASSI - S' LEGA1T

Page 58: Theorie Des Probabilites

PROBABILITE, MESURF, }NTEGRATION

Propriété 21

soient f et g deux fonctions mesurabres. on définit la reration * par f * g sif : g /r-p.p. c'est une relation d'équivaience sur l,ensemble des fonctionsmesurables.

Propriété 22

soient (fn)ne ru et (gn)n€N, deux suites de fonctions réeiles mesurabres ; sifn : 9n g-p.p.Vn, alors :

o Sup f n : srjp gn /-p.p.o inf fn = inf gn g_p.p.

o lim sup fn : lim sup gn /_p.p.o lim inf fn = lim inf gn p_p.p.

o lim gn : lim fng-p.p. (à condition queVc.r, lim fn (r.,)existe).n

5.2 Propriétés

Propriété 23

soit f une fonction mesurabre réeile intégrabre définie sur (o, &, pr.Arors fest finie g-p.p.

Démonstration

On suppose que f ) O.

Soit:M: {c.rlf (ar) :1*1.Vn ) 1 ng(M) : .[n1* dp < lldp( +oo

car :

d'où: nlt ( f

p(M) : oPour une fonction intégrabrequerconque, I : f* - f-, ir suffit de considérerles deux ensembles :

et M* : trl f' (c.r) : + -1

M- - {arl f- (ar) : + oo1

Propriélé 24

1) Sif €,/(.*, J,tdp : O e> f : O g-p.p.

PH. TASSI S. LEGAIT55

Page 59: Theorie Des Probabilites

PROBABII IIF. ML SURF, I\ ILCFATION't

2) Si f est une fonction réelle mesurable

f :O /_p.p.<+Jlfl ds:O

3) Si f est une fonction réelle mesurable et Ae ,t4

g(A) : I + Jofds: O

4) Si f est une fonction mesurable

f : O Ë_p.p. + JfOg : IDémonstration

1) Si hێi*: h- I x, 1^i:1 | Ai

si h: Op-p.p.alors:n

-lno/:: x, rr(A;) :Oi:1

si| e .,U* .

lfdtt : sup{-fhdpr, h e 6*, O < h < f}

orsi 0 ( h ( f:.. f : O g-p.p. + h : O /-p.p. + Jhdp : Q

d'où :

Jfdg : o

Réciproquement, si Jfdp: O:

Vn)1o<ttLf>tI:-f r , dlt(nJfdPn tr< rt

n

1donc: Vn ) 1 p lI )-l: o

rtlt+ol: É, t ; tt >1tt < ; tt 1, >!1n: 1 I'l n:1 n

d'où: f :O P-P.P.

2) lmmédiatcar f : O g-p.p. <â lfl : O /-p.p.

3) Si f e "4f et 1r(A) : O alors f .ln : O ,u-p.p.:

en effet . {co/ (f . 1^l@l+O\:{coeA/I (ul+O} CA

donc: ltlu/f .1^+ 0l:0 etf .1A: O/-t-p.p.

PH TASSI S. LEGA]T

Page 60: Theorie Des Probabilites

PROBABILITF, N/ESURE, INTEGRAIION

D'après 1) eela entraîne alors que :

Pourf : fo * f-,î1.7a dÉr : O : IOtau

lotaa=Lt.d/r-âf-dp:q4) SoirA : {f + o}, u(A) : O.

Îldp: lOtau: lUtau: JU fdg:9 (f : O surÀy

Propriétés 2S

t, :,""'rïl

f et g deux apptications mesurabtes positirres, teiles que f : g Ér_p.p.;

Jtap: jsdp2) Soit f intégrabre, g mesurabre. teiles gue f : g p-p.B. Arors g est intégrâbre,etJgds = jfdi.

3) Sip est o-f inie,

f : g s_p.p. <+ VA € ,* la tdp : f, sal

Démonstration

1) Soit A: {f + s}, p (A) : O

I tap: lotau + IUtau: lUtau:.! sdr:.f, odr + fi sdr : J gdrt

2) llsuffitdeposer f = fn - f- et g: g* _ g erd,appliquerl).

3) f : gp-p.p. è VA e ,t( lo.f : 1A.g /./_p.p.

- lotau: .f, odl d'après2)

Réciproquemenr : VA = , lO ldp : 1O OdU.

Notons que l'on peut supp.oser f à g sans perte de généralité. pour montrerf : g p-p.p., ilsuffit d'avoir, "

f 1{rtn} : I 1{r"n} lr-P'P'

f f tt,=nt =91{,<n} lt-P'P'f et g jouant un rôle symétrique, on montre simplement que ;

PH TASSI S. LEGAIT

t 't urn, : 9 l ti>nJ P-P'P'

57

Page 61: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGRATION

onnote: F:f.l{r"n} etG:9.1{t"n}

(F>GI

i ro ror : Lnlr>n] rdP : lon{r=n} sds : L oou

et il s'agit de montrer que F : G lJ-p.p-

Supposonsdoncque f 2 S : g étanta-finie :

f An € &,An C An*r et o : limlAn, /(An) < +-

On pose :

Bn: An n {s(n}:Bn C Bn+l,et limlBn:liml {g(n}: [g<+-]

Yu / lim 1 Bn,g(ar) : +oo : f(t^r) puisque f 2 g

ll faut montrer que Vn, f I Bn : I l Bn

g-p.p.

ttrn ,ilen glBn) *nlsn

où:tt'n gÎ'n ) o

trn tou : -i(f trn - g lBn) dg * Jrn gdl

Jrn odl = Jrn ndg : ng(Bn) < + oo

On simplifie et :

-i(f len - glBn) dlt: o = 1len = 9lrn A-P'P'

d'après la proPriété 24.1).

limlf lBn = liml glrn /-P.P.

f 1,,r,rn : g 1,'r,rn l/-P'F'

d'où: f :g p-p.p.

PH. TASSI S. LEGAIT

Page 62: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGRATION

Théorèrne g (dit de Lebesgue ou de la convergence dominée ; 1gO3)

soit fn une suite de fonctions mesurabres et g une fonction intégrabre.

onsupposequeVn,lf"l < g p_p.p.et fn 1Ër

p_p.p.

Alorsfn etf sontintégrablesetJlf. - fl du * O (n_oo;

6 MESURE DEFINIE PAR UNE DENSITE

Définition 21

soit (ô, "{tp unespace mesuré etf € "r(,* @,-{,É/).on définit |appricationv:.r/ * lR'par:

VA e .4, y(A) : lOtauv est une mesure dite absorument continue au sens fort par rapport à g, et dedensité f par rapport à p.

On note : v : f .p; v définit bien une mesure sur (e,,,41 :

' (nio An) : J l:nn tdlt : J nlo (lon f) drr

: ; Jl^ fdp:rv(A)d'après la propriété 13. n:o ^n n n'

Remarques

1) Sif : I' p-p.p., VA C ,lOfdp = lOfaU doncyestdéfinieparuneclasse d'équivalence de densités, égales g_p.p.

Notationf e dv

dp

2l si f est intégrabre, on peut de cette façon engendrer une probabirité sur@,.r/l en écrivant:

vA e .4 p(A) = +#PH. TASSI - S, LEGAIT

59

Page 63: Theorie Des Probabilites

PROBABILITE, MESURF, INTEGRATION

ExemPle v:oe-exl,p-(x) .i

est une probabilité sur (lR, fr'1ae densité :

f (x) : 0e-0* 1,..(x)

Théorème 1O

Soit g une fonction mesurable;g esiv-intégrable <+ gf est g-intégrable ; on a alors :

"f Sdv: Jgfd/

Démonstratian

cSi g:1A,Ae.4l

J 1o dv : v (A) : JO fOl : .l'1 af dp : ! gldU

oSig € 8* g: I x 1^i Aie '&

-isdv : I ^i

v(A,) : I x, to, tou : J> x 1o. fdg : lgldlt

o Si g e"ht) g : liml gn, gn € d*

.igdv : lim 1-igndv : lim 1 Jgnfdg : Jlim 1 gnfdl(Beppo-Levi)

: ! gfd!

o Sig : g* - g-

(-in. ov ( + oo {ln. fdg ( + oc

sestv-intésrable e irn_ o, < * _

o lrn- rou < + oo

<+ gf estg-intégrable

Théorème 11

Soit v une mesure de densité f par rapport à trr'

,s(A) :0 + Y(A) : O

D'après la proPriété 24.31:

g(A) :O-lOldg:v(A) :O

60 PH' TASSI - S. LEGAIT

Page 64: Theorie Des Probabilites

PFOBABILITF, MÊSURE, INTEGRATION

Définition 22

Une mesure v quelconque sur (O, ,.r4) est dite absolument continue au sensfaible par rapport à une mesure l.{ sur (A,,,Ol "i:VA € &, p(A) : O =+ v(A) : O

On notera v < p Ur domine u).

on voit donc d'après ra définition 21 et re théorème 11 que toute mesureabsolument continue au sens fort I'est au sens faible.

En pratique. il est fréquent de travailler sur (lR, g,'), (n", fl.n1ou(N, .7(N)),munis de lois de probabirité qui seront dominés par,i. môsurÉ.,0" L"b""gue sur rR,'Àn, mesure de Lebesgue sur rRn, os rtc, mesure discrète de comptage sur rN;ceslois admettront donc des densité" p", r.àpport à À, Ànou lt".

Les théorèmes suivants énoncent des conditions générales d'existence dedensités.

Théorème 12 (Radon-Nikodym ; 1930)soit g une mesure a-finie sur (e. .4'y et v une mesure sur @,.q absorumentcontinue au sens faibre par rapport à g. Arors ir existe une ctasse un,qi"-Gde foncrions mesrrabres positives @,.ta) - (rR*, fr;i,-eô'"1." rr-p.p.,teiles quev : r.p v f € G. en outre, ces fonctions f sonr g-p.p. iinies si et seurementsi v est o-finie, et eiles sont intégrabres si et seurement si v est finie.

Définition 23

v est dite étrangère à p si :

lN €.il, u(N) : O et v(N; = 6Les mesures g et y sont donc presque partout à supports disjoints.

Théorème 1 3 (Lebesgue-Nikodym ; l93O)soient deux mesures g et v sur (e, -tJl, p o-Iinie. il existe une unique crassede foncrions mesurabtes positives f :iO, ,_41 I ffil,' g,.y, eg"r""r_p.p.,Liune unique mesure v, étrangère à p, telles que :

v:f.!+v'

7 INTEGRATIONPAR RAPPORT A UNE MESURE-IMAGE

Soit un espace mesuré @,.d, p), etlt une application mesurable :

e,.tll - 1c:,.e)

PH TASSI - S LEGAIT 61

Page 65: Theorie Des Probabilites

PROBABILITE, IVESURE, INTEGRATION

Théorème 14 (Théorème de transfert)

Soit f une application mesurable ', (O','&'l - (lR' fr'\'f.est intégrable par

rapport a t" r"suie i;";; gi si et Leulement si I'application mesurable foT :

@,:.4,) - (lR, fr'1 est intégrable par rapport à lr ; en outre :

I tapt:3 foTdgo'oDémonstration

oSi f e 6* n

f:,Ir*, 1o,A,e.z/'l:l

n

.l foTOg : J : X' 1o. oT dg-O O i:1 "'l

:; xl 1^oTdPi:1 r-o Ai

n: ,It *, ln t1r-'{n;)} d/

n: ; x, Érlr-t (Ai)l = r *, gT(A,) : -l- fdgr

,=t l'- i I o'

o Sif € Jf, f = limlfn où fn € é*

foT: limlfnoT

On utilise le théorème 8 de Beppo-Levi :

In tor dP : lim ' ln tn oT dg : lim t ln, tn dltr : Jn' togr

o Pour f quelconque. on pose f : f* - f-'

Application

SoitXunev.a.de(Q,.'4,Pldans(1R,8'l,etguneapplicationmesurable:i,^,' n) j

ffn,-'&.1. Ani" goX est p-intégrable si et seulement si g est

Px-intégrable; on a alors :

E (goX) : Jç goX dP : J,^ I dPx

PH' TASSI S' LEGAITôl

Page 66: Theorie Des Probabilites

PROBABILITF, MESURE, INTEGRATION

En particulier :

E (X) : J,, r oex

où I est I'application identité de lR dans lR.

o si Px < À (,r mesure de Lebesgue sur rR). pX admet une densité f parrapportàÀet:

E(x) = IttdÀ: J]: xf (x) dx

o Si Px 4 F" (tt"mesure de comptage sur (lN, g W)l

+oog":

^lo ô,

il existe une densité f telle que pX : f .pc; en posant p, : f (x) (*probabilité del'observation x"), on a :

+æE(X) : ltfdp":' x:O x

Exemples

1) Une v.a.r X est dite suivre une loi de poisson si :

*æpx- : e-.À ^x ô

x:0 x! x

E(X) :-itop*: ni xe-i À':À

x:O x!2) Si px : e-" l,r_ (x) .,1 :

E(X2) = |nX, Ot : Jn x" dpX - JJ x, e-, dx : l-(3; : ,

Théorème 15 (Changement de variable)

soit T un difféomorphisme (c'est-à-dire ung application inversible, continûmentdifférentiable ainsi que son inverse) de * :- 9,.t, g'éorun ouvert de lRn?j^U : T (#) un ouvert de tRn; alors;n etant'taï"rr"rL o" Lebesgue surlRn:

11t.Ànlt = 1s.lL{t-rll .In

PH TASSI - S LEGAIT 63

Page 67: Theorie Des Probabilites

PROBABILITE, MESURF, INTEGRATION

où J 11-1) est le jacobien-de T-1, c'est-à-dire le déterminant de la matriee des

dérivées Premières de T-'.

Rappelons que, sous les conditions usuelles de régularité' on a :

J (T-') - 1

J {T)

Corollaire

Soit g une mesure admettant une densité I pt' r^gPport à^1 g" ^

n

(gl ouvert de lRn). et soir T un difféomorphirt" de fr sur U : F 19(l ; aloré

trrT admet une densité par rapport à i n donnée par :

Pr : 1 s/.lJ(T-'\l foT-'' Àn

8 INTEGRATIONPAR RAPPORT A UNE MESURE.PRODUIT

8.1 Mesure-Produit

Théorème 16

Soient l}r &i, lr,) n esPaces mesurés (i : 1 à n) tels gue li a-finies'

On note' n nn :

,!,, o,

"' * = ,9,''

ll existe une unique mesure / appelée mesure-produit sur @, ,-o\telle que :

nnVA €,,4,,p ,11 A,) : n lr(A,)-''i : ,' '- 'i-1 '' i:1 '

NotationlJ: A Fi

1(i(n

Théorème 17

Si n : 2, la mesure-produit g est définie par :

VA € &.,8 &r,! (A) :Joz tt1(Ar2l dltr(url - Jnr tt2l{rll dpr(utl

64 PH' TASSI - S. LEGAIT

Page 68: Theorie Des Probabilites

PROBABILITE, À/ESURF, INTEGRATION

où:or., : {^z € Qr/ (c't' o,rr) e A}

orr: {rt e Q,/ (t't' torl e A}

, . 1", (resp. Arr) est appelée section de A en a,1 (resp. en ur) et est .& r-mesu-raDle (resp. ..{ ,, -mesurable).

Remarques

1) On vérifie aisément Ou" Aarl est ..{r_mesurable :

larr(l"or): 1 <+ (a, olrl e A <+ 1o(u' cl r): 1

. t' on no," F,1 I'application de O, dans ()1 X f)2 : u2 * @,, ur), po,t est

,d r-mesurable puisque ses 2 composantes le sont (théorème 6).

On " lAot : 1A o Fr,, donc tor, uut .rlr-mesurable et par là-même o.r= &r.

2) SiA: At X Az A, e &r,A2e .il2

f o,' : A, si a'r, € A',

lO"':@si ,r/e,d'où :

s(A) : ,n, u, (A,,,) dt,, : L.,

p2 (A2l dttl p2 (A2l p1 (A1)

Exemple : Mesure de Lebesgue

Vk, k' .Àk Llk, : ik*k.

8.2 lntégration

Théorème 18 (Fubini)

Soient (Qt, .ilt, ttr) et (Qz, &2, lt2) deuxespaces mesurés, /r, et tt2a-finies. On note ! : F1 E /r, sur (er x er, &., 9.421. Soit X une

fonction mesurable positive ou intégrable définie sur (o.t x er, &1 a .421.

PH. TASSI - S LEGAIT 65

Page 69: Theorie Des Probabilites

PROBABILITF, MESURE, INTEGRATION

Ona:tn' * nr*ou : tn., ttn, * @,, url dttrl 61tt

: tn, ttn1 * 1u| url dtt,tl dP2

Remargue

LorsqueX : 1o avec A e .41 Lt42

'n., * nr

to dlt : lt (A) : Jn,, tt' (A'rl dtt'

: tn' t\ 1a,., drzJ dP, : fo' [Jn, ln dPz] dttt

Exemple

Soit (X, Y) un couple de v.a.r. de densité f par rapport à i, : p(x' Y) : f i,E (XY) : Jn xvoe : J J,*, xydp(x' Y): J J,*, xv f (x, v) dx dv

: J,, [J,^ xY f (x. Y) dx] dY

66 PH. TASSI - S. LEGAIT

Page 70: Theorie Des Probabilites

EXERCICES

2'l Soit lA' e' g) un espace mesuré, f une fonction réelle définie sur O 1u-négligeable et g unefonction réelle quelconque. Montrer que fg est g_négligeable.

lndication

{u/f (u) s(al + 0} C {u/r@l + 0}

2'2 0n appelle fonction de répartition sur lR. toute fonction de lR dans lR croissante au sens large etcontinue à gauche.

Montrer qu'il existe une biiection entre l'ensemble des mesures g finies sur lB et l'ensemble desfonctions de répartition définies à une c0nstante additive près. 0uelle est la fonction de répartitionconespondant à la mesure de Lebesgue,.À ?

lndication..A partir d'une mesure p on définit Fu par :

Vx ) a Fa {x) : tt (Ia, xîl

Vx ( a Fa (x) : -p ([x, a[]

0n vérifie que F. est bien une fonction de répartition et:

Vx € lR, Fb (x) : Fu (x) + constanre

D'autre part, on construit à partir d'une fonction de répartition F la mesure définie par :

tt (la, x[l : F (x) - F (a), Vx ) a

A la mesure de Lebesgue correspond la fonction de répartition : F(x) : x (+ constante).

2'3 En se servant des résultats du 2.2, on cherchera une condition nécessaire et suffisante pour qu,unemesure soit continue sur lR.

lndication

Une mesure est continue si g ([x]] = 0 Vx e H.

0r: s({x}) : p([a,x])-([a,x[): F1x*;-r1x1donc une mesure est continue si et seulement si sa fonction de répartition est continue.

PH. TASSI S. LEGAIT 6l

Page 71: Theorie Des Probabilites

PROBABILITE, MESURE, INTEGBATION

2.4 Soit @, ,-4, glun espace mesuré, (fn)n>t une suile de fonctions réelles positives intégrables

vérifiant :

f- --->

f p-p.p.Ir n-co

!lndtt' lrdpoù f est positive et intégrable.

Montrerque Jlfn-fl dg * 0 quandn*oo.

lndication.'ll suffit d'écrire :

"ilf-fnl dl = -i(r-rn)* ds + "f(f-fn)- dl

Comme :

-f (f -f.) dp: I {f.-fn)* dp - t (f -fn)- apn*a 0

par hypothèse il reste à prouver que :

-f(f-f-)'dg-. o.. r' n**

(f -fn)* (f, f intégrable

(f -fn)* - o g-p,p.

-l(r-rJ* dp * o

2.5 Calculer en utilisant le théorème de Lebesgue :

et:

donc :

d'après le théorème L

lndication

lim .+ æ n2 , "-n2

x'

n*oôJa .'_l dx (a>o)

f+ oo n2 * r-n'xz , : l*- [,e-u'J a ---- ^ dx J na ---------- du1+x2 uzl+n-

f+ æ u g-u'- Jg 1- . {u} -----2 - du

lna'+æ1 " 1+ +n

PH. TASSI - S, LEGAIT6B

Page 72: Theorie Des Probabilites

PROBABITITE, N/ËSURE, INTEGRATION

Soit :

2

u e-ufn (u) : ltnr, * *1(r) ,z1+ --^

nz

lorsque n * -, 1[nr, *_J (u) - 0,

donc :

0r:

lf, (u)l k ue-"et:

Jfr- ,r-'" u, : JË- f, u' o, :* ( +oo

donc: rim Jf, (u) du : on-æ

fn(u)-0

PH. TASSI - S. LEGAIT

Page 73: Theorie Des Probabilites
Page 74: Theorie Des Probabilites

Chapitre 3

Les variables aléatoires

Ce chapitre est consacré à l'étude des variables aléatoires définies sur unespace probabilisé. Outre les principales caractéristiques des variables aléatoiresréelles (fonction de répartition, densité, moments, etc.), le chapitre présentera resvariables multidimensionnelles et traitera des liens entie variables : indépendance,conditionnement, etc. lr fera référence, autant qu,ir sera possible de le faïre, a rup_plication statistique de la théorie des probabilités.

RAPPEL DES DEFINITIONS

Nous regroupons ici res isurtats

vus dans res chapitres précédents :

Définition 1

@,,-4., P) et .(A',.,,&,1 étant respectivement un espace probabilisé et unespace probabilisable, on appelle variabte atéatoire tv.â.ixiout" "ppti""tiànmesurable X: (Q, ,d1 - @,,,r/,1.

Définition 2

on appelle loi de probabirité de la v.a. X ra probabirité image de p par X, notéePx, définie sur (O'. &,1,

VA, € ,,4.,, px(A,) : p(X_l (A,)) : p{X€A,}

Langage et notations

Si (O', ,,&'l est (tR, g,) (resp. ( tïp, &pD, X est une v.a. réeile, notée v.a.r.(resp. vecteur aléatoire de dimension p).

o Ayant muni (rR, &) (resp. ( rïp, g,p}), de ra mesure de Lebesgue i, (resp.'10), une.,v.a.r. (resp. vecteur aréatoire) sera dite absorument continue si px<<,À

fffi"jj " io) ; on dira, de façon usueile er par abus de rangage que x est

PH. TASSI - S. LEGAIT

Page 75: Theorie Des Probabilites

LES VARIAB tFS ALEATOIRES

. De même, si X prend ses valeurs dans tout ou partie de(2, 9(Z)l,Xestune v.a. discrète et PX << gc quand @, g (ZDest muni de la mesure de comptage

lJ c.

o Les lettres rondes désigneront I'espace des valeurs prises par la variable ;

ainsi ,% est X (O).

Exemple '' A partir de l,expérience consistant à lancer un dé parfaitement

équilinré, on peut àétinir une v.a. discrète : la valeur du point amené par le dé

(t : ti, z, s,4, 5, 6]), ou une v.a continue : la distance entre le centre de gravité

du dé pàr rapport à unâ origine liée à un repère 'fixé (fi : lR1)'

Remargue: Dans la pratique statistique. il est parfois difficile d'avoir des obser-

vationS d'une v.a. continue, et on Sera Souvent amené à la odiscrétiSer' AinSi les

démographes utilisent des classes d'âge, les économistes des tranches de revenus,

etc.

Dans la Suite, et sauf mentioh expresse, les v.a. seront toutes définies sur un

même espace Q,,4,P\.

1 CARACTERISTIOUESDES VARIABLES ALEATOIRES REELLES

(u NIDIM ENSION N ELLES)

1 ,1 Fonction de réPartition

partant de la définition, de la fonction de répartition d'une probabilité (cha-

pitre 1) :

Définition 3

soit X une v.a. à valeurs dans tout ou partie de (lR, fr) rce qui inclut les

variables odiscrètes,).

on appelle fonction de répartition (f.r.) de X la fonction de répartition de la

probabilité P^ :

Vx € lR, F(x) : Px (l--, x[)

F(x) :P{t';/X(.,l<xl\notéefréquemment F(x) : P(X < x)'

Notation

Par la suite, lorsqu'on aura besoin d'identifier la f.r. cl'une v.a. X, on utilisera F*'

12 PH. IASS] -S LEGAIT

Page 76: Theorie Des Probabilites

LES VAR]AB LFS ALEATOI RES

Propriétés : Elles sont identiques à celles vues au chapitre 1 :

o F est continue à gauche

e F est une application croissantee lim F(x) : 1

x*+oo

o lirrr F (x) : IX--oo

Remarque : Si X est une v.a. continue, F est en plus eontinue à droite et dérivable.

1.2 Densité de probabilité

Définition 4

soit X une v.a. absorument continue par rapport à,1. on sait qu,ir existe unefonction mesurable f déf inie sur (lR, &.,1, posi,tr", teile que :

Px: f .,Àf étant la densité de probabilité de X.

Remarques

1) Par définition. une densité sera donc à valeurs sur rR+. Toute densité f,égale à h pourx CA er nullesurÀ, A€ 4.,sera écrite :

f (x) : h (x). to(x)Ainsi,parexemple,radensitéf (x) d'uneroi uniforme %ro,,r neserapasécrite:

f t,^, : 1 si o ( x -< 1

{r1^1 : 6 sinon,

mais :

f (x) : tto,r1(^)

2) Soit unev.a. discrète:PX <<É/" où !": Z ô", xdécrivant l,ensembledénombrabl" u'

^'oo* e g,r*11*1y : > pxu.rl ,xeI ^

on retrouve donc I'anarogie avec re cas continu : ici pX - 1 . Fc où yx Ç gl:,t (x) -

px ({*}). En calcul del probabilités, on n'emploie pas le terme de densitépour f (x) mais celui de probabilité élémentaire.

PH. TASSI - S. LEGAIT l3

Page 77: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

Ainsi, comme on l'a vu au chapitre 1, les cas discret et continu se traitent dela même façon : par exemple, ointégrer, consistera, pour le premier, à sommer unesérie, pour le second à calculer une intégrale de Riemann (dans les cas usuels), ouune intégrale généralisée comme vu au chapitre 2.

Liaison entre densité et fonction de répartition

Théorème I

soit (lR, fr./ muni de la mesure de Lebesgue i, X une v.a. absolument conti-nue, de densité f i-presque partout continue, de f.r. F : alors F est dérivableÀ-presque partout, et :

lim F(x+6; - F(x) d: d,

F(x) : f (x)

Démonstration

Sous les hypothèses du théorème. on a :

F (x): {n 1,__, ",dp*

: JR 1 ]- -, x{f (t) d,À (t)

: Jr- f (t)dt'

Remargues

1) Retrouver la densité f par dérivation de F ou F par intégration de f n'a doncde sens que pour les v.a. continues.

2) Ona:Jrn f (t)dx: 1

Cela correspond à la propriété P(O) : 1 : F(+oo) ; en effet :

{n f (^tdx: PX(IR) : P(Q) : 1

Pour une v.a. discrète, de probabilité élémentaire f, on a :

Z f (x) : 1

x€9[

sf Jf t (t) dt : F (b)- F (a)

dx-Odx

PH. TASSI S. LEGAIT

Page 78: Theorie Des Probabilites

LES VARIAB LES ALEATOIRES

1 .3 Moments

, D"n: tout ce qui suit, res diverses intégrares et sommes sont écrites sousréserve d'existence, en utirisant re symbore d;intégration sans orstinguer v.a. dis_crète ou continue.

Définition 5

on appelle moment non centré d'ordre k de ra v.a.r. X ra quantité :

rr. : Jo xk op

En passant dans l'espace-image :

r* : JIR xk dpx 1x1

Si PX admet une densité f par rapport à une mesure p sur lR, on a :

rr : JtR xk i 1x; cp 1x;

Si X est absolument continue :

rr, : f I ^k t1"; 0,,

Si X est discrète ;

-n: ^èuxk

Px (lxl)

Pour k : 1, .t n'est autre que l,espérance E (X).

Définition 6

On appelle moment centré d,ordre k de la v.a.r. X la quantité ;

ttr. : 1e tX - E (X)lk dp

lrr : JtR (x - m.,)k opx (x)

Pour k :2, le moment p2porte lenomdevariancedeX.notéeV(X) :

V(X) :E(X-E(X))2

PH TASSI S LEGATT t5

Page 79: Theorie Des Probabilites

LES VARIABLES ALEATOI RES

Par simple développement, on établit le résultat suivant, conRu sous le nom

de théorème de KOENIG :

V(X) : E(X2) - E2(X) : mz- m|

La quantité a (X) : firc s'appelle écart-type de X. Elle est mesurée avec

la même unité que X.

Définition 7

Onappellemomentfactorield'ordrekdelav'a'Xlaquantité:

/[r]: Etx(x-1) '.. (X-k + 1)l

Propriété 1

Soit I I'ensemble des fonctions mesurables déf inies sur (Q, .4 ' Pl à valeurs

dans (lR, fr,1, intégrables. I est un espace vectoriel sur lR ; pour (X' Yl € 92'ona:

r E(X+Y) : E(X) + E(Y)

o Va € IR E(aX) : aE(X) et V(aX) : a2 v(x)'

Ces résultats découlent directement de la linéarité de l'intégrale.

Propriété 2 : Inégalité de Bienaymé-Tchebichev'

Pllx-al > si < **, v€ > o, Va € rR

Preuve

E(X- a\2: lA (X-a)2 dP

E(x- al2 : I (X-a)21t1*-al < €) dP + -l(X-a)2 ltl*-ul>eldP

En minorant la première intégrale par 0, on a :

E(x- alz 2 Î(X-a)21t1*- al> eldP > ! t' ltlx-al)e1 dP

d'où: E(x- a\2 > e2 P{lx- al>El

corollaires.. lls varient selon le choix de a et de la v.a. considérée.

a) Pour a :0, on obtient :

P(lxl >rr .3t'

16PH TASSI , S. LEGAIT

Page 80: Theorie Des Probabilites

LES VARIABLES ALEATOIFES

b) Pour a : E (X), on obtient ra formure *crassique,. déjà vue au chapitre 2,de Bienaymé-Tchebichev :

P(lx-E(x)l > 6) < v(x)

E,

cette formule donne une majoration de ra probabirité pour que X prenne desvaleurs hors de t'inrervaile lE (X) - €, E (X) + e[. Le principe ÀCrn" de ta démons_tration donne une idée de la qualité de cette majoration. Par exemple. si X suit uneloi binomiale g fiOOO,+), on montre (cf. chapirre 4) que E (X) : bOO et2V(X):250;pourr.: b: p(lX-bOOl > 5) << tO,cedontonsedoureapriori,puisqu'une probabilité est à valeurs sur [0, I ].

Supposons que X suive une loi uniforme à valeurs sur [0, 1 ]. %rc, r1, d"densité f (x) : 1to, r 1

(*) ; on montre (chapitre 4) que :

E(x) :] "t v(X) : 1

L'inégalité de Bienaymé-Tchebicheu f?urnit. pou, ; 12

1_111, :t, p(lx -11 >T) <E

P(lx-]t "1,

: o2', 2

alors qu'il est trivial que :

1.4 Fractiles

Définition 8

On appelle fractile d'ordre a de la loi de X {O < a <que :

xd : sup {x,zF" (x) < a}

1) le nombre réel xo tel

PH, TASSI . S

Page 81: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

Dans le cas d'une v.a.r. X continue, F* est strictement croissante et continue.et donc xo est l'unique nombre tel que :

F*(x/:aExemple d'une v.a. discrète

Soit X à valeurs dans (lN, 9l(lN))de loi de Poisson de paramètre 3 (cf. chapi-tre 4) : X - > I (Sl. ta lecture de la table 4 nous f ournit les valeurs de F", et doncson graphe: _

Ainsi pourO < x ( 1 F*(x) : P(X<1) : P(X:O) =a: O,5, ontrouveXo,s: 3 ; poura: 0,1992, lefractilevautl.

Notations :

X

0,0498. Pour

o Pour a:0,5, xa estappelémédiane;poura: O,25 (resp.0,75). xoestle premier (resp. troisième) quartile

o Pour a : k/10 (k entier de 1 à 9), x^ est un décileo Pour s : k/lOO (k entier de 1 à gg),"xo est un centile.

1.5 Changement de variables

Théorème 2

o Soit X une v.a.r. absolument continue, de densité f . 1 g par rapport à À, gétant un ouvert de lR"

o Soit g,une application g; - g (g étant un autreouvertde lR), inversi-ble, continÛment différentiable ainsi que son inverse (9 est undifféomorphisme).

o Y: po X est une v.a.r. absolument continue, de densité g par rapport à i :

0,1992

0,0498

18

g (y) : focp-' (y).l(e-')' 1v)1 . 1 7(y)

PH, TASSI S LEGA]T

Page 82: Theorie Des Probabilites

LES VARIABLES ALEATOI RES

Exemples

a) X suit une loi exponentielle de densité :

f (x) : e-x 1 ,*_ (x)

On considère la v.a. y : r,&, par l,application g de lRi - lRi définie pare fu) = r,6. tr est évident que g vérifie les hypothèses du théorème 2.

d'où: u:lRi' (ç-'|(v):2v

g (y) = 2y e-v, l rn; (V)

b) soit X une v.a. suivant une roi uniforme sur lo, 1 [ de densité :

f (x) = IIo,,,t(*).

soit p:x--xtdel0, tI dans ]0, 1[ uneapprication inversibre,continûmentdifférentiable, ainsi que son inverse e-, :x * ,,,& de lO, rIoans tô, ii . y: i;'a pour densité :

1g(y) : Z6- 1ro,r1(v)

c) ll est parfois possibre de déterminer ra roi de y : 9 (X) par re carcur directde la fonction de répartit'on de y,

Soit X de loi normate N (0, 1) (cf. chapirre 4), et y = g(X) = {2

Fy(Y) : P(Y < Y) = O si y ( O

Fy(y) :P(Y<y) :P(X'<ZVl si y)O: p(-,/2y < x < \/2y) : Fx tt/Wl _ Fxî\6)

Par dérivation, on obtient la densité f, de y :

J'ry (y) :

.,Æ t* 6/2y y t,^. (v)

,n1f. (y) : -IY " Vil 6 "-Y

lR. (Y) : + Y-1/2 e- ' 1,n; (v)

PH. TASSI . S. LEGAIT 79

Page 83: Theorie Des Probabilites

LES VARIAB LES ALEAIOI RES

2 VECTEURS ALEATOIRES

Soit X : (A, .4, P) * (lïp, g.p) ; on notera par X, ;" |ème coordonnée du

vecteurX(i : 1àp).

On munit lRo, 8,o7 de la mesure de Lebesgue iD ou éventuellement, dans lecas discret, de la mesure de comptage-produit.

2.1 Fonction de répartition

La f.r. de X est une application de lRp dans [0, 1 ] définie par :

F (x'' ' xo)

: :';" .::_,ï'. ", l-,; :':,, , xp (",) . "o]

P {X., < x,. ..., Xp . *o}

2.2 Densité de probabilité

Si X : (Xr, ...,X0) est un vecteur aléatoire absolument continu par rapport à

À0, il existe une fonction mesurable positive f :(lRp, n'pl'1lR*, fr'*l telle que

PX : f . Àr;f est la densité de probabilité de X.

Théorème 3 : Lien entre densité et fonction de répartition

ôP F (x'. ..., xo)f (xr, ...,^o) : :----:-. P ôx, ôx, ... ôx,

Ainsi, dans le cas n : 2, la f.r. au point (xl, x2) est l'intégrale de la densité surle Pavé D : l- -, x, I X ]- -, xz[ soit :

BO

F {x,, xr) : Jlo f (u. v) du dv

PH TASSI . S. LEGAIT

Page 84: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

Exemple

Soit (X, y)de densité f (x, y) : + to (x, v)x"Aoù:

A : {(x,Vl;x 2 l,y 2 O,y ( x}

On définit les domaines suivants :

B : {(x,y) ; x ( 1 ou y < O}

c: {(x,Yl; x} l,y ) x}

D: {(x,yl x21,0 < y ( 1}; E: A-DF est définie par :

F (x' Y) : "lâ i r- -, xlxr - -. yl

o V(x,y) € B

F(x,y) : g

o Soit (x, y) € D

F(x,y) : 4 # r{ out o, :o Soit (x, y) e E

1-;- du dv

ir-I,F(x,y) :d'jï#our ov+{'{#dur dv

F(x,y) - I - t- - t

2x' 2v

PH. IASSI - S. LEGAITB1

Page 85: Theorie Des Probabilites

LES VAFIAB LES ALEATOIFES

. Soit (x, Y) € C

F(x,y) :4

-1

Remargues

'Jï#duldv.{l{#duldv1

;

a) Jpn f (xr, .... xo) dx, ... dxo : 1

b) si (Xr, ..., Xo) est un p-uple de variables aléatoires discrètes, sa loi est

définie par la donnée des valeur" P,., . . ,0, P,, . ;o € JO, 't 1 :

P,,, ... io : P [Xr = *t,r, *, :

^2i2, Xp : xlp]

avec :

Xr (O) : {^1. ; i. c ljlJ'i r

:i1€11 io€lo rl "rP

On appelle espérance de X : (Xt, ..., Xo). le vecteur

/ e rx.r\/'\E(x) : [ . I

\ e x'r/où E (X,) : lO X, dP sous réserve que l'intégrale existe'

et:

2.3 Moments

a) Espérance

b) Covariance

Définition 9

soient X et Y deux v.a.r. ; on appelle covariance entre X et Y, notée Cov (X' Y)

la quantité :

B2 PH. TASSI - S, LEGAIT

Page 86: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

cov(X, y) : lo tx- E (x)lly- E (y)l dp ={*z tx_ E (x)l tv_ E (y)l 6p(x,y)ou

Cov(X, Y) : E {tX - E (X)1. ty- E (y)l}

Remarque.' Dans le cas discret

Cov(X,Y) : \^" !-. (^-E(X)) (v-E(y))p[N:x ; y:y]xe# yeU

Propriété : On montre aisément que :

o Cov (X, Y) : E (Xy) - E (X) E (y)

o V (X 1Y) : V (X)+ V (Y)+ 2 Cov (X, y)

c a et b étant des réels quelconques :

Cov (aX, bY): ab Cov (X, y)

Théorème 4 : (Cauchy-schwarz)

X et Y étant deux v.a.r. p-intégrables :

E'(xy) < E(x.).E(yr)Démonstrafi'on : sous réserve d'existence des intégrares, pour a € rR querconque,E(X+6Y12 2 L

E(X+6yl2 : E(X') +2aE(Xy)+a2 g1yz;

ne sera positif que si le discriminant de l'équation du second degré en a est négatifou nul :

e2(xy) - E(x').E(yr) < o

Corollaire

En appliquant I'inégalité de cauchy-schwarz, non pas à X et y mais à x - E (x)et Y - E (Y), on trouve :

cov2 1x.y) ( v(x).v(y)Définition 1O

on appelle coefficient de corrélation linéaire entre x et y la quantité :

Cov (X, Y)P(x'Y) : o(x).o(î

Du corollaire du théorème 4, on déduit :

-1<p(X,Y) (1

PH, TASSI - S. LEGAITB3

Page 87: Theorie Des Probabilites

LES VARIAB LES ALEATOIRES

c) Matrice de variances-covariances

Définition 11

On appelle matrice de variances-covariances du vecteur X la matrice (p, p) determe général a,, :

o,j [(Xi- E (Xi)) . (Xj- E (Xj))]

I peut donc s'écrire :

r : E {tx- r (x)lttx- E (x)1}

Remarque

La diagonale de I est composée des variances V (X,), ..., V (Xp).

Propriétés

Soient u et v deux vecteurs quelconques de lRp, X un vecteur aléatoiie'.dedimension p; on a :

o E(tuX) : E(tXu) : tu.E(X) : telX;.uoV(tuX) :tuIuo I est une matrice définie positive

o Cov (tuX, tvXl : tu I v

Démonstrations

Elles sont fort simples. Ainsi :

V ('iuX) : '1':,; l::1,, ,,T1îriJ;":',:'lu - e ..xu)r]

Remarguep

V(> X,) :i:1

v (xi) Cov (X,, X,)

Corollaire

Soit T une application linéaire de lRp dans lRq, représentée par une matriceA (q, p) ; Y : AX désigne le vecteur de dimension q transformé de X par l'application.Alors :

E(AX) : AE(X)

V(AX) : AV(X)tA : R>tn

p:

i:1+Z I

iii+j

B4 PH, TASSI - S. LEGAIT

Page 88: Theorie Des Probabilites

LFS VAFIABLES ATEATOIRES

. En particulier, puisque I est définie-positive. I-1 Jlest aussi, et on sait ou,ilexiste une matrice symétrique Ç^telle que'c2 : r-1 lc sera note'f.Èj ;;;"];;faisant le choix A:\-t./2, V 12-ttz .Il : lo,et le vectew y - fl.e ,"'.rlàj"irlia toutes ses composantes non corrélées. I

2.4 Changement de variables

Théorème 5

o Soit X: (Xr, ....Xo) un vecteur aléatoire : (A,.4, p)- (tRp, ge.pldedensitéf .1 g par rapport

^ o, # étant un ouvert de lRp;

o soit(p: g - g c Rq - g ouvertdeRq - inversibre.continûmentdifférentiable ainsi que son inverse. Arors : y : eox est un vecteuraléatoire de dimension q, de densité par rapport à ,Ào :

g (y) : tocp-. (yl lJ (p-t)l l srr (vl

où J (p-1) est le jacobien de rp-t, c'est-à-dire le déterminant de la matrice desdérivées premières.

Rappelons que J (rp-1) n'est autre que J-1 (rp).

Exemple

Soit (X, Y) un couple de v.a. de densité

f (x,y) : À2 e-À(x+v) l*îxFî (x,y)

ondéfinit lesv.a. u : X+y et V:X-y. oueileest ra roi de(U,v)ZL'application ç (x, ù: (x + y, x - y) est de classe cr, ainsi que son inverse p-,:

_i u+v u_ve'(u,vl:( z_, 2 |

J (p-') :1/2 1/2

1/2 -1/2

(p (lRi x lR|) : {(u,v)/v } - u er v( u} : D

1

2

et:

d'où :1

2

PH. TASSI - S. LEGAIT

g(u,v):^2

e-^u io(u,v)

B5

Page 89: Theorie Des Probabilites

LES VABIABLES ALEATOI FFS

Remargue : Méthode de la fonction muette

Soit X un vecteur aléatoire à valeurs dans (lïp, g.pl et p une application delRp dans lRq. On pose Y : g (X). S'ii existe une application f de Rq dans lR telleque pour toute fonction muette mesurable positive h (sous réserve d'existence desintégrales) :

Eth(p(X))l : J_^ h(p(x)) dPx(x) :.1_^ h(y) f (y) diq (y)tRp lRq

alors f est la densité de Y par rapport à io.

2.5 Lois n'larginales

Soit X de dimension p. On appelle loi marginaie la loi de tout sous-vecteur(Xr, ..., Xq) (q < p) extrait de X. ll existe donc C1 : o lois marginales d'ordre 1

(correspoîoant à q : il.C: hcis marginates d'orcife z, àrc.; au total, un vecteur de

dimension p permet d'eng'endrer 2p - 2lois marginales. Les plus utilisées sont leslois marginales d'ordre 1.

Le calcul de la densité marginale de (X.,. ...,Xr) n'est qu'un cas particulier du

2.4, où g est une application de lRp dans Rq définie par :

ç (Xt, ..., XJ : (X1, ..., Xq)

Théorème 6

Si f est la densité par rappoft à Ào d'un vecteur X: (Xr, ....Xo), alors (X.,. ..., Xo)

(q < p) est un vecteur aléatoire admettant par rapport à io la densité :

g (x1,...,r0) : J,*o_o f (*.,,..., xo) dxoo, ... dxo

Démonstration

Soit h une fonction muette :

J h (ç(xt,..., xo)) f (xr....,x0) dx,, ...d"0 : J,*oh (*,,,....n0)lRp

tJ,*o-o f (xr' "" tof d*o*, "' dxoJ dx,, " dxo

d'où le résultat.

Application : loi d'une somme de v.a"

p

Soit à déterminer la loi de la v.a. Y : ,1,

X,, où (X,,, ...,X0) sont p v.a.r.

PH TASSI - S, LEGA1T

Page 90: Theorie Des Probabilites

lRp - 1 pour

probabilisé

Une méthode usuelle eonsiste à définir l,application p : Rn * fin

/*'\ l*, \l\/\lJ'-{l\ l- \',-'/\*o/ \v IAyant calculé la loi de p (Xt,....X^),il suffit alors d,intégrer surobtenir la loi marginale de y. t t)'

2.6 lndépendance

Définition 12

lj't (),1 ..., Xn) n vecteurs aléatoires où X est défini sur un espace@,.4, P)et à vateurs dans (lRPi, fipi).(X'), <,<n est une famiile de vecteurs aréatoires indépendants si :

1Y,t {&p\1.,<i<n est une famille de tribus indépendantes.

D'après la définition 13 du chapitre r, res (X,)sont indépendants si :

vAe &p,,p(xr€A1,...,Xn€A") : rl p(x, €Ai)." i=1 |

LFS VARIAB LES ALEATOIRES

nP(Xt:"t,...,Xn:xn) :.fl . p(Xi :xi)t-l

Théorème 7'

X1, ..., Xn sont n vecteurs aléatoires indépendants o p(Xt,...,Xn) _

PH. TASSI - S. LEGAIT

Remargue

supposons que les v.a. X1, ..., Xn soient toutes des variabres réeiles discrètes;en prenant A, : {x,}, on obtient sous i,hypothèse d'indépenejance :

ô pxii:1

Page 91: Theorie Des Probabilites

LES VARIABLES ALEATOIBES

Démonstration :

On considère la classe :

D'après lethéorème4du chapitre 2 : A gBoi : slGl' 1(i (n

De plus, G eststable par intersection finie. Soient X1, ..., Xn n vecteurs aléatoires

I indépendants.

ll suff it de montrer que Pfit' " ' Xn) et â Pxi coÏncide nl sur G '

G-I,i,^'nezaef

donc :

i:1n

p(xr, ',*") t fi A,) : p(Xr € A1,..., xn€An)i-i ' i=lt- I

: 'Î

pxi 141 = Ë pxi t 11 A,)i:f i:1 i:1

,(x1, ..., X6) - â pxi (théorème 1, chapitre 2)

Réciproquement, si , ': t

P(xl' ...' xn) - Ë Pxi

i:1ona:

vAi € glip(Xr € A1,...,xn € An) : P(Xt' ''xn) (,i., o,,

: â p*, r rl A,) : 'Î

Pxi(A,)i:1 i=1 i-1

n:

'!, P(xi € Ai)

Théorème 8

on note par F, la f.r. de X,et Ral-1, la densité de X,lorsqu'elle existe; F (resp. f)

est la f.r. (resp. densité)dè X: (X;, ... Xn) n

X,....Xn sontindépendants <+ F(xr,...,^n) :1!., F'(",)

BBPH, TASSI - S, LEGAIT

Page 92: Theorie Des Probabilites

LES VARiABLES ALEATOI RES

ll est clair que [imprication + est une conséquence de ra définition en pre_nant pour A l'intervaile ou re pavé ouvert étémentaiàJ" rnor" "

l- -.^,, [x ... x] - *, *0,[

On admettra la réciproque.

Théorème 9

Si les v a. (X'), i : 1 à n, sont continues par rapport aux mesures de Lebesgueio,' on a :

a)f désignant la densité de X. par rapport à io

X1, ..., Xn indépendants =à f (x,, .,., xn) : ti f,(x,).i:1 r'r'

nb) o f (x.,, ..., "n)

: ,1., s,{^,)

o g densité de probabilité(i :1àn)

+ X1, ..., Xn sont indépendants et

pXi : q..,ÀP;

Remargues

a) Ceci n'est bien sûr réalisé que si les densités f sont définies sur tout lRpi.Ainsi, pour des v.a.r. X et Y, la densité f (x, y) : 2 e-' (x+y) 1,.. \^r n,est oasséparable, c'est-à-dire ne peut être mise sous ra forme d'un orotJ;'iii^I ;iri;;les v.a. X et Y ne sont pas indépendantes.

b) La densité d'un n-upre (x., ..., X-) de v.a.r. indépendantes n'est donc que reproduit des densités des v.a.r. x.' Le caÊur de ra roi oe'ta somme de v.a.r. est arorssimplifié.

Exemple

Montrons que si X et y sont deux v.a.r. indépendantes suivant res rois gammay (p,0) eT y @, d)de densités respectives (cf. chapitre 4) :

1

f.,. (x) : _ e-d* x p-' op 1 -. (x)^ l-(p) ,H;'''

fy(v) : + e-ov yq-'dq I,n- (y)

alors X+ Y suit une loi y b + q, 0)

PH TASSI -S TEGAIT

Page 93: Theorie Des Probabilites

Démonstration

f 11' Y;(x' v) :

Soit T :

1

er (p) r (q)

/x\(,j

On en déduit la loi du couPle (U, V) :

1

f 1r,r,

yy(u, v) : r (r) r (q)

d'où :

r(p).r(q)

Posons I : u/v'.

fu (v) :

d'où :

LES VARIABLES ALEATOI RES

?P+q 1Ri x Ri (x, y)

"-vd uP-l (v - Ll;o-t eP+q 1{v)u)o}

-d(x+y) 1n-1 UO-1

/tt : x \(u: *-r)

fu(v) : là t,r,v1 (u, v) du, Vv ) o

e-ve |p+q

{ uo-t (v - u)a-1 6u

dp+q vp+q-1 "-v0

rtp).r(q) Jl ,o-t (1 - tlc-r 6,

: B (p, q) e-vavp+q-1 dp+q

r (p) r (q)

B (p, q) : 1[ tn-t (1 - t1o- t6,

B(p,q) : I*f#1

fv (v) : |- ,, _ d "-dv

uP+Q-1 ap+qlR* (v)

Théorème 1O

Soient n v.a.r. (Xr, ..., Xn) indéPendantes, définies sur (O, '4, gl, intégrables'

Alors: n

E (Xr,...,Xn) : ,!,,

, {*,t

où:

Or:

90 PH. TASSI - S. LEGAIT

Page 94: Theorie Des Probabilites

LES VARIABLES ALEATOI BFS

Démonstration (n: 2)

E(X1 X2) : JX'Xrdp: -f-i xr x, f ,, (x,,) f, (xr) dx., dx,: J xr f ., (x.,)dx., . I xzf zgr) dx.-

: E(X1).E(X2)

Corollaire ISoient X et Y deux v.a.r. indépendantes ; alors Cov (X, y) : O (et doncr (X, Y1 : g;.

Remargue

La réciproque est fausse en général. Ainsi, soit X une v.a.. discrète de loi :

px{-Z} : px{- 1} : px{1} : px {2} : 1/+Y : X2 suit la toi pY{1} : pY {4} : 1/Z

donc: E(X) :0 E(XY) : E(X3) : O

E(XY) - E(X) E(Y) :0Or X et Y ne sont manifestement pas indépendantes.

Corollaire 2

. Soient n v.a.r (Xr, ...,Xn) indépendanres, définies sur (e, .4, p), intégrables;alors:

nV (X., + ... + Xn) : .I. V (X,)

Corollaire 3

si X : (Xr, ..., X/ est composé de p v.a.r. indépendantes, ra matrice de variances-covariances de X est diagonale.

2.7 Lois conditionnelles

1 Présentation

Nous allons adopter une présentation simple et intuitive en reprenant la défi-nition d'une probabilité conditionnelle (cf. chapitre 1). Nous considérerons succes-sivement le cas de deux variables discrètes puis de deux variables continues. puis

PH. TASSI - S. LEGAIT91

Page 95: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

nous présenterons une formalisation plus théorique d'une loi conditionnelle, qui

pourra être omise en première lecture.

soit un couple de v.a.r. (X, Y). Le principe est de connaître. la loi de Y sachant

qu'rnl-re"tisation de la v.a. i a fourni ie résuttat x, dite loi conditionnelle YIX : x'

a) Cas de deux v.a. discrètes

on suppose que la loi du couple (X, Y) est connue. D',après la définition du

chapitre 1. on a :

P[X:x et Y:y]P[{Y:y}l{X:x}]: ----.-P [X: x]

La variable YIX: x est donc une v.a. discrète dont la loi est parfaitement connue'

Application aux tableaux statistiques

Soient X et Y deux variables statistiques discrètes prenant les valeurs {x.', "', xn}

pour X et {Yr. ..., Yo} pour Y. Observant sur une population Q de N individus les

valeurs prises par les deux variables, on peut constituer le tableau de contingence

suivant, qui donne la Structure de la population selon les deux critères X et Y :

On note : n,, le nombre d'individus tel que X prend la valeur x,, Y la valeur Y, :

nppn* :

'], jIr n'i;ni : jIt n'iini ilt n'i

Xvj Total

X.I

n..U

n.l.

Total n.j N

PH TASS1 S, LEGA1T

Page 96: Theorie Des Probabilites

LES VARIAB LFS ALFATOIRES

tuOt"jult quantités {n., 1 ( i( n} er {n , I < j< p} consrituent tes marges du

La loi du couple (X, Y) est connue puisque lon sait carcurer res probabirités :

P{X:*i,y:yj} : pij : * ,t < i < n, I ( j < p)

Les lois marginales de X et y sont déterminées de la façon suivante :

V1 < i( n, p(x:*i) = Fi.:,Ë. 0,, :.9. p(X:"i,y:yj)j:l '' j:1

v1 < j( p, P(Y:yj) : pj :,!., 0,, :,!., ,(*:^i,y:yj)

P (Y: v.. X : x.)p(y:y,lX:x,): ')' (

P (X: x,)

P (Y :yjlX: x,) : P'i : n'j

Pi ni.

Cette expression n'a de sens que si p (X : x,) # O.

On trouverait de même :

P(X:xlY:y,) : P'j : n'j (p,+O)

' P.j n.j l

Remargue.' Si les variables X et y sont indépendantes, alors :

P[X :x. Y:y] : P[X:x]. P[Y:y]et;

P[Y:yl X:x]: PIY:yl

La probabilité de l'événemenr {y : y} ne dépend pas de la réalisation del'événement {X: x}.

PH. TASSI - S. LEGAIT 93

Page 97: Theorie Des Probabilites

LES VARIABLES ALEATOI FES

Exemple numérigue (E)

On a, par exemple, la loi marginale de X :

P(X:1) :0,48, P(X:21 : 0,195, P(X:3) :0,32S

La loi marginale de XIY: 1 est :

9 18 22P(X:1lY:1) : ;;, P(X:2lY:1) : -t-_ ,, (X:3lY:1]l:

49

On remarque aussi :

31 65 55P (X: 3, Y: 2l :

2OO+ P (X: 3) . P lY :2) :

-2OO -2OO

Les événements {Y: 2} et {X: 3} sont donc dépendants.

Réflexions sur l'indépendance

En analyse statistique. au vu d'un tableau répartissant une population Q de

taille N selon les variables X et Y, on se pose souvent la question de savoir si ces

critères sont indépendants ou non.

X

II 2 3 4 n.

L

1 9 21 35 31 96

2 18 3 8 10 39

3 22 31 9 3 65

n 49 55 52 44 N :200

PH TASS]-S LEGAT

Page 98: Theorie Des Probabilites

LES VARIABLES ALEATOI RES

A côté du tableau. observé, o, à n rignes et p coronnes, que [on peut assimirerà une matrice (n. p) d'élément courant-n 1o, p,, : n,,./N si on travaille en fré_quence), on constitue le tableau théoriquàl T qu"''l,on onli"noruit sous lhypothèsed'indépendance, d'élément courant :

n. n.nll : Pi. F.j : -fi

ou:pij : pi pj

Si X et Y sont indépendantes, res tabreaux T et o seront identiques. En prati-que, les deux tableaux ne seront jamais égaux, et on utilisera un critère d,écartô (T, o) entre le tableau théorique ét le tableau observé. on peut penser. par exem_ple, à :

npô(T.Q) :

i:l j:lou bien :

n1.U

ce dernier indicateur a en prus ra propriété d'avoir une roi rimite connue etfixe lorsque [\ * oo, la loi du khi-deux (cf. chapitre 4).

b) Cas de deux variables continues

Soit (X, Y) un couple de v.a. continues, de densité f (x, y) par rapport à lamesure de Lebesgue ÀreT soir f, ra densité (marginare) oe x.'Là roi J"ïix: ^admet pour densité :

npô(T,Q; : :

i :1 j:1

f (ylx) : f (x' Y)

f* (x)

lntuitivement, on écrit :

Or:

F(yl x(X<x+dx) :

f (ylx) : |;n'r f (ylx ( X < x+dx)dx*0

P{Y<y, x<X<x+d1}P{x(X<x+dx}

Ft*, 1(^ + dx, y) - F1x, y1(r. v)

PH TASSI . S. LFGAIT

F" (x + dx) - F" (x)

Page 99: Theorie Des Probabilites

LES VABIAB LES ALEATOI RE S

a

ôvFr*,y(* + dx, y)- # F(x.ï (x, y)

f (ylx) : limdx*O F* (x + dx) - F* (x)

àâu, l^ F(x'Y) dxl

: limdx-O F" (x + dx) - F" (x)

fx,l (", y)

f* (x)

x

et

I

I

I

I

L-

Remarque

Si on note 7/ l'ensemble des valeurs possibles pour le couple lX,Yl, '//xla section

de T par x, valeur fixée de X :

f (x, v)

96

f" (x) : lr^1 (x, v\ dy f (ylx) :lr^t (x,vl av

PH TASSI - S. LEGAIT

Page 100: Theorie Des Probabilites

LES VAFIABTES ALEATOIRES

Formule de Bayes: en écrivantf (x, y):f (ylx). f"(x) : f (xly).f"(y), on a:

f (x I y) fu(v) f (x I y) fu (v)f(ylx) :-- --l--:

f* (x) îy f (xly') f, (v)dv

Remargue

ll est clair que les résultats énoncés pour des v.a.r. (pour faciliter l'écriture)sont généralisables à un vecteur (X, y) de lRpx lRq:dans ie cas continu, on aurapar exemple :

2 Définition générale d'une loi conditionnelle

Définition 13

On considère un c_ouple de v.a.r. (X, y) : @,,rd,p) - (lRr, fr.21. Onnels p(x,y)la loi de (X, Y) et px la loi de X; supposons qu,il existe une application :

P];Ox,t(-tO,iltelle que :

o Vr^r € O, Pt (ar, .)est une probabitiré sur (O,,dl. VA € .4,rL (.. A)est une appticarion mesurable définie sur (e,.dyo p(X€A1' y€A2) : p(x,v) 1A1 xA2) : _r^ pLg,A2l dpx(x).

Ators on note pl (x, Ar) : pY/x: * tnr) Lt pytv -x esr appetée loiconditionnelle de y sachant X: x.

Application

I Lorsque X et Y sont discrètes, en considérant les événements A,, : {x} etAr: {v}, on retrouve ;

P{X:x; t: yJ : 7Y/x:x{Y:y}. P{X:x}: P(Y:yl X:x) P(X:x)

o Lorsque X et Y sont continues, on peut écrire :

P[x € A,;Y€A2]: Jo., "o,f

(x.y)dxou:JAr ,tort(x,y)dyl dx

PH TASS] S. LEGAIT 91

Page 101: Theorie Des Probabilites

LES VARIAB L tS ALEATOIRTS

Or:Ptx €A1 ; Y =or,

I to1 t"'x-* (Az) oPx(x)

Jo, ,",x = * (Az) f" (x) dx

d'où :

"|". t"i^ f(x,y)dyl dx:,1^ pYlx:* (Ar)f*(x)dxA1 A2 At

et ce quel que soit A1q- ,tq on en déduit (cf. propriéIé 25.3, chapitre 2) :

f {xtYl esr ta densité

"1"^ f (x, y) dy - PYI x:

" (Az) f* (x), À presque partout donc : i" A, 2' ^' " f*(x)par'rapport à .À de la loi de YIX: x.

3 Espérance conditionnelle

Soit le couple de v.a.r. (X, Y). de loi P ; on notera Px et PY les lois marginales

de X et Y, pYlx et PxlY les lois conditionnelles de YIX : x et XIY : y.

Définition 14

Si l'express'on J,* y dPYlx existe, on l'appelle espérance conditionnelle de Y

sachant X: x. On la note E (YlX: x).

Exemples

a) Lorsque X et Y sont discrètes :

E(Ylx:"i) : iË,,

,, P(Y:v,lX:"J :ï I u, 0,, : + ] u, n,,

b) Si Yl X : x est une v.a. continue de densité f (ylx) :

E(YlX-x) : Jyf (ylx)dy

Remarque; E (YlX : x) est une fonction de x.

Théorème 11

Si g est une application de lR2 dans lR et sous réserve d'existence des inté-grales, on a :

98 PH' TASSI S' LEGAIT

Page 102: Theorie Des Probabilites

LES VARIABLES ALEAIOI RES

E (ç (x, y)) : -i I I ç (x, y) opvlx = " (y)l oex 1x;

E (p (x, Y)) : "[ Ê (p (x, y)l x : x) dpx (x)

On note de façon mnémotechnique :

E (p (X, Y)) : Ex E (p (X, y)lX)

En particulier. E {y) : E* E(yjX), ce qui permet de calculer E (y) en passantpar un conditionnement bien choisi, puisque X dépend de rutirisateur.

Application au tableau statistique précédent (E) :

Le calcul direct donne :

E(Y) 1 - 4g1:rOO @9 + Zx 55 + 3 x 52 + 4x 44): à

Utilisons la formule de décomposition :

E(Y) : EX E(YIX)

E(YlX:t; 1:;t,t x9+2 x21 +3x3s+4x31y : JPde même, -" 96

E(ylx = 2) :#. E(ylx:3) :#1

E(Y)= IOO

(96 E(YlX: t)+39 E(yl X:2)+6s E(ylX:3))

1: -l:- (2go + gg + 1 231 : 491200 ._-,

200On retrouve, bien sûr, le même résultat ; notons cependant que nous avonsobtenu les moyennes partieiles

"eton tà"-u"reurs de X, ce qui peut fournir uneinformation intéressante. Par exempre, si v est te sataiie o ïrn" nomencratured'activité socio-professionnete, on à ié saraire ,"t;;;;r;roi"rrron, qui permerdes analyses et des comparaisons plus approfonOies.

Définition 1S

on appelre courbe de régression de la v.a.r. y en la v.a.r. X ra courbe :

{(x, fl: Y: E (YlX: x)l

PF TASSI-S LÊcAlI uo

Page 103: Theorie Des Probabilites

L ES VARIABLFS ALEATOIFES

4 Formule de la variance

X et Y étant deux v.a.r. définies sur (Q, *41, soit à calculer V (Y) ; P désignantla loi du couPle on a :

v (Y) = "1"(v - E (Y))2 dP (x. v)

: J,u t J,* (v - E (ï)2 dpYlx (y)l oPx 1x1

Or: y- E (Y): y- E (YlX1+ E (YlX)- E (Y)

ll s'ensuit :

I ly- E(ï)2:(y- E (YlX))2+(E(Ylx)- E (Yll2+2(v- E (YlX) (E(YlX)- E(Y))

,l-(v - E (Y))2 opYlx (y) : -i (v - E (YlX))2 oRYlx 1t1

+ -[ (E (Y I x) - E (ï)2 dPY lx (y)

+ 2 ! (y - E (Ylx)) (E (Ylx) - E (Y)) deYlx 1u;

Comme E (YlX) est une fonction de x, cette dernière intégrale est nulle après

factorisation de E (Y I X) - E {Y) qui est indépendant de y. D'où :

' .'-0 :-f t-i (v - E (Y I x))2 cpvlx (y)l dPx (x) + .f (E (Y I X) - E (Y))2 dex 1x;v0

v (Y) : -t v (Ylx) dPx (x) + -[ (E (Ylx) - Ex (E (Yln))2 dPx 1x1

soit :

v (Y) : Extv (Ylx)l + vx tE (Ylx)l

Lorsque X et Y sont discrètes, on dit que I'on décompose la variance de Yselon les strates {X: x,}. Pour chaque strate, on note :

1PVi : E(YlX: *i) : ^ ,t., n'j Y'j

' ni. J:ltP

o'i : V (YlX: x,) : j . i. n,, (V;1* 1)2

'' n,. j:1

On a, de Plus :

1np1!E(Y) :V:*,r,,

,:,, n'i u,, : ,:1n'.v,

1oo PH TASSI - s LEGAIT

Page 104: Theorie Des Probabilites

LES VARIABLES ALEATOIRES

La formule de la variance donne :

lnlnv(Y) : -=N i:1 I r N i:t

'' "i

V (Y) : variance ointra-strates> + variance <inter-strates>: moyenne des variances + variance des moyennes

Application au tableau statistique précédent (E)

. o1 : V(YIX: 1)

1 ..^ 28A2 8384: ;: (1 X9+ 4x21 +9X35+ 16X31)- (: )Yo 96 9 2i2

De même :

o'r: v(ylx : ,l :#, o3: V(ylx - 3) : #La formule de décomposition donne :

1 . 8 384 2474 2746 1 78400\_/lV\ -_ I ! r \r rr_200 96 39 65 ' 200 ' 96

7 774 15 129 491 2

T

--

l-t _- ,39 65 200

1 ^__. 491 " 1 44t 491 ' ql 11g' zoo ' 2oo -( zoo )

: 4oooo

:1'18

Définition 16

On appelle rapport de corrélation cje y en X la quantité :

, vtE(Ylx)l'tY x \//v\

PH. TASSi - S. LEGAIT

V (Y)

Page 105: Theorie Des Probabilites

LES VAÊIABLES ALFATOIFES

Remargues:

a) Ce coefficient n'a pas de liaison avec le coefficient de corrélation linéairep (x, Y).

b) Ona:e < nï*< 1

c) Si Y et X sont indépendants, la loi conditionnelle de YIX est identique à laloi de Y, et E (YlX) : E (Y), et donc : vtE (YlX)l : VIE (Y)l est la variance d'uneconstante; X X

4ï": o

102 PH. TASSI - S, LEGAIT

Page 106: Theorie Des Probabilites

EXERCICES

3'1 Soit X une variable aléatoire réelle absolument continue de densité f et de f.r. F strictementcroissante. Ouelle est la loi de F (X) ?

lndication

P tF (x) < yl : v donc ta densité de F (X) est fr1x1 (v) : rlo, r1

(y) (roi uniforme sur [0, r ]).

3'2 soit X une v.a.r. absolument continue de densité f* et de f.r. Fr. soit y la v.a. définie par:

Y:X si X)x0

Y:x- siX(xUODonner la loi de Y. Calculer E (y).

lndication

Y: X l{*:'ro} + xo'lfr=xo1;donc Y: sup (X, xo)

0n dit que Y possède une masse de Dirac au point xo.

+ooE(Y) :

{( x f, (x) dx + xoP{X(xol

3.3 Soient X, Y, Z trois v.a. réelles,rttrroqu, ,

o X suit une loi uniforme surl0, l[, de densité :

f (x) : lto. r1

(r)

r la loi conditionnelle de y pour X : x fixé admet pour densité :

fvlx:, (y) : (y-x)e-(v-*) 11x,+_1 (y)

o la loi conditionnelle de Z pour (X, y) : (x, y) fixé admet pour densiré :

Fzlrx, vt= 1r. r1 (z) : (y - x) e- z (v -') 1,*- {z)

1) Calculer la densité du tripler lX,y,Zl.

2) calculer la densité de Z et celle de la loi conditionnelle de (X, y) sachant Z : z.

3) Calculer :

PH. TASSI S. TEGAIT

E(VY-XlZ:zl er rlv{-xt

Page 107: Theorie Des Probabilites

LE S VARIAB LES ALEATOI RES

0n donne :

1+ær(7) : Jo

4) 0n pose u: Y - X et V: Z (Y - X). Montrer que les trois variables X, U, V sont

mutuellement indépendantes et exprimer les densités de U et de V.

lndications

1) f1y,v1{x,v):(Y-x) s-(v-x)10(x,v)

frx,v,z) ('' Y'zl: (y-x)' s-(v-x) {1+z) 1ot,r* (x'y'z)

1

tJ t e- udu : Vn

2l frQl: ii rl-- (t,-')t g-(v-x)(t*') dt,l d'

f (z) : i..1,^*(z)

f(x,vtlz=, (x, vI : f, t'+ z)t (t, - xl" e- (v-x) (1*4 1o (x' v)

3)

E (/t- xlZ:zl:

E1 1Æ-T1 :

1-i I I

ot/ r^ tt+ i)3 (v - *)' u

EztE/T-l 7ll : Ez (*

15 ,["(y-xl {z*lldxdv - '' --' 16 Vz+1

J V7rt-,4{"_--

\/z+ 1

144 PH TASSI S. LEGAIT

Page 108: Theorie Des Probabilites

LES VARIABLES ALFATOIFES

4) Changement de variables :

A $,v,2) : (y -x, z(y-x),x):{u,v,w) J(p-t) : 1-U

La densité de (y - X, Z (y - X), X) esr :

g(u,v,w) : u2e-'-u I 1^ (u,v,w)U.

où: A: {(u,v,w)/u } 0;v } 0 et 0 <w<1}g(u,v,w) : ue ,llo,*_1 (ule-u llo,**1(v) 110,'|1wy

d'où l'indépendance de U, V et W: X et:

fu (u) : u e-'1 ,0, * _1 (u), fv (v) : ,-n t,o, * _1 (v)

3'4 Soit X une v.a. réelle continue représentant la mesure d'un phénomène physique dans une unitédonnée. 0n donne sa densité g (x):

^ e- À*, x) 0,,À ) 0. 0r ra donnée observée est en

réalité [X], où [.] désigne la parrie enrièrc de X.

1) 0n pose Y : Ix]. Donner ra roi de y, son espérance et sa variance.

2) Oue dire lorsque ra donnée observée est, cette fois, r'entier re prus proche ?

lndication

1 ) Y est une v.a. discrète où :

Vne IN P{Y:n} : p{n(X(n+1}: d*1 g(r)dx:e-na11 -s-a1n

E(Y) : i nP{Y:n}:J-n:0 e'' - I

,Àv (Y) :

('l _ 1r

2) Pourtxl <X<[X]+0,b, onobserveZ:[X], er pourtXl+O,S<X<[X]+ t, onobserve Z: [X] + t

^P(Z:0):1-e 7^^n*0, P(Z: n): P(n-0,5(X<n+ 0,b):r-rn1r7 - u-a I

À e-^E(Z):2sh-.-- 2 (1 -e- ÀY

PH.IASS] S LEGAIT

Page 109: Theorie Des Probabilites

LES VARIAB LES ALEATOIRES

3.5 Soient X et Y, deux v.a. indépendantes de densilés respectives f et g et de f.r. respectives F et G.

Donner les densités de U : Sup (X, Y) et V: lnf (X, Y).

0énéralisation

Soient X,,, ...,Xn n v.a. indépendantes, de même loi, de densité:

f (x)= t,o.,, (x).

Ecrire les densités de Un: l:ltn

X, et U, :

'='Én

*,

lndication

Fu(u):P(U(u): P(X(u et Y<u): F(u).G(u)

d'où :

fu(u):f (u) G (u) + F (u) g (u)

De même :

Fv(v) : I -P(V2ul : 1 -P(XlvetY2ul : I -(1 -F(v)) (l -G(v))

d'où: fv(v): f(v)(1-G(v))+s(v) (1-F(v))

0n en déduit :

Fun(u) : Fn(u) où F (u) : u 1to,,l(u)* 1lr,*-1(u)

est la f.r. des X,. Donc :

Fun (u) : un I 10. rJ

(u) + 1 lr, * -tet:

flr (u) : n un- 1 1lo,,t (r)

De même:

Fvn (u) : (1 - (l - uln) I to, ,1

(u) + 1,', * -1 (u)

fvn(u) : n (1 - uln-1 1,0,,, {u)

et:

106 PH. TASSI - S. LEGAIT

Page 110: Theorie Des Probabilites

Les lois de probabilité usuelles

La pratique des probabilités dansvent par une parfaite connaissance desen effet besoin :

- d'identifier la ou lesnées observées

ôu(x) : 1

ôu(x) :0La loi de Dirac est la

mène déterministe X dont

PH, TASSI S. LEGAIT

Chapitre 4

* de connaître et interpréter leurs caractéristiques fondamentales (espérance,écart-type , médiane, etc.) en fonction des paramètres qui interviennent dans l,ex-pression des densités ou des fonctions de répartition

- de pouvoir approximer ces lois par des comportements asymptotiques limi-tes apparaissant dans un certain nombre de situations.

ce chapitre répond à querques-uns de ces objectifs. La partie asymptotiquesera vue ultérieurement au chapitre 7, car elle néceisite des outits mathématiquessuppiémenta ires.

LES LOIS DISCRETES

la modélisation statistique passe très sou-lois usuelles ; le probabiliste-statisticien a

lois de probabilité des variables engendrant les don_

ses valeurs sur unde probabilité d'une

On rappelle qu'une v.a. est dite discrète si elle prendensemble fini ou dénombrable de points. par extension, la loiv.a. discrète sera dite également discrète.

1.1 La loi de Dirac

Définition 1

soit a e R, un point fixé. on appeile roi de Dirac au point a ra probabirité ôadéfinie sur lR par :

SI X:A

si x*aplus simple probabilité existante, associée à un phéno-le résuitat de toute expérience est a. C'est, par exemple,

141

Page 111: Theorie Des Probabilites

LES LOIS DF PROBABIL]TE USUELLES

à la pétanque, la loi de probabilité de la variable X mesurant la distance entre unebouie visée et le point d'impact de la bouie tirée, lorsque le tireur ne fait que des<carreaux> : X suit une loi ô-.

Application

Soient n réels distincts fixés (a',. ..., an)et n réels (pr, ..., pn)tels que :

nO<pi<1, i: 1 àn, et.t. O,: t

l:l

On sait. d'après le chapitre 2, que la combinaison linéaire :

n

,f ', o' ô',

est une probabilité P associée à une v.a. discrète prenant ses valeurs sur {ar, '..,

an], et telle que :

P (X: a,) : p;

1

Si p, : -, pour tout i. la loi de X est dite uniforme.'nMoments

E(X) : a, V(X1 :9

1.2 Lci indicatrice (ou loi de Bernoulli)

Définition 2

On appelle variable indicatrice X la variable à valeurs dans {0, 1 } telle que :

tx1t1: o

Px{o}: q(q:1-P)(p € t0, 1l)

On note :Â 11,p) la loi de la variableX et on I'appelle loi indicatrice ou loi de

Bernoulli de paramètre p. Par extension, la loi de Bernoulli est la loi du résultatd'une expérience ne pouvant prendre que deux résultats possibles {a, b} quantita-tifs ou qualitatifs:une porte est ouverte ou fermée, une lumière allumée ou

éteinte, etc.

MomentsE(X):p V(X):pq

108 PH' TASSI - S. LEGA]T

Page 112: Theorie Des Probabilites

L[S LOIS DE PROBABILITE USUELLES

1.3 Loi de Foisson

Définition 3

La v.a. X suit une roi de poisson de paramètre À (À i o) si o : rN er:

Vx € lN px1x1 - s-a ^xx!

On nore :X -) .4 (^1.

comme nous re verrons dans re chapitre consacré aux processus, ra roi dePoisson apparaît, sous certaines hypothèses, dans les phénoÀènes de comptagàd'événements pouvant survenir Bendant une unité de temps donnée: nombre devoitures passant devant un observateur, nombre d'entrées ou de sorties d'une salled'attente, etc.

Moments

E(x) : i r"-^1:^ î "-o À'.' :À î "-olrx:0 x! x:1 (x_1)! " yIO - yi

E(X) :2Plus généralement, carcurons re moment factorier d'ordre k :

/rr.l: E (X (X - 1) ". (X - k + 1))

: ; x(x-1)...(x-k*1)e-^ ix:0 xl

æ :X k oo

ik ; e-À À ' : Ànx:k (x-k) ! U:O

- yl

/1L1 : ,1 k

D'où :

Ft2t: E(X(X-1)) : E(Xt)-E(X1:22

E(X2l : ^2+Àet donc :

v (X): 2

ll convient de remarquer que la loi de Poisson est la seule loi discrète à avoirl'espérance égale à la variance, quelle que soit la valeur de,À. La table 4 donne lesvaleurs des probabilités d'une loi de poisson.

PH,TASS] -S LEGAIT109

Page 113: Theorie Des Probabilites

LFS LOIS DE PROBABIL]TE USUELLES

1.4 Loi binomialeOn considère n tirages équiprobables, indépendants dans une population

composée de deux types d'éléments, le premier (l) en proportion p, le second (ll) enproportion q : 1 - p. Soit X le nombre d'éléments du premier type présents dansl'échantillon de taille n ainsi obtenu ; X est une variable aléatoire à valeurs dans

{0, 1, ., n}. La loi de X est appelée loi binomiale de paramètres n et p, et est notée!4 (n, pl.

Supposons qu'à l'individu no i de l'échantillon (i : 1 à n) on associe la v.a. Y'qui prend la valeur 1 si le ième individu est du type l. et 0 sinon :

P(Y, :1) si i€(l)

P(Y, :O) si i€(ll)

Alors, il est évident que le nombre X d'individus du type (l) dans l'échantillon vérif ie :

nX_: Yi

i:1

Comme Yi -) gJ (1, p), on peut écrire que la loi binomiale !/J (n. p) est lasomme de n lois de Bernoulli indépendantes. ll s'ensuit :

E(X) : : E(Y')' V(X) : : V(Y')i:f i:1

soit :

E(X) :np, V(X) :np(1 -p)Une définition explicite de la loi JJ (n,pl est la suivante:

Définition 4

Une v.a. X suit une loi binomiale de paramètres n et p si :

Px 1x1 : Cx p" (1 - p)n-x pour x e {0, 1, ..., n}'

La table 3 est consacrée aux probabilités élémentaires d'une loi binomiale.

1 .5 Loi multinomiale

ll s'agit d'une généralisation de la loi binomiale. Considérons une population

composée d'éléments de m types, chaque type j en proportion :

mpi, 1(j(m, Pi)0, t. o,:1

j:1 l

110 PH, TASSI - S. LEGAiT

Page 114: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

.

On tire, dans cette population, de façon équiprobable et indépendante, unéchantitton de taite n, et on définit ra varia'bre arà"ioii"ï, tr iik-ïi,;;;;;;dg,ns {9, 1,...., n }, représentanr re nombre J'étéments oé tvpJ i iigrr"n, dans r,échan_tillon' on dit que re ve*eur(N,, :..,^f ,.,,')suir une roi murtinom,rî,É'i" oiil;!il'Jl,pr, ..., p,n, notée .t/ (n, pr. ..j, nn.t. nrr3'"rticitemenr, on a ;

Définition 5

Le vecteur aréatoire 1= (Nt, .... N.n) suit une roi murtinomiare de paramètres :

mn,pr pr;pj >0, V j=1,...,r,,In pj :1si: J-l

Px(n.,.... n ) =tm,

m

j:1 ):n,

j:1 t

n!

n' | ... n.!est le nombre de (n.,. nr. ..., nr) - partages d'un ensemble de n éléments, avec:

m

iIr îi :D

Propriété 1 : La loi marginale de N est une loi gB h, p).En effet, un érément tiré est soit du type i (avec ra probabirité p,), soit non

!1 - pi) ; te nombre totar d'éréments du iype j aans r,échantiron;;l; jdil;;;'i;;binomiale 4 h, p;). Retrouvon.

""ie*rili par re carcur. soit r,événement A. définipaf : t - vvr(rsr I

R, : [(n,,, .... nj_.,,nj*.,, ..., n.,n), ,ij

Di : tr: n - n,]

nl

ou:

p (N, : n,)

nl n.

;r il*un jr(1"*t

nfr o-."A.

J

- Pi)n -n.J>

n.!...n !tmm

oft... on'

(n - n,)!

A; nr l...nj-r ln,*.1 !...n,,nlnr n,," n

Pr' ...p ill p.'(1 - pj)n-nj

PH, TASSI - S. LEGAIT

Page 115: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

ll s'ensuit :

P {Nj: n,): cll eli 1t - pj)n - nj

Conséquence

E(Nj) : nFj (Ni) : npi(l -pi)

lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soientnon corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'unélément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :

(N, Nr) -> "U, (n : pl p/

n!E (NjNr) :

(nj, nrl

nj+nt(n

d'où :

Cov (N,, N/: - n Fj p,

La loi multinomiale en statistique :

Soit Y une v.a.r. continue, I son espace de valeurs. (f (y) sa densité,(Yr, ...,Yn) un échantillon de n observations de Y. ll est très fréquent (tranches dei"ù"nr, ti"âncnes d'âge)de partitionner U enclasses.C,, i : 1 à K :

Kg - : C.. la classe C. déterminée par C, : [e _,,, e,[i:1 r' I

(ni- )!(nr- 1)!(n - n,- nr) !

:n(n-1)pipr

4, oi, t'' - pi- pr)n-nj-nr

r (v)

112 PH. TASSI . S. LEGAIT

Page 116: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUETLFS

on définit les K v.a. Ni.i: 1 à K, où N, dénombre res points de (y.,, ....yn)dans C,.

Le vecteur (Nr. .... N*) suit une loi multinomiale 'b 1n ) pt, ..., F*) avec :

o,: Jj,,_., f (v)dv

1 .6 Loi hypergéométrique

on considère un tirage équiprobable sans remise de n éléments dans unepopulation de taille N (n ( N) ;on s'intéresse à un type donné (l)d'éléments de lapopulation, que I'on supposera être en proportion p (Np est donc entier). soit X lenombre d'éléments du type étudié, présents dans l'échantillon de taille n obtenu.La loi de X est appelée loi hypergéométrique de paramètres N, n, p, et est notée-Jf,(N, n, pl.

Une définition explicite de la loi J(1N, n, p)est la suivante, à partir du dénom-brement "cas favorables./cas possibles, :

Définition 6

X suit une loi hypergéométrique de paramètres N, n et p, si :

'x /'n-x

Px (x) - tNP uNq

cftpour Max(O. n - Nq)(x( Min(n, Np), avecq : 1 - F.

MomentsE (X): nP

N-nV (X): npqN-1

Démonstration

Soiteo, a:1

(I

t

PH TASSI - S. LEGAIT

à N, la v.a. associée à tout individu a de la population telle que :

Eo:1 si a appartient à l'échantillon

ro: O sinon.

Page 117: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Comme il y a Cft-11 échantillons de taille n contenant l'individu

échantillons possibles de taille n :

cil-l nP (eo: 1)

On peut écrire :

x- : Yoroa:1

où Yo prend la valeur 1 si a est de type (l), Y : O sinon.

NE(X) = I YoE(eo)

a:'lNn

:a:1 aN

Npuisque : Y- : Np, nombre d'individus de type (l)dans la population.

d:l

De même:

NV(X) :

G:l aTp

EEoe,.\:P (toeO: 1) : P(€a: 1, eO: 1l

- P (€o: 1). P(c, : 1,/to: 1l

n(n-1)N(N-1)

n(n-1) n' n(n-N)Covrc.E-l:

-:N(N-1) N2 N'z(N-1)

V(sa) : Ele'?al_ Ez leol:+ - ÉnN

t >. YJt: N'P':q:r a:l " a*Ê

Cfi

a, et Cfi

En outre

PH. TASSI . S. LEGAIT

Page 118: Theorie Des Probabilites

LES LOIS DE PROBAEILITE USUELLES

D'où :

nV(X): N (1 *

NEn remarquant que : y?

q:1 a

V (X):

^ n{n-N}Y'+ r'r,N - t)

(Nt Pt -

Yo : Np, on obtient :

pz*Nprffi # (l

N: Y2,

a:1 al

nN-)N a:1

n

*)l

N::a:1

: lll-r*, p,_ Ll,l-.N) pN-1 N-ld'où :

v(x): N-n nooN-1

. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hyper-géométrique (resp. loi binomiale), oria :

V, N-nÇ: N-1 <1 dèsque n)l

En particulier, si n -- æ, [\ -* *, n V,N -O;

Ë-1;souscesconditions, les

tirages avec remise et sans remise sont équivalents en terme de variances de X.

1 .7 Loi binomiale négative

on considère une popuration dont une proportion p est composée d.érémentsd"un type I donné. on désire obtenir n érémenis du "; ifi";n procédant à unesuite de tirages équiprobables et indépendants. Soit Y la variable aléatoire dési-gnant le nombre de tirages nécessaires pour obtenir les n éléments voulus. La loi deX: Y - n est apperée roi binomiare négative de paramètres n er B, ".tÀi g tÂ,ilDe manière plus explicite, on a ;

Définition 7

X suit une loi binomiale négative de paramètres n et p si ;

PH. IASSI - S. LEGAIT

Px(x; : CII_. pn q* pourx € lNnf x- | '

1t5

Page 119: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

La forme de Px (x) est obtenue en remarquant que {X : x} signifie que

x tirages ont donné un élément d'un type différent de (l), n tirages (dont le dernier)ont dônné un élément du type l. Sous l'hypothèse d'indépendance, la probabilité

d'un tel événement est qx pn, et il faut multiplier par le nombre de tels échantillons

de taile n + x soit C[l_,1 .

Remargue

L'analogie avec le schéma binomial est intéressante. Dans celui-ci, le nombre

de tirages esi tlxé, et c'est le nombre d'individus de type I qui est aléatoire. Dans la

loi binàmiale négative. ou, plus exactement pour la loi de Y, c'est le nombre d'élé-ments de type I qui est fixé et donc la taille de l'échantillon global qui est aléatoire.De telles approches sont parfois utilisées en statistique, notamment en théorie des

sondages [6], en biométrie. épidémiologie et essais thérapeutiques.

Momentsoq

E(X) : n - V(X) : n-;pp-Cas particuliers : dans le cas n: 1, la loi de la variable Y désignant le nombre

de tirages effectués jusqu'à l'obtention du premier élément du type désiré porte lenom dà loi de Pascal, ou loi géométrique de paramètre p. Sa définition explicite

estPY(y):pqY-1 poury e N - {0}

Ses moments sont :

E(Yl : 17, V (Yl : q/p2

2 LES LOIS CONTINUES

2.1 Loi uniforme

CLASSIOUES

Définition IX suit une loi uniforme sur le segment Ia, b].par :

a ( b, si sa densité est donnée

1

f (x) :.-b-a

€ [a. b].

PH. TASSI - S. LEGAIT

1t., ul (*)

x-apour x

b-a

116

On note * -, *r",u1i la f.r. est F (x)

Page 120: Theorie Des Probabilites

Remargue

En faisant lechangementdevariables x * x-4, on est ramené à une loib-a

uniforme sur le segment [0, 1 ], de densité g (x): l,o, ,,, (x).

Graphes

Moments

.%rc,tj, E(x) : +t v(x) : +

.%r^,ntt E(X)= +,V(x) : \{Rappelons (cf. chapitre 3, exercice 3.,l)que l'image par sa propre f.r. de toute

v.a.r. continue X est une v.a.r. de loi Ql.ro, r1. cette propriété est très utile poursimuler - ou engendrer - des échantillons extraits de la loi de X (cf. 4.4).

2.2 Loi gamma

LES LOIS DE PROBABILIIE USUELLES

Définition 9

X suit une loi gamma de paramèrres p et 0, p) O, e> O. notée y (p, d), si sadensité est :

f (x) : j= "-,, xp-i 1n + (x)

PH, TASSI - S. LEGAIT

Page 121: Theorie Des Probabilites

LES LOIS DE PROBABILITF USUELLES

e-x xp-1 dx

Remargues

a) Si le paramètre d'échelledest égalà'1, on écriray (p, 1)ou f (p);si 0+1,la v.a. Y : dX suit r (p). La densité d'une loi r (p)est :

1

f (x) : =i- e-^ "n-1 1,r* 1x)r (p)

b) Si p:1, la loi gamma Y .1, d) porte le nom de loi exponentielle de

paramètre 0; saI.r. est F (x) - 1 - "-0x.

Forme de la densité de y (p)

Propriétés de I- (p)

l-(p) : (p-1) I-(p-1), Vp ) 0 (parintégrationparparties)

l-(p) : (p* 1) !, Vp € lN - {0}

ou:+co

r(p) :.f0

T (1/21 : GDo 1

l-(p+1) -(-l't/2rP (1 +- )(P-.+-)e tzp

o<p<1

1<p<2

PH. TASSI - S. LEGAIT

Page 122: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELTES

Moments

SiX suir une loi y (p, 0), on a:

E (X') : l- (p + r")

o'f (pl

On en déduit :

Démonstration

+cÔE (Xr) = J"

0

E (Xl : p/0 V (Xl: p/Ê

0P - .** 0p u;;l e- ëx xr+p-l dx : -[ 1 e- ur(p) - ^ v^ o r(p) (71

E(Xr) : 1 1

ot ffi r(n+r1

r+p-l 1

du0

Dans le cas de la loi exponentielle, on a :

E(X) : 1 et vrXl :l0ËLe paramètre d est donc interprétabre comme |inverse de ra vareur moyenne de Xou l'inverse de son écart-type. ceci donne naissance à une forme régèrementdifférente de ta cjensité, parfois utirisée, où d esr o,r""tÀ*"nii,e1per"n"" ou r,écart_type :

I (x,0) : I u-.rt ,,0" (*)

ou plus généralement :

I (x, 0, pl : J= e-x/s 0-p xp -t I _ (x)t (p) R; '"'

2.3 Loi de Weibuil

Cette loi est due au mathématicien suédois W. Weibull t211.

Définition 1O

X suit une loi de weibuil de paramètresûet 0, a) o, e>0, si sa densité estdonnée par :

f (x) : a0 xa-1 e-o^o 1,*. (x)

PH. TASSi - S. LEGAIT

Page 123: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Fonction de réPartition

. Fr(x) = 1-e-o^o

La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En

effet, si a : 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit

p (X ) x) : e-d*. Pour décrire des phénomènes dont l'ordre de grandeur

d'apparition d'événements extrêmes du type {X ) x} est beaucoup plus faible que

e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.

Remargue

La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi

exponentielle par le changement de variable '1 **1 /a.

Moments

rt1 +1)r 1x1 :----- o -

Q1 /a

2^1l-(1 +-) - l-'(1 +-)

a.av(x) =

62/a

Démonstration

+oo +oo

E (X) : J' x a0 xa-1 e-e ^a dx = .f e-d ** dx en intégrant par parties'

oo^t- 1 .r.L-" 1 1 1 1 - 1

E(X) :J e-'^ (;) o du

Oaqaf/aqag1/ad

+æ -- +oo

E (X2y : l' *" a0xa-1 e-d"od* : 2 t x e-d*' dx

oo: 2 rt?l- 1 ,1',*Zl

o g2/a a g2/a d

2^1t-(1 +-l - r' 1t +-)

aa

d'où :

V(X) :02/a

PH, TASSI . S, LEGAIT

Page 124: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

2.4 Loi bêta

Soient X et Y deux variables aléatoires indépendantes suivant respectivementf (p)et f (q). p ) 0, q ) 0. Nous allons chercher ta loi de ta variabte Z:X/y.

La loi du couple (X. Y) a pour densité :

f,r,", (',y) : ;;+ e*(x+v) xp-1 yq-1 1,^. ".(x,y)r (p) r (q) IR; x il,+

Considérons la transformation g : lR* x lR+ * lR+ x .lR;- definie-paï :

/x\ s lu:X \\rl-\r:*,r)

Le jacobien J (S-t)de la transformation g-t est u/22 ; d'où la densité du couple(U, Z), d'après le théorème 5 du chapitre 3 :

frr,r1(u, z) : --j- e-u 1r * |t up-l (l lo-t -y-r(p) r(q) z z'

f (p) f (q) zq+l

Pour obtenir la loi de Z, il suffit d'intégrer par rapport à u :

ce qui conduit à :

On pose :

d'où :

B (p, q) - rlP) ' r (q)

r(p+q)

f-121 :L' ' B (P, q) (1 + 210*e rR* ' '

PH TASSI - S. LEGAIT

Page 125: Theorie Des Probabilites

LFS LOIS DE PROBABILITE USUELLES

Délinition 11

Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de secondeespèce. On la note É (p; q).

Rappels

+ æ xp-lB(P,q) : J --dxO (1 + 11n+o

B(p,q) : B(q.p) ;

Définition 12

La variable aléatoire f : -!- suit une loi bêta É (p, q)sur [0. 1] dite loi bêta1+Z

de première espèce de paramètres p et q, p > 0, q ) O.

T est une v.a. à valeurs dans t0, 1 I En faisant le changement de variabledans f, (z), on trouve facilement la densité de T :

fr(t) : ,.hrn-r 11 -t)q 11ro..,r(t)

La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie surtout intervalle Ia, b] par le changement de variables Y: a + bT.

Remargue

Dans le cas p: 1 et q :1,f r(t) : lto, 1l (t) : P (1,1) : %rc, tl.

Forme de la densité de T :

Elle varie selon les valeurs des paramètres p et q (voir les graphes pagesuivante).

Moments

E (Tr) : B (P + r' q) E rzr\:

B]gj::f: tt

B (p, q) B (p, q)

1: J" x.P- 1

0

11B (-, -)22

(1 - x)a-1 6*

:7f

En effet :

E(rl : J"10

tr+p-1 (1 _ t)q-1 B(P+r'q;dt:

B (p, q)

122

B (p, q)

PH. TASSI - S, LEGAIT

Page 126: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

De même pour E (Zr), à condition que q ) r afin d'assurer |existence del'intégrale.

On en déduit :

E(T) : p

p+q

oE(zl : -- (q> t)q- |

(p+q)'(p+q-1)p(p+q- 1):--_____-____;_DOUr(q

(q - 1)'(q - 2) '

pqV(T) :

v (z) >2)

La variable Z n'a donc de moments d,ordre 1 et 2 que pour q ) 2.

Théorème 1

Soient X et Y deux v.a. indépendantes suivant respectivement f (p) et f (q).

p ) 0, q ) O. Alors ta variabte ï: i- suit une toi bêta É (p, q)de premièreespèce. X + Y

Le résultat est immédiat; il suffit d'écrire T sous la forme X/Yles définitions qui précèdent.

PH. TASSI - S. LÊGAIT

et utiliser

p>1q)1

1+X/Y

142

Page 127: Theorie Des Probabilites

LES LOIS DE PBOBABILITE USUFLLES

2.5 Loi de Gumbel

Définition 13

X suit une loi de Gumbel si sa densité est :

f" (x) : exp (x - ex), x € lR

Sa fonction de répartition est :

Fx (x) : 1 - exp (- ex)

E(X) : -0,57722 V(X)2

Tr

6

où O,57722 est la constante d'Euler.

Remargue

La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas

confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répar-tition de Y sont :

fy(y) : exp(-y-e-Y) Yc lR

Fy (y) : exP (- e- Y)

2.6 Loi normale unidimensionnelle

Moments

Définition 14

X suit une loi normalepar :

de paramètres m et o (o) O) si la densité est donnée

2(x-m)

t*(xt :;fr"-T (x € rR)

On note X -) N (m. a).

Les paramètres m et a sont aisément interprétables. En effet, calculons E (X) :

2(x-m)- -------r-2o dx

124

1 ^*æE{X):----- J xeo t/2t - oo

PH. TASSI - S. LEGAIT

Page 128: Theorie Des Probabilites

o-

E(x): ^ -=-f*-, "-u"/2du:mVZlr - æ

car la fonction à intégrer est impaire.

De même :

(x-m)^1^+æE (Xz) :- l' xt e

o \f27r "- *zo2

: mt+ 2^o !** -5- " u'/2 6u * L J**

- æ :/2r ,/Zo - oc

^ 2o2 ^+æ: m'+ ----=-- J v1l2 e-udvt/r o

o20'3= m- + ----/_ l- (= )t/n 2

LES LOIS DE PROBABILITE USUELLES

x-mon obtient :

En posant u :

Comme:

ona:

Les paramètres m ettype de X.

dx

_2Uz

"-u /2 6u

_3 1 1| (t) :t , (t

v(x) : o.2

a représentent respectivement I'espérance et l,écart_

,,Ft-

2

Loi normale centrée réduite

. X-mLa v'a' u -

-

suit une roi normare d'espérance nuile et de variance 1,

notée N (0, 1), dite loi normale centrée réduite de densité :

2

1 -ufr,(u) :p(u) : ,:e 2 (ue lR)" r/2r

PH. TASSi S. LEGAIT 125

Page 129: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

La f.r. de U est notée O, et définie par :

^u1o(u) : J__ Wsont données à la table 1 ; la

"- t'/2 dt

Les valeurs de <D

la loi N (0,1).

Forme de la densité

table 2 fournit les fractiles de

Cette forme est celle d'une courbe en oclocheo.

Remarque

La loi normale N (m, o) converge vers la loi de Dirac au point m lorsque a tendvers O.

Approximations

De nombreuses approximations de la f.r. <D (x) ont été données dans la lit.tera-ture. L'une des plus précises (erreur de I'ordre de 1O-5) est :

O(x1 : 1 - ç(x) (au + bu2 + cut)

(x)O)1 + 0,33267 x

a : 0,4361836

Plus simples sont :

b - - o,'t201676 c : 0,937298O

0,5 (x)O)

PH. TASSI - S. LEGAIT126

O1x1 : 1-(1 + ax + b x2 + c x3 + d xo)o

Page 130: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

avec une erreur de l'ordre de 2,5. lO-a et :

a:0.196854 b:0.11b194 c: O,OOO344 d:0,019527

1Q8l:;+b;-cxndf (x ) o)

avec une erreur de l'ordre de 2 . 1O-3 et :

a : 2,490895 b= 1.466003 c : 0,024393 d : O.t7gZS7

Théorème 2

1_La v.a. ; U'suit une loi y (1/2,1).

2

Démonstration

En appliquant, par exemple, la technique de la fonction muette, on a :

1 ^+oo u' -i ft ^** u' -+'JGI_-h(;) e 2du :Jîto h(it" 2du

: ,8.t"*- n (y) e- t #1 +æ: ,fr lo h (Y) Y- 1t2 u-Y (Y

: {- + y-1/2 e-y h(y) dy" r(t)

On en déduit :

r+1

E(!u'f/':" ''--2 r(1),2

(d'après le paragraph e 2.2).

PH TASSI S. LFGAIT

Page 131: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

D'où :

E (lul') - 2r/2

Les moments de U et de X s'en déduisent :

o Vr e N, impair:

r+1.r( z )

1r (tl

E(Ur) : E(X-m)':0

oVr € lN,pair: 2r/2 r+1

E(U') :Trl Z I

or 2r/2 r+1E(X-m)':-G-r( Z I

Polynômes de Hermite

Partant de la densité g (x) de la loi N (0,1), on a :

9'8):-x9(x)e., Vl : (x, _ 1) p (x)

g,.,(^) : -(x.-3x) 9(x)

Un simple raisonnement par récurrence permet d'établir que la dérivée d'or-dre n de p (x)se met sous la forme d'un produit de rp (x) par un polynôme de degrén, noté Pn (x), et que pour n pair (resp. impair), Pn (x) ne comporte que des puis-sances paires (resp. impaires) de x :

,ln)1x) : pn (x) o (x)

Définition 15

On appelle polynôme de Hermite d'ordre n le polynôme Hn (x)défini par :

,tn) 1x) : (_ 1 )n H n

(x) rl (x)

c'est-à-dire, avec les notations précédentes :

Hn (x) = (- 1)n Pn (x)

Par convention, on pose Ho (x) : 1.

128 PH, TASSI S. LEGAIT

Page 132: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Exemple

H,(x) = x, Hr(x) : xt-1, H.(x) :x.-3x, Ho(x) :xo-6x2+3

Hu(x) :xu - 10x3+ 1S, H6(x) :xt- 1s xa+45 x.- 1s, etc.

Propriélé 2

u'un LIX-

-Hn (x) est le coefficient de I dans le développement de e 2

n!

Démonstration

Soit u un réel quelconque :

1 - {.;d u,.- {9(x-u) :

-Jrr" 2 : p(x) e 2

co , irn:

n:O n!

æun: :

-Hn(x) p(x)

n:O n! |

en faisant un développement de Taylor et en utilisant la définition 15. on endéduit :

2u^^

"'^--, : ; un

H (x)n:O n! n. ,

2u

ll s'ensuit que Hn (x) est le coefficient o" 4 dans le développement de "" - 7

.

n!Remargue

u"ux- --Dérivons e 2 par rapport à x; on obtient :

,r-i æ un+t æ rr^ue 2 -

n:O n! n' ' n:O nl

PH. TASSI - S. LÊGAIT 129

Page 133: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

En égalant les coefficients de un, on a :

Fl (x) : n Hn*., (x)

De même, en dérivant par rapport à u, on a :

Hn(x)-xHn_1 (x)+(n- 1)Hn_Z(x) : 0

En multipliant cette dernière égalité par n et en remarquant que :

on a, pour n22:Hn(x) : n(n-1; Hn_r(x)

H"(x) - xFl.,(x) .' nHn(x) : O

Propriété 3

Soient Hn et Hn deux polynômes de Hermite, Hn (X) et Hn (X) les v.a. images de

X par Hn et Hk, X de loi N (0,1); on a :

E(H^(X)) :0

V(Hn(X)) : n!

Cov (Hn(X), Hr(X)) : 0

u

(x-u) e 2 =

d'où, en égalant les termes en un-1 :

Hn (x)

-^(n-1)!

æ Un-1

n:1 (n-1)! n"

Hn-r (x) Hn-z(x)(n-1)! (n-2) !

{* o(n){") o"

t-l)" {n Hn(x) o(x) dx

(- 1)n E (Hn (X))

Démonstration

a) g[{* e(x)dx] : o:dxn

PH. TASSI - S. LEGAIT

Page 134: Theorie Des Probabilites

LES LOIS DE PROBABILITF USUELTFS

^^-.,:) l_n._o.n. uk, n : l* tn (x) Hn (x) p (x) dx avec k ( n. En intégrant par

parttes, on a :

uk, n : (- 1)n "i Hn {x) e(n) {x) dx

f -l +-: (- 1'" Ltn(x)

p(n-tl tx!__ * (- 1;n*r j,, tn (x) 9(n-r)1x;dx

: o+(- î1n*t O l,* tn_r (x) p(n-r) 1x; dx

: k ,k-r, n-l

ll s'ensuit :

.uc " : kl uo, n-n

Si k <n:

uo,n-k:.f Hn_r(x) p(x) dx: O et uk,n: Cov (Hn(X), Hk(X)) : O

Si k: n,

uo,o:1 et un,n:V(H.(X)) :n!

2.7 Loi normale multidimensionnelle

Soit X un vecteur aléatoire de (lRp, fr.o1, ae coordonnée courante X., i : 1 à p.

Définition 16

Soit u : 1 Ït \ un vecteur quetconque de tRp.

\,0/X est un vecteur normar (ou gaussien) si, vu, u'X est une v.a.r. normare.

Remarques

a) on en déduit que si A est une application linéaire de lRp dans lRd, et si xest normaldans (Rn, 9/l9l, alors AX est normal dans(lRd, fr,d1.

PH TAsst - s. LEGAIT 131

Page 135: Theorie Des Probabilites

LES LOIS DE PBOBABILITE USUELLES

b) Si u, : 1 et ,j : o, j+i, xiest unev'a'r' normale'

La loi normale multidimensionnelle peut être également définie par sa densité :

Définition 17

Soit m € lRp et I une matrice (p. p) réelle symétrique positive. X est un vec-

teur normal de dimension p si sa densité est donnée par :

(2rP/2 \6AtPropriété 4

E (X) est le vecteur espérance m et > est la matrice de variance-covariance et

on note la loi de X : N (m, I).

Démonstration

I étant une matrice réelle symétrique et positive, il existe une matrice ortho-gonale S et une matrice diagonale D telle que :

ts>s:D

Si af, .. , af Oesignent les valeurs propres positives de I (non nécessairement

toutes différentes), D : Diag 1oi, , oil

Effectuons le changement de variables défini pat Q i

": (x1,..:,xrl4> y: (y1,...,y0) : tSx

g-1 (y) : sy car tS : S-t (S est orthogonale);

lJ(p-')l :lDetSl :t

On note :

1. I

s-2 '{"-m) r ' (x-m)f" (x) :

g: tsm;t(*-m) >-t (x-m) : t(y - g)ts >-1 S (y - rr)

: t(v- ti D-1 (y-p)

p1:,I, 7 lv'-u')'

132 PH TASSI - S. LEGAIT

Page 136: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

d'où :

I p 0i-u)2

g (y1' ..., yn) = e- 2 ti'' ,1u (2ùe/276-1 Ni- u)2

s (v1, ..., yoi : f, --! "- T

"1' i-1 Vzroi

donc Y.,, ..., Yo sont indépendantes et suivent respectivement N (g,, a;).

On note : Y: (Y.,, .... yO).

Ona:E(Y) : 1r et V(Y) : D

où V (Y) désigne la matrice cJe variance-covariance de y, d'où :

E(X) = E(SY) = SP: m

V(X) : V(SY) : SV(Y) tS: SD tS: X

Propriété 5

Vu € lRP, tu X -> N (tum, tulu)

ce résultat vient directement des propriétés du paragraphe 2.3 du chapitre 3.

En particulier :

V (Z u X,) : I u, u, E (Xi- mi)(Xj- mj) : tu V (X) ut,l

Définition 18

La loi t\ (O, lD) est appelée loi normale (multidimensionnelle) centrée etréduite, de den'sité :

1 (t2l2x11 (xr, ..., Xn) :

--e(2rlPtz

Théorème 3

Soit X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sontindépendantes <+ Xr et X2 sont non corrélées.

PH.TASSI -S LEGAIT 133

Page 137: Theorie Des Probabilites

LES LOIS DF PROBABILITE USUELLES

Démonstration

Si X, et X. sonl indépendantes, alors X., et X. sont non corrélées, quelle quesoit la loi de X, et X2 (cf. chapitre 3, théorème 10). La réciproque est fausse engénéral mais est vérifiée dans le cas gaussien.

En effet supposons que :

X-)Nc'est-à-dire que Cov (X.,. Xr) : O.

La densité de X s'écrit :

1

f(xr,xr) : ^ -

explz7r o1 o2

_ I (*.,-m.,)' _1 (*.-Ti)',o1r"Z

[;r ) (r3,)]

1:_ô',/z' o',

2(xr - mr)

2o't 1

1/2t o,

(x2 - m2)

111l:;;Ple:-1]:-22

1-t 2C2

1-n

On conclut que X., et X2 sont indépendantes et suivent respectivement les lois

N (m,, af let N (mr, o7l.

Remargue

Deux variables gaussiennes non corrélées ne sont pas forcément indépen-dantes : pour cela, elles doivent nécessairement constituer un couple gaussien.

Exemple

Soit X de loi N (0, 1) et une v.a. c définie par P {c =telle que X et c soient indépendantes. On pose Y: e X.

donc Y -> N (0. 1)

134

FY(Y) : P{Y<": ;i;.;", ::'1,..i:-:i; ll ,,

P{X>-y1:F*(y)11: i ,*(vl+ ,

PH. TASSI - S. LEGAIT

Page 138: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Cov(X,Y):E(XY)-E(X) E(y) : E(Xy) : E(cX2) : E(e)E(X2;:6

donc X et Y sont non corrélées.

supposons que X et y soient indépendantes ; arors re coupre (X, y) seraito

gaussien de loi N ((^), lz)er X + y suivrait ators une loi N (0, vâ).oOr:

P{X+Y:}: P{e:-1}: 1

2ce qui est absurde puisque la loi N (o, \/r) est continue. Donc X et y ne sont pasindépendantes tout en étant pourtant non corrélées.

ll conviendra par ra suite de ne pas confondre deux variabres gaussiennesavec un couple gaussien.

2.8 Loi log-normale

Définition 19

Soit Y une variable aléatoire suivant une loiFar X: exp Y suit une loi log-normale.

La densité de X esr :

normale N (m, o). La v.a. X définie

fx (x) : =:-

exp (- (L"gl=ry' I 1 (x)o x \/27r 20' R+

I

La densité de X se déduit de celle de y par le changement de variables : y - ey

Forrne de la densité

PH. TASSI _ S. tFGAlT 135

Page 139: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Moments

Ê (X) = "^*o"

/2

V (X) : "2^nc2

1so' - 17

En effet :

+oo 1 - latr-rrtYr )o 1, E (Xr) : E (erY) : .[ ^!- srvs 2o' ' dy

t/2ro

+co 1 - fu rr-(+ ,rto"l' *t+-,P- *E(Xr) : f_*àe 2o'

o" ,"

E (Xr) : "t'*

l-

2.9 La loi du khi-deux

On considère n v.a. (Xr, ...,Xn) indénendantes suivant toutes la loi normaleN (0, 1).

Définition 2O

nLa variable aléatoire U- :liberté, notée X2 (n). " i: 1 '

1^1Déterminons sa densité:on sait que t Xf suit une loi , (1 , 1) (cf :

paragraphe 2.6). Or la somme de deux v.a.r indépendantes suivant respectivement

f h, 0l et f (q, d) suit une loi f b + q, 0) (la démonstration de ce résultat estproposée au chapitre 6, paragraphe 3.1).

1n^nDonc,engénéralisantàunesommedenv.a.r.'- I Xf suit r ( ,,ll

On en déduit la densité Ùn : 2 i:1

r.. trt : --f "-i **-' lrR. (x)un

Z"rrf (t I

136 PH TASS] -S LEGA]T

Page 140: Theorie Des Probabilites

LES LOIS DE PFOBABITITE USUETLES

Théorème 4

soir un vecreur aréatoir.ex dg (rRp, /tÊp), de roi : N (m, r). La v.a. y: \x - m)I- t (X - m) suir une toi Ou X, (p).

on peut se limiter au cas m : 0 : ir suffit de centrer re vecteur. Avec iesmêmes notations qu'au paragraphe2.T :

tX:-t X: tXSD-ttSX

On note Z - tS X ; Z est un vecteur gaussien d,espérance nulle et dematrice de variances-covariances D : Diag @?, , oft, ot, o? : y (2,1.

tx :-' x : 9_ 1 "uit par définirion une toi yz (p).i:l oi

. La loi du x2 possède une interprétation géométrique : soit X un vecteur nor-mal de dimension p, M le point (aléatoire) danJRp de co'ordonnées (X.,. ..., Xoi: -

D

llOwll' : t X|, carré de ta distance ài:l I

suit une loi du y2 à p degrés de liberté.

PH TASSI -S. LEGAIT

l'origine du point aléatoire normal M,

131

Page 141: Theorie Des Probabilites

tES LOIS DE PROBABILITE USUELLES

Forme de la densité

Moments

De la relation existant entre les lois;2 (n) et y (n/2l1, on déduit :

E(Uj) :r''(t*'lr (+)

d'où :

E(Un) :n V(Un) =2nLes fractiles de la loi du khi-deux sont donnés à la table 5.

2.1O Loi de Student

Définition 21

Soient X et Y deux variables aléatoires indépendantes suivant respectivementN (0, 1) et x2 (n).

On appelle loi de Student à n degrés de liberté la loi suivie par le rapport :

Cette loi est notée Tn

X?_

/YV;

n:2n:1

PH TASSI . S. LEGAIT

Page 142: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Densité

Pour trouver la densité,

rapport de deux variables X

1nz

il suffit de remarquer qus Ë : { est aussi teYNYet t indépendantes et suivant respectivement

r(vlety(rl.

T2n suit donc une loi bêta

nTn est :

n

^ ) de seconde espèce. La densité de2

1P(t'

1f. (x) :'n

"6 e tl,

(1 +

Forme de la densité

La courbe représentative de la fonction frn (x) est symétrique par rapport àl'axe des ordonnées, de forme (en croche> eomme pour ra roi normare.

Moments

E (Tn) : 0 (symétrie) (n > 1)

nv(Tn) :

"_2 (n)2)

Les moments s'obtiennent à partir de ceux de la loi bêta de seconde espèce(cf.2'41' d'où les conditions d'existence sur le degré de liberté n. Les fractiles sontdonnés à la table 6.

2 n+lx - -=---)

zni;t

PH. TASSI - S. TEGAIT 1?O

Page 143: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Cas particulier : loi de Cauchy

Pour n = 1, T, : -+- où X et Y suivent indépendamment, respectivementN (0, 1iàt x'tr t. ' VY

La loi suivie par T1 porte le nom de loi de Cauchy ; c'est aussi la loi du rapport

de deux v.a. normales c'entrées réduites indépendantes (cf. exercice 4.2).

Sa densité est :

fr' (x) :n(1 +xzl

Tf suit une loi p (+ , ll O" deuxième espèce et les conditions d'existence des

moments de la loi bêta de seconde espèce font que T., ne possède aucun moment,donc, a fortiori, ni espérance, ni variance. Sa f.r. F est donnée par :

2.11

F(x) :t *; Arctgx

Loi de Fisher-Snedecor

nX/2n-- F - suit une loi É (7

Définition 22

Soient X et Y deux v.a. indépendantes suivant respectivement

x2 (m).X/n

La variable F : ,^ suit une loi de Fisher-Snedecor à

de liberté notée Fn, ,.

les lois x' (n) et

n et m degrés

m

-)2 de seconde espèce.

La densité de F s'en déduit :

1 *n/2 - 1

1,** {*)m7t

f, (x) :r(+

nn/2 ^m/2

(m + nx)

n+m

PH. TASSI - S. LEGAIT

Page 144: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Forme de la densité

V(F'n,ml

Propriété 6

On note fo (n, m) le fractile d'ordre a de

Ona:t" (m. n) :t-a'

la loi F (n, m)

1

fo (n, m)

Remarque

Tl, carré d'une variable de student à n degrés de liberté. suit une loi deFisher-Snedecor à 1 et n degrés de liberté.

Moments

E (F- -) : -!(m > 2)'n'm' m-z

2m2(n +m-2)-----im>4,n(m-4]l (m-212

Démonstration

Nous aurions pu définir, à partir des v.a.r. X et y de roisyr 1n; ety, 1m; 1it n,ya aucune raison de privilégier X comme numérateur) la variablé'V par :

Y/ml,

-' - x/nPar définition, V suit une loi de Fisher Fn.'', n. ll est

avec U -) Fn,* et V-) F.,n ; U et 1./Vontdonc

P(F_ _<f-(n,m)) : a'n,m q'

PH. TASSI S tEGA]T

évident que I'on a UV :même loi.

Page 145: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUETLES

Ona:1

P(- <f-(n, m)) : a'F a

d'où :

1P(F <_):1_a'm,n fo(n,m) '

ft -o(m' n) : f"(n, n-')

Les fractiles de la loi de Fisher-Snedecor sont en table 7.

Exemple

Soit Fu,, dont on cherche le fractile d'ordre 0,05.

Ona:

fo,os (5,8) : 1

fo,e5 (8,5)

On lit sur la table f.,ss (8,5) : 4,82 et donc fo,ob (5,8) : O,2O7 .

3 LES PAPIERS FONCTIONNELS

Les deux paragraphes précédents ont présenté diverses lois de probabilités etleurs propriétés. Toutefois. lorsqu'on dispose d'un échantillon (X,,..., Xn) d'unev.a. X, c'est-à-dire d'une suiie d'expériences indépendantes où X, est le résultat defexpérience no i, t" toi p Oe X n'est, a priori, pa,

"onnre, même si farfois le contexte

de l'étude peut guider le statisticien-probabiliste vers tel ou tel type de loi deprobabilité.

ll importe donc d'utiliser au mieux un certain nombre de pratiques de la statis-tique descriptive afin d'orienter le statisticien à spécifier I'hypothèse que P est uneloi bien définie ; il s'agit là d'un problème d'adéquation à une loi de probabilité,pour lequel existent des outils relevant de la statistique mathématique (cf. par

exemple [ 19] ou [20]).

Cependant, en première approche, un diagramme en bâtons, un histogramme,le graphe de la fonction de répartition empirique, et surtout l'usage d'un bon papierfonctionnel peuvent être des auxiliaires précieux.

142 PH. TASSI - S, LEGAIT

Page 146: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLFS

3.1 Principe des papiers fonctionnels

Soient X.,, ..., Xn, n v.a.r. indépendantes représentant n réalisations d,unev.a. X continue de loi p, de fonction de répartition F.

Fn désigne la fonction de répartition empirique :

Fn(x) :+ :,, r,*,.*,

proportion observée du nombre de réalisations dans (Xr....,Xj strictement infé_rieures à x, introduite au chapitre 3.

ll arrive fréquemment que lespace .w des vareurs de X soit partitionné. parexemple par l'usage d'une nomenclature (tranches d'âge, de revenu, etc.), tel què :

s- j c,j:1 '

C,de limites de classe (e,-,', e,). La fonction Fn est alors évaluée en e,,l: 1 à k.

L'idée est de faire apparaître une relation détermiste simple entre F (x) et x,caractéristique de la loi p; dans la plupart des cas, on cherche ùne relation de typelinéaire entre des fonctions h (F (x)) et g (x), h et g à déterminer :

h (F (x)) : g (x)

Dans un repère arithmétique usuer, si.ln nole s (e,) en abscisses et h (Fn (e,))en ordonnées, le nuage de points (c (e,), h (Fn (ej))) aura à peu près ra forme d;unedroite.

si, au lieu d'utiliser un repère arithmétique, on emploie des axes cléjà graduéspar g en abscisses et h en ordonnées, re nuage de poinis (e,, F^ (e,)) aurà rà mêmeforme tinéaire. Le papier ainsi gradué par reè fonciions s'di hi;dilJË r; ;;;i;;fonctionnel (h, g) adapré à la loi È.

. cetlg propriété permet alors, quand on dispose de n réalisations d.une expé-rience aléatoire, d'indiquer, selon la forme du nuage si ces réalisations ";i;;chance de provenir du modèle probabiliste représenté par le papier fonctionnel. Cetindicateur d'adéquation à la loi doit être ensuite infirmé ou contirmé par la théorie

des tests d'adéquation non paramétriques de la statistique mathématique ([1 1]).

3.2 Exemples de construction de papier fonctionnela) La loi normale : droite de Henry

ll s'agit de l'exemple le plus célèbre. soit X de loi N lm, o), de densité et defonction de répartition :

PH, TASSI - S. TEGAIT 143

Page 147: Theorie Des Probabilites

f (x) :

LFS LOIS DE PBOBABILITE USUELLES

(x-m)1 - ^,

--=:- e zo

x-mF(x) : O(---)

o

- x-m<D- ' 1F 1x;1 :

o

o1Fzn

F (x) f (t)dt

En notant par Ô la fonction de répartition de la loi N (0,1 ) :

X:J-oô

qui conduit à :

ll existe donc une relation linéaire entre :

h (F (x)) : Ô- 1 (F (x))et s (t) :.I-Jr_t

OrF(x) € tO,1l et <D-'(f (*))n'estautrequelefractileur,",d'ordreF(x)delaloiN (0,1).

Le nuage de points (t, ur (r)) sera donc représenté par une droite dans un

repère arithmétique usuel ; si, pour simplifier, on gradue I'axe des ordonnées par lafonction O-', le nuage (x, F (x)) aura pour image la même droite. Ce papier à échellearithmétique en abscisse et gradué par O-' en ordonnée est appelé papier gausso-arithmétique : un échantillon donné aura de fortes chances de provenir d'une loi

normale si le graphe du nuage (e,, Fn (e,)) est ajusté sur une droite dans un papier

gausso-arithmétique (voir page suivante). Cette droite porte le nom de droite deHenry.

b) Loi exponentielle

Xsuit la loi r (1, 01, dedensitéf (x) : 0 e-tu(x)0, d>o) ; F (x) : 1 - e-tu.

1-F(x) : "-tuLog(1 -F(x)) : -6t

ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage depoints (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithméti-

que ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère

arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier

fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier

semi-logarithmique.

1

PH TASSI - S. TEGAIT

Page 148: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUFLLES

ol.g.oEs.ÈL(o

oô-cuJ

ob'o

aaqv,

aù)

oa.(ù

a_

E E = FFËHE=F =

E S=ËÈ=o o o d-dSè'co- o- - ----é=-;-

qræ rr)oO O)orJ or)O)C o)-o) srqC oo- o'o

6.O=OaaO(t'LIJ c')

PH. TASSI - S. LEGAIT

Page 149: Theorie Des Probabilites

LËS LOIS DE PROBABILITE USUELLES

Remarque

Le papier serni-log sert également à identifier un modèle multiplicatifX- : m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série

tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à

un modèle additif à saisonnalité stable.

c) Application nurnérique

Les températures relevées à 1O heures, sous abri, en mars 1953, à la station

météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ci-

après. L'unité est le degré Celsius, avec deux décimales'

0.60 0.1 9 6.44 1 .74 0'A2 2 34

4.OB O.17 1 .16 1 .23 1 '74 0.55

o.25 3.43 1.64 5.32 3.80 1'27

0.68 2.22 2]7 2.85 3.67 0'26

2.48 4.08 1.23 0.35 5.05 3.22

o.00

Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire

l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ?

On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où

les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21'

12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ; + oo['

Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont

sont issues lès données est une loi exponentielle de paramètre égal à la pente de la

droite en valeur absolue.

1-F en échelle logai'ithmique1

0,90,80,70,6

0,5

0,4

0,3

0,2

1,5 2 2,5 3 3,5

(Echelle arithmétique)4,5 5

PH. TASSI . S, LEGAIT

Page 150: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUETLFS

3.3 Cas de variables discrètes

Lorsque X est une v.a. discrète, on peut rechercher des relations caractéristi-ques vérifiées pour une loi bien définie, et étudier dans quelle mesure les donnéesobservées satisfont à cette relation. Nous allons citer deui exemples.

a) Loi binomiale

On sait que siX suit une loi fi fi, pl:P(X:x) : CIP" (1 -P;n-*

ll s'ensuit :

P(X:x+1)P(X=x)

x:0, 1,...,n

:h(x) - P -.il-x1-P *; (o(x(n-1)

si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est larestriction à {0, ... n - 1 } de t'hyperbole :

p(n-x)(1 -p)(x+ 1)

b) Loi de Poisson

Soit X de loi I e) :

P (X: x) ^:h(x) : x_1 , x€lN

si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera

la restriction à lN de l'hyperbolex+ 1

En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et sif1 Û : t à K) est la fréquence relative d'apparition de a dans l'échantillon observé(Xr, ...,Xn), on porte en ordonnées :

f.'j _ 1

t'*'' h (aj)

et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage det1points (a,, .7) est à peu près linéaire; comme :r h (a,) 1 - r*1

h (x)^^

À peut être approximé par l'inverse de la pente de la droite.

PH, TASSI - S. LEGAIT

Page 151: Theorie Des Probabilites

LES LO S DE PF]OBAB]LITE USUFTLES

4 DIVERS

4.1 Création de lois de probabilité

Toutes les lois de probabilité usuelles n'ont pas été présentées dans les para-

graphes qui précèdent ou dans les exercices. ll en existe de nombreuses autres, et

ie tbcteui iniéressé pourra se reporter, si besoin est, à l'ouvrage de référence de

l'ingénieur statisticien qu'est [8].

Peut-on dégager une préseniation synthétique des lois de probabilité ? En

première approximation, trois modes de génération semblent exister :

a) Schéma d'urne

ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type

nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise,

nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non'

Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des

exemples de ce mode de définition.

b) Variabtes données par une caractéristique (densité, fonction de répartition)

ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les

v.a. continues. Ces variables sont souvent en liaison avec un problème physique

concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de

mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi

de Weibull en fiabilité, la loi log-normale dans les études économiques sur les

revenus, etc. Dans cette classe prendront place les lois définies par leur fonction

caractéristique (chaPitre 6).

cJ Variabtes définies comme fonction d'autres variables

C'est une façon très fréquente d'engendrer des lois de probabilité. Nous I'avons

utilisée, par exemple, pour les lois log-normale, du khi-deux, de Student, de Fisher-

Snedecor.

Cette rapide classification mériterait d'être affinée. Par exemple, nous verrons

au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométri-

qr"r. Èn outre, il semble a priori très simple d'engendrer des lois de probabilité; il

suffit de considérer une fonction f positive, suffisamment régulière (chapitre 2) ;

alors :

f (x)

I f E) d-"IR

148 PH TASSI - S. LEGA T

Page 152: Theorie Des Probabilites

LES LOIS DE PROBABITITE USUELLES

est une densité de probabilité d'une v.a. continue. De même, sous réserve d'exis-tence, toute fonction f développable en série entière à termes positifs :

f(?l.:x€lN x

peut être utilisée pour donner naissance à une loi discrète :

P(X:^1 : -u-" -r (0)

De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans lesmodélisations probabilistes des phénomènes physiques, socio-économiques ouautres ?

Exemple

Considérons le développement en série des fonctions ch et sh :

oo U2nchu:n:g (2n) !

oo ,2n+1

n:g (2n + 1) !

1-

On peut donc définir deuxY, définies respectivement surentiers impairs, par :

P(X:y) :

P(Y:Y) :

En outre :

oo1

ch u (2n) !

,2n+ 1

:n-O shu (2n+1)!

lois de probabilité discrètes associées aux v.a. X et9, ensemble des entiers pairs, et J. ensemble des

ch .À

1

(x€0),.ÀctR*

sh,À yl(y € J). ,l € lRi

^x

On a donc:

d'où :

PH. TASSi - S. LEGAIT

ôo 1 U2n1-n:0

Àx

x!

^v

E(X) : :xeA

=zx€J

ch .l

^

x!

^xch,À x!

E(X) : ^rhÀ

149

Page 153: Theorie Des Probabilites

LES LO]S DE PROBABILITE USUELLES

Une telle construction n'a de sens statistique que si la loi engendrée peut êtremise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de PoissonI (l) à l'ensemble des entiers pairs (resp. impairs).

4.2 Les coefficients de symétrie et d'aplatissement

X étant une v.a.r., nous noterons respectivement par mk et /k les momentsnon centrés et centrés de X.

a) Les coefficients de Pearson

u^n-Pt- 3u^

A-FqP2 2lJz

Lorsqu'une distribution est symétrique, les moments centrés d'ordre impairsont nuls ; É.' est donc nul. Le coefficient P1. dit coefficient de symétrie (on emploietrès fréquemment le terme anglais de oskewness,) est un indicateur de symétrie de

la loi de X.

Le coeff icient B, représente le degré d'aplatissement ("kurtosis,) de la loi de Xen un sens précisé ci-après.

b) Les eaefficients de Fisher

Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher,

Y1 el Yr:

Y,, : JB, Yr: Bz-3

L'interprétation de f1 est identique à celle de É., (skewness). La définition du

coefficient de kurtosis fait référence à la loi normale. Calculons F"pour N (0,1).

On sait que :

E (X2$ : 2n

lJa : Âa: 4

rt**pl

r ttt_.5.I lZ) _^_J

r tttet donc :

150

Fr: 3

PH. TASSI - S. LEGAIT

Page 154: Theorie Des Probabilites

LES tOIS DE PROBABILITE USUFL-LES

d'aplatissement de Pearson. pour une loi no?male N (0, 1 ) :

Y1:Y2:O

c) Valeurs de y., et yzgour quelques lois usuelles

o Loi binomiale

q-P 1-6Pq/2:

-

t't \,6pq npq

La distribution est symétrique (r., : o) si p : q : +, résurtat d,ailleursintuitif. 2'

e Loi de Poisson

Y':,r,D Y": ^

On remarque que, si ,À - + co, les coefficients de Fisher de g (,1 )tendentvers O, c'est-à-dire ceux de N (0, 1).

o Loi log-normale

En notant ar : exp or, on obtient:

\/,r 1Y, : -r*2- y": eo + 2u3 + 3u2 -6

o Loi gamma y (p, tl

26Yt : -7- Yz:

-vP - p

o Loi bêta É (p, q)

\/:I2

2(q-p)v[;l-Jp+q+2

3(p+q +11 t2(p+q)'+ pq(p+q-6)l

PH TASSI -S LEGAIT

Yz: pq(p+q+2) (p+q+3)

151

Page 155: Theorie Des Probabilites

LES tOIS DE PROBABILITF USUELLES

Loi uniforme

Y't:O

Loi de Fischer F (n, m)

Yz: -1'2

2n+ m_"2 (m)6)m-6

121|m - 2l' (m - 4l + n (n + m - 2) (5m - 22ll

n(m-6) (m-8) (n+m-21.

Yz:

IBn

Yt:

Yz: (m>8)

Loi de Student Tn

y.,:O (n)4)n*4

o Loi du x2 (n)

Y'r :

4.3 Une structure générale : la famille exponentielle

De nombreuses lois de probabilité, discrètes ou continues, prennent place

dans une vaste famille de lois, dite famille exponentielle (à ne pas confondre avec

la loi exponentielle vue en 2.2).

Définition 23

Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite

appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonc-tions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la

densité f (x, 8) de P, par rapport à g vérifie :

I a; (d) T, (x)

l(x,01 :c(d) b(x)sj:1 ' )

rLogf(x, 0l : y(d)+P(x) + I a,(d)T,(x)

j:1 ) )

12Yz

8(m-4)n(m+n-2)

PH. TASSI S LEGAIT

Page 156: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELTES

Exemples

r Loi binomiale

f (x, p) : CX p" {1 - p;n-x

f (x, p) : cX (1 -p)n( . o )*: cI (1 -p)n e^t"n J;" 1-p n'

d'où :

T(x) : x

h(x) : Cf

c(p) : (1 -p)na(p) : f-og lLr-p

o Loi de Poisson

f (x,'À) : e-i ^xx!

c(,1) :"-'r h(x; :1. a(,À) :Log,À T(x) :xx!

o Loi normale :

(x-m)

f (x, m, a) : -!o-t e 2o2

t/2t ^' ^" mx

o-, e ;7 "-

;7. 7

T,(x) :x2 T2(x) :x h(x) :1 c(m,a) -o-1 e-m2/2o2

1ma., (m, o) : - 2", ar(m, "l

: 7

r Loi exponentielle :

rg,0,pl:-fro "-dx "P-1 I,** (x)

PH, TASSI S LEGAIT ] 53

1

x/2n

Page 157: Theorie Des Probabilites

LES LOIS DE PROBABILlIE USUELL ES

0pTr(x) :* Tz(x) :Logx h(x) :1,r.(x) c(d,p) : r(r)

a,(0,o1 --0 ar(0,o1 :P-1

e Loi uniforme :

1

'f (x,ol : i , to, rt (*)

Elle ne se met pas sous la forme exponentielle.

o Loi de Cauchy:

Ladensité: 1 1

t(x,01 :- T;S_6ne se met pas sous la forme exponentielle.

4.4 Génération d'échantillons aléatoires

Nous avons vu que, si X est une v.a.r. continue de f.r. F continue strictementcroissante, la v.a.r. Y: F (X) suit une loi uniforme %ro,r,.

Propriété 7

Soit xo (resp. y/ le fractile d'ordre a de X (resp. Y) ; alors :

Yo : F (xo)

Démonstration

P(Y< Yol : a: P(F(x) < YJ : P(X<F-t (YJ)

d'où : Xo : F-1 (vol, vo: F (xo)

L'une des applications de ces résultats est la génération d'échantillons aléa-

toires suivant une loi donnée de f.r. F continue Strictement monotone.

Supposons que l'on dispose d'un échantillon (y.,. ..., Yn) d'une loi uniforme sur

tO, ,l1, on peut en déduire l'échantillon (xr. ...,xn)Qui est régi par la loi de fonction

de répartition F, avec xi : F-' (yi).

'I h4 PH' TASSI - S' LEGAIT

Page 158: Theorie Des Probabilites

L'obtention d'un échantillon extrait d'une roi %ro, ,lest possible par l'utilisa-tion des tables de nombres au hasard (cf. table B). Ces tables, dont un extrait estreproduit ci-après, vérifient la propriété d'uniformité au sens où :

1P(x) : 10,x:oàg

P (xy) : xy: OOà99

xyz : 0OO à 999, etc.p (xyz)

49943 30139 0793271 559 30728 8349975500 16143 7902859894 59543 1 366829757 26942 08736

0,4994 0,3301

ll suffit ensuite de transformer par F-1

Exemple fSoit X de loi exponentielle :

LES LOIS DE PROBABILITE USUETLES

29267 01 934 19584 13356 35803 90284 9756565977 37442 72526 53123 99948 59762 1995281 790 57747 87972 54981 10079 17490 1521527197 51979 38403 23989 38549 82968 53300'15184 73650 51 130 59160 89866 06030 88929

1

100II:-

1 000

Pour obtenir une réalisation d'une loi uniforme sur [0, 1], on fait le choixd'une précision et on normalise les chiffres regroupés selon cette précision ; ainsi,si l'on souhaite 4 chiffres après la virgule, on regroupe les éléments de la table parpaquets de 4, qui constituent la partie décimale :

0,3907 0,9322 etc.

: F-r (y,i

PH.TASSI -S LEGAIT

F(x) : 1 - e-^ F-t 1x; : 1-nn 1-x

r55

Page 159: Theorie Des Probabilites

LES LOIS DE PROBABlLITE USUELLES

Echantillon uniforme (x) Echanti llon exponentiel

o,49940,3301

0,3907o,9322

0,69190,4006o,49542,6912

Exemple 2

Si X suit une loi normale N (0.1), de f.r. Q, (y., ..., y^)désignant n réalisationsd'une loi uniforme sur [0, 1], (O-t (v.,), ..., O-' (ir")) esi un échantillon de la loinormale centrée réduite. De telles tables ont été calculées ; celles qui suivent sontissues d'une publication de la Rand Corporation [ 1B].

.661- .654- .379- .759- .804 .282 1 .317- .219- .318- .580-1 .231 .337- J25- 1 .373- .535- .1 1 9 .775 .254- .598 1 .2001.117- .871- .187- .543- .421 .311 .493 .574 j45- 2.332-.551 .335 1.746- .235 1.455 .251 1.024 .062 .O09 .676

.743 1.076 .766 .O52- 1j94 .517 .401- 1.292 .280- .540

.329- .2771.264- .9702.092- 1.6101.447- .154.018 .533

1.445- 1.357.002 1.537.576 1.201-.1 08 .385-.233 1.043-

1.239- .155.928- .802.670- .821-.643 1.339

2.503 .162-

.895 2.238-

.070- 1.367-

.891 .903-1.170 .340-.130 .205

156

1.736 .175 .401-.639- .761- .502-

1.423- 1.O71- .6421.464 .O32 .1076-.558 .593 .737-

1.657- .837- 1.417-.113 1.008- 1.080.108- .334 .659.228 .1 66 1 .1 69-.852 .746- .046

.090 1.130 2.623

.043- .463- .9851.092- 1.062 .601

1.287 .446 .O42-1.125 1.241- 2.226

1.7't1 .640 .067-.659- 1.025- .475.213- 1,847 .223.295- .451 1.081

.665 .306 .790

.665 .479 1.322 .O72 .867-1.559- .249 .1 19 .065- .812-.759- 2.276- .133 .976- 1.506

.327 .378- .055 .521- 1.404-

.189 1.876- .140- 1.380- .303-

.548 .423- .398 .167 .147

.772- .368- .290- 2.146 .539-1 .192 .1 1 9 1 .861 .856 .O18-1.099 .914- .462- 1.132 .266-.395 .735 1.526- 1.065 1.450

.81 1 1.372- .647 .858 .740-

.395- .386 .465 .372- .278-2.509 1 .557- .814- .220- .019-.593 .366 .640 .850- .847

1.063 .085 .016 .786 .766-

.o88- .031-o.59 .792-

1.640- .772-1.073- .073.851- .935

1 .1 84 1 .550 .417.468 .284 .185-.324 .O13- 1.757.477- .397 1.282-.502- .650 .254

PH. TASSI - S. LEGAIT

Page 160: Theorie Des Probabilites

.591 1.342- 1.194 1.428 1.470_

.487- ' .792- 1.453 1.465- .3901.048- 2.550- .241- .109_ 1.385_.984 .357 .563 1.177_ .371't.217 .976 1.516- .737_ .O18

1.008- .849- 1.272- .903.596- .219- .726- .417_.315- .999- 1.788 .592

1.441- 1.171 .192- .315_.413 .269- .602 .O85

tES LOIS DE PROBABILITE USUELLES

1.202- .450-.796 2.186-.066- 2.523-.624- .614-.768- .712

.668- .212 1.161

.461 .848 .236-1.270 .914 .157-.566 1.292 .776

1.O01- .O12 .456-

1.192- 2.081- .157 .708.214- .625 .699- .276.640 .677 .965- 1.066

1.714 1.131 .OO1- .342-.848- .207- .396 2.358-

2.132- .297-1.505 .6721 .189- .657.039 1.486.045- .087-

Si X suit une loi N (m, a), l'échantillon gaussien sera :

(m +ao-' (yr). ..., m + o o-t (yJ)

De tels échantillons nau hasard non uniforme> sont fréquemment utilisés poursimuler des comportements aréatoires. on pourra se reporter, par exempre, à t9]pour des applications de la simulation et à [b] pour un

""poré irès détailié ,rr.'i"J

nombres aléatoires.

PH. TASSI - S. LEGAIT

Page 161: Theorie Des Probabilites

EXERCICES

4.1 Génération de la loi logistique

Soient X et Y deux v.a. indépendantes suivant chacune une loi de Gumbel (cf. 2.5). Donner la loi de

Z:X- Y, dite loilogistique. En déduire E (Z)et V (Z).

lndication.'changement de variables : S (x, y) : (x, x - y) : (u, 4.

ftu, ry

(u, z) : exP l2u - z - e' (1 + e-t)l

,(zl : e-z Jf eu

'u-eu {1 + e-')1 du

En posant t: eu (1 + e z) : e_z

Remarque

La loi de la dilférence de deux v.a. indépendantes suivant la loi de Weibull, au sens où elle a été

définie dans la remarque du paragraphe 2.5, suit également une loi logistique puisque cette dernière

est paire ;

e-z ez

(1 + 9-212 (1 + szl2

tz?l :

f, est la densité d'une loi logistique.

E(Z) : g

4.2 Lol de Cauchy

Soient X et Y deux v.a. indépendantes de loi

'l) Exprimer la densité de la loi de Z, dite loi

de Cauchy et de la loi N (0, 1 ).

2) La loi de Z admet-elle des moments ?

(1 + s-212Vz €lR

er v(Z) :2

7T

3

XN (0, 1). 0n définit la u.a. Z : - .

de Cauchy. Comparer les positions respectives de la loi

3) Calculerla densité de lav.a. U : 0+ oZ (d€ IR,a)0)?

lndication

1) 0n effectue le changement de variables: h (x, y): (x, z) où

158

X

v

PH. IASSI - S. LEGAIT

Page 162: Theorie Des Probabilites

LES LOIS DE PFOBABITITE USUETLES

l.r 1n-r11 - l4 et

z

d'où :

f(*, z)

(*' t) :1-

-- tx +2'

.1^0lr(zl: - 2"r, J__ *tx' 1l + 1+-

dx + ---- ^ f xe2r z' -0

I

L ,-i2r

2x,l lxlz"

2z

[^" + y"l

sont indéfinies.

3)

PH TASSI - S. LEGAIT

ftr, ,r (*' Yl :

fr(u) : "l,-.æ;A

I

2r

I^,

z

_l2

_12

,"1t*11zdx

t, (zl : --l--' n (z'+ 1)

Pour comparer les positions respectives de Ia roi de cauchy et de N {0, r), on compare p {z > l }etP{X)1}.

P(z> 1) : l:* -: ^ dz: o,2s1 n 1z'+ 11

P (X> l) : 0,1587 (cf. table 1).

0n dit que la loi de Cauchy est <à queue plus épaisse> que N (0, l).

2) La loi de Cauchy n'admet aucun moment car les intégrales :

^*æ zkJ -. ,. dz (k211-æ n(z'+11

1/\En

Page 163: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

4.3 Montrer que si X et Y sont deux v.a. indépendantes de loi N (m, a) alorsX+ Y etX- Y sont

indépendantes.

lndication

(;t;):(t;)(i)donc (X + Y, X - Y) est un couple gaussien.

ll suffit de prouver que X + Y et X - Y sonl non conélées pour assurer I'indépendance.

E((X+Y) (X-Y)) : E(X2)-E(Y21 : g

E(X+Y; :2t et E(X-Y1 :gDonc Cov(X+Y, X-Y): 0

4.4 Loi de laplace

_ I'lSoit f (x) : k e 0,0êlantunparamètreréel strictementpositif.

1) Déterminer K de façon que f soit la densité de probabilité d'une v.a.r. X.

X2) 0n pose , : 7 .Déterminer la loi de Y. appelée loi de Laplace normalisée.

3) Calculer E (Yr), Vr € lN*. En déduire E (Y) et V (Y).

lndications

^+oo -4 I1) J'_Kr e dx:l + K- n2) La densité de Y s'écrit:

1

s (y) :7 e-lvl

3) E (Yr) : d:+ ,r ,-lvr 6v

-æ L

Si r est impair, la fonction à intégrer sur lR est impaire et donc E (Yr) : 0. Si r est pair, la fonction

à intégrer est paire et :

^* oo

E(Y') : JO yr e-Y dy: l-(r+1) : r!

d'où: E(Y) :0 et V(Y) :2

160 PH TASST _ S LEGATT

Page 164: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUETLES

loi de Pareto

La v.a. X suit une loi de pareto si sa densité est donnée par :

f (x) = a0a

= ,r-,

114*-1(t) (a)o'd)o)

l) Calculer E (Xk) en précisant les conditions d,existence,

2) Déterminer le mode et la médiane de X.

lndication

r)dxE (Xk; : l)* o e,

n'existe que si a- k+ I > l, c,est_à_dire si k<a.

Alors :

E(Xk) : a1o[- 1 I

(a - k) xa_k

d'où:

E(x) ::. o@)t) et v{X) :q_l

2) Le mode est en d.

+oolg -

o,oka-k

Ê @>zl

Vx)d:F(X) agd 0 adr : I _(_)

1a+1 X

=$

I

-(è1:2F(x) :

4.6 toi du khi-deux décentrée

21/a 6 donc la médian e est en 21/a 0

soit x : (xJ,:, ,n, un vecteur aréatoire gaussien de dimension n, de roi N (0, rJ. soit d : (d;);:16n

un vecteur de lRn, 0n définit la variable aléatoire :

n

i:l

(a-21@-11"

PH TASSI S LFGAIT

Y: llX+0ll'= (x. + 0il2

Page 165: Theorie Des Probabilites

LES LOIS DE PROBABILITE USUELLES

Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou de

décentrage) :

n

^- t Ê,:ll0ll'

i:l I

0n la note : X' 1n, À1.

1) Montrer que la loi de Y ne dépend que de la norme de d et non de d lui-même.

2) Calculer son espérance et sa variance.

3) Si (X;);=16n sont n v.a. indépendantes de lois respectives N (m,, a,). 0n dit que U: I X]suir

une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).

lndication

1) Soient 0:10.1,-'un et d' : (dilt:,.n deuxvecteurs de lRntels que lldll : ll0'll

Soit Z:X+0: Z-> N(d,ln)

z' : x + 0' .. z' -> N(d" ln)

Montrons que llZ ll 2 et llZ'll2 ont môme loi.

lld ll : lld' ll = f Anrn orthogonale telle que 0' : A0

d'où :

llZll': llAZll2 : llAX+AAll'? : llAX+0'll"

0r:AX -> N (0, l.) ; AX + â', -> N (4" ln)

Z' et AX + d' ont même loi, donc llZ ll2 et llZ'll 2

ont même loiX'? (n, lle li'?).

zl E(Y) : J. r1x]f + 2ï. 0 E(X,) + 1. s2 : n+ Àt:l I I

V(Y) : vt i- lx? +27iXill: : tV(Xlt+ 40?ulxil+4d,Cov(XÎ,Xi)li:l I I' i:l '

V(Y) : V(IXÎ) +4À:2n+4À

PH.TASSI .S LEGAIT

t

I

II

162

Page 166: Theorie Des Probabilites

LES LOIS DE PROBABITITE USUELLES

3) E(u) =.{, tu(X,) + E21x,}J: zo2 + 2m2t-l

v (u) : i . tt tx]t - r' txJti:lComme :

X,-fi,( --) suit y= 111, on déduit E (Xi- mi)4 - 3 oai

d'où : I

nnV(U) : : l3oa+6n'.o7 *r1 @1,+n?y21 : t Zo:,@?,* 2n1J

i:l ' I I I i:l

4.7 soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités :

X.p, :

{' t, {t) dt

Montrer que P : - i 2 Log p suir une loi y2 (2n).i:l '

lndication

P, .1, F (X,)donc P, -? Aro.r, (cf. exercice 3.1, chapitre 3). 0n effectue le changement devarraDle:9lx'l : - 2Logx.'

La densité de - 2 Log P s'écrit :

s (t,) : I ,- "' 1i0, * -J (v)

2

donc - 2 Log P -) X" el; les X sont indépendantes. les p aussi, donc:

n

i:1

. PH TASSI S. LEGAITI 163

Page 167: Theorie Des Probabilites
Page 168: Theorie Des Probabilites

Chapitre 5

Géométrie des variables aléatoires

Ce chapitre aborde deux aspecis différents des variables aléatoires. Le premierest relatif aux propriétés des v.a. admettant espérance et variance ; le second établitles bases de la géométrie des v.a. ayant une variance finie, et les approximationsde v.a. qui engendreront la régression statistique.

1 ESPACES DE VARIABLES ALEATOIRES

Dans ce paragraphe, nous ne considérerons que des espaces probabilisés ; laformulation la plus générale fait référence aux espaces mesurés (voir, par exemple,t 16l)

1 .1 Les espa ces 9 t et L1

Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., siaucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, inté-grables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oéga-lité P - presque sûrement, est une relation d'équivalence sur 9.,.

Définition 1

On appelle L.' (Q, ué, pl l'espace quotient de 9., par la relation d'égalitéP -ps.

L, (Q, ol , e) est donc l'ensemble des classes d'équivalence de 9., par larelation d'égalité P - presque sûrement. On le notera L, par la suite. En assimilantv.a. et classe de v.a., L1 est l'ensemble des (classes dei; v.a. admettant une espé-rance. Par exemple, la loi de Cauchy (cf. chapitre 4) n'appartient pas à L,.

Théorème 1

Ll est un espace vectoriel sur lR normé par :

llxlll : Jlxl dP: E(lxl)

PH TASS] - S LEGA T 165

Page 169: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEATOIRES

Notons que J XOp a un sens pour X € Ll ; on fait la confusion de symboleentre X et sa classe d'équivalence, car si X et Y sont dans la même classe, on a :

E(X) : E1Y1

ll est facile de montrer que L., est un espace vectoriel. En outre :

o vÀ € rR llixll, : l,1l . llxll,

.llx+Yll,: -ilx*vl op<"flxl dP+Jlvl up:llxlll + llYlll

o llXll., : 0 <+ X : O; en effet, on a vu (chapitre 2) qu'une CNS de

négligeabilité de X est E (lXl) : 0.

On peut alors introduire une notion de convergence dans L.,.

Définition 2

Soit (Xn) une suite de v.a. de L.,. On dit que Xn converge vers X au sens de L.,

L-(noté Xn + X) si :

llX--Xll, : -llX--Xl dP----> 0 (n*-1

Remargue f

lJ xn on - J xdPl : l-f (Xn - x) dPl < "f lx^ - xl dP

d'où :

L.Xn-) x '+ E (Xn)

-> E (x)

Remarque 2

Plus généralement. on peut montrer que l'espace L1 (O, e' p) est un espacede Banach, c'est-à-dire un espace vectoriel normé complet. Ce résultat est connusous le nom de théorème de Fisher-Riesz.

1 .2 Les espa ces I z et L2

Définition 3

On note 9r(Q,.4, n l'espace des v.a. réelles de carré intégrable. L2(A,,t4, Pl

est l'espacè quotient de 9, par la relation d'égalité P - presque sûrement.noté Lr.

166 PH TASSI -S LEGAIT

Page 170: Theorie Des Probabilites

GEOMETRIE DES VARIABTES ALEATOI RES

. L" est donc l'ensemble des (classes de) v.a. admettant un moment non centréd'ordre 2 (v.a. de second ordre) :

E(X2; : Jx2op < æ

Théorème 2

L, est un espace préhilbertien. c'est-à-dire un espace vectoriel sur lR surlequel I'application L2 X L2 ----> lR définie par :

(x, Y)-> <x, Y> : E (XY) : J XY dp

est un produit scalaire.

ll est faciie de montrer à partir des propriétés de l'intégrale que la forme<x, Y> est bilinéaire symétrique strictement positive, c'est-à---dire eit un produitscalaire.

Conséguence

La norme au sens de L, est notée llX ll, et définie par :

llxllS: JX'?dP ou llxlir: Glx'tLa notion de convergence dans L, s'en déduit :

Définition 4

soit (Xn) une suite de v.a.r. de Le ; Xn converge vers ra v.a.r. X au sens de L,L^

(noté Xn é) X)si :

llXn - X ll, -----> O

i.e E(Xn-X)2-> O (n*-)

Très utilisé en statistique, ce type de convergence porte aussi re nom deconvergence en moyenne quadratique (m.q.).

Exemple

soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, p).on définit, pourchaque n, la variable aléatoire ofréquence empirique, :

X-n

PH TASSI S. LEGAIT 167

Page 171: Theorie Des Probabilites

GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES

x_ ^ 1 . 1 p(1 -p)t(ï-p)':Ër,*"-np)': , V(Xn) :}:

Fn converge vers p au sens de Lr.

Considérons le cas particulier où la limite est une v.a. constaRte a :

E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2

: V (Xn) + 1E (Xn)- al2

Une C.S. de convergence dans L, de Xn vers a sera :

( ri,.n E(X") :alnlI

I lt'.n V(Xn) :o(n

Théorème 3 (Cauchy-Schwartz)

Soient X et Y deux v.a.r de L, ; on a :

llxY ll, < llx ll, llY lln

Théorème 4 (Minkowski)

Soient X et Y deux v.a.r. de L, ; on a :

llx+Yll, < llxll, + llYll,

Les démonstrations des théorèmes 3 et 4 seront abordées dans un cadregénéral en 1.3.

Remarques

a) Dans le théorème 3, si l'on prend Y : 1 (ps)' on obtient :

llxll, < llxll,Donc L, C L, et toute v.a.r. admettant un moment non centré fini E (X2) pos-

sècle une espérance finie;L, est l'espace des v.a.r. ayant espérance et variancef inies.

b) Si, dans le théorème 2, on remplace X et Y par X-E (X) et Y-E (Y), on

obtient :

<X-E(X), Y-E{Y)> : Cov(X,Y)

PH, TASSI S. LEGA1T

Page 172: Theorie Des Probabilites

GEOMETRIE DES VAR]AB LES ALEATOIRFS

c) Plus généralement, on peut démontrer que L, est complet, c,est-à-direpossède une structure d'espace de Hilbert.

1 .3 Les espa ce g ^ et L_pp

Définition 5

ge(A, u(, n désignant t'espace des v.a.r teiles que E (lXpl)< * (1 ( p < -),Lo est l'espace quotient de 9

rpar la relation d'égalité p-ps.

La norme sur L est :p

llx ll p : (-f lxl P dP)t to

Les trois propriétés suivantes sont classiques et généralisent celles qui ontété énoncées ci-dessus.

Théorème 5 (croissance)

X <Y =à llxll p < llyllp

Ce résultat est issu de la croissance de l,intégrale.

Théorème 6 {inégaiité de Hotder)

p ) 1, q ) 1, 1/p + 1/e: 1 :ilXyli,<llxllp llyllq

Démonstration

i) Soita ) 0, /3 > O, a + p - 1.

Montrons que pour f et g mesurables déf inies sur (O, ,rl , pl, on a :

I fo gÊ dp ( I"l" tdttlol! sdpll

Si J fdp : -, l'inégalité est triviale ; de même si I tdp : O, alors f estg-négligeable, donc fa gÉ également, et I'inégalité est vérifiée à l'égalité. Considé-rons le cas général 0 < J fdg ( *. On sait que, par ia concavité de la fonction Log :

Ya ) 0, b > 0 Log(aa + Bblè a Log 6+pLogb

our sa + Êb2 a"bB

PH TASSI S LEGAIT 169

Page 173: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEATOIRES

Posons :

lrdp

fd gP.----\u

I jrdpY ll sdttlq

En intégrant par rapport à p, on obtient :

-[sds

f *B g

lrdp l sdp

1r" sB ds ( (a + pl I l fdpl" t-l"sdplq

d'où le résultat annoncé puisque a + F : 1.

ii) Prenons p: P, t: IXIP, s: lvlq, o: +, P: +; onobtient:

J lxYl dP < t"i lxlp dP11/p t"i lYlq dPltzo

Cas particulier

Soit p : 2, q : 2: on retrouve llxYlltI'i négalité de Cauchy-Schwarz.

Théorème 7 : (inégalité de Minkowski)

Yp21 ilx+Yll <llxll +llYllp " "p " "p

Démonstration.

i) Pour p = 1, on retrouve E(lX+Yl) < E(lxl) + E(lYl).

ii) Soitl<P(oo:

lX+ylo : lX+YI .lX+YIe

< (lxl +lYl).lX+vln-1

: lxl .lx + vlo-1 + lYl .lx + Y;n-t

En prenant I'espérance :

Jlx+vlpdP < "f lxl lX+Ylp dP + -f IYI lX+Ylp-'oP

Or, d'après le théorème 6 :

"ilxl lx+Ylp dP : llx.(x+Yl)p-'ll, < llxllp. ll(x+Y1o-11;o

110 PH. TASSI S. TEGAIT

Page 174: Theorie Des Probabilites

avec :

d'où :

Or:

GEOMETRIE DES VAÊIABt ES ALEATOIRES

"l"lYl lX*yle dp< llyllp.tl(X+y)p lltq

11 p_+__1,soit Q:_q p p-l

Jlx+vlpdP: llx+yllB < |lxllp + llyllp) il(X+y;o-1110

ll(X+ Y)P-1 ll! : J llx + y11 (o-l)a 6p

: -f lX+YlPdP

ll(X+y)p- t ll o : llX+y1;n-i

r.e.

Soit :

et donc :

llX+ YitB < |lxll p+ llyll J. llX +y11 0-t

llx+Yllp < llxllp+ llYlle

2 UN PEU DE GEOMETRIE

Le fait que L. ait une structure d'espace de Hilbert, c'est-à-dire qu'il existe unproduit scalaire. l'orthogonalité, etc., peut nous autoriser à y faire de la géométrie.Avant de travailler sur I'espace des variables aléatoires du second ordre, nôus allonsrappeler l'interprétation géométrique de quelques-uns des concepts de la statisti-que descriptive.

2.1 Statistique descriptive géométrique

soit une variable réelle quantitative X dont on possède n réalisations (x,, .... xn).

La statistique descriptive propose un certain nombre d'indicateurs résumant l'in-formation contenue dans l'échantillon, en particulier :

I la moyenne quadratique

PH.TASSI -S LFGAIT 171

Page 175: Theorie Des Probabilites

GEOMEIRIE DES VARIABLES ALEAIOIRES

o la moyenne arithmétique :

X:

. la variance empirique :

I(x -i)2

o la variance empirique modifiée

1n :x.n i:1 |

s,r- 1

n

st :-i . r(x -x)2n-1 |

n^n-1

Si sur le même échantillon, on a les réalisations (y.,,...,yn).d'une secondevariable Y, on peut calculer le coefficient de corrélation linéaire empirique :

I (xi i) (yi - V)

r(X,Y) :

ll existe de nombreux autres indicateurs de tendance centrale ou de disper-

sion:lamédiane, lernode, lesfractiles. l'écartabsolumoyenl tf*i-il, l'éten-n

due, les intervalles interfractiles, etc. Nous ne présentons ici que ceux qui ont unei nterprétation géométrique.

A noter également que i, S'2 ou r ne sont que l'espérance, la variance ou lacorrélation linéaire théoriques de X (ou (X, Y))calculées par rapport à la loi discrèteuniforme :

P-n

nommée loi empirique.

Dans lRn, l'échantillon (x', ...,xn)(resp. (yr, ...,v])est représenté par un point

X (resp. ï ; Ë désigne le vecteur bissecteur, de coordonnées (1 , ..., 11.

Soit H (resp. O) la projection orthogonale de X (resp. Y) sur le sous-espace de

dimension 1 engendré par Ë. Le produit scalaire. Ol,a ) est égal à :

<o1" Ë> : r*, : oX..v6 cosa

OHaveccosa:

-,d'où:OX

1nn i:1 xi

112

I*, : OH.\Â; Ott: 16 i

PH TASSI . S. TFGAIT

Page 176: Theorie Des Probabilites

coordonnées :Dans lRn,

La moyen

pointHadoncpour

/,\H-t.l\ "/

quadratique q est, à

GEOMETRIE DES VARIABLES ALEATOIRES

,i.e. OH:i.Ë

1

- --Vnprès, la longueur OX:

- nq'n

OX' : : x'.i:l I

1a:.16 oX

Comme OX > OH. on en déduit : q ) i.La variance (ou l'écart-type) est également facilement interprétable :

XH2 : : (xi i)t : ns,t : (n _ 1) 52

XH : .16. S,ou:

PH TASSI S. LEGAIT 113

Page 177: Theorie Des Probabilites

GEOMETBIE DES VARIABLES ALEATOIFES

Calculons maintenant <HX, OY) :

<HX, OY> - > (xi- x) (yi- i): .6s; . .v6s; cos a

où Si et Sidésisnent les écarts-types empiriques de (xr, .. ,xn)et (y.,, ...,yn) :

> (xi i) (vi - v)cosd: ffi : r(X,Y)

Le coefficient de corrélation linéaire empirique n'est autre que le cosinus del'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennesrespectives.

2.2 Géométrie dans L,

Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégra-ble L, (Q, .4, gl, muni du produit scalaire de la covariance :

<x,Y>: JxYdP: E(XY)

On désigne pare lavariablealéatoiretelleque e(<..r):1 Va.r €A, P1R):1 '

e engendre le sous-espace de dimension 1 des v.a. constantes, inclus dans Lr.

On sait : E(X-E(X)) :0

E(X-E(X)) : <X-E(X), e):0 + X-E(X) Iell en résulte que E (X) est la projection orthogonale de X sur e.

Remargue

Soit X telle que E (X)

114

: O; alors x I e.

PH. TASSI S, LEGAIT

Page 178: Theorie Des Probabilites

GEOMÊTRIE DES VARIABLES ALEATOI RES

comme dans le paragraphe 2.1 , on peut interpréter géométriquement un cer-tain nombre de concepts probabilistes.

V(X) : E(X-E(X))': llx-E(X)ll;L'écart-type a (X) est donc ra rongueur (dans Lr) du vecteur x - E (x).

Si Y est une autre v.a. ;

<X-E(X), Y-E(Y)>:Cov(X.y) : o(Xl .o(Y).cosdoù dest I'angle formé par les vecteurs X- E (X) et y- E (y).

Ona:Cov (X. Y)

cosd = o(X.Y)o(Xl .o(Yl

coefficient de corrélation linéaire entre X et y.

2.3 Approximation dans L,

a) Approximation par une v.a. constante

Soit Y une v.a.r. de loi connue ; peut-on I'approcher au mieux (au sens de Lr)par une v.a. constante ?

PH TASSI. S, LEGAIT 115

(x)

Page 179: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEATOIRES

Soit donc à chercher une constante k minimisant le carré de la distance entreY et k. llY - k ll; : E (Y - k)t. Le calcul peut être fait directement :

Min E(Y-k)'<+ Min k2-2k E(Y) + E(Y2;+ k: E(Y)kk

La constante approchant de façon optimale Y est son espérance E (Y).

Géométriquement, la constante la plus proche de Y est la projection orthogo-nale de Y sur le sous-espace des v.a. constantes engendré par e ; en utilisaFtI'interprétation géométrique précédente, k : E(Y).

b) Approximation par une v.a. guelcongue

Soit (X, Y) un couple de v.a.r. On cherche à approcher Y par une variableproportionnelle à X, I : kX. On considère le s.e.v. engendré par X.

X

La variable kX la plus proche deécrivons que Y-iO( est orthogonal à X.

E ((Y - kX)X) =

Y est la projection orthogonale de'Y sur X :

o: E(xY)-ke(xt)

d'où :

E (XY)

176

k-E (X')

PH. TASSI S, LEGAIT

Page 180: Theorie Des Probabilites

GEOMFTRIE DES VARIABLES ALEATOI RES

E (XY)X : * . X est la meilleure "explication lin€laire, de Y par une v.a. colinéaire à X.E (X')

Nous n'avons fait a priori aucune hypothèse. L'examen du résultat montrequ'il faut connaître au moins E (x2) et E (Xy) pour résoudre le problème.

c) Approximation affine

soit (X. Y) un couple de v.a.r. on cherche à expliquer y de façon affine parune v.a. appartenant au sous-espace engendré par e et X, L, (e, X). cela revient àchercher des constantes â et b telles que la distance ent-re y et âe + bX soitminimale.

ll est clair que Î : âe + bX, projection orthogonale de y sur L, (e, X), est lepoint de L. (e, X) le plus proche de Y. Les paramètres â et b sont leJcoordonnéesde Y sur e et X (pour que le problème ne se ramène pas au cas précédent, il fautsupposer X non colinéaire à e, c'est-à-dire X non constante).

Ecrivons que Y - î -J- e, et y - 1-J_ X :

E(Y-âe-bX1 :9E((Y-ae-ôXlX) :0

â+b e(X) : E(Y)âE (X) + br (X') : E (XY)

La résolution de ce système en â et b conduit à

E(X'?) E(Y) -E(X) E(XY)

L, (e, X)

PH TASSI S LEC:AIT

a:V (X}

Page 181: Theorie Des Probabilites

GEOMETRIE DÊS VARIABLES ALEATOI RES

^ Cov (X, Y) o (Y)u: wR :

ooa) P(x'Y)

Cov (X, Y)Y : E (Y) *

V (X) (X - E (X))est la meilleure approximation affine de Y.

Remarque

ll faut, ici, supposer connus au moins E (X), V (X), E (Y). E ff'?), E (XY).

Approfondissement : qualité de l'approximation

lntuitivement. la qualité de I'approximation de Y par un élément de Lr (e, X)est d'autant meilleure que Y est proche de L, (e, |). Cette proximité est mesuréepar le coefficient de gétermination R' égal à cos' 0, 0 étant l'angle formé par lesvecteurs Y - E (Y) et Y - E (Y).

E (1 par application du théorème des trois per-

rrÎ- E llrrÎ

ilY_E(ïil3

en Ë (X) et menons de l'origine le vecteur équipollent à

théorème de Thalès, la parallèle à e menée de Y coupeet doncl- e 1Ît : b (X- E (X))

Remarquons que E (Y) :pendiculaires.

R2

Projetons X sur eX - E (X). Alors, par lex-E(x)enb(x-E(x)).

ll s'ensuit :

R2: b2 V(X)

V (Y)

Appliquons le théorème de Pythagore au triangle rectangle ff,1, E ff)) :

llY-E(ïil3: ilÎ-Et?ttt3 + llY-Î11;

Or llY - E (Y)ll! est la variance V (Y), dite variance totale, llÎ - E (Î)ll3 est ta

variance de ?, Oite variance expliquée par l'approximation affine.

Ën remarquant que, avecZ: y - Î, E lzl: o, llY - ?1; ! est la variance de Z,

dite variance résiduelle. On obtient alors la célèbre formule de décomposition dited'analyse de la variance :

Variance totale : variance expliquée + variance résiduelle.

Le coefficient R2 mesure donc la part de variance totale expliquée par la

variance de l'approximation Y :

variance expliquée V (V)R2

variance totale V (Y)

PH. TASSI . S. LEGA]T

Page 182: Theorie Des Probabilites

GEOMETBIE DES VARIABTES ALEATOI RES

L'approximation affine sera d'autant meilleure que V (î) est proche de V (y),c'est-à-dire R2 proche de 1, c'est-à-dire d proche de O.

Généralisation

on peut chercher à approximer une v.a. y par une v.a. située dans le sous-espace de Hilbert L engendré par (e. x1, ..., xe), où X,, ..., Xo sont des v.a. telles queL est de dimension p + 1, c'est-à-dire que, quel que soit i : 1 à p, X. n'est pas uneconstante et, quels que soient i et j, X. et X, ne sont pas proportionnelles.

9, la meilleure approximation de Y dans L, est telle que :

î:âo*,Ë., ,, *,

où les paramètres âo,âr,..., âo sont calculés en écrivant que :

v-?reY-îrx Vi : 1àp

' En écrivant Q la matrice (p + 1. p + 1) de terme général :

@k,n:E(XkXn)où k, n : 0 à p, avec la convention Xo : e, et en notant ;

/:.\ lEn\ /"\â-ltil o:/elx,v1 I *:/{,\q-['[,1"1,/\ â / \E(xDy) / \x_ I\ e/ \ / \"r/

PH. TASSI S. LEGAII 119

Page 183: Theorie Des Probabilites

d'où :

GEOMETRIE DES VARIABLES ALEATOIRFS

Oâ: b

â: Q-l b,

1:t"Q-tb

2.4 lnterprétation des lois du khi-deux et de Student

Soient X', ..., Xn, n v.a. indépendantes de même loi N (0,1); le point X de

coordonnées "cartésienneso (X.,, ..., X") se déplace dans lRn de façon aléatoire, chaquecoordonnée étant au uhasard gaussiënu.

Avec les notations précédentes, la coordonnée de H sur e est X, de loi1

N (0, + ) ; la longueur OH : r,6 X suit donc une loi normale N (0,1).vn

nLa position de X étant aléatoire, OX2 : ,:. X1 est une v.a. dite, par définition,

t- |

suivre une loi du khi-deuxxt (n) (ct. chapitre 4).

Le vecteur Èl ".t de coordonnée courante X, - *, i : 1 à n ; il estfacile de

voir que X,- i suit une loi normale N (0, / ); en effet :

180 PH, TASSI - S, LEGAIT

Page 184: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEATOIRFS

. E (X -X) : O car Ë estorthogonal au sous-espacede dimension n - lcontenant H1

o V(X,-X) : V(X;)+V(X) - 2Cov(X,.X)

121+ ; - ; (u(Xi) + (n- 1) Cov(Xi, Xj))

-1- 1

n

Pour la même raison d'orthogonalité :

Cov(i, X,-x; : g Vi : 1àn

a) Loi de f; : nSlSçz

Lemme préliminaire

Soient X,, ..., In n variables aléatoires telles que Cov (X,, X,) : O Vi, j, i+ jet v (xi) : o'vi. on effectue un changement de base orthogonar, et on note(Y,. , Yj les transformés de (X,, .... Xj ainsi obtenus.Alors:Cov(Y,,y,) : O Vi, i i +j.

Démonstration

soient fr, ... f^ les vecteurs de la nouvelle base. Dans l'ancienne base, la I

matrice F du changément de base représente la transformation orthogonale :

/n' rnr\t: :\F- [ t,, rr, I\: .l

\ t.," ,

^^,/Alors X : FY où F est une matrice orthogonale (rappelons qu'une transformationest orthogonale si le système d'axes orthonormés initial est transformé en unsecond système également orthonormé), et donc Y : F'X.

ft'\ : (l; l:\ ft'\\'/ \,^, ,.",/ \-^/

PH, TASSI S. LEGAIT 181

Page 185: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEAIOIRES

.nY-' k:1

Cov (Y,, Y,) : Cov tn !., f ,n Xn,

,1,, t,, *,1

Or : Cov (Xn, X,) : O Vk ;r 1

Cov(yyl : >>f.f,, Cov(Xk,Xt)'r't' k I'n: > f f . V(Xk)

k'*JK: o't f..f..

k rKlK:o

d'après les propriétés des matrices orthogonales.

Théorème de Fisher

Soient n variables aléatoires (X.,,...,Xn) suivant indépendamment la loi nor-male N (0,1).

nLes variables 16 Xn et t . (xi - X)t : (n - 1) Si - nS;' sont

l: I

indépendantes et suivent respectivement N (0,1 I et X'(n - 1)

Démonstration

Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée.n

Le vecteur unité Ë peut s'écrire I ei.i:1 |

X représentant le poinr t(x.,, ....Inl,on sait que <On, é/\6> : 16 Xn. \Æ Xn

est donc la coo-rdonnée de X sur le vecteu, + unitaire.Vn

Effectuons alors le changement de base tel que f^ : +'nVn

Nous avons '. "

nX- j:1 I t

182 PH, TASSI S. LEGAIT

Page 186: Theorie Des Probabilites

GEOMETRIE DES VARIAB LES ALEATOIRES

X-Ynfn : X-.6 *"t" : :!] t,t,J- |D'autre part :

D'où :

n-1

'-6 ol

-X ten'l

nX-VnX-t:: X.e' n n -'-i-l:l

n:i:1 |

1

--F-Vn

n

i:1 |

n _ n-1: (X,*X)e:

i:1 | n' ' j:1 I l

Les variables (Xr, ...,Xn) étant non corrélées, le lemme préliminaire permetd'affirmer que les variables"(y.,,...,y^) sont non corrélées. comme images de(Xr,, ,Xn) .normales

par une appricatiori linéaire, y,, ...,yn sont des v.a.r. normaleset donc iôdépendantes.

-,^^^,111'", lesX suivantN(O,t),onvoitaisémenrquey ->N(0,1),Vj : t à n. 1

s ensutt :

. Yn : n6 X" suit N (0,1), résultat que nous connaissons déjà.

o Yn est indépendant de Yr, ...,yn_r et par conséquent, est indépendant de :

n-1

j:l l

. . I _ YÎ suit, par déf inirion, une loi du ;2 (n - 1).j:l '

r L'application orthogonale conservant,les distances ;

n-l n

j:l r i:1n

et donci:1 |

une loi N (m, a) :

Corollaire

Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors :

t6 (Xn - t)

"t rn -rt 5oo,suivent indépendamment une loi N (0. 1)et une loi X2 (n - 1).

PH TASSI S LEGAIT

Page 187: Theorie Des Probabilites

GEOMETRIE DES VARIABLES ALEAIOIRES

Démonstration

ll suffit de se ramener aucentrées et réduites :

l'appliquant aux variables

b)

théorème de Fisher en

X.-mw-lt-to

lnterprétation de la loi de Student

soit X,, ..., Xn, de loi N (m, a). on a :

(X -m),6 'n

->N(0,1)o

S2n-o"

Donc, la v.a.r. :

.,6 (x. - r)U

suit le rappor:! d'une loi.N (0,1) sur une loi

teur étant indépendants (cf. chapitre 4).

[Vt" -tt. /- . numérateur et dénomina-V n-1

-l x2$-1rn-1

S:n

t

n

Où la loi de Student intervient-elle géométriquement ? D'après le théorèmede Fisher, HX2 : (n - 1) Sl suit une loi X' F - 1). On a, en revenant à la figureprécédente :

D'où : .u6 (x. - rn)-)T(n-1)

cotg a

d'où : N (0,1)\Â-lcotga-) : T(n-1)

L'interprétation de y2 etI est simple : si X varie aléatoirement et <normale-mento dans I'espa"", s"s coordonnées polaires également : la loi de p2 : OX2

s'appelle la loi du X2, celle de vGJ cotg d, où a est l'angle (OA, Ë) suit la loi deStudent.

OH: -

suitHX

184 PH. TASSI - S, LEGAIT

Page 188: Theorie Des Probabilites

Chapitre 6

Un outil : la fonction caractéristique

Le calcul des probabilités repose essentiellement sur l'étude des variablesaléatorres. Les chapitres 3 et 4 ont présenté un ensemble..de définitions et depropriétés; d'autres' comme.les convergences, seront vues dans le chapitre suivant.Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique pourétudier le comportement des v.a. (somme, indépendance. limitéi: la fonction caracté-ristique (f.c.).

1 DÉFINITIoN ET PRoPnIÉrÉsD'UNE FONCTION CARACTÉRISTIOUE

1.1 DéfinitionDéfinition 1

Soit P une probabilité définie sur (lRo,;fo) ; on appelle transformée de Fourier deP l'application g, : lRn --+ 0 définie par :

pp(u) = J "it'*

6P 1*1

Remargue

- Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1). Néanmoins, raconfusion avec la fonction caractéristique ne saurait exister.soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension. on appeiletransformée de Fourier de f la quantité :

er(u) = -i eiu" t(x) d,i (x)

ll en est de même si f est une apprication intégrabre à vareurs réeiles.

Remarque

Sous réserve d'existence, on montre aisément en intégrant par partie :

PH.TASSI -S LEGAIT

er(rl(u) = (-1)k (iu)k <pt(u) pour k > 1

185

Page 189: Theorie Des Probabilites

UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE

Définition 2

Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? o) : on appelle fonction caractéris-tique de X, la transformée de Fourier de Px:

çx(u) = çpx(u) = Jsitux 6px (x) = E lsituxl

Avec des notations évidentes, on a :

(i Ë ,, x,)

91 (u1, .'.'uo)= E e j=1

En particulier, si X est une v.a.r. définie sur (Q.,4,P\,

v u elR, <px(u) = E 1eiux1 : J siux dPx (x)

Remarque.'Y = tu X est une v.a.r. dont la f.c. est:

çy(v) = E (e'uY) = E (evtuxl

La f.c. de X vérifie donc : q (u) = etul(1).

Exemples

a) Soit X une variable aléatoire à valeurs dans (lN, cl (lN)) :

tpx(u) = 2siuxP{x="} .u€lRx€N

Ainsi. si X est à valeurs sur {1. ..., n} et uniforme :

n

çx(u) = x eiuxx=1 n

n

1 x (eiu1xn x:1

n-1: e'u t (e,u)*

l'l x =O

= eiu 1-"iunn 1-eru

b)Soit X une v.a.r. absolument continue de densité

186

f (x) = À e- À' lRi (x)

PH. TASSI - S. LEGAIT

Page 190: Theorie Des Probabilites

UN OL'IIL : LA FONCTION CARACTÉRISTIOUE

On montre, en utilisant l'intégration dans le plan complexe que :

çx(t)= 1

1-ÀitUn cas particulier : la fonction génératrice

Soit X une v.a.r. discrète à valeurs non négatives ; on appelle fonction généra-trice de X la fonction :

Gx (u)= E (ux) = "3*u*

p(X = x)

définie pour tout u € O, lu I < t.

On a I u* PX = x)l < | u l*, et la série de terme général u" p(X = x)est doncabsolument et uniformément convergente pour u appartenant au disque unité.

La définition de G* revient à remplacer formellement eiu par u dans la fonctioncaractéristique de X : tpx (u) = Gx (eiu).

En pratique, néanmoins, les utilisations de G* (u) seront faites avec u réel,- 1 < u < 1. On remarque en outre que G* (1)= 1

Exemples

a)Si X suit une loi de Poisson de paramèrre À : p [X = *]: "-i ^ix!

G"(u) : i u*e-i Àx-"-iuu,i:s.À(u-1)x=O x !

çxft)=ei(eit-1)b)six est discrète uniforme à valeurs sur [1, .... n]. le calcul du a)montre que :

G*(u)=u(1 -un)n(1 -u)

1.2 Propriétés

Théorème 1

Soit X une v.a.r. de f.c. ç, on a :

a) <p(o):1

b) lç (u)l < 1

PH TASS S LEGAIT

Page 191: Theorie Des Probabilites

UN OUIIL LA FONCTION CARACTÉR ST OUE

c) q(-u)= tpGr)

où la barre horizontale désigne la conjugaison dans C.

Ces trois résultats sont immédiats, et généralisables sans difficulté au cas devecteurs aléatoires.

Théorème 2

Soit X une v.a.r. de f.c. g ; g est continue.

Eléments de démonstration

I ç (u +h)-q (u)l = I r ("i"x 1"ir,x - t1)l <r (leinx - t l)

gl. l"ftrx - 1l= 2lsin hXlO'o,i te résultat, généralisable au cas vectoriel.2

Par ailleurs. suriR, il est possible d'établir la continuité uniforme de rp ([16]).

Théorème 3QaX + b (u) : eiun çx (au)

En effet,gaX+b (u)= E (siu (aX + b\ = siub E (ei(au)x1

Théorème 4 (injectivité)Si P et O sont deux probabilités définies sur (F.0, ,1lol :

9P= 9O <=> P= O

Si X et Y sont deux vecteurs aléatoires : (Q,,r/, P) + ( 13o,7/?v1

9x= Qv <> Px: PY

Voir la démonstration en [16].

Le théorème 4 établit une liaison biunivoque entre f.c. et lois de probabilité.Néanmoins, si, possédant une loi, on peut déterminer sa f.c., le problème inverse estdigne d'intérêt : peut-on trouver une probabilité (par sa densité, ou sa f.r.) lorsquel'on possède une fonction caractéristique ? Le théorème 5 répond en partie à cetteinterrogation.

Théorème 5 (inversion)

Si X est un vecteur aléatoire à valeurs dans (lRP,,îel, de f.c. ç (u)intégrablepar rapport à À o. la loi de X possède une densité continue f (x) définie par :

188

f (x) : (2 î)-P -ç s-itux ç (u) d o (u)

PH TASS - S LEGA T

Page 192: Theorie Des Probabilites

UN OUTIL : LA FONCT]ON CARACTÉF]STIOUE

En particulier, pour une v.a.r. :

alors ç est la f.c. d'une v.a.r. X absolument continue.

PH. TASSI S. LEGAIT

f(x)= 1 I e-i,"p1u;du2n _*

Dernier point que nous aborderons : comment savoir si une fonction com-plexe d'une variable réelle est ou n'est pas une fonction caractéristique ? plusieursrésultats existent à ce propos.

Théorème 6 (Bochner,1932; t13l)

Une condition nécessaire et suffisante pour qu'une fonction ç; lR -+ c soitune f.c. est que soient vérifiées :

a) ç (u) continue

b)Y N ; V (u,, ..., us) € RN, V (21. ..., zx) € CN :

NNX X p(ui -u.)2,2,

i= 1 j= 1

est réelle et non négative.

c) ç(0)= 1

Le théorème de Bochner est d'une application peu aisée. on pourra luipréférer une condition suffisante, par exemple :

Théorème 7 (Palya, t 93a ; It 3l )

Soit I (u) une fonction continue. définie pour tout u réel.

Si q (u) satisfait aux conditions :

a) ç(0) = 1

b) .p(-u) : ç(u)

c) - g (u) convexe pour u ) O

d) lim ç (u)= 0

r89

Page 193: Theorie Des Probabilites

UI\ OUTIL : LA FONCTIOI\ CARACTÉR|SIIOUE

1.3 Un exemple de loi définie par sa f.c.

Nous allons utiliser le théorème 5 pour engendrer une famille de lois de

probabilité définie par sa fonction caractéristique.

En 1925, Paul Lévy [12] définit la loiappelée par la suite loide Paul Lévy par:

BGou: [- 1, 1], y € lR*, ô

Its+qpourc*1,J'[ +t"nlulpou,o=

Log s (u) = iôu -y lulo [1 + i Bù* (u, a)]

u e lO,21, € iR.

w (u, a)=

On remarque que :

a) pour a= 2,8= o, r = +, ô= o:Log ç(u)= - {,rfu\= e-uzrz

La loi de Paul Lévy se ramène alors à la loi N (0. 1). (cf. 2.7).

b)pour u= 1, B= O, y = 1, ô = O: Log ç (u)= - lu I

On retrouve la loi de Cauchy.

Détermination de la densité

Les conditions du théorème 5 étant réunies, en notant f (x, e. B, y' ô) ladensité de la v.a. de f.c. 9 :

f (x, a, B, y, ô) : î; J__ e-i'* ,p (u)du

En développant, on a :

f (x, c, B,y, ô) = * çeil(ô-x)u -Bv luloËlwlu' al e-rlulao,

- 1 Jo --cos

t(ô - x) u - By w (u' a) ,'1 s-Yue du1\

Pour a = 1, on obtient donc :

f (x. c, B.y, ô) - I li-cos [(x- ô)u +BY uotg qn ]e-vuddu11 .

PH TASSI . S. LEGAIT

Page 194: Theorie Des Probabilites

UN OUT]L : LA FONCTION CARACTÉRISTIOUE

Particularités de la densité

c f (x + ô, a. B, y, ô) : f (x, a, B, y, 0) ; on peut prendre ô = 0, par simple changementd'origine.

o f (x. a, B. y)= f (- x, o,- B.y).

c f (x, a, B, y) = \- 1/" f (-j-, a, B, 1)\ t/o

o f (x, a, B, y) = (3- 1/o f (di, a, B, y /t3)

o f (x. a. B. y) = (By)- t/c f (x/(By)1/u, a, B, 1/{3)

On peut standardiser la loi de Paul Lévy en prenant ô: 0 et y = 1. La densité estalors :

f (x, c. B)= I f *-"o,

(xu + B uo tg -qI)e-uo du.7Io2

2 FONCTIONS CARAETÉRISTIOUESDES LOIS DE PROBABILITÉ USUELLES

2.1 Loi de DiracOn établit immédiatement : çd-a (u) : eiua

2.2 Loi de BernoulliSi x ->y4 (1, p) :

px (u)= p . eiu + q . 6iuo= p ei' + q

qx(u) = Peiu+q

2.3 Loi binomialenn

ox(u)= x^ uiuxçxp*(1 -p)n-^ = t C|(peiul*qn-xx=0 x=O

ax (u) = (pei' + q)n

2.4 Loi de Poissonsi x -)901:

çx(u) = i uiux Àxe-À -eÀr (Àeiu) *-e-ÀeÀ"i'

x=o x! - x x!

ç1 (u) = "

'l {eiu - 1}

PH. TASS] S. LFGAII 191

Page 195: Theorie Des Probabilites

UN OUTIL : LA FONCTION CAFACTÉFISTIOUE

2.5 Loi uniforme continuesi x -)?/ p, 1: çx (u) =

g-IU

2.6 Loi gamma y (p, O)

çx (u)= (1 - Oiu)-P

2.7 Loi normale

Si U -> N (0, 1) : qu (u)= e-'2/2

Si X->N(m,cr): X= m+oU:gx (u) = E (siu (m +au)) = sium gu (uo)= dum u*u2 2/2

2.8 Loi du x 2 (n)

six->x2(n) ' çr(u)=_4r^ r'' ftziu)tz

2.9 Loi de CauchySi X est de derrsité f (x)= -l--:n (1 +xz)

9x(u)= s-lul

2.1O Loi de LaplaceSoit X de densité f (x) = + e- l* l, x € iR

.px(u)= * |o-"-(1+iu)dx.{ J]-"-x(1 -iu)6*' 2 20

1 l*- +@

= i to [e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.e-xdx

En intégrant par parties :

çx(u) = [-e-*cos ux]fr-u Ji sin uxe-xdx

= 1-u "f sinux.e-xdx0

1

L

i

Ii

t

192 PH. TASSI S. tEGA]T

Page 196: Theorie Des Probabilites

UN OUTIL : LA FONCTION CAFACTERIST|OUE

= 1 + u [e-x sin ux]f- - u2 { cos ux. e-x dx

= 1-u2çx(u)d'où : ex (u) = 1

1+u2

2.71 Loi normale multidimensionnetleSoit X à valeurs dans lRp, de loi N (m, X) ; u étant un vecteur de Rp, tuX une

v.a.r. de loi N (tum, tu Xu). La f.c. de tu X est :

gtu* (v) = siv fum) s-(u Eulv2/2

d'où . qx (u) : çtux(1)= situm s-ruDu/2

2.',2 Loi multinomiale

Soit X = t(Nr. ...., Nr) un v.a. de dimension k de loi multinomialet6h: p1. ...., pp) (chapitre 4); la f.c. de :

ktuX: t uj Nj

est: j=1

9t,* (v) = x ---J-]-_ -- pÎ, plk eiu,=51,,"

où la somme porte sur tous les k-uples (nr, ....,nn)vérifiant I n, : n.j=1

Qt,* (v)= x o'fî

(p1 eiu'')n'.." (ppeiu'r'1nt

k

= ( t pj eivur )nj=1

Env= 1: k

9x (u):( X pi ei'i ;nt=1

PH. TASSI S. LEGAIT 1 93

Page 197: Theorie Des Probabilites

Ù\ OIJTIL : LA FONCTION CAFACTÉRISTIOÙE

3 APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE

Outre son utrlisation dans le cadre de la convergence en loi, qui sera étudiéeau chapitre 7, la f .c. aide à établir un certain nombre de résultats parfois laborieuxà démontrer par usage direct des définitions. Nous en développerons trois.

3.1 Loi d'une somme de vecteurs aléatoires

Théorème ISoient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp,;4p),de f.c. respectives ex et gr:

Çx n y (u) = çx (u) çv (u)

Démonstration :

gx *y (u) = E (situ (x*YD = E (eitux situvl

Par séparaton des

i"iii:;i:i:il l',1,i,"1 ;:iïiiff'Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires

indépendants. Si (X,), i = 1 à n, sont indépendants. qi étant la f.c. de X', alors :

qlu) = ftçi (r)Xxi i=1

Exemples:

a) Les calculs faits en 2.3 et 2.4 montrent qu'une v.a. de loi binomialel3F, ù est la somme de n v.a. indépendantes suivant la loi de Bernoulli.'/(1, p). Demême :

7Bb, pl + ,/J (, p) = J3 (n + 1, p)

b) Si X et Y suivent deux lois de Poisson indépendantes de paramètresrespectifs À et p, alors :

Qx * v (u) : çx (u) çv (u) = u( À + u) lsiu -11

qui est la f.c. d'une loi 9(À+p). D'après le théorème d'injectivité, si X et Ysuivent indépendan"rment des lois de Poisson g(

^) el 3(pl, alors X + Y suit la loi

,?(À+ p).

c) Soient X et Y deux v.a.r. indépendantes de lois respectives v (p. 0 ) et

y (q, g ). La v.a. X +Y suit la loi y (p + q. A ).

En effet:ex*y(u)= (1 - I iu)-p.(1 -0iu)-a: (1 -diu)-n-cqui est l'expression

de la f.c. d'une loi Y (P + q, 0 l.

PH TASS1 .S LEGAIT

Page 198: Theorie Des Probabilites

UN OUTIL : LA FONCTION CARACTÉRIST|OUE

d) Soient X et Y deux v.a.r. suivant indépendamment des lois normales

N (mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1 *"| I.

En effet :

gx * v (u) - giuml en'41' gium2 grz o:l' : giu(m1 + m2) e42 (t * 4)l'

e) Soient X et Y deux variables aléatoires indépendantes suivant respective-ment deux lois du x2ànet m degrés de liberté. Lav.a. X+ysuit une loi 12(n + m).

3.2 Caractérisation de I'indépendance de deux vecteursaléatoires

Théorème 9

Soient Xt et X, deux vecteurs aléatoires à valeurs respectivement dans(lR?.r'tn\ et (tR9rdq). On note:

x _,x..,X, ,

dedimensionp+q.

a)V (u.,. u2)€ lRp x lRq, ex, (u1)= ex (u1. 0)et O1, (u2)= Ox (0, u2).

b)X' et X, sont indépendants si et seulement si V (u1, u2) e lRp x lRq, gx(u.,, u2) = ex, (u1) e1, (u2).

Démonstration

a) 9x (u1, u2) = E (si(tutxt +tu2x2))

çx (ur, 0): r (eitutxt;= ex' (u1)

ex (0. u2) = E (eituzxzl = ex, (u2)

b) Si X1 et X, sont indépendants alors :

gx (u1, u2)= E (situtXt ,itu2x21= E (eiturxr; E (eituzxz;

= e1' (ur) e1, (u2)

Réciproquement, on suppose eue gx (u1. u2): ex., (ur) ex, (u2).

PH TASSI - S. LEGAIT

et

Page 199: Theorie Des Probabilites

UN OUTIL : LA FONCTION CARACTÉRISTIOUE

Pour montrer.que X, et X, sont alors indépendants, il suffit de prouver quePx = Pxt @ Pxz fl-héoième dè FuOlnl, chapitre 2).

Calculons la transformée de Fourier de P = Px1 @ Px2 '

gp (u1, ur) = J "i[tu1x1

+tu2x2l dP (x1, x2)

= J silturxr + tu2x2l d (px1 @ px2) (x1, x2)

= J siturxr dpxl k1) J situzxz dpx2 k2)

:9x., (ur) ex, (u2)

donc ç, = ,po*, ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2sont indépendants.

3.3 Obtention des moments non centrés

Théorème 1O

Soit X une v.a.r. appartenant à Ln (Q, ,v/ , Pl, c'est-à dire :

Vk<n,E(lXlr)<-

Alors rpx, f.c. de X, est dérivable au moins jusqu'à l'ordre n et, pour toutk,k=0àn:

,pj[)(o)= ik E Xk)

Démonstration

Pourtoutk,k= 1àn:

.pl[) (u) = # çx (u) : o*4 S. siux 6pX = i, # siux 6pX

= J ,'i "k

siux 6PX

En effet, la fonction (u, x) --+ siux ss1 continue sur lR x lR ; elle admet pour dérivéed'ordre k:

_9!eiu* - ;k 1k "iux

auk

qui forme une suite de fonctions continues sur lR x lR.

1 96 PH. IASSI S. LEGA T

Page 200: Theorie Des Probabilites

UN OUTIL : LA FONCTION CABACTÉRIST]OUE

En outre, ik .l _ xk "iux

6pX est uniformément convergente sur lR car :R

| .f xk ei,* dPx I < E (lxlk)< -et on peut donc permuter les opérations d'intégration et de dérivation. ll suffit alorsde prendre u = 0 pour obtenir :

.pjf)(o)= ik E fik)

Remarque

Réciproquement. si ex admet des dérivées en o jusqu'à l'ordre n, alors Xadmet des rnoments non centrés au moins jusqu'à I'ordre n.

Exemple

Soit X une v.a.r. suivant une loi normale N (m, a), de densité

f (x) = 1 s- $ -ml2/o 2

t /ZiOn sait que :

9x (u) = sium - o2 u212

ç* (u) = (im - ua 21 sium - o2 u212

ç; (u) = - 02 sium - o2 u2/2 + (im - uo212 sium - o2 u2/2

D'où : ç; (o)= im er E x)= m

q; (O) : - 02'ri2 *2 = i2 92+ m2)et E X2): q 2 + m2,soir V Vl= o2.

Remarque ILe théorème 1O peut être étendu aux vecteurs aléatoires X = t(Xr. ..., Xo)de

dimension p :

p

avec X &:: î.i=1 l

PH TASS] . S. LËGAIT

1a"ç (ur,..., uo)\=

," r XT' .xfiot,I aurol .... ,lo /,0, . , o,

191

Page 201: Theorie Des Probabilites

UN OUT L -A IONCTION LARACILR S] OUL

Remarque 2

Un résultat analogue existe pour les v.a.r. à valeurs entières non négatives enconsidérant leur fonction génératrice. En effet :

6{r<)(u)= ;.(x-1)... (x-k+ 1)ux-kp(X: x)x= k

et donc 6(k) 1r)donne le moment factoriel d'ordre k.

F1r.1 : E (X (X - 1) (X - k + 1))

Exemple 1

Pour X de loi de Poisson ;" ( ^),

G" (u) : "

,r(u - 1), et donc :

C,[t]1u1:À ke.r(u-1)

F1r.1 : G[)(1)= i k (résultat établi par le calcul direct au chapitre 4).

Exemple 2k

SiX -> "//(n; p1, ...., pp)de f.c. çx (u)-(x pr eiui)n

1=1

en utilisant les propriétés liant les moments aux dérivées de çx en O, on peutretrouver la matrice des variances-covariances de X :

ôpx (u) = n (x pj eiuj)n-l ip, ei,i

à'i j

Enu- O.ona' u**(o) = inp, = iE(Nr),ôuj

E (N,) : nR,

a2ç_x (u) : n (n _ 1\i2 ple2iui(I p; "iu;;n

- 2

uzui )

+ n i2 pj ",

(l p, eiuiln - t

?' q* (o)= - n (n - 1) p3 - n p,,a2u)

d'où : E 621 : np, (1 + (n - 1) pi)

et V(X)=nBi (1 -pi).

1 98 PH TASSI - S. LEGA]T

Page 202: Theorie Des Probabilites

UN OUTIL : LA FONCTION CARACTÉRISTIOUE

Enfin ;

a3f ,lyl = n (n - 1) iz pj pr ei,j eiur 1I pj eiuj)nZuratt= /'

j

= i2EXj Xr)

d'où : E (X; Xr )= n (n - 1)pt p

et Cov (X,. X, )= _ n p; p

Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c..pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normaleLN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculerE X) = E (eY). On peut procéder à un calcul direct lifrapitre 4).- Or .

rpy (u) = E (eiuv1 = 6ium "-u2t212

Pour retrouver E (X). on "fait " u = - i et E (X) = um+o212.De même :

E6z; : E(ezv1;avecu= -2i,E(x2)= s2m e2o2,soitv(x)= s2m+t2@o2 _l).ll est clair que ceci n'est que mnémotechnique, puisque u est réel, et ne peut êtrepriségal à-iou-2i.

4 SECONDE FONCTION CARACTÉRISTIOUE

4.1 Définition et propriétés

Définition 3

On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica-tion de lRp dans C définie par :

ue lRp-wx(u):Logçx(u)

on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o :

ex (u): r . "i, *.ï1 ,"

oùmn=E(Xn).

Auvoisinagedeu:0, +k(r) : Log (, *"f, *la ," )esrdéveloppabte,

PH. TASSI . S, I FGAIT 199

Page 203: Theorie Des Probabilites

UN OUTIL : LA FONCTION CARACTÉR]STIOUE

et on peut écrire :

wx(u)= x ry Kkk=r k! K

ona: Ë**=vp(o)

Définition 4

La quantité Kn s'appelle le cumulant d'ordre k.

On obtient aisément les expressions liant Kp aux moments :

vx (u)= "?,,

Tlmn -( "?, Hmn)2 + (

,'?, H mn )3+ . .

=ium1 - 'æ (mz-mf1 + +f (ms-3m1 m2+2m!)+...

On en déduit :

Kr = mr Kz= mz- m? = pz

Ks= ps Kc= Vc-gp|Exemple.- pour une v.a. X de loi N (m, o ), on a :

v* (u) : ium - u' ?'2

et donc :

Kr=m=E(X) Kz=02=Vfi)Kr= 0pourk)3

Au même titre que les moments non centrés, les cumulants caractérisent unedistribution de probabilité. lls seront donc des outils précieux.

Propriétés des cumulants

Les cumulants possèdent diverses propriétés intéressantes :

a) Soit a une constante réelle quelconque : on sait Que gx * u (u) : uiuu qx (r)et donc :

t#y*"(u)= iua+w"(u)

PH. TASSI S LEGAIT

Page 204: Theorie Des Probabilites

UN OUTIL : LA FONCTION CARACTÉFISTIOUE

En désignant par Kn fi + a) le cumulant d'ordre k de X + a et Kr fi)celui deX,ona:K1 (X+a)= KrX)+a;KpX+a)= Krfi) pourk>2

b) Soient deux v.a.r. indépendantes X et Y, de fonctions caractéristiques g*et çy:

V1*y(u)= W*(u)+Wy(u)

et, avec des notations claires :

Kp (X + y) = Kr 1X)+ Kp (y)

c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réelquelconque ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivéek ième ".

On définit la fonction g(x) par :

sk)= [exP(-t)-#] tk) (k€ lN)

L'opérateur g(- 1)kaak/tl représente :

; (- t;;n 3+j=o j !(k l)r

On a donc :

s (x) = f (x) - " f(k) (x) * a2 f(2k) (x)v\"' '\"/ " k! 2l (k!)2

En notant Far gr (resp çs) la fonction caractéristique de f (resp. s) on a, parlinéarité :

on (u) = ç, (r) - fr arrrl (u) . a*. ,p,''*' (u; -....2t 1u1z

Or on a vu que: rp4ry(u)= (- 1lk (iu}k çr (u). et on peut écrire:

ps (u) = er (u) f ; ---3i- (iu)lt 1

i=o j!kl)j '-' r

= Ar (u) ea (iu)k,/k I

wn (u)= w, (u) + _Â (iu)k

PH TASSI S, LEGA|T

Page 205: Theorie Des Probabilites

PH TASSI -S LEGAIT

UN OUTIL : LA FONCTJON CARACTÉR]STIOUE

ll s'ensuit que le coefficient O" (! l)n dans le développement de en (u) estk!

égal à Kr+a; avec des notationsévidentes, Kk(s)= Kp0+a.

d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, (ar.),

k>'1, une suite de réels. On définit g (x)par:

s 8): h [f (x)]

où h est l'opérateur exp t ; ap (- 1)k dklk I lk=l

æ

g (x)s'écrit sous la forme s (x) = ) 'l r.f(k\x)' avec Ào = 1'k=o

On a, par un calcul analogue au cas (c) :

Kk (g) = Kp (f) + aç. Pour tout k > 1

4.2 Application aux développements d'Edgeworthet de Gram-Charlier

On souhaite approximer une densité g (x), de cumulants connus, à l'aided'une densité.connue.f (x).et de ses dérivées, c'est-à-dire rechercher un développe-ment de la forme :

g(x):f(x)+ À 1 f'(x)+ À 2f" (x)+ ...

où les coefficients À't, À 2,... sont connus.

Supposons qu'une telle expression de g (x) existe. En notant Kp (f) (resO. Kp

(g)) le cumulant d'ordre k de f (resp. g). âvêc âp = fo (S) - Kk 0' on peut écrireformellement :

s (x)= exp. I i un t- 1)k dklk lF (x)k= l

soit: a? +a^s (x) = f (x)- a' f' (x) . # f" (x)

t_"? -_3r, "*_". ) fl3)(x)3!

_ ( aI + 6a1 ar+ 4a, at+ ao ) it+l1xy+...* ------- 4 |

242

Page 206: Theorie Des Probabilites

UN OUT|L : LA FONCTION CARACTÉRIST]OUE

Les coefficients i ,, À r, de l'expression recherchée de g (x) dépendent dea1' 42, ..' :

^1 : - at, À z=

u? !^u, , "r".2

La correspondance entre les an et lesÀn est biunivoque.

Si on travaille sur des variables centrées et réduites, alors a., : ar: O, onobtient un développement simplifié de g (x):

s(x) =rt") - # fl3)ft)+ hOo,(x)+..J!

Application au cas gaussien

Le cas historiquement le plus étudié correspond au choix f (x) = ç (x), densitéde la loi normale centrée réduite. On cherche alors à écrire une densité g(x) decumulants connus (associée éventuellement à une variable centrée et réduite) enfonction de la densité ç(x) et de ses dérivées.

Théorème 11

soit g (x)une densité sur lR supposée admettre un développement selon ç (x)et ses dérivées :

g (x): ; Às çk)ft)k =o

Alors :

,^k: J s (x) Hp (x) dx

Démonstration

D'après la définition des polynômes de Hermite,

et g (x) s'écrit :

PH IASSI -S IEGA]T

*tr) (x)= (- 1)t nn {x) e (x)

x (- 1)k À r Hr (x) ç(x)k=0

(- 1)k

kl

203

Page 207: Theorie Des Probabilites

UN OL'IIL : LA FONCTION CARACTÉRISTIOUE

Pour un indice j donné, on a :

sk)Hi 14= ; (-1)kiuH,(x) Hnk) e(x)k =o

et, en intégrant et d'après la propriété 3 du chapitre 4

t__r(x) H; (x)dx= (-1) Àj j!

À j= (,1)'l-Lr"r H;k)dxt.

Remarque:

Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'unevariable de densité g (x), d'approximer les coefficients i u.

;,.,Ainsi, H1 (x)= x et Ài = - Jx g (x)dx sera estimé par - --1-' ;

i"3demême.

^z= L,f k2* 1)s(x)dxseraestimépar i=-1 -

1 ' etc'- 2 2n 2

Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées. Si lesdonnées sont centrées et réduites, a1 = az= O,comme en outre t<n (O) = 0 pourk > 3, on obtient :

s 8)= q (x)- +(|)- *(s)fi). *â,f, e(a)(x)+ ...

Or. d'après la définition des polynômes de Hermite,

*(n) (x): (_ 1)n Hn (x) e k)

d'où le développement d'Edgeworth de g (x) :

s (x): q (x) t'' . oâï) k2 - 1). oâ'l' (xa - 6x + 3)+..'l

s(x)=q(x) tt+ lsjg) F2-1) - r^'Z\ ka-ox+3)+...1

PH. TASSI _ S. LEGAIT

Page 208: Theorie Des Probabilites

UN OUT]L : LA FONCTION CARACTÉRISTIOUE

comme pour ra loi g. p1 (s) = o et pz (u) = 1, on a p3 (o)= /ilb) et p+ (9)

= 82 (S). B.' et B, étani les coefficients de Pearson d'asymétrie et d'aplatissement deg ; ceia donne (cf. chapitre 4), en utilisant la notation /., et / , des coefficients deFisher :

s(x)= ç(x) t1 (x3 - 3x) + (xa - 6 x2 + 3)+ ... l

Par intégraticn, on obtient une approximation de la fonction de répartition G (x):

G(x)= o(x)-ç(x) t+1xz-1) +rt'V3 -3x)1x5-10x3+ 15x) *... l

Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peutéerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç,ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie determes qui est utile en pratique. Malheureusement, rien n'assure que l'approxima-tion de g donnée par un nombre fini de termes soit positive en tous points, et quela qualité de l'approximation augmente avec le nombre d'éléments retenus.

Pour terminer, nous avons supposé a priori que g (x) admettait un dévelop-pement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, quesi g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate I tS"gll, exz/z dx"onu"rge,et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :

T+ Yt-6-

Y?+-72

avec

g(x)= t ar qk)1x1k=o k !

âr = Is (x) Hk (x) dx

Cette série est absolument et uniformément convergente pour x € [--, *1.

PH TASSI S LÊGAIT

Page 209: Theorie Des Probabilites

UN OJIIL . LA FONCTION CARACTER|STIOUE

EXERCICES

6.1 : X suit une loi N (0, o). Trouver la f.c. de Y = Log I X I

Indication

9v (u)1

o l2n

2

otfZn

1

lzi

S lxliu e-^2no2 dx

lR

5x'u e-r2/2o2 dx

lR*

avec À2 =

n

F

@tEP r tl-tt

6.2: (X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;, 1), j= 1 à n.

n

Déterminer la f.c. de Y = E Xi.j=1 '

lndication

iumf

9xz (u) = (1 - 2 iu)- t/z 't

-ziu, ,,,

çv (u) = (1 - ziul- ntz s1 :2iu

mf ;on sait (cf. exercice 4.6, chapitre 4)que Y suit une loiduX 2 non centrée.

luo PH. TASSI S. LEGAIT

Page 210: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Xn-â:+r(n) (Xn-a).r(n,

D'après le théorème 17, b) :

(n) (Xn _ a)l9j X

1___*0

d'où Xn ! a, d'après le théorème 16.

+ (Xn - a) !91 O,

5 LES LOIS DES "GRANDS NOMBRES"

Ces lois établissent des propriétés de stabilité des sommes ou des moyennescumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limiteen convergencg el probabilité (on parle alors de loi faible) ou en convergencepresque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giandsnombres, se distinguant par les hypothèses faites sur les variables.

Théorème 19 (Khintchine)

Soit (Xn) , n 21, une suite de v.a.r. indépendantes et de même loi,appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :

n1 :.x, :xnI mn l:l

En particulier :

Théorème 20 (D. Bernoulli)

Soit (An) , n2 1, une suite d'événements indépendants de même probabilitép ; on considère la v.a. sn comptant le nombre d'événements réalisés parmi(4., , ..., An) :

Démonstration

9ot on

Remarque

Ces deux théorèmes établissent des lois faibles, puisque les limites sont enprobabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, laprobabilité d'un événement étant la limite (en probabilité) de la fréquence empi-rique de son nombre d'observations dans une suite d'expériences inôépendantès.

PH. TASSI S. LEGAIT ZZJ

Page 211: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Démonstration

puisqueXnl m o Xn !9i *, rontrons la convergence en loi. Notons par Ila f.c. de Xn , pour tout n.

9=(u) :ç>x; (u) :c2x,(9) :[.r(9) ]nxn

Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc a'(0) aussi, ç' (0) :im.

e(t) :1*imt+qt)e(g) :1*im9+o(9) ,nnn

ç_(u) :[1 *im9+O(q) ]n,wîn

lim9- (u) :ei tu'nXn

Or on sait gLle ei m u est la f.c. de ôn,. Frobabilité de Dirac en m. D'après le

théorème 9, Xn lo! m, d'où le résultat.

Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont

indépendantes et vérifient :

Ecrivons :

Sn - XXi désigne alors la fréquence empirique, ou probabilité empirique.nn

Théorème 21 (Loi des grands nombres dans L2)

soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on

note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors:

Itt*":1]:ptt{*"-oJ :1-p.

224

I

Xn?m.

PH TASSI - S. LEGAIT

Page 212: Theorie Des Probabilites

LES CONVFRGFNCES DË VAFIABLES ALEATOIRES

Démonstration

1>txin

,(;r-J,\n /

-1 no2n2

02 I

n (n-æ1

2ll X^-mll 2: :e( -m) )2

Théorème 22 lLoi forte des grands nombres)(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :

o si Xn € Lr , m désignant E(Xn), pour tout n :Xn 4s ilr si Xn Ç t-, (e I Xn | : + -) :Xn est p.s. non borné.

Ces lois des grands nombres justifient, en terme de probabilité, I'utilisationde la moyenne empirique comme indicateur de tendance centrale en statistiquedescriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenneempirique basée sur le n-échantillon converge vers une constante qui est I'espé-rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même dela variance empirique.

Théorème 23

Soit (Xn) , n )- 1, une suite de v.a.r. de L2, indépendantes et de même loi,avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :

c,2 -sn (xi - xn)2

Alors :

Démonstration

et

(loi faible appliquée à

q.2! oz.

Xn ! . =t X-n)2! m2 (théorème 6)

x?I E(xz) - m2 + o2

la suite (Xl)), Oonc :

8,2 ! "z

13n i:1

sn2:11xi-Xn)?n i:1

13n i:1

PH. TASSI - S, LEGAIT 225

Page 213: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Se trouve ainsi justifié le choix de la variance empirique comme indicateurclassique de dispersion en statistique descriptive.

Remarques

Dans la démonstration du théorème 23, nous avons appliqué la loi faible à

rIl- > X? . En effet, puisque Xn e L2 , E(Xfi)existe, et on est dans les conditions duI1 i:1 |

théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux

remarques importantes :

a) soit mp le moment non centré d'ordre k d'une v.a.r. X :

mr: E(Xk)'

(Xr, ..., Xn,...r)désignant une suite d'observations indépendantes de la v.a. X,le moment emprnque est :

m1 (n) :1i-x1n l:l

Sous réserve d'existence de E( I X I k ) :

mk 1n;! m*

b) De même, le moment centré empirique 1rr (n) converge en probabilité vers

/r.: E(X - E(X))k. En effet, 1lr (n): 1 3 fX, -X)k s'écrit en fonction des rnoments" ni:1non centrés m; (n), j : 1 à k :

k r-i1lr (n) : > q (-1)k-j mr '(n) m; (n)

J:O

c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe :

13 n1x,1 eE(h(x))'n i:1

Exemple

(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de

Poisson CI ()'l ;

226 PH TASSI - S. LEGAIT

Page 214: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

l3 1 pEr 1 rn i:11 * X, \l + X,

e/ 1_t: i tr e-ÀÀ" -9-^ int : 1-e-À\1+Xt x:01 *x x! À y:1y! À

6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSTENSLa no'tation N(0, >)désigne, dans cette partie, autant la loi normale que tout

vecteur aléatoire suivant cette loi.

Théorème 24 (théorème central limite multivarié)

soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépen-dants et de même loi, tels que g : E(Zn) et L matrice de variance-covariancede Zn existent. Alors :

'rn En - r/)lg N(0, >).

En particulier :

Théorème 25 (théorème central limite unidimensionnel)

(Xn), n ) 1, est une suite de v.a.r. indépendantes, de même loi, et apparte-nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.

On définit la v.a.r. :

v^ - (èIJ__11l : /_n_frn__rln- æ o

Alors :

vn loj ru 10, r 1.

Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème24.

a) Théorème 25

On peut écrire :

Yn : rÆ I 3 tl---l) : 1 i f{,--qfni:1 ' o JÂi:1' o

PH TASSI - S. LEGAIT 227

Page 215: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIFES

Soit e la f.c. de X:---I , indépendante de i ; la f.c. de Yn s'en déduit :

cyn(u) :[*(Ji) ]"

Comme E(H-)- O et E(Ii--I)'? - 1, en développant e à I'ordre 2, on

obtient :

e(t) : t -r!+ott)soit: cyn(u) :[1- i1+o (r=l ]"

et : ,'il *"n (ul: s-u2 / 2.

On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9, Yn !9 rtftO, f t.

b) Théorème 24

Posons Xn^: ty ?n pour u € lRp ; alors Xn est une suite de v'a.r. indépen-

dantes et de même loi, avec :

E(Xn) : tu ,u et V(Xn) : tu I u,

et : ''/; fr" -'u /,,) l9j ruto, tu I u)

d'où : tu /Ï (Zn - p)19 tu N(0, :) vu € IRP

et, d'après le théorème 10 :

JÂ En - /) lg N(0, >).

Remarque

De la même façon que pour le théorème 23, les théorèmes 24 el25 peuvent

se généraliser à toute moyenne empirique l- I f"',tX,l. sous réserve d'existence den i:1

E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de lavariance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien lagénéralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observationsindépendantes de X :

Ç2:li-xrt-x-n)2,n l:l

v(x1) : E(x1) - E, (x1) - m4 - ^3: mq - oa

228 PH, TASSI , S. LEGAIT

Page 216: Theorie Des Probabilites

J-n t! I *, - rrxzttq!gj_4 - rn i:1 ' ''

- {_!-6dJ n.4=;-4 Jn@l Jn@l

D'après le rhéorème centrat limite, appliqué n l,ir*1 ,

n/Â(: x?-E(x2))ni:1 ' _LolrutO,fl.

/TmEn outre :

* ;;r:: ï Ë :i: ï,îï:"ïT:"',

I ES CONVERGENCES DE VAR]ABLES ALEATOIRES

Considérons la quantité :

./ n çXnf "E o,D'où, par le théorème 17

et:Jl (q2 - o2) loj ru(0, t).J^æ

Pour E(X) * 0, on obtiendra :

Cls="'?) !9,! ru(0, rr./ p;-

Théorème 26

Soit r : lN * lR- telle que lim r(n) : * oo. a une constante réelle, et (Xn),

n )- 1, une suite o" u.".r.n*îitiunt ,

r(n) (Xn - a) !g N(0, o).

Soit g:lR *lR, dérivable.

Alors : r(n) (g(X.) - s(a))

g *,0, o I g' (a) l).

PH TASSI - S. LEGA]T 229

Page 217: Theorie Des Probabilites

LES CONVERGENCES DE VAFIABLES ALEATOIRES

Démonstration

Considérons le développement de g à l'ordre 1 au voisinage de a :

S(x) - g(a) : (x - a) S'(a) * (x - a) R(x),

où:

c'est-à-dire :

d'où :

{l Xn - a I ( o } C {l R(Xn)l ( e },

P{l xn - a I < a } ( P( I R(xn)l ( e ).

Or, d'après le théorème 18, Xn ! a, et donc :

lim P{l Xn - al (o } : 1 + lim P{l R(Xn)l <e1 : 1,n

R(Xn)! O.

ll s'ensuit :

(n) (g(X.) - s(a)) : r(n) (Xn - a) s' (a) -F (Xn - a) (n) R(Xn).

D'après le théorème 17, (n) (Xn - a) R(Xn)! O, et r(n) (Xn - a) g'(a)

I *,0, I s' (a) | o), d'où le résultat recherché.

Très utile en statistique mathématique lors de l'étude de comportementsasymptotiques, ce théorème est aisément généralisable au cas multidimen-sionnel :

Théorème 27

Soit r:lN -lR* telle que,l'g rtnl : -Fæ, a un vecteur delRp.

(Xn). n ) 1, une suite de vecteurs de lRp tels que :

r(n) (Xn - a) !g N(0, >).

Soit g : lRp - lRq différentiable, G sa matrice (q, p) des dérivées premières :

lim R(x) :0'x-a

Ve)O, 3o)0 : I x_al (o + I R(x)l (e,

c'est-à-dire :

230 PH. TASSI S. LEGAIT

Page 218: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Alors :

(n) (g(Xn

Exemple

soit X une v.a.r. de loi de Poisson q)i, xnl, n2 1 , une suite d'observations1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :P(X : 0).

On sait que :X-n P À (loi faible des grands nombres).

Par le théorème central limite :

fi-fr-n - À) lg N(o, /r)Soit g : lRl - lR] définie par u * g(u)_: e-u. Par le théorème 6 :

e-Xn p e-À .

En outre :

/ôv dsr\| ôÇ tÇ\:l::l\ qg" d3" I\ Uu,' a"p /

) - s(a))E *,o, G(a) r tG(a)).

/î (sfr-") - s(À)!g N(0, .^-l - e-À | )

6 ("-"- - "-^)lgj nto, e-r ../ r).

7 APPLICATION AUX LOIS DE PROBABILITE CTASSIOUES

7.1 Loi de Poisson

Théorème 28

Soit X une v.a. suivant une loi de poisson I (xl. Alors la variable y - X - À

converge en loi vers N(0, 1), lorsque À tend vers l'infini. JT

Démonstration

Soit la v.a. Y - ,(r_J)\

PH. TASSI . S. LEGAIT

/xJ ),,

231

Page 219: Theorie Des Probabilites

LFS CONVERGENCES DE VABIABLES ALEATOIRES

tr lsitl - t;çY(t) :"-it'Æu

çv (t) - "- it '/-r eÀ(+ it'l/À -t2/z)'l

d'où : 1,11_

py (t) : u-t2/2

Or e- t 2/2 est la f.c. de N(0, 1), et donc :

X-À loi'H::N(0' 1).

Flemarque.' On écrira I 1x:r - N(À, ./À).

7.2 Loi binomiale

Théorème 29 : loi binomiale et loi de Poisson

Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :

. p est fonction de n

olimnP(n) =À(À>0)n

ona: xn9g\,l.

Démonstration

a) Calcul direct

Sous les hypothèses : p(n) : 1 (n p(n)) ;= O.

n

P(X: x) : CI P'(1 - P)n - x -

.n(n-1)...(n-x*1) Px (1 -p)n.x I (1 - p)"

P(X:x) (nP)te-nP À'e-À,n*oo Xt n-*co Xt

d'où le résultat. nP*À nP-À

232 PH, TASSI. S' LEGAIT

IIIII

I

I

II

!

Page 220: Theorie Des Probabilites

LES CONVERGENCES DÊ VARIABLES ALEATOIBES

b) Utilisation des f.c.

cyn(u) :[1-B(1 -ei

u) ]n;Log eXn (u) - - np(1 - ei ') (p -* 0),

et: lim çx^(u) :e-À(1-eiu).l"l -+oo

np*À

On reconnaît la f.c. de g ()rl.

La loi de Poisson est souvent appelée "loi des événements rares", car loilimite du comptage du nombre de réalisations d'un événement donné, de probabi-lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.

Toutefois son utilisation est bien plus large et il est possible de retrouver la loi dePoisson dans des cas particuliers de processus où elle n'apparaît plus comme loilimite mais comme loi exacte.

Théorème 30 : loi binomiale et loi norrnale

soit Xn une v.a. suivant une loi binomiaie lE (n, p). Pour p fixé, lorsquen-**æ:

I!---!q l9j r'rto, r I/ nqp

Démonstration

On aru (chapitre 4) que la loi binomiale.4(n, p) est la somme de n lois deBernoulli #{'1, pl indépenciantes.

En écrivant , n

Xn : I Yi,Yi->g(1, p) Vi = 1 à n,i:1

on a, d'après le théorème central limite :

n! Y;-np-_h_9ru(o,rr

Remarque

En pratique. on pourra approximer laloig(n, p) par la loi N(np, /n ptt - p[,bien que cette écriture n'ait pas de sens mathématique.

PH, TASSI - S. LEGAIT z-1-)

Page 221: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Exemples

a) Soit X de loi g (9l.Par lecture de table de la loi de Poisson :

P(X < 18) :9,9t't,.

Par l'approximation normale :

P(X < 18) : P1P,o, 1) < ,!9,9,

: o(3) : 0,9987.

b) Soit X de loi 9(5O;0,01). Par lecture directe de la table de la loi binomiale:

P(X : O) :0,6O50.

Par l'approximation de Poisson g(O,51et lecture de la table correspondante :

P(X:0) : 0,6065'

c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :

P(X<5) :0'4312'

Par l'approximation gaussienne :

P(x<5) :P(-!-1-(o) :0,5./50fr.J - oZ

L'approximation gaussienne sera d'autant meilleure que l'on s'écarte desconditions du théorème 29.

7.3 Loi gamma

Théorème 31

Soit X une v.a.r. de loi gamma, ilp, 1). Lorsque p tend vers I'infini, on a :

{--p-toj N(0, 1).

"/nDémonstration

La v.a. Y - X

- /p admet pour f.c. :

/p

çy (u) : s- iu /F çx (l-)

PH TASSI . S, LEGAIT

Page 222: Theorie Des Probabilites

LES CONVERGENCËS DE VARIABLES ALEATOIBES

:s_iu ah _iU_\-p\c/- e- iu /F

leiu ,rp - u2lzy

lim çv (u) : e- u 2tz , f .c. de N(0, 1).p*èo

7.4 Loi du X (n)

Plusieurs approximations en loi existent lorsque n tend vers l'infini pour lav.a. Un de loi{2 (n).

a) Théorème central limite

Par définition, Un: 3 X], où (Xi), i) 1, est une suite de v.a.r.i:'l

indépendantes et de loi N(0, 1). Alors, par le théorème central limite :

Un - E(un) : t]_n_= n loi rrrto, rt.wrù;i /ÂEn effet, E(X?) :1, et E(Un) : n; de même,

V(Un : n v(X]) : ntE(X1) - 11.

On a vu au chapitre 4 :

rrt-L ',lr

E (X4,) - 24/2' 2' - 4.q. 1: 3,' f(b 222

d'où :

V(Un) : 2n.

b) Approximations de Fisher

La plus utilisée est la suivante :

JM - lTÂ lo! ru(0, r).

PH TASSI - S. LEGAIT 235

Page 223: Theorie Des Probabilites

LES CONVFRGENCFS DE VARIABLES ALEATOIRËS

On trouve également la convergence ci-après, que I'on montre moins rapideque la précédente :

/zu" - rq;toi N(0, 1).

c) Approximation de Wilson-Hilferty

fi:L'i^)!g ruro, rr----E--./ gn

On peut établir que la meilleure approximation asymptotique est cettedernière, suivie par la première approximation de Fisher, qui est pourtant celleusuellement employée dans les tables numériques de la loi de X'.

Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loivers la loi N(0, 'l) lorsque n tend vers l'infini.

Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.

7.5 Précision de l'approximation gaussienne donnée parle théorème central limite

Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observationsindépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui nerestreint en rien la généralité de l'étude).

Si ç(u) désigne la f.c. de X. on sait que :

rt(u) : Log e1r1 : l 1 1iu! ç,j:2 jl

où K, est le cumulant d'ordre j de X.

{nSoit Yn: y'nXn:+.:.Xi . Si cn désigne la f.c. de Yn, on a:

y'n l:l

ûn(u) : Log çn(u) : n Log çlu/JÂl

oo

:nI (iu)J Ki

i:2il nitz

--\2 + 1 (iu)3K.+ 1(i,)ar+*'.'2 srJ; - 4!n

130 PH. TASSI S EGAIT

Page 224: Theorie Des Probabilites

tES CONVERGENCES DE VARiABLES ALEATOIRES

On constate au passage que le cumulant d'ordre jde yn est K, n1-jl2.

Comme qn(u) : eÛn(u). on a :

en(u) : "-u2t2 [ 1 +

=!iu)3K. + ftiu)+ro + ]-(iu)oK! + ... I' 3l/n - 4!n 72n

En utilisant la formule d'inversion (théorème 1s, chapitre 6) et la remarquesuivant la définition 1 du chapitre 6, la densité fn de yn est :

fn (x) : ! f "-,u**n (u) du

2tr u

: ç(x)- t *rr,., (*) + J- Kaçtat t*) + lKl çlot (x) + ...6/n - 24n 72n'

En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), onobtient :

rn(x):ç(x) [1.Ks*3;3-Wfou.

fn(x) = ç(")[ 1 * Ks ({ =gx) *ovn

r3*o+(gr. -rs r3)*+ + (+sr3 - rar*)*, + gr. - rsr31

72n

. .. Par intégration, on obtient une approximation de la fonction de répartition FndeYn:

Fn(x): otx) [&Hz=!r) * 3If1. f-r . t3tlr.l1t o'.Æ- 72n

PH. TASSI - S. LEGA1T 231

Page 225: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIBES

EXERCIOES

7.1 * Soustraclion , de khi-dsux

SoientXetY.deuxv'a.r.suivantrespectivementleslorsxz(p)etX2(q)(p>q)'SoitZffii:d. irioopËnoânte de-V' telle qué x : Y + 7'

Montrer que Z suit une loiX2 (P - q)

lndication"'u'bsuw" çx (t) : cy $) cz (t) en raison de l'indépendance entre Y et Z.

çz $) :(] = ?'lli'i è z t x2 (p - q)

(1 - 2it)Prz (1 _ Zitlp-A/2

7.2 Loi hYpergêomêtrique

Montrer que sr X suit une loi hypergéométrique Je (ru, n, p), X converge en loi vers la loi

g(n, p\ quand N tend vers + æ, n et p Ïlxes'

tndication Cto ,fti ., _ n t (Np)* (Nq)no - Cl px qn - x.px (x) :-q- N -- xJ(n _ x) I N. -r

7.3 Soit (Xn)n 6N.,

ufle suite de v.a' indépendantes, de même loi de densité :

f(x) : s- t'' e\ 1rc,a- 1 (x), 0 > 0'

1) Donner la loi de t, : .,Iiln *'

2) Montrer que Yn converge en probabilité et en moyenne quadratique (12) vers a'

3) Vers quelle loi converge la v'a. n(Yn - 0) ?

lndication

1) Fyn 0) - 1 - (1 - F(ï)n oÙ F est la f'r' de Xn'

VY>0,F(Y) :1-e-(Y-e)

d'où :

rrn (v) : (1 - g- (v-o)^)116, + -1 (Y)

frn (Y) : n e-(Y - o)n 1td,1-1 (V)

2) P{ I Yn - g I <.1 : Fyn (0+.) - Fvn (0-')

- 1 - g-(d+ t-o)n - 1 - 0-'n' 1

lorsque [ - æ, d'où Yn! o .

23A PH TASSI S LEGAIT

Page 226: Theorie Des Probabilites

LES CONVEFGENCES DÊ VARIABLES ALEATOIFÊS

Démonstration

Xn-a:+r(n) (Xn-a).r(n)

D'après le théorème 17, bl :

r(n) (Xn - a) !9j x

1---:- - 0

d'où Xn ! a, d'après le théorème 16.

+ (Xn - a)!9 o,

5 LES LOIS DES "GRANDS NOMBRES''

Ces lois établissent des propriétés de stabilité des sommes ou des moyennescumulées de v.a. dans une succession d'expériences, stabilité au sens de la limiteen convergence el probabilité (on parle alors de loi faible) ou en convergencepresque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giandsnombres, se distinguant par les hypothèses faites sur les variables.

Théorème 19 (Khintchine)

Soit (Xn) , i )- 1, une suite de v.a.r. indépendantes et de même loi,appartenant toutes à L1 ; on note m : E(Xn) , pour tout n :

nI :-x, :xn! mn l:l

En particulier :

Théorème 20 (D. Bernoulli)

Soit (An) , n21. une suite d'événements indépendants de même probabilitép ; on considère la v.a. Sn comptant le nombre d'événements réalisés parmi(4,, , ..., An) :

9ot on

Remarque

Ces deux théorèmes établissent des lois faibles, puisque les limites sont enprobabilité. Le théorème 20 justifie l'approche fréquentiste des probabilités, laprobabilité d'un événement étant la limite (en probabilité) de la fréquence empi-rique de son nombre d'observations dans une suite d'expériences indépendantes.

PI, TASSI - S. LEGAIT 223

Page 227: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEAÏOIRES

Démonstration

puisqueXn! m o Xn lol r, rontrons la convergence en loi. Notons par Ila f.c. de Xn , pour tout n.

e.(u) :ç>x; (u) :v;x,(1) :[9(9) ]nxnn

comme les v.a.r. appartiennent à L1 , E(Xn) existe, donc a'(o) aussi, ç'(0) :im.

Ecrivons'. e(t) :1*imt*O(t)

e(9) :1*im9+o(1) ,nnnç_(u) :[1 *im9+O(q) ]n,tnnn

limg- (u) :ei tu'nXn

or on sait que ei m u est la f.c. de ô., probabilité de Dirac en m. D'après le

théorème 9, Xn lo! m, d'où le résultat.

Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r.(Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont

indépendantes et vérifient :

( P{xn: 1} : pIttt*^-o]:1-p'

Sn - IXi désigne alors la fréquence empirique, ou probabilité empirique.nn

Théorème 21 (Loi des grands nombres dans L2)

Soit (Xn) , n21, une suite de v.a.r. de L2, de même loi et non corrélées. On

note m : E(Xn) , o2 : V(Xn) , pour tout n' Alors :

x"km.

224 PH, TASSI - S. LEGAIT

Page 228: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Démonstration

llx. - = e (lx(Xi - m) )2n

Théorème 22 (Loi forte des grands nombres)(Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi :

o si Xn € Lr , m désignant E(Xn), pour tout n :X; LS m ;

r si Xn S t-, (e I Xn I : + -) :Xn est p.s. non borné.

Ces lois des grands nombres justifient, en terme de probabilité, l'utilisationde la moyenne empirique comme indicateur de tendance centrale en statistiquedescriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenneempirique basée sur le n-échantillon converge vers une constante qui est I'espé-rance de la loi dont sont issus les n résultats de l'expérience. ll en est de même dela variance empirique.

Théorème 23

Soit (Xn) , n 2 1, une suite de v.a.r. de L2, indépendantes et de même loi,avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :

(Xi -Xn)2.

2mll 2:E

3*, \+-^)'

:1 no2n2

-!2 -

n (n-oo1

c'z:13Tt-4

n i:1Alors :

Démonstration

et

(loi faible appliquée à

ç,,2 p 02.+t-

.n9.,2:L: x]-x-")?

n i:1

Xn ! t - X-n)2! m2 (théorème 6)

x?! efiz) - m2 + o2

la suite (Xfr)), oonc :

9'2 ! "z

r_3n i:1

PH. IASS] . S. LEGAIT 1aÈ

Page 229: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIFES

Se trouve ainsi justifié le choix de la variance empirique comme indicateurclassique de dispersion en statistique descriptive.

Remarques

Dans la démonstration du théorème 23, nous avons appliqué la loi faible à

rIl: > X1 . En effet, puisque Xn € L2 , EfiÎ)existe, et on est dans les conditions duni:1 I

théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux

remarques importantes :

a) soit m1 le moment non centré d'ordre k d'une v.a.r. X :

mr : E(Xk)'

(Xr, ...,Xn, ...)désignant une suite d'observations indépendantes de la v.a. X,le moment empirique est :

m1 (n) :13.x1n l:l

Sous réserve d'existence de E( I X I k ) :

mk 1n1! m*

b) De même, le moment centré empirique /r (n) converge en probabilité vers

.nlrr : E(X - E(X))k. En effet, /r. (n) - I.I -(Xt -X)k s'écrit en fonction des moments" ni:1non centrés m; (n), j : 1 à k :

k/.rr (n) : ! q t-t)t-j 'l-j(n)

m; (n)

J:O

c) Plus généralement, si h est une fonction réelle telle que E( I h(x)l ) existe :

-nI ! ntx't!E(h(x)).n i:l

Exemple

(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de

Poisson Q 6l :

226

!4.

PH. TASSI - S, LEGAIT

Page 230: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

li 1 pe/ 1 rn i:11 -r X, \1 + x/

tr r 1 \ i 1 o-ÀÀx e-À i,rt 1-e-ÀLr_r:Ë_:_:\1+X, x:01 *x x! À y:1y! À

6 COMPORTEMENTS ASYMPTOTIOUEMENT GAUSSIENSLa notation N(0, >) désigne, dans cette partie, autant la loi normale que tout

vecteur aléatoire suivant cette loi.

Théorème 24 (théorème central limite multivarié)

Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépen-dants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariancede Zn existent. Alors :

,rn En - ll) lg N(0, :).

En particulier :

Théorème 25 (théoràme central limite unidimensionnel)

(Xn), n ) 1, est une suite de v.a.r. indépendantes, de même loi, et apparte-nant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.

On définit la v.a.r. :

y- - (:Xi) - nm. : /_n_frn__rl

..n:__m o

Alors :

Yn lo! ru (0, t )'

Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème24.

a) Théorème 25

On peut écrire :

Yn:,/nl3 èl--t) : 1 31Ir--llyni:l ' o fii:1 ' o

PH TASSI S LEGAT 221

Page 231: Theorie Des Probabilites

LES CONVERGENCES DE VARIABTES ATEATOIRES

Soit ç la f.c. de L t , indépendante de i ; la f.c. de Yn s'en déduit :

ovyn(u) =[*(r*) ]"

obtient :

soit :

et:d'où :

comme E(XL- rl) - o et E(LI)'? - 1, en développant e à l'ordre 2, on

ç(t) : t-Ï+o(t)2

cyn(u) :[1-u'+o(*l ]"

et : "f trn (ul: s-uz / 2.

On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9. Yn !91 r,rtO, I t.

b) Théorème 24

Posons Xn : tu Zn pour u € lRp ; alors Xn est une suite de v.a.r. indépen-dantes et de même loi, avec :

E(Xn) : tu g et V(Xn) : tu E u,

fi fr-n - tu /r) I *,0, tu r u)

tu fi (7n - p)!9j tu N(0, >) vu € IRP

Ç2:13.x1 -fr-n)2,n l:l

v(x1) : E(x1) - E2 (x2il - m4 - ^7: ^o - 04

et, d'après le théorème 10 :

,/Â 1Zn - s)lg N(0, :).

Remargue

De la même façon que pour le théorème 23, les théorèmes 24 et 25 peuvent

se généraliser à toute moyenne empirique 1 3 frX,i, sous réserve d'existence den i:l

E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergence en loi de lavariance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien lagénéralité du résultat), 02: V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observationsindépendantes de X :

228 PH, TASSI - S. LEGAIT

Page 232: Theorie Des Probabilites

LES CONVERGENCFS DE VARIABLES ALEATOIFES

Considérons la quantité :

JÂ t! 3 *, - E(x2)|

Gl93-41 - -'ni:l ' '-6-6rE/ n4 - o-4 dn$ J-v1xzy

D'après le théorème central limite, appliqué a ]- 3 xU ,

ni:1 |

n,/i t: : x? - E(x2))ni:1 ' -9r.rlo,

lt./Tm

En outre :

* i;r:: ï Ë :: ï,î:::"ïi:.,,/î1Xnp ! o,

D'où, par le théorème 17 :

et:

{T $"2 - o2t !91 rrrfo, r t.l^;---7Pour E(X) * 0, on obtiendra :

/-_ni$3-g1 !9 r'rto, rr/ u_ _;n

Théorème 26

Soit r : lN * lR- telle que lim r(n) : * *, a une constante réelle, et (Xn),

n 2 1, une suite d" u.u.r.nGïfirnt ,

(n) (Xn - a)lg N(0, o).

Soit g :lR - lR, dérivable.

Alors : (n) (s(X.) - s(a))

g ,,n, o I g' (a) l).

PH.TASSI -S LEGAIT 229

Page 233: Theorie Des Probabilites

LES CONVERGENCES DE VAFIABLES ALEATOIRES

Démonstration

Considérons le développement de g à l'ordre 1 au voisinage de a :

S(x) - g(a) : (x - a) g'(a) * (x - a) R(x),

où : lim R(x) : g,x-a

c'est-à-dire :

ve)0, 3a )0 : I x-al (a = I R(x)l (e,

d'où :

{l Xn - a I ( o } C {l R(Xn)l ( e },

P{l xn - a I <a } ( P(l R(xn)l ( e ).

Or, d'après le théorème 18, Xn ! a, et donc :

lim P{ I Xn - a I ( o } : 1 + lim P{ I R(Xn) I ( e 1 : 1,nn

c'est-à-dire :

R(Xn)I O.

ll s'ensuit :

(n) (g(x") - s(a)) : r(n) (Xn - a) s'(a) * (Xn - a) (n) R(Xn)'

D'après le théorème 17, r(n) (Xn - a) R(Xn)-B O, et r(n) (Xn - a) s'(a)

loi ru(0, I s' (a) I o), d'où le résultat recherché.

Très utile en statistique mathématique lors de l'étude de comportementsasymptotiques, ce théorème est aisément généralisable au cas multidimen-sionnel :

Théorème 27

soit r:lN -lR'telle que,l'A tt"l : *oo, a un vecteur delRp'

(Xn), n ) 1, une suite de vecteurs delRp tels que :

r(n) (Xn - a)!g N(0, >).

soit g : lRp * lRq différentiable, G sa matrice (q, p) des dérivées premières :

230 PH. TASSI . S. LEGAIT

Page 234: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

Alors :

Exemple

(n) (g(X.)

Soit X une v.a.r. de loi de Poisson qù, Vn), n) 1, une suite d'observations1ndépendantes de X. Le paramètre d'intérêt est non pas À : E(X), mais e-À :P(X : 0).

On sait que : Xn ! À (loi faible des grands nombres).

Par le théorème central limite :

vG fr-" - À)lgJ N(0, /r)Soit g : lRl -* lR] définie par u * g(u)_= e-u. Par le théorème 6 :

e-xn ! e-À .

En outre t ,/Â (sx-"t - s(À)!g N(0, /À | - e-À | )

G (" xn - "-n)!9j ruto, e-r /T).

7 APPLICATION AUX LOIS DE PROBABILITE CLASSIOUES

7.1 Loi de Poisson

Théoràme 28

Soit X une v.a. suivant une loi de Poisson g 15,. Ators la variable y: X - À

converge en loi vers N(0, 1), lorsque À tend vers I'infini. JT

Démonstration

Soit la v.a. Y -

PH TASS] S. LEGAIT

G-

/ ôst dgr \lôÇ 4\l::l\ô-s" ful\ uu' a"p /

- s(a)) !9 ruto, G(a) x tG(a)).

{-}=I--J),/T J\

Page 235: Theorie Des Probabilites

LES CONVERGENCFS DE VAFIABLES ALEATOIRES

I lsitl/f - 11

çv (t) : u- lt '/f, u

çv (t) - "- it "Â eÀ(+ itl\^ -tz/zltl

d'où : i.I}* çv (t) : .-t2/2

Or e- t 2/2 est la f.c. de N(0, 1), et donc :

X-À loi'Ë5N(0, 1).

Remargue.' On écrira I 1x:r: N(À, /À).

7.2 Loi binomiale

Théoràme 29 : loi binomiale et loi de Poisson

Soit Xn suivant une loi binomiale 9(n, pl.Sous les hypothèses :

. p est fonction de n

rlimnP(n) :À(À>0)n

ona: xn9g\\|.

Démonstration

a) Calcul direct

Sous les hypothèses : p(n) : 1 (n p(n))n= O.n

P(X:x) =CXP'(1 -P)n-":

n(n-1)...(n-x*1) px (1 -p)n.xt (1 -P)'

P(X:x) (Ue-nP À'e-À,n*æ Xt n-oo x!

d'où re résurtat. nP-À nP-À

232 PH' TASSI 'S LEGAIT

Page 236: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

b) Utilisation des f.c.

cxn(u) :[1-B(1 -ei ') ]n;

Log eXn (u) - - np(1 - ei ') (p * 0),

et: lim çx^(u) :e-À(1'eiu).h*conp*À

On reconnaît la f.c. de g ()rl.

La loi de Poisson est souvent appelée "loi des événements rares", car loilimite du comptage du nombre de réalisations d'un événement donné, de probabi-lité p, lorsque le nombre d'expériences grandit, avec p * 0 et n p restant constant.

Toutefois son utilisation est bien plus large et il est possible de retrouver la loi dePoisson dans des cas particuliers de processus où elle n'apparaît plus comme loilimite mais comme loi exacte.

Théoràme 30 : loi binomiale et Ioi normale

Soit Xn une v.a. suivant une loi binomiale g (n, p). Pour p fixé, lorsquen*+æ:IL- ,g 19,! rrrto, tlf,qp

Démonstration

On a1'u (chapitre 4) que la loi binomiale %ln, p) est la somme de n lois deBernoulli vd(1, pl indépenclantes.

En écrivant , n

Xn : I Yi,Yi->g(1, p) Vi = 1 à n,i:1

on a, d'après le théorème central lirnite :

nL Y,-noi:l ' I

l'/ ^pq

? tttto' r t'

Remargue

En pratique, on pourra approximer laloig(n, p) par la loi N(np, /n p(1 - p)),bien que cette écriture n'ait pas de sens mathématique.

PH, TASSI S LEGAIT IJJ

Page 237: Theorie Des Probabilites

LES CONVEBGENCES DE VARIABLES ALEAIOIFES

Exemples

a) Soit X de loi g (91 Par lecture de table de la loi de Poisson :

P(X<18; :g'gnt,.

Par l'approximation normale :

P(X < 18) : P1P,o, 1) < l9,9, : a(3) : o,9e87.

b) Soit X de loi 9(5O;0,O1). Par lecture directe de la table de la loi binomiale:

P(X=O) :0'6050'

Par l'approximation de Poisson g(O,51et lecture de la table correspondante :

P(X:O) :0'606S'

c)soit X de loi B(50; 0,1). Par lecture directe de la table de la loi binomiale :

P(X < 5l: 0,4312'

Par l'approximation gaussienne :

P(x<5) :P(.-!_-1- (o) = s,5.'/sox0,1 x0,4

L'approximation gaussienne sera d'autant meilleure que I'on s'écarte desconditions du théorème 29.

7.3 Loi gamma

Théorème 31

Soit X une v.a.r. de loi gamma, y(p, 1). Lorsque p tend vers I'infini, on a :

I--tloj N(0, 1).

/pDémonstration

La v.a. Y - X

- ./p admet pour f.c. :

Jp

çv (u) = g-iu /0.rx tf)

PH. TASSI S, LEGAII

Page 238: Theorie Des Probabilites

LES CONVERGENCES DE VARIABLES ALEATOIRES

-e-iuAh-i ,\-P\yo/

: s- iu /F leiu '5 - u2tZy

lim çv (u) : e- u 2tz , '1.c. de N(0, 1).p*oo

7.4 Loi du X (n)

Plusieurs approximations en loi existent lorsque n tend vers l'infini pour lav.a. Un de loiX2 (n).

a) Théorème central limite

Par définition, Un: i X], où (Xi), i) 1, est une suite de v.a.r.i:1

indépendantes et de loi N(O, 1). Alors, par le théorème central limite :

grlg!.1-: 9n--.lt !9 ruto, rt.@J JT;

En effet, E(X?) : 1, et E(Un) : n ; de même,

V(Un : n v(X]) : ntE(X1) - 11.

On a vu au chapitre 4 :

rÉ + '!tE(X4,) -24/2 2 '_ 4.9.1: g,

' f(b 222

d'où :

V(Un) : 2n.

b) Approximations de Fisher

La plus utilisée est la suivante :

Jzvn - JTti -Tlol ru(o, r ).

PH, TASSI - S. LEGAIT attr

Page 239: Theorie Des Probabilites

3Æ - tt -2_lV n \ 9n/ to! ru(0, t).---T--t/ gn

On peut établir que la meilleure approximation asymptotique est cettedernière,

'suivie par la première approximation de Fisher, qui es! pourtant celleusuellement employée dans les tables numériques de la loi de X''

Enfin, pour mémoire, rappelons que la loi de Student T(n) converge en loivers la loi N(0, 1) lorsque n tend vers l'infini.

Deux démonstrations de ce résultat ont déjà été fournies dans ce chapitre.

l

7.5 Précision de l'approximation gaussienne donnée par, le théorème central limiteI Considérons, comme au théorème 25, une suite (X1, ..., Xn, ...) d'observations

indépendantes d'une v.a.r. X d'espérance nulle et de variance unité (ce qui neI restreint en rien la généralité de l'étude).

I Si 9(u) désigne la f.c. de X. on sait que :

ii-1t, ,lt(u) : Log ç(u) : .I^ l. (iu)t K1t', t:, t,

où K, est le cumulant d'ordre j de X.

{nSoit Yn = ./n Xn : ' I Xi . Si .rn désigne la f.c' de Yn, on a :

Jn i:1

ûn(u) : Log qn(u) : n Log çfu/Jnl

oo

: n I- (iu)r.- Kj

i:21 nltz

--!2 * 1 (iu)3K"+ 1(i')ar4+"'2 St,/i - 4!n

LES CONVERGENCES DF VARIABLES ALEATOIFES

On trouve également la convergence ci-après, que I'on montre moins rapideque la précédente :

/4 - J^to! N(0, 1).

c) Approximation de Wilson-Hilferty

236 PH. TASSI - S. LFGAIT

Page 240: Theorie Des Probabilites

LES CONVERGENCES DE VAF|ABLES ALEATOIRES

On constate au passage que le cumulant d'ordre j de Yn est K, n1-ll2.

Comme pn(u) : eÛn(u), on a :

en(u) : "-u2/2 [1+=!iu)3K. 1-1-1iu1+ro+J-(iu)6r!+.

1' 3l/n ' 4ln 72n

En utilisant la formule d'inversion (théorème 15, chapitre 6) et la remarquesuivant la définition 1 du chapitre 6, la densité fn de Yn est :

fn (x) : ! f "-,u^*n (u) du

2tr u

: ç(x)--1- rrrtst (x) + ^l- K4ç,@t t*) + =!Kl e(o) (x) + ...6Ji - 24n ' 72n é

En introduisant les polynômes de Hermite (cf. chapitre 4, définition 15), onobtient :

trn(x) -ç(x) [1-[*3.Wt

ou:

fn(x) : ç(*)[ 1 * Kg (t:;g^) *

r3"o+(sr. -rs r3)r+ + (+sr3 - rar.)r, + gr* - rsr321

72n

. .. Par intégration, on obtient une approximation de la fonction de répartition FndeYn:

Fn(x) : o{x) [[elf$ . try*fuf

PH TASSI - S, LEGAIT

Page 241: Theorie Des Probabilites

IES CONVFRGFNCES DE VARIABLES ALEATOIRFS

EXERCICES

7.l " Soustraction ' de khl'deux

soient X et Y, deux v.a.r. suivant respectivement les lois x2 (p) et X2 (q) (p > q). Soit Z

ùili.â. irioepènoante de Y. telle què X : Y + z'

Montrer que Z suit une loiX2 (P - q).

lndicationçx (t) : çv $) çz(t) en raison de I'indépendance entre Y eTZ'

c7 $l : (t' - ?'llX',l : => z - x2 (P - q)

(1 - 2i11orz (1 _ Zi11p-a/2

7.2 Loi hypergéométrique

Montrer que si X suit une loi hypergéométrique J0 1ft, n, p), X converge en loi vers la loi

fi(n, p) quand N tend vers + -, r et p fixés'

lndication qo Cfti ., _ n ! (Np)r_(!',lq)n-' - Cl px qn - x.

Px (x) :-q * -- rl (n;i r,lrl -l

7.3 Soit (Xn)n 6N.,

ufle suite de v.a. indépendantes' de même loi de densité :

l(x) : s- tt - a) 1te, +* i (x), 0 > 0'

1) Donner la loi de t. : .,Plln t'

2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers O.

3) Vers quelle loi converge la v.a. n(Yn - 0) ?

lndication

1) Fyn (Y) - 1 - (1 - F(ï)n où F est la f'r. de Xn'

VY>o,F(Y) :1-e-(Y-o)

d'où :

rrn (v) : (1 - s- (v-a) n) 116, + -1 (Y)

frn (Y) : n e- (Y - u)n 1l u,1 -1 (V)

2) P{ I Yn - 0 I (e 1 : Fyn (0+.) - Fyn (0-.)

:'l -g-(o+e

-o)n:'l -0-'n--1

lorsque n - æ, d'où YnI o .

238 PH' TASS] S. LEGAIT

Page 242: Theorie Des Probabilites

\r

LES CONVERGENCFS DE VARIABLES ALEATOIRES

E(Yn - ul, : iî (v - o)2 n e- (v - a)n f,y : !* i; ,, ,-, O,

:1r(r) :? -on2 n2

lorsque n - æ, d'où Yn L2 6 .

mq

3) Soit Zn : n(Yn - o). La densité de Zn est :

g(z) :e-t110,+q(z).La loi de Z est indépendante de n.

PH. TASSI S, LEGAIT t20

Page 243: Theorie Des Probabilites
Page 244: Theorie Des Probabilites

Chapitre 8

Compléments et approfondissementssur les lois de probabilité

Le chapitre précédent a montré I'importance du concept de convergenceappliqué à des variables aléatoires, à leurs fonctions de répartition, à leursdensités, à leurs fonctions caractéristiques, ou à leurs lois de probabilité ; laconvergence suppose implicitement la notion de distance entre les divers élé-ments dont on étudie le comportement asymptotique.

Nous nous proposons dans ce chapitre d'étudier plus formellement lesdistances pouvant exister sur l'espace des v.a. ou de leurs caractéristiquesassociées ; nous introduirons également un ordre sur les lois de probabilité.

LES DISTANCES

Dans tout le paragraphe.'l'espace probabilisable de réféi'ence est (0, .c/l oit 0est un espace topologique muni d'une distance d, complet, séparable (il contientun sous-ensemble dénombrable dense), :/ est la tribu borélienne de {1. I désignel'ensemble convexe de toutes les probabilités sur ({-1, dl, I est l'ensemble desfonctions de répartition associées.

1.1 La distance de Paul Lévy

On prend 0: lR.

Définition 1

La distance de Paul Lévy entre deux fonctions de répartition F et G de I estdéfinie par :

dL (F, G) : inf{e > O / Vx F(x - e) - e ( G(x) ( F(x * e) * e}.

241PH. TASSI - S. LFGAIT

Page 245: Theorie Des Probabilites

CON/PLEN4ENTS ÊT APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

F(x)

F(x - e)

x-É x x*e

dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x,appartenir au "tube" ainsi engendré autour de F.

1.2 Distance en variation

Définition 2

Soient P et O deux probabilités de I de densités respectives f et g parrapport à une mesure p o-finie.

La distance en variation entre P et O est définie par :

du (P, o) : fdp lP(A) - o(A) I

ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations :

a) dv(P,O) -1-(P^O) ({))

où P Â O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité parrapport à É{.

b) 2dvP, O) :-[ldP-dOl

Exemple

On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : s- x. 1,^ + (x),

et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, (x).

242 PH TASSI - S. LEGAIT

Page 246: Theorie Des Probabilites

COMPLEMENIS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBAB{L|TE

2 du 0(l,oUto, rl: JR+ I t(*) - s(x)l dx

2 du : Ji tt - "-x1 dx + f,- e-x dx :

du (z(1)!Ùp, rl : t_e

: 0,3679.1

Remarque

Considérons sur lR la restriction de la distance en variation à la elasse'€desintervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autreque sup I ptt- -, x[) - o(]--. xt)l : Sup I r(x) - G(x)l , rlresp. G) désignant la

XXfonction de répartition de P(resp. O) ; cette distance porte le nom de distance deKolmogorov dK (F, G).

Sur I'exemple proposé, on a F(x) : (1 - e-x). 11p+ (x) et G(x) : ^

1to, rl (r) +

1t,, * -1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et qfo,

11

est égale à !.e

1.3 La distance de HellingerDéfinition 3

La distance de Hellinger H(P, O) entre deux probabilités P et O de I estdéfinie par :

H2 (p, o) : -i (/æ - faoyz

Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel,ona:

H2 (P, o) : -[ (fi - 'u[,12 dp: 2(1 - I lfr apl.

Définition 4

On appelle affinité entre P et Q la quantité :

a(P, O) : I 1tg7t/2 dU

ll est immédiat que 0 ( a(P. O) < 1.

H2 s'écrit : tl2|, O) : 2(1 - a(P, O)),

et: o<H2(P,O) <2

2e

PH. TASSI . S. LEGAIT 243

Page 247: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

Exemple

H2 (z('t ),%to, ,l : 2(1 _Jô /""- dxl -- 2 tfr- u

H(v(1), qro, ,11: 0,6528'

1.4 Distance de LipschitzOn suppose que la distance d sur () est majorée par 't ; si ce n'est pas le cas,

,.don munit () de la distance d' : 1 + d '

Définition 5

On appelle distance de Lipschitz entre deux éléments P et O de9la quantitédLi (P, O) définie par :

d., (P, O) : ryp-l J ,/dP - -f ,/dO I

lreyoù 9: { r/ : 0 - lR / I,l t*l - û (V) I < O(*, y) }, ensemble des fonctionsréelles lipsch itziennes.

1.5 La distance de Prohorovlntroduite en 1956, elle est définie sur 9. A étant un sous-ensemble non

vide de 0, et e un réel strictement positif, on appelle e-voisinage fermé de A lesous-ensemble A€ de 0 tel que :

A':{x€0l inf d(x,y) (e }.v€A

Définition 6

Soient P et O deux éléments de @. La distance de Prohorov entre P et O estdéfinie par :

dp (P,O) :inf{e >O/ P(A) <O(A€) +e,YA€.d\.

Une seconde définition, équivalente à la première mais plus facile à utiliser, peutêtre ainsi énoncée :

Définition 7

Soit A un événement quelconq ue de s{. On définit I'application p : -û * lR+par :

p(A) :inf{e)O:P(A) (O(A') *e}.

Alors : dp (P, O) : .S_up-p(A).' A-.-.il

244 PH. TASSI - S. LEGAIT

Page 248: Theorie Des Probabilites

COMPLEMENTS ETAPPROFONDISSEMENIS SUR LES LOIS DE PBOBABILITE

ll existe peu de résultats sur le calcul exact de la distance de Prohorov. ll estnéanmoins quelques cas où l'on peut trouver l'événement Ao tel que d, (P. O) =p(Ao). Le calcul de la distance de Prohorov se ramène alors à la recherche de Ao.

Exemple ISoient P:ô,,et O:ôr, x(y; il estévidentque l'on ne peutconsidérer

que des événements A de la forme {u}.

Pouru#x,p(A) :0.Soit Ao : {x} ; alors la relation P(Ao )< O(,S) * e s'écrit :

1<0*e ou e21et donc dp (ôx, ôr): 1

Exemple 2

Nous admettrons le résultat suivant : soient P et O deux probabilités, dedensités f et g. On suppose f définie sur [0, a], a ) O, éventuellement + oô, gdécroissante sur lRr, et, sur t0, al, f ) g. Alors :

dp(P, O) : p([0, a]).

Soit par exemple :

P:,7/p, 11 et O : ill\P et O admettent pour densités :

f(x) :1t0, tt (x) ig(x) : e-x 1'*. (x)

dp (P, O) : p([0, 1])

=inf(e)0:P([0, 1]) <O(tO, 1*el) +e).

OrP(tO, 1l) :tetO([0. 1+€]) :-[J*'e-xdx*1-s-(1 te) .

Le réel e vérifie donc l'inéquation :

1<1-9-(1 *e) 1. <+ ,sl *'t;>-1

Cela permet de déterminer la valeur de € pour laquelle e el * e : 1 :

p([0, 1l) : d, (P, O) :0,2466.

1.6 Comparaison de distancesll est possible d'établir des inégalités portant sur les distances précédem-

ment définies.

PH, TASSI S. LÊGAIT 245

Page 249: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEIVENTS SUR LES LOIS DE PROBABILITE

Pour 0 : lR, on établit :

dL<dP<dv

dL<dK<dv

Pour O quelconque, on a :

d3(dr,(2d.H2<2du(H /4-H'z<2H.

1.7 Autres indieateurs d'écartUn grand nombre de méthodes usuelles de la statistique mathématique sont

fondées sur des indicateurs d'écart, ou de proximité, entre v.a. ou lois. Cesindicateurs ne sont pas des distances au sens mathématique du terme, dans lamesure où les propriétés de symétrie ô(X, Y) : ô(Y, X) et d'inégalité triangulaireô(X, Y)< ô(X, Zl + ô(2, Y) ne sont pas systématiquement vérifiées. Cependant, cesindicateurs sont d'utilisation fréquente car possédant une interprétation statisti-que intuitive, et ils sont souvent appelés n distances o par abus de langage. Par lasuite. nous les nommerons proximités. lls vérifient cependant. en général, lesconditions de régularité suivantes :

{otx,X) :oilotx,Y) >o

a) Proximité au sens de L, sur Iô (F, G) = J [F(x) - G1x;12 dx

Dans le cas discret, on aura :

kiô(F,G) : > (

i:1j:1 ' '

ll existe une version sur I'espace des densités :

ô (f, s) : J [f(x) - g(x)]2 dx

kô(f,g) : : (pi -ei )2

t- |

Remarque :

ll est parfois d'usage de considérer des versions de ces indicateurs deproximité pondérées par une fonction w à valeurs dans lR+ ; par exemple :

ô(F, G) : J tF(x) - G(x)12 w(x) dx

ou

246 PH TASSI -S LEGAIT

Page 250: Theorie Des Probabilites

COIVPLEMFNIS FTAPPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

b) Proximité de Cramer-Von Mises

Elle est définie sur .?; on appelle proximité de Cramer - Von Mises entredeux f.r. F et G, centrée en F la quantité :

ô(F, c) : -i [F(x) - G(x)12 dF(x) : E, (F(x) - G(x))2

E, (.) reRrésentant l'espérance prise par rapport à la loi de f.r. F.

Remarque .' sur l'espace des densités, on pourra étudier :

ô(f. g) : "l tf(x) - g(x)12 f(x) dx

Les versions discrètes de ces indieateurs seront :

kiô(F, c) :

i:l j:1 ' r

kô(f. g) : 2 o, (R, - c,)2i:1

c) Proximité de Karl Pearsen

Egalement appelé indicateur du X2, il est donné sur l'espace des densitésdans sa définition centrée sur f par :

ô(r, s) : f t{!---91!Ê dx - E. t1 - s(x\zf(x) f(x)

Sa version discrétisée est :

ô(f.g) : i (pi -q,)2i-1 P;

On peut remarquer que la proximité de Pearson n'est qu'un cas particulierde I'indicateur au sens de L, pondéré par w(x) : 1,zf(x) ou 1/S(xl.

ll existe un indicateur du y2 dit modifié, qui n'est autre que ô(f, g)centré surs.

d) Proximité de Wolfowitz

Elle est définie sur t par :

ô(F,G) :JlF(x) -G(x) | dx

ll s'agit de la norme au sens de L,, de F - G. En discret, elle est donnée par :

kiô(F,c) : : | : (pi -q, )li:1 j:1 ' '

PH. TASSI - S. LEGAIT 247

Page 251: Theorie Des Probabilites

COIVPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

Définie sur les densités, la proximité de Wolfowitz est :

ô(f,g) :Jlf-gldxsoit le double de la distance en variation entre les probabilités P et O de densitésrespectives f et g (cf. 1.2).

e) Proximité de Kullback-Leibler

ô(F, G) : -l Los f(x) ar(x)s(x)

pour I'indicateur centré sur F. Sa version discrète est :

kp,ô(F,G) : : p, Log''

i:1 Q;

Notons que la proximité de Kullback-Leibler ne vérifie pas ô(F, G) > O VF, VG'

Des précautions sont à prendre lors du calcul de ces divers indicateurs, ets'assurer en particulier de leurs conditions d'existence.

Exemple

on prend pour F la loi uniforme sur [0, 1] et pour G la loi exponentielle

il1, 1l,.

a) Aucun problème n'existe pour les indicateurs de type Lr, sur les f .r. comme surles densités f et g :

ô(F,G) :Jf t^-1+ e-^12 dx+Jl(1 -1*e-x)2dx

:5:-J2: o,oe76e

ô(f, g) : J[ tr - e-')2 dx + J] (O - e- x126*

:!-3:0,236.2e

b) Proximité de Cramer-Von Mises

L'indicateur de Cramer-Von Mises calculé sur les f.r. et centré sur'2/ro, tl "st ,

ôF(F,c) :Jf tx-1+e-*)2 dx

:q-2-- 1 :o.o3o6e2e2

248 PH TASSI - S. LEGAIT

Page 252: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEN/ENTS SUR LES LOIS DE PROBABILITE

Centré sur 7(1, 1), cet indicateur prend la valeur :

ôG (F, G): Jl t"- 1 + e-')2 e-xdx+"iî e 2x "-x6*

-'17 -'- - '=: 2'o3o'6e2e2

c) Proximité de Pearson

L'indicateur de Pearson centré sur(2p,11 n'a pas de sens. puisque f(x) :9pour x ) 1. Sa restriction à [0, 1] est:

o, (r, s) : Jl tl - e-')2 dx :r-:- #: 1,e6.

Centré sur 7(1, 1). il vaut :

on (f, o) : Jl tl - e-x)2 ex dx + 4* e-x dx : e - 2 : A,718.

d) Proximité de Wolfowitz

Aucun problème d'existence n'apparaît pour cet indicateur ; en outre,Vx, F(x) ) G(x), d'où :

ô(F, c) : Jl fx- 1 + "-x1

dx + 1"î "' d*: 21

e) Proximité de Kullback-Leibler

Aucune version de cet indicateur n'existe puisque f(x) : 6 pour x ) 1.Cependant, sa restriction à [0, 1] peut être calculée :

Centrée sur Q/p, l:ô(F, c) : J[ Log e' dx : l.

Centrée sur 7(1, 1) :

ô(F, G) : J[ (t-og er) e-x dx : -? + 1 : 0,264.

1.8 Retour sur les convergences

Ainsi qu'il I'a été fait au chapitre 5, on peut associer une notion deconvergence à chacune des mesures de distance ou de proximité qui viennentd'être définies.

PH. TASSI - S. LFGAIT 249

Page 253: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEIVENTS SUB LES LOIS DE PROBABILITE

Soit ô un indicateur de proximité, (X"), n21, une suite de v.a.r. et X unev.a.r., de f.r. respectives (Fn), n21, et F. Nôus dirons que Xn converge au sens deô vers X si lim ô(F", F) : 0.

n-æExemple

^ Soit (Xn), n ) 1, une suite de v.a.r. de loi'Z/p,1 + 11, et X une v.a.r. de loitùro, ,r' n

Considérons l'indicateur de Wolfowitz sur les densités :

ô(fn, f) : ll fn - t llr :.f I fn - f I dÀ

en notant Far fn et f les densités des lois de Xn et X.

nfn (x) :

" * ,, 1t0.,1 * 5 (x) ;f(x) :1t0, rt (x)

ô(fn, f) : Jl tt - --n-l ox + J]

On remarque que lim ô(fn. f) : O, et donc Xndensités. n

De même, un calcul simple montre que l'indicateur de Wolfowitz sur les f.r. vaut1

2n

Remarque

ll peut être parfois intéressant sur le plan statistique. particulièrement enthéorie des tests, d'introduire la notion contraire à la convergence qu'est la

séparabilité asymptotique;soient (Fn) et (Gn), n ) 1, deux suites de fonctions de

répartition. De façon générale. ayant fait le choix d'une mesure de proximité ô

prenant ses valeurs sur [0. M], M éventuellement infini, nous dirons que les suites(Fn) et (Gn) se séparent asymptotiquement au sens de ô si :

lim ô(Fn. Gn) : M

Ainsi, si ô est la distance de Hellinger, F^ et G- se séparent asymptoti-quement au sens de Hellinger si lim H(Fn, Gn) :,/2, ô;r si lim a(Fn, Gn) : O.

De même, il y aura séparation asymptotique au sens de la distance envariation du si :

tim du (Pn, On) : 1

où Pn et On sont les probabilités auxquelles sont associées les f.r. Fn et Gn.

1n dx-nn*1 n*1* X au sens de Wolfo..nritz sur les

254 PH. TASSI S. LEGAiT

Page 254: Theorie Des Probabilites

COMPLEIVENTS ET APPROFONDISSEMENTS SUR tES LO]S DE PFOBABILITE

Les inégalités de comparaison des diverses mesures de distance (1.6)permettent partiellement de classer les convergences ou les séparations asympto_tiques associées.

Exemple

Ona:

o<H2(2du <H/4- t42

^^^^.?î::^î'^ll--"1 On sont deux suites de probabitités de f.r. Fn er Gn, onconstate lactlement que ;

,'fl O" (Pn, On) : O <+ iim H(pn , On) : O

De même ' ,',T H(pn, On) : Æ + "fl

du(pn, On) : 1.

Si lim du(Pn,On) = 1, alors, en posant h: lim H(pn, On), on doit avoir:h2<2<n/+-R

soit: t,2(4- h2) __ 4- _ (h2_ 2)z>Oce qui n'est réalisé que pour h : ,/2.

Les indicateurs do et H sont équivaients pour ra convergence et ra séparationasymptotique.

2 APPLICATION A LA FONETIONDE RÉPNRTITION EMPIRIOUE

si x., ...., xn est un échantiilon de n réarisations indépendantes d,une v.a.r. deloi de probabilité P, on définit ta quanriré :

p":1 ! ô"nt:1 xi

où ô. (x) vaut 1 pour x: a et o aiileurs. pn est apperée loi de probabilitéernpirique, distribution uniforme sur (X,,,...,Xn) puisque pn ({x,}) : L, i:1 à n.

non lui associe la fonction de répartition empirique Fn définie par :

x € lR, Fn (x) : pn {l- -, x[] : I i . 11_ _, ,,1 (x,).

ni:1 r '^L

PH. TASSI S. LEGAIT251

Page 255: Theorie Des Probabilites

CO[/PLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABILITE

2.1 Propriétés à distance finiePar construction, F^ (x) est égale à la proportion d'observations de l'échan-

tillon strictement inférieu'res à x; Fn est une fonetion toujours discontinue. La v.a.

n F^ (x), nombre d'observations avâht x, suit une loi binomiale 0(n,F(xll puisque

un 'foint xi est soit avant x, soit après, et par conséquent :

E[Fn (x)] : F(x) et vlFn t*)l : I F(x) t1 - F(x)l

Fn (x) converge donc en probabilité vers F(x).

On peut égalenrent calculer la covariance entre Fn (x) et Fn (V) :

n1 s 1t--

Fn(x) Fn(v) :-riit

n_1 [.I.1r_

l: Inz

n

",(x;) . r" 1t--,q(x;)

l: I

, Min(x, ylt (xi )

nTj:1

+jX. la

I

n+

i:1i

1l- -, 4 (x,) 1p -, q (x;) ).

v.a. de loi P associée à la 1ème 166;156tion x,,D'où, eni:1àn:E(Fn (x) Fn (y))

notant par

et:

: l- e(t r- -, Min(x, vx (Xr t) + tl E(l1- -, ,.1 (X.,) 1t- -, yt (x2))

nn: I r1uin1*, y)) + l--l- F (x) F(v)

nncov(Fn (x), Fn tvtt : | [F(Min(x, v)) - F(x) F(v)].

2.2 Propriétés asymPtotiques

Puisque n Fn (x) suitS(n, F(x)). en appliquant la convergence en loi de la loi

binomiale lorsqué n tend vers l'infini, on a :

n Fn (x) - n F(x) Yn (Fil*): J9 !9! ru to, r I_:--

GTiili -m /Tixif--EiiComme Fn (x) I F (x), on a également :

uzn (Fn (x) - F(x))

/ r.{x) 11 - Fn(x))

N (0, 1)

PI TASSI S. LEGAIT

Page 256: Theorie Des Probabilites

COMPTEMENTS ET APPROFONDISSEN/ENTS SUR tES LO]S DE PROBABILITE

Exemple :On sait que P(-

0,95 :

ou encore :

1,96 < N(0,

P(- 1,96 <

1)< 1,961 :6,9U,u/n (Fn (x) - F(x))

soit :

0,95 : P(Fn(x)- 1,96V

,/F;xiTrm)-< 1,96)

p.s

n

Si F(x) est inconnue, on a construit un intervalle connu ayant une probabilitédonnée 0,95 de contenir la vraie valeur de F au point x.

La convergence en loi vers la normalité peut être étendue au cas multieJi-mensionnel.

Théorème 1

Soit F la f.r. continue d'une v.a.r. X, pour tous réels (u, , ..., u,.1, le vecteuraléatoire {-/n (F^(u,) - F(u,)} (i : 1 à k) converge en loi vers unè loi normaleN(O, :), où I e'st [a matrice carrée d'ordre k d'élément courant (i, j), 1 < i,j(t<:

o,, : min (F(u,), F(u,)) - F(u,) . F(u,)

2"3 Vitesse de convergence : loi du logarithme itéréDans ce chapitre et ceux qui précèdent, nous avons abordé un cerîain

nombre de notions de convergence portant sur des suites de v.a., de probabilités,de f.r., etc. Un élément important pour le praticien est la 'ritesse à laquelle a lieucette convergence vers la limite. Nous allons donner un résultat général complé-tant le chapitre 7.

Théorème 2 : loi du logarithme itéréSi (Xi), i > 1, est une suite de v.a.r. indépendantes et identiquementdistribuées (i.i.d.), d'espérance m et d'écart-type o. o 1æ, alors :

limn..-oo

/nfin-rn)

" ,Æ Log Log nLa loi du logarithme itéré complète le théorème central limite en précisant la

vitesse de convergence de :

.,/n (Xn - m)

Appliqué à la fonction de répartition empirique, le théorème du logarithmeitéré devient :

/n (Fn(x) - F(x)) 1lim

n-æ

PH.TASS] .S LEGAIT

vGFj-il-- Hx-D ,Æ Los Los n-1 p.s.

253

Page 257: Theorie Des Probabilites

COMPTEIVENTS ET APPROFOND]SSFMENTS SUR LES LO S DE PFOBABILITE

2.4 lndicateurs de proximité avec F"

L'un des problèmes fondamentaux de la statistique mathématique est laconnaissance de la loi P, de f.r. F, d'une v.a.r. X dorrt on possède une suite finie(X., ..., X-) d'observations indépendantes. lntuitivement, ayant fait choix d'unindicateur"de proximité ô, si on postule pour F une loi donnée F., on auratendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est( proche ,, de Fo, c'est-â-dire si ô(Fn, Fn) est u petit u. Parmi les indicateursprésentés au paragraphe 1, les plus fréquemment utilisés sont ceux de Kolmogo-rov, Pearson, Cramer-Von Mises.

a) Proximité de Kolmogarov

Soit d* (Fn. F) : Sïo I F" (x) - F(xll' pour une f'r. F définie surlR'

Théorème 3

ll existe une constante C, C ) 0, indépendante de F, telle que, pour d ) O:

P(dK(Fn,F) >d) ç6"-2nd2 vn)1Ce résultat, établi en 1956, est souvent utilisé sous la forme :

P('/n dK (Fn, F) > d) < C e- 2 d2

æ

Soit la quantité : - P(dK (Fn, F) ) d) :

n:loo oo r ^_2d2: p(dK(Fn,F) >d) <c :_(e-2d2ln: ce-'" 4"o

n:1 n:i 1- e- 2d2

Du chapitre 7 on déduit :

Théorème 4

dK (Fn, F) : SuP I Fn(x) - F(x) | P'co' O'

Ceci implique ia convergence presque sûre, et en probabilité, de d* (Fn, F)

vers 0.

A.N. Kolmogorov a établi en 1933 [10] la loi asymptotique de do (Fn, F).

Théorème 5

Si F est la f.r. d'une v.a.r., F étant continue, alors la v.a. 6 d* (Fn, F)

converge en loi vers la v.a. O, indépendante de F, définie pour y ) O par :

P(O<yl:1- 2 i (-t1r'+r s-2u2t2k:1

?54 PH.TASSI -S LEGAIT

Page 258: Theorie Des Probabilites

COMPTEMENIS ET APPFOFONDISSEMENTS SUR LES LOIS DE PROBABITITE

b) Proximité de pearson

Envisageons tout d'abord le contexte statistique. -fl espace des valeurs de lav'a r' continue X dont on possède res réarisations'rnoàfenïantes (X,,, -..,\t;rlpartitionné en classes Cj. j : 1 à k : kg'- : c

c'est souvent re,cas en pratique, jÀjr,"'"'nsi de crasses d,âge, de tranchesde revenu, etc. Soir alors le vecteur aléatoire y: r(Nr, ._,ï_iài, la v.a. N, comptele nombre d'observations parmi (xr, ...,xn) appartenânt à tâ ctà's;;'c;; ;'L-ï ii,:

La loi de N, est une loi binomiale g (n, p,) oit :

pj : P(X € Cj) : J.- t1x; Ox,

f désignant la densité de F. plus généralement. y suit une loi murtinomiale,// (n;p1, ..., p1), en référence au schéma exposé au chapitre 4.

Les fréquences f, : \, j : 1 à k. définissent la loi empirique desobservations regroupéeJ 0"r. "î"r."s,

que |on notera p; res constantes (0,,,..., oo)en fournissent ra roi théorique déduite de F - ra roi vraie -, représentéesymboliquement par p.

L'indicateur de pearson entre il et p centré en p sera :

ô(È.p) : I $,-p,)2j:1 pj

on utilise fréquemment une forme pondérée de rindicateur de pearson :

i tl{A-S$3 w(x) dx

avec w(x) : n, qui conduit ici à : f(x)

ô*(È, p) : n

Théorème 6

ô*(È, p) t2Lx, (k - 1)

Démonstration

Définissons le vecteur Z de coordonnées :

k:j:1

(n--)

N, - no.z,- t 'r,j-' rnq

PH. TASSI . S. LEGAIT

1àk;

atrÊ

Page 259: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DF PROBABILITE

On a: E(Zjl:O.V(Zj) - 1-pjCov(7r,Z1l:-,m U+U

On vérifie aisément que le déterminant de la matrice de variances-cova-riances de Z est nul, puisque celui de Y I'est aussi, on se restreint au plus grandvecteur régulier r(Zt, ...,2n_,1 : Z*.

Partant de la f.c. d'une loi multinomiale,

kçry(u1,...,ur) :(. >. pj eiuj)n

l- |

on déduit la f.c. de t(Nr, ..., No-l) :

k-1

ç(ut,..., ur.-r): cy(u.,, ...,uk-1, O) : t1 + >. pj(eiui - 1)lnJ- |

Du théorème 3 au chapitre 6. on tire :

k-1

- i/n > u. '/d k-1

e7* lu,, ..., uk-1): e j-1 t '111 *.r" p,(eiu/Jrwi - 1In'.l- |

i u. u.2Or: siuy''/rtpi- 1-*-r"

k-1 k-1 iu, u,2.

. I p,(ei'izlnF; - 1) : . >. (+ /q - +j:1 t j:1 Jn ' 2n

et : k-1 k-1 . k-l

- i/ô I u, ./Fl i/i- I u, '/o] - 1 : ,'2

a7-tr,,...,un-,):e '

i:r-j ie j:t' 'e 2i:t )

-Lort",: e 2j:t

Z* suit donc approximativement une loi normale centrée réduite de dimen-sion k - 1, et ô- (È, p) converge en loi vers une loi X2 (k - 1).

256 PH' TASSI S. LEGAIT

Page 260: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEMENTS SUB LES LOIS DE PROBABILITE

Remarque

Ce résultat peut être retrouvé par le calcul direct; notant par P la probabilitéélémentaire de Y en (nr, ..., nn), on a :

n! - nn * rt "- " ,/2Tr (formule de Stirling)

P- nn * rL e- n ,/Ztr n1 nk

n.*1 -n.IJ(n, t 'e t,/-Zrl)

P1 "' Pp

no. n, 1P - II1" 'j1 | 2 à une constante multiplicative près

jnik

Logp-K* : (n,* SLognPij:1 ' 2 nj

N -no.A partir deZ, : |'t,on a N, - n pl lZrJ6,ou :' 'Æq '

N. Z.I _1 , I

"q- -/"qk.z

LogP-K- j:E.,

(*, *rlLoo(1 +-1)

Faisons un développement limité du deuxième ordre :

Log (1 + 1-l - zi

-"i@i /q 2npj

k.z.z?LogP-K-

j:1 ' 2 @, 2npj

nzz2.+t+2, '/nL) (J - I

)2 ' "Æq

2npj

nr,>. (2, /nn + tl

j:1 t t 2

kLogP-K-

J:1

PH. TASSI S. LEGAIT

LogP-K-

Page 261: Theorie Des Probabilites

COMPLEMENTS ET APPROFONDISSEMENTS SUR LES LOIS DE PROBABITITE

Or 2 7,/nq: I (Ni nPj) =n-n:O.j:1 t ' j:1z?D'où: LogP-K->--l2

1 < z.oP;=T; c'e -;1't' '

La loi limite de la loi multinomiale est une loi normale de dimension k - 1

(tout Z, pouvant s'exprimer en fonction des k - 1 autres), et on en déduit :

I (Ni - nPj)2 roi. yz 11 - 1)

i: 1 npj

3 ORDRES SUR LES VARIABLES ALEATOIRESL'idée de classer - ou d'ordonner - des v.a. ou leurs lois de probabilité est

fort ancienne. Par exemple, on peut comparer deux v.a. X et Y par I'intermédiaired'un indicateur de tendance centrale (espérance, médiane, milieu de l'étendue),ou bien par un indicateur de dispersion (écart-type, étendue, intervalle inter-quartiles), ou bien encore par les cæfficients de Fisher d'asymétrie ou d'apla-tissement (chapitre 4).

Nous nous proposons, dans ce paragraphe, de donner quelques élémentssur les comparaisons possibles de v.a. par I'intermédiaire de relations d'ordrepartiel ; dans tout ce qui suit, X et Y seront des v.a.r. de lois P* et P". de f.r. respectivesFetG.

Définition IX est dite stochastiquement plus petite que Y (noté X (, Y) si :

Vx € lR F(x) ) G(x)

Cette définition. due à H. Mann et D. WhitneV (947l,, est, historiquement, lapremière notion d'ordre partiel sur des v.a.r. [14].

Supposons X et Y telles que F et G soient continues et strictement croissan-tes surlR ;on a:

F(x)) G(x) <) O- t 1r1x)) ) x

En notantR:G-1 FetÀ- R- l(létant I'application identité), onobtient :

F(x) )G(x) <> R(x) )x e À(x) )0 Vx€lR

258 PH. TASSI S, LFGAIT

Page 262: Theorie Des Probabilites

COMPLEMENTS EI APPFOFONDISSEMFNIS SUF LES LOIS DË PROBABII ITF

Remarque

Considérons la v.a.r. Z : R(X).

P(Z1z): P(R(X) ("zl: P(X < F- 1 C(t)) = F(F- 1 C(r)) : G(z).

La loi de R(X) est identique à cetle de Y.

Définition 9

soient a et b deux réels ; X est dite plus concentrée autour de a que y I'estautour de b si :

P(l x-al(x) > p(l y-blSx) vx)0.En pratique, on prendra fréquemment pour a (resp. b) l'espérance ou la

médiane de X (resp. Y), ou bien le centre de symétrie s'il y a lieu.

Si l'on se restreint au cas de lois symétriques, prenant alors a: b: O, onétablit les résultats suivants [1] :

Théorème 7

soient X et Y deux v.a.r. indépendantes absolument continues, de f.r.respectives F et G. de densités f et g, telles que :

(i) f(x) : i1- x) ; g(x) : g(- x) Yx € lR,

(ii) f et g sont décroissantes (au sens large) sur lR*

(iii) X est plus concentrée autour de 0 que y.

Alors, si (X',, ...,Xn) et (Y1, ....Y") sont deux suites finies de v.a.r. indépen-dantes de même loi que X et Y, on a :

rlpa) . : . X, est plus concentrée autour de 0 que : yi ii:1, n i:lb)Xn:

nl:lOn peut établir que la définition 9 est équivalente à la suivante, a priori plus

générale :

Définition 1O

X est plus concentrée autour de a que Y autour de b si :

E(h(l Y - bl ) > E(h( I x - a I ))

pour toute fonction h non décroissante, sous réserve d'existence desespéra nces considérées.

En particulier, en prenant pour h la fonction identité, on a :

E(lx-al)<E(lY-bl)PH TASSI - S LEGA]T 25g

Page 263: Theorie Des Probabilites

CoMPLEMENTSETAPPFOFoNDISSEMENTSSURLFSLOISDEPRoBABIL|TE

et, pour a : E(X). b : E(X) et h(u) : u2 i

v(x) < v(Y)

ll est enfin possible de définir un ordre fondé sur la différence interquartiles,pour des v.a.r. absolument continues :

Définition 11

Soient a et B, a I B, deux réels appartenant à lO, 1[ ; la loi de X est dite plusétalée autour de a que Y l'est autour de b si :

F- 1 ffi) - F- 1 ("1>c- 1 ffi)-c- 1 (")

Exemples

a) SoitF(x) :1-e-À*,G(y) -1-s-9v, À<8.

r-1(x) :-lLog(1 -x),G-1(v)

:-lLog(1 -v)À0F- 1 19) - F-1 (o) : 1r-os 1--g

À 1-B

d.où : F- 1 (B) - F- 1 (d) :g> I

c-r (B) _c-1(d) À

La loi 7(1. À) est plus étalée que la loi 7(1,0), pour À < 0.

b) Soit X une v.a.r. absolument continue, de f.r. F, À ) 1 un réel quelconque. Ondéfinit la v.a. Y : ÀX, de f.r. G.

G(Y) : P(Y < Y) : P(X < 4 : r(Y)ÀÀ

G- 1 (y) : {z/G(zl: y}: {z/FÉl: y} : {z/z: À F- 1 (y)},À

d'où: G-1:ÀF-1

PourO(a(P<1,ona:

r-t(B) -r-t(a):l<rc_r ffi) _c-1(d) À

et donc Y : À X est plus étalée que X, pour À ) 1.

260 PH, TASSI . S. LEGAIT

Page 264: Theorie Des Probabilites

Chapitre 9

O bservations ordonnées

ll arrive fréquemment que. possédant une suite finie d'observations indé-pendantes (Xr, ...,Xn) d'une v.a.r. X, on s'intéresse plutôt au n-uple ordonné ensens croissant ou décroissant. C'est ainsi le cas dans les méthodes statistiquescherchant à détecter des valeurs éventuellement aberrantes; en outre, le phé-nomène étudié peut parfois être tel que les observations vont naturellement encroissant : part de. marché cumulée conquis semaine après semaine, par exemple.

Dans tout le chapitre, X désignera une v.a.r. de loi px, F sa fonction derépartition, f sa densité.

1 LOI DE L'ECHANTILLON ORDONNEon considère une suite finie (Xr,...,Xn) de n observations indépendantes

de X.

1.1 Définition de la statistique d'ordreDéfinition 1

on appelle transformation ordonnée ou statistique d'ordre l'applicationmesurableT : (lR, fr1" - lR,,q.l"classant les(X,), i : 1 à n, dans l,ordrecroissa nt :

avec: (Xr, ...Xn) - (X(r), ..., X(n))

Xt.,t ( Xrrl (...(X1n)

Remargues

a) En toute rigueur, la notation X1ç, n'a de sens que pour n donné. "t

X(o)devrait être écrit X(r;n).cependant, lorsqu'il n'y aura pas de confusion possiblà,nous utiliserons la notation allégée X1p1.

b) Si la loi de Ia variable X est absolument continue par rapport à i, onpeut se limiter à des inégalités strictes car :

p (Xrr)

PH, TASSI . S LFGAIT 261

Page 265: Theorie Des Probabilites

OBSE FVATIONS ORDONNE ES

En effet :

p [{Xrrrt+l t+l

Or la loi de X, - X,, pour i # j, est elle aussi absolument continue par rapportà la mesure de Lebesgûe et donc :

.I Pt[Xi-Xi:01): o

,"r. .onrr", si X est ,"j11r,"0," oir"rete, it peut y avoir des ex aequo, et tesformules deviennent rapidement complexes. Sauf exception, nous supposerons Xcontinue par la suite.

1.2 Loi de la statistique d'ordre

Théorème 1

La loi Pr de la statistique d'ordre est définie par la densité :

fr(x.,, ..., xn) : n' ,i" t (x,). Î"n (x,. .... xn)i:l

où : Cn : [(xr, ..., xn) € lRn ./ x., < x2<... < *n]

Démonstration

En notant 9nl'ensemble de toutes les permutations r de n éléments, et B unévénernent quelconque de fr,n,la probabilité pr(g) peut être écrite :

Pr1A1:P1 U E(r)l: : P(E(r))r€,Vn re9n

où E (r)désigne l'événement :

{Xr(1)<....Xr(n} et (Xr(1), ,X'(n)) € B}

P (E (r)) : JlRn 1"n (*.,, ..., xn) 1, (^r, ...,xn) dPxt(1)' "'xr(n)

où pxt (11' ''xr (n) symbolise la loi du n-uple (Xr (1), . ,X.1ny).

Or, les v.a.r. (X,), i: 1 à n, étant indépendantes, la loijointe de (XrtrI ...,Xrtnl)est le produit des lois des Xrliy soit :

nP (E (r)) : J,*n l cn (*,, ..., xn) 1, (*r, ..., *n)

,! ., f (x,) dx., ... d*n.

zoz PH. TASSi . S. LEGAIT

Page 266: Theorie Des Probabilites

OBSE FVATIONS ORDONNEES

On remarque que P {E (r) ) ne dépend pas de r, donc :

nPr1B1 : P {(Xtr, ... , X1n1)€ B} : nt Ju lcn (x,, ..., *"'

,! 1 f (^i)dx, ... dxn

lls'ensuit que, sur lRn, (Xfrl ...,Xtn/ : T(Xr, ..., Xn)admet la densité;

nn

' l cn (xr, ..., xn) .l-l ,

f (x,)

Théorème 2

La loi marginale de (Xtr), ...,X(k/, k ( n, admet la densité :

n! .{! \ **(n-k),- ltn (x'' '"n' (,,!,, t''Jr) u"* t(x)dxln-k

La démonstration de ce résultat est tout à fait analogue à celle du théorème 1,à la nuance près que les événements E (r) ne sont pas forcément disjoints. En effet,lesévénements E (r) et Ë (a) seront identiques si r(i) :ali), i:1 à k;sinon ilsscnt disjoints. ll convient alors de définir sur 9n la relation d'équivalence :

o-r<+o(il:r(i) i:1àkAlors, en notant A une parTie de,9n contenant un eî un seul élément de

chacune des classes d'équivalence de{?n/-, on a:

P {(X11r, ...,xrx/ c B} : .!o

e {E (r)}

Le nombre d'éléments de A est égal au nombre de permutations divisé par lenombre d'éléments de chaque classe, ce dernier étant égal au nombre de permuta-

tions de gntellesque (r(1), ..., r (k)) est fixé, soit : ;{.(n-k)!

2 LOIS PARTIC|.JLIERESDE L'ECHANTILLON ORDONNE

2.1 Loi de X1p1

La densité marginale fo (x) de la coordonnée X1s1 (k : 1 à n) de l'échantillonordonné s'obtient aisément en intégrant ia densité de (X11), ...,X(n/:

fk{x):; --aL.t Fk-1 (x)(1 -F(x))n-kf (x)(n-k)l(k- 1)!

PH TASSI -S TEGAIT 263

Page 267: Theorie Des Probabilites

OBSEFVATIONS ORDONNEES

Le calcul de la fonction de répartition Fn de X1r1 est immédiat. En considérant

la v.a.Z comptant le nombre de points X, tels gue X, ( x, on a :

Fk(x) : P (X1r1<x) : P (z>kl

Z suivant une loi binomiale ,/) 1n, F (x)), on obtient :

nFk (x) :

,Io Ç F'(x) [1 - F (x)]n-'

Remarque

Cette expression de Fn(x) ne nécessite que la connaissance de la {.r. F de X;elle est vraie quelle que soit la nature de la v.a. X, discrète ou continue. Dans le premiercas, la odensité" de X1r1 sera donnée par f

n (x) : Fu (x + 1) - Fn (x). Dans le second, il

suffit de dériver pour retrouver f n

(x).

Intégrale bêta incomplète

Soit alors b (t, p, q) la densité d'une loi bêta définie sur [0, 1 ], de paramètresp et q (chapitre 4) :

b(t,p,q) : -: .,n-111 -t)q-1ts (p, q)

où B (p, q) est I'intégrale bêta, constante de normalisation de la densité :

1

B (p, q) - JO tn 1 (1 - t1c-1 6,

Définition 2

On appelle intégrale bêta incomplète la quantité :

lu(R,c) :=; . -il,o-1 (1 -11a r dt,o=<u(1" B(p,q) -o

Considérons lr 1*1{k,

n - k + 1}, intégrale bêta incomplète tronquée en F (x). En

intégrant par parties, on établit aisément :

Fn(x) :1.1*1 {k,n-k+1)

La loi bêta incomplète est tabulée, et cette relation permet de calculer numé-riquement la fonction de répartition, et donc les f ractiles, d" X(n) (voir nTables of the

264 PH TASSI S. LEGA]T

Page 268: Theorie Des Probabilites

OB SF RVATIONS O RDONNE ES

incomplete beta-functionu, éditées par Karl pearson, Cambridge University press,1934).

u ru (23.8)

.71

.72

.73

.74

.75

.76

.77

.78

.79

.80

.0546 337

.0679 478

.0837 364

.1022 621

.1237 678

.1484 637

.1765128

.2080152

.2429 931

.2813 767

.3229 920

.3675 521

.4146 528

.4637 746

.5142 gOO

.5654 792

.6165 525

.6666 799

.7150 262

.7607 906

Exemple

Soit X une v.a.r.^de loide Gumbel(chapitre 4)de densité f 1x; : exp (x - e"),dont on possède n = 30 réarisations indépendantes. carcurons e ix,rr, <oi'

La f.r. cie X est :

F(x) : 1 -e-""; donc F(O)- 0,6921.Comme:

F23 (O) : P (Xtz3) q 0) : lF (o)(23. 30 - 23 + 1)

il suffit de lire dans la table ci-dessus la valeur d"lo,osz(23,8), soit, après interpola-tion P (X12s1< o)- o,og74.

Théorème 3

La variable aléaroire Yr: F (X11/ suit une loi bêta É (k, n - k + 1).

PH TASSI . S. TEGAIT 2b5

Page 269: Theorie Des Probabilites

OBSE RVAIIONS ORDONNETS

Démonstration

Notons g la densité de Yo. Par le changement de variables y : F (x) dans fn (x) :

s(Y) n!:

(n - k) | (k - 1) | vk-l (1 - v)n-k 11s' 11(v)

L ur<-1 11 - y)n-k 1,^,, (y)B(k,n-k+1) Y \r tt '[o'1]\]

Remarques

a) Rappelons que Fn (X1p/ suit une loi uniforme sur [0, 1 ], comme toute imaged'une v.a.r. par sa propre fonction de répartition.

b) Le calcul explicite des caractéristiques de X,u, que sont I'espérance, lavariance, la médiane et le mode dépend de la loi originêlle F.

Exemple

Soit X de loi 'A'ro,r 1.

On a :

fo(x):--+" - ^t-1 11 -x)n-k1ro,r1(*)(n-k)!(k-1)!

X1n, suit donc une loi É (k. n - k + 1), et les résultats du chapitre 4 permettentd'écrire :

6(X1r1) : ,i

2.2 Cas particulier des valeurs extrêmes X,n, et Xlnt

a) Lois

On trouve, à partir des résultats généraux précédents :

F,(x) :.!- a;ri(x) (r-F(x))n-i -1-cl(1 -F(x))nl:l

F1 (x) : 1-(1 -F(x))nf1 (x) :nf(x) (1 -F(x))n 1

De même, pour X,n1 :

Fn (x) : Fn (x)

fn (x) : n f (x) Fn-1 (x)

266 PH TASSI .S IFGAIT

Page 270: Theorie Des Probabilites

OBS E RVATIONS ORDONN EES

De façon évidente, notons que le sup (ou l'lnf) d'un échantillon indépendantextrait d'une loi F ne suit pas cette loi. ceci n'a rien d'intuitif, et mérite d,être noté.

Remargue

Supposons que le support de la loi p soit lR, c"est-à-dire Otout x réel. Alors :

F(Xrnl ) O) : t -Fn(O) : 1-Fn{o) ; trm p(Xfnt )De même:

P(Xtr) q O) : t -(t -F(O))n ; tim p(x111 < O)

X,n, (resp. X1,,,) est asymptotiquement positif (resp. négatif).

b) Médianes

i1 et in désignent respectivement les médianes 6e X1r1"t X(n) ; l'équation de défini-tion de i., est :

-1Flry(i.,) : t :1-(1 -F(;1))n

Ln2

F(x.,) : 1-e n

< F(x) ( l Pour

o) :1

-1 I

qui conduit à :

De même: Ln2

F(iJ:e n:t-F(i.,)

2.3 Loi jointe d'un couple (Xtn), Xtrl)

Soit un couple (Xtnf Xtr/ avec 1 =<

k < I ( n :

Par intégration de la densité 6e (X111, .., X1n1), on obtient :

fr,r(u,v) : C(n,i,k) f (u) f (v) rk-r (u) (F(v)-F(uy;i-t-t

t1 - F (v)ln-1 11r=u1(u, u).

La constante de normallsation est :

PH. TASSI - S, LEGAIT

n!: B(k,r-k).8(l,n-j+t)

Page 271: Theorie Des Probabilites

OBSE RVATION S ORDONNEES

La loi de (X1r.y X1l1) permet de déterminer la loi de fonctions de (X11y X11,), et,

en particulier celle des espacements ou mailles de la forme X1t1 - X111.

Pourk: 1 et l: n, onobtient la loi jointede(Xtrt, X(nt)'

f.,.n (u,v) : n(n-1) f (u).f (v).tF(v)-F(u)ln-2 ltr=u1(u,v)

2.4 Calcul des moments

Le calcul des moments, particulièrement E (X(k)), V (X(k)) et Cov (X1p1, Xtrl),

dépend bien évidemment des caractéristiques de la loi de X. c'est-à-dire de la fonc-tion de répartition F et. si elle existe, de la densité f.

a) Résultats généraux

Théorème 4

Si E (X) existe, alors E (X1n,) existe également.

Démonstration

On saitquelE(X)l < E (lXl); l'existencede E(X), c'est-à-dire E (X)<+æ, estassurée dès que E (lXl ) est f inie. On a ici :

lE(X(k))l = J,*lxl fn{x) dx: E(lx(k}l)

Or:fo(x) : " cl-] Fk 1(") (1 -F(x))n-n t(*) < n cl ] rt*t

pursque :

ll s'ensuit :

Fk-1 (^) (1 - F (x))n-k < t

lEtx111)l ç E(lx(kll)< ".x-] E(lxl)

Donc si X est intégrable, c'est-à-dire si E (lXl)existe et est finie. E (lX,n,i)etE (X(k)) existent et sont finies.

Remarquons qu'inversement I'existence de E (X111) n'implique pas celle de

E(X). Pour la loi de Cauchy, par exemple. E (X1s1) existe pour 2 < k < n - 1, alorsque E (X) n'existe pas.

268 PH. TASSI ' S. LEGAIT

Page 272: Theorie Des Probabilites

OBSE RVATION S ORDONNEES

Théorème 5

Soit nfixé;on note, sous réserved'existence. m: E(X) eta2 : V(X).

Alors:n

k:1

n

k:1

n

k:1

nT

k:1

Démonstration

De façon évidente, on a :

E(X(k)) : nE(X)

E(X21*y) : nE{X2)

n

lll E(Xrnt Xtrr) : nE(X') + n(n-1) m2

n

"I- Cov(X*y Xrrr) : na"f:l

nf ., xinr :

oI., 4' oout tout réelj

En faisant j : 1 et en prenant I'espérance :

n

r.1,, t(X1p1) : nm

Avecj :2,onobtient

E(xÎk)) : nE(X2)

En élevant au carré l'égalité :

et en intégrant :

*_)

n

k:1

(nE(

\ k:1

nnnf ,,

(xrnr : nI,' "o

(nEI\t:t

PH. TASSI - S. LEGAIT

*,0) :

269

Page 273: Theorie Des Probabilites

E(x1p1 x1r1) : nE(x2)+:+> E(xk

: nE(X')+n(n-1)m2

Enfin, en remarquant que :

n

n:., (x,n, - E(x(k))) :

nI., (Xu- m)

on a, en élevant au carré et en prenant l'espérance:

nn

k:1 l:1 '

Remargues

a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a.

X, discrète ou continue.

b)-Soit X de loi N (0, 1) ; on sait que X et X, - * sont indépendantes pour touti, donc X et Xlpy - X le sont aussi.

ll s'ensuit :

d'où :

soit .

E (x (x(k)- x)): o

E (X x(k)) : E (X') : v (X) :

E (nX X(k)) E (X1p1 X111) : 1

sort :

Xr)nn

k:1 i:1

OBSE RVATION S ORDONNE ES

1, F (x) : xsi O(x(1.Onavu

1

n

ln \ n: E(rf ,, x,,,(*),n/:,Il

Exemple

Soit X de loi uniforme %p, r 1

: f (x) :précédemment :

270

E (X(k)) :n+1

PH. TASSI , S. LEGAIT

Page 274: Theorie Des Probabilites

OBSERVATIONS ORDONNEES

De même:

v(x(k)) - k(n--k+1)(n+1)2(n+2)

et, en remarquant que fn, t (u. v) : (v _ u)n-2 (u s< v), on en déduit :

çov (X1p1. Xcr) : +#" * , r ( k, 1( n

b) Calcul approché des moments

On sait que Yn : F (X1) suit une loi bêta Ê (k, n_ k + 1) (théorème 3).

On déduit des propriétés de la loi bêta :

E (Y[) :

E (Y[) :

B(k+r, n-k+1)B(k,n-k+1)(k+r-1)lnt

D'où les deux premiers moments de yn:

E (Yk) : ;+1 v (Yk) :Remarque

- Si F est l'application identité. c'est-à-dire si la loi originelle de X est la loiuniforme sur [0, t J, E (xtr./ : E (yç). on retrouve bien les iésurtats de l,exempreprécédent. cependant, prus générarement, queile que soit ra roi de x, E (F (X,p,))estégal à l'espérance de la v.a. Urot qri serait obtenue en appriquant ra statistiqued'ordre à un échantillon (U,,, , Un)extrait d,une loi %ro, rr.

En effet. on peut représenter de la façon suivante les divers modèles inter-venant :

(k-1)!(n+r)!

Statistique d'ordre

(Xrry...,X,n,

I

lrt

F (X,o/ de toi

Fk,n-k+1)Yr : F (Xtrr), ..., Yn : F(X1n/

Xdeloi P:(xr, ..., xn)

I

FI+

F (X)de to, %ro, r,

Ur : F(Xr), ..., Un : F (Xn)

PH TASSI - S. LEGAIT

'aa

Page 275: Theorie Des Probabilites

OBSÊ RVATION S OBDON NE ES

La fonction F étant croissante, U1Ly : F (X1n,) : yn.

Le calcul approché des moments de la statistique d'ordre est fait en utilisantun développement de la fonction F-1 1Yn) au voisinage de E (Yn) :

F- 1 (y(k/: F-' (E (y(k/)+ ,j.,

ffn - E (yk)), t # r-' (u)lu:E(yp)

Or, F-1 (Yr) : Xlry ; en notant pr: E (Yn), et t : F-t :

X(o) : /(no) + ,j,, ffn-no)i /(i) {Ru)

Le calcul Oe E (X11/. V (Xtr/, Cov (X1py X11/ déRend de l'ordre auquel on arrêtele développement, c'est-à-dire du degré d'approximation. A l'ordre 4, on obtient lesformules approchées suivantes (il suffit de remplacer E (Yp par les formules précé-demment établies à partir de la loi bêta de Yn) :

e (xrr/ : e bnt - +*# 4t" (ont

on(1 -R1.) [1-Zon .{3), nn(1 -Rn) ,ét,...l- ("-2f L . /'"'(on) * t /'''ton)-l

v (xk)) : &5U ttt'' (on) -ffi o

avec :

A:2(1 -2pr.) r/t'(ovl Q"$nl - pk(1 -pk) ('/'bv) V"(pn) . + 4t"(oo)1"

cov(Xrrr Xrn/ : "*+

r/'(on) Q'b,l + ï=fl tavec ;

B : (1 -2pkl e" bn) Q'b,) + (1 -2pl t" $fi e'bnl

1 ,, 1* t on(1 -pr) t'bp) t'"' (pn) *; pr(1 -n/ /'(nn) t'"'loll

1*t on(l - p/ e" bn) t" $lDes tables numériques des moments de la statistique d'ordre existent pour

certaines lois, en particulier pour la loi normale N (0.1). Ces dernières sont repro-duites en tables 10 et 1 1 .

272 PH. TASSI - S. LEGAIT

Page 276: Theorie Des Probabilites

OBSE RVATIONS ORDONNF ES

3 COMPORTEMENT ASYMPTOTIOUE

Si les résultats à distance finie rattachés à un échantillon ordonné sont impor-tants, la théorie des valeurs extrêmes a été considérablement utilisée dans desdomaines d'application tels que la fiabilité, le contrôle de qualité, etc. ce paragrapheaborde la loi asymptotique d" X(n) et les lois limites des valeurs extrêmes d'unéchantillon ordonné.

Remarquons tout d'abord qu'un simple changement de variables permet depasser de la loi d" X(n)à celle 6e Xlty; en effet :

Min (X.,, ..., XJ : - Max (- X1, ..., - Xn)

on obtiendra la loi o" *,,1,.0"r le changement y - - y dans la roi de X,n,. plusgénéralement, cette remarqub'jouera pour étudier les comportements oes U]â. auxrôles symétriques Xlpy

"t X(n _ n * r I

Lorsque n tend vers l'infini, deux possibilités existent pour k :

a) soit k est f ixé, et, compte tenu de la liaison entre X1p1 et X1n _ k + 1y on étudie

le comportement asymptotique d'un rang donné ; le rapport ! t"na alors versn

0 ou 1. Ce cas correspond en particulier aux valeurs extrêmes, k : 1 ou n.

b) soit k tend vers l'infini, alors que le rapport i ,"nO vers û, O < a < 1.n

Cette situation est celle d'un fractile empirique d'ordre a (chapitre 3).

on peut synthétiser les deux types de comportements asymptotiques enécrivant:

lim -1&,

0(a(1l"l-æ n

Si a:0 ou a: 1. on étudie un rang fixé (valeur extrême) ; si O < a < j,on étudie alors un fractile empirique.

3.1 Convergence d'un fractile empirique

Théorèrne 6

Si F est continue et strictement croissante, et si O I a 11, alors :

PXr*t * xo

où xo est le fractile d'ordre a de X.

PH. TASSI - S. LEGA]T z/J

Page 277: Theorie Des Probabilites

OB SE FVATIONS O RDONNEES

Démonstration

kLe rapport - convergeant vers d, on ne restreint pas la généralité de la

ndémonstration en écrivant k : Ina] + 1. D'après la définition de la fonction derépartition empirique Fn donnée au chapitre 3 :

Fn(X11noJ*r1) : Ina]n

r (xtrt)- F (xJ : F (X111)- Fn(X111)+ Fn(X111)- F (xa)

I na]: F (X111)- Fn (X(k)) * --

d

On sait (voir chapitre 8)que :

Pdk (Fn, F) : Sup I F (x) - Fn (x)l O

Pd'où: F(X1py) -F(x/* 0

F étant continue et strictement croissante, on conclut en composant par F-1 :

PXtnl * xolorsquen*co.

Le théorème qui suit. établi par Pearson, Smirnoff et Mosteller, fournit laconvergence en loi de X,u,. ll est énoncé sans démonstration approfondie, celle-cipouvant être trouvée par ëkemple en [17] ou en [2].

Théorème 7

Soient (X(nr), ...,Xtnr.l) k variables ordonnées (k < n) extraites de la statistiqued'ordre (X(1I ..., X(n)).

On suppose :

11;

n.*æ, hi*- etliml : at O a o, 1. i : 1 à k.

Le fractile d'ordre a. est noté xo. (i : 1 à k).

Si 0 < f (xo.) < co, i : 1àk:/X, - x \|"(n1l "al \

Vn I : | - N(0,:)\ X,-,-x^ I loi\ tnk) ak ./

PH, TASSI . S. LFGAIT21 4

Page 278: Theorie Des Probabilites

OBSE FVATIONS O RDONNEES

I étant d'élément courant :

o,,: Jl? (1 < i< j< k)'t l(Xo) f (xo)

Eléments de démonstration

L'idée est de remarquer que I'on peut écrire :

F- (x_) - a,X(ni) : *oi - -1ffi* *",

où Rn converge en probabilité vers zéro.

La loijointe de (vG (Xtnr)- ^o), r,6 {X1nn1- xoo)) est identique à ceile de :

( . , (a,, - Fn (xo.,) _ (ar - Fn (xo,)) \I r/n\" f (xo.,) ,...,J" -::d, al

Or, n Fn (xo ) suit une loi gJ g, a), et, pour i ( j :

nCov(Fn(xo,). Fn(xo,)) : ai-q,dj: oi(-qjl.Le résultat s'en déduit immédiatement.

Remargue

Pour une coordo knnéeX1py avec lim- : d, on a:

r {x,0, - ^; L N (0, ao)

^ a(l -a)oâ: t\^^l

3.2 Convergences des valeurs extrêmes

Onseplaceici danslecaskfixé,soita:0 ou a: 1.

Soit : Yr: F(X,n,), et Go: nYn.

On suppose n -* oo, k restant fixé

PH. TASSI - S. LEGAIT

Page 279: Theorie Des Probabilites

OBSÉ RVATION S OFDON NE FS

Théorème 8

ck t; y (k, 1)

Ce résultat provient du comportement asymptotique de la loi nÉ (k, n-k+1).qui converge en loi vers une loi gamma y (k, 1). En effet, par définition d'une loi psur [0, 1]. Gr. peut être mis sous la forme :

nA Auk - A+B A B

;*;oùAetBsontdesv.a.r.indépendantes,deloisrespectivesyk,lletf(n-k+1,1).

Ona:/n\ r< /n\ kEl-l:-etvl-l:,\n/ n \n/ n'

Adonc - converge en probabilité vers 0. De même :

n/B\ n-k+1 / B\ n-k+1

Ë -

v [ -l- 2\n/ n \n/ n

Bet - converge en probabilité vers 1. En vertu du théorème 16 du chapitre 7,n

Gn converge en loi vers la loi de A, c'est-à-dire f (k, 1).

3.3 Les lois des extrêmeslntéressons-nous plus particulièrement aux (vrais> extrêmes, correspondant à

k: 1 :X11y et X,n,. Compte tenu de la remarque faite en début de paragraphe, on

se limitera à l'étude 6e X1n;.

Définition 3

On appelle loi asymptotique des extrêmes, ou plus simplement, loi des ex-trêmes, la loi de la variable Y telle eue X(n)

l; Y quand n - æ.

a) Les trois formes asymptotiques

Le comportement asymptotique de la loi de X1n; dépend de la distributioninitiale F de X. Fisher et Tippet (1928) ont établi I'existence de trois seules lois limitespossibles.

276 PH. TASSI - S. LEGAIT

Page 280: Theorie Des Probabilites

OBSE RVATIONS ORDONNEES

Loi du type I

La loi du type I est définie par sa fonction de répartition :

/ ,l\| -t r

F.,(v,^,r) :exp\-e u )o€R,1l)O

on notera Ft (y) la valeur de F., (v, o, 1)correspondant à la variable stan-Y -,Àdardisée cette loi est appelée généralement loi de Gumbel ou double-

lJexponentielle.

Loi du type ll

Elle est définie par sa fonction de répartition :

lr y-^

)- eFr(y, l,p,Êl:e I P I .ltr,*-1(y)

.l € lR, p >O, p>O

Cette loi est parfois associée aux noms de Fréchet, plus rarement à Fisher et

Tippett. On notera Fr(V, Êl la fonction de répartition F, (y, O, 1, F) de Y - 'À

lJ

Loi du type lll

Elle est définie par sa fonction de répartition :

- / i-v\PFs(y,i,p,Êl:11,r,**1(y)+e I s ) .11--,21(y)

(,À € lR. p )O, p>0)

cette troisième forme de comportement asymptotique est du type weibull (onretrouve cette loi en faisant le changement y * - y). sur un support borné.

On notera F"(V, h la fonction de répartition Fg (y. O, 1, P) de'la variable stan-Y-^

dardiséelJ

On remarquera que les lois du type ll et lll sont des lois tronquées ; seule la loidu type I est définie sur lR, de façon non triviale.

En outre, les lois du type ll et du type lll peuvent être ramenées à la loi du typeI respectivement par les transformations :

Z:Log(Y-À) et T: -Log(À-Y)

PH TASSI - S TEGAIT l/ /

Page 281: Theorie Des Probabilites

OB SE RVATIONS ORDONNEES

Par exemple :

P(Z<zl: P (Y<i1e') : exp(- UB s-9z1

Z est donc de la forme utype lo avec i : Log lr el pt = 1-

.

pb) Propriétés

Nous ne considérerons par la suite que des variables standardisées :

Typel : Fr (y):exp(-"-v1 y€ lR

TYPe ll : Fr(V, Êl : s-(v)-É y € R*

(e-t-vÉ y€rRType lll : F3 (y, Bl : (V, Fl : {

( 1 ye lR*

Propriété 1

Soit Y une v.a. de type I ; la v.a. X : e-Ysuit une loi exponentielle f (1.'l).

Propriété 2

Soient deux v.a. X et Y, indépendantes, suivant une loi de type I. La v.a.U : X - Y suit une loi logistique.

Démonstration (cf . exercice 4.1, chapitre 4).

c) Calcul des moments

Le calcul des moments des lois des extrêmes n'est pas toujours aisé. Cepen-

dant,si Ysuituneloi dutypelstandardisée, X:e-Ylcasstandardisé) suituneloiy (1, 1l,. ll est donc possible de calculer la fonction caractéristique g" de Y :

gY(r) : E(eitY) : E(X-it)

Or, pour une loi y (1, 1l:

E(Xr) : F(r+1)pour tout r, d'où :

zyftl: r(1 -it)d) Génération de lois des extrêmes

Théorème 9

Soit (Yn), n 2 1, une suite de v.a. indépendantes identiquement distribuées,de loi exponentielle, et N une v.a. suivant une loi de Poisson tronquée en {O}.Alors X : Sup (Y,,, ...,Y*)suit une loi du type L

218 PH, TASSI _ S. LEGAIT

Page 282: Theorie Des Probabilites

OBSE RVATIONS ORDONNFES

Démonstration

En décomposant :

{X:x} : i {X:xn N : n}, ona:n:1

æf*(x) : I- f*(x,/N: n) p(N:n)

n:l

= i ne-x11 -e-")n-1 1si-ry-r ].n=1 n I

_ À "-" i [,1 (1 _e-x)]t

ei-1 k:O klôtx x\ Àe^

= -

".Â(1

'e- r - g-x-,Àe-xei-1 e^-1

e) Relations entre les lois asymptotigues de Xfr)"t X(n)

ll existe entre les lois asymptotiques d" X(n) et de X111 des relations aisé-ment démontrables par changement de variables. on notera par F] la f.r. de la loilimite de X,.,, (i : 1,2,3).

Ainsi, soit Y de type l, et faisons la transformation Z - - y.

FzEl : P (Z<z) : p(-y< zl : 1 - F"(-z)

- 1-F,(-2,À,Ulf f x-(-^) \\

-1-exP[-exp I ' 'll\ \ u ))

: Fi(x.-À,pl

Nous noterons :

_YF.,(., À, pl * Fi (., - À, pl

On démontre de façon analogue les propriétés suivantes :

Fz ('' À' u' Pl : rË t'' - À' P' Ê)

Fs (.. i, p, p) : .Fât., - À, p, Ft

PH, TASSI S LFGAIT 279

Page 283: Theorie Des Probabilites

OB SE RVATIONS ORDONNE ES

Y-1Fr(., O, tt, pl '- Fâ t., O, tt'-' , Bl

Y-1F. (., O, p, Êl '- Fâ (., o, rt-', Pl

e-,À ,F, (., l, ttl

" - FË 1., O,

"- o, t,-')

Fâ (. o. r.,, pl L\Y F{ (., Ln p, Ê-'l

Fl (., o, u, Pl L\Y

F., (.' Ln P, B-')

F. (.. o, r, r, - Ll (-J

F, (., Ln u, Ê-')

De même, les relations inverses entre F et F* existent. par exemple :

Fâ (.. o, ^,

p, Ê) - t ,,(., -

^, r.t, Êl

L'ensemble de ces relations peut être résumé par le diagramme suivant :

LnY

F3_FâY-1

3.4 Eléments sur la démonstration des convergences enloi de X1n1

L'idée de base, due à Fréchet (1927iret à Fisher et Tippett (1928), consiste àdécouper l'échantillon de taille n en k sous-échantillons de taille m, k : nm ; notons(X,), i : 1 à n, l'échantillon initial, et (Xj), j : 1 à k et I : 1 à m, les élémentsdechaque sous-échantillon. ll est évident que :

Fi

e-Y

F1

F2

28A

Sqp Xi : Sqp Sço Xlt.l t

PH, TASSI - S. LEGAIT

Page 284: Theorie Des Probabilites

OBSE RVATIONS OBDONNEES

Faisons tendre m vers l'infini pour k fixé ; soit G la fonction de répartitionla loi limite d" X(nI n * æ. A une transformation affine de ra variabre près,coefficients dépendant de k, on aura l'identité de Gk et de G :

Gk1x1 : G(an x + bn; (s)

La relation (s) traduit ce que I'on appelle le principe de stabilité, et estl'équation fonctionnelle définissant toutes les lois limites possibles pow i,n,. L",constantes an et bn sont des constantes de normalisation, réelles et indépendantesde x.

Définition 4

Une fonction de répartition G est dite stable (sous-entendu.pour un maxi-mum,) s'il existe des suites (an), an ) O, et (bn) telles que :

Gn1xl : G(anx+bn)pour tout x réel.

Remarque

Plus généralement, si F, et F2 sont deuxfonctions de répartition, F, et F2 sontdites de même type s'il existe deui constantes a (a ) o) et b telles que :

F, (x) : F,, (ax + [)pour tout x réel. Sur l'ensemble I des fonctions de répartition sur lR, la relation Onêtre de même type> est une relation d'équivalence. ôn appelle type une classed'équivalence, c'est-à-dire un élément de l,espace quotient

'g/e.

La résolution de l'équation (s), que nous n'aborderons pas, conduit au théo-rème suivant, dû à Gnedenko :

Théorème 1O

Soit G une fonction de répartition stable. Alors G appartient nécessairement àl'un des types suivants :

TYPe | : F, (y) : exp (- e- Y)

Type ll : F

" (V, Êl: exp (- U- É1 t ,r* (V)

Type lll : F. (y, É) : 1 ,** (y) + exp (- (- v)Éy t,*_ (V)

(B paramètre strictement positif.)

Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêtpropre, il est important d'essayer d'identifier. si possible, vers quel type de loi vaconverger X1n, selon sa loi initiale F.

dede

PH TASSI -S LEGA]T ?Ê 1

Page 285: Theorie Des Probabilites

OBSE BVATIONS ORDONNEFS

Définition 5

On appelle domaine d'attraction de F,(i : 1,2,3) l'ensemble g ffil des lois

de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi

F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,.

i:1 à n

Nous allons donner maintenant des conditions suffisantes de stabilité permet-tant de préciser le domaine d'attraction de chacun de ces types.

Définition 6

Soit G une fonction de répartition sur lR; une fonclion de répartition F seradite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an),

an ) 0. et (bn) telles que :

lim Fn(anx+bn):G(x)n*oo

pour tout x point de continuité de G.

Remarque

Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peutmontrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attrac-tion d'une et une seule fonction G, représentant d'un type"

Les caractéristiques des domaines d'attraction sont établies dans les théo-rèmes suivants :

Théorème 11

Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, v),

f étant nulle sur [v, + -1 (v fini ou non) ; si

tim f'(x) (1 -F(x)) __1x Îv f' (x)

alorsFeQç.,t.

Théorème 12

Soit F une f.r. de densité positive f sur Iu, + æ[; si :

rim xf(x) :É>ox-+oo 1-F(x)

alors F € 9l ffzl, Pl).

282 PH, TASS . S. IEGAIT

Page 286: Theorie Des Probabilites

OBSE RVATIONS ORDONN EES

Théorème 13

soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv, + -1 .

si :

,., (v - x)f (x) _,xlv 1-F(x)

alorsF€gFs(.,p1).L'ensemble des démonstrations peut être trouvé en IS], [7] ou t 1 Sl.

Exemples

a) SoitX -) y (1),toiexponenrieltededensité f (x) : e-xi,^*(x).

La fonction de répartition Fn de Xlny u.t ,

Fn (x) : (1 - e- x;n 1,0* (x)

Soit :

Zn:X(n) -Lnn

1F,(z): Fn(z+Lnn) :(1 -- e-z)n*exp(-e-z)'n

quand n*æ. n

L'appartenance de la loi r (1, 1) au domaine d'attraction de F., peut êtreretrouvée à I'aide de la condition du théorème I 1 ; en effet, pour x)O :'

f'(x) (1 - F (x)) e-" e-"f1^)-:- 1"-"Y

:-i

b) Soit X de loi togistique, de f.r. F teile que :

F(x) :1 + e-x

La f.r. de Xlny est Fn (x) : (1 + e-")- n. Soit Zn: X(n) - Ln n ;

Fr_(x) : Il +e:(r*tnn) ]-n : (1 * 1 "-r)-n-exp(-e-.)'nn

quand n - æ.

De même que pour l'exemple a) :

f'(x) (1 -F(x)) :e_*_1__1ft (^)

quandx-+æ. '\"/

PH TA,SSI - S. LEGAIT 283

Page 287: Theorie Des Probabilites

OBSERVATION S ORDONNEES

c) Soit X suivant une loi de Cauchy de densité :

1

f (x) = * "t)

Xxf(x)

-=

1-F(x)

7r (1

pourx) 0

(1 + x2) + -Arctgx) (1 + x2)Ar"tg a

rim xi(x) - rim x

= :1x*+oo 1-F(x) x-+co 1+x'

La loide Cauchy appartient à g F2(.,1)1.

d) On établit que la loi y (p, 1) et la loi N (0, 1) appartiennent à Q ç.,7, et laloi uniforme %ro,r)à g Fs(.,1]l1.

Remarque

On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction.Ainsi, pour F' (y):

f'(v) (1 - F, (y))L ey+e-Y (1t" (vl

: gY 19* e-Y

Or: e"-Y - 1 - e-Y quand y -* + -, et donc :

_ e- "-Y) (e- v _ 1)

- 1) {e-v - l1

f'(y) (1 - F' (y)) *-1

quand Y*+oo

4 LA LOI DE L'ETENDUE

4.1 Résultat général

Un cas particulier de fonction des extrêmes très utilisé en statistique descrip-tive est l'étendue W I Xtnt - Xt'f ou plus généralement les quasi-étendues de laforme X11y- X(k) (t > k).

284 PH. TASSI - S. LEGAIT

r'(y)

Page 288: Theorie Des Probabilites

OBSERVATIONS ORDONNEES

Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie auparagraphe 2, on cherche la loi marginale d"zt,t après avoirfait le changement devariables :

(*,-, ) (u) -(*,u, \\*,,, / \.,,n/ \x(rt-x$t)

La loi jointe du coupre (rJ,zt,k) s'obtient simprement, en remarguant que ravaleur absolue du jacobien du chaËfement de variabres est 1 :

Qfu,z): B(k,i-k) B(r,n-l*1) f (u) f (u+z) Fk-1 (u)

[1 - F 1u + z11n-1 [F (u + z)- f 1u;11-k-t

En intégrant par rapport à u, on obtient la densité e1,pe) deZr,n:

Q1,pQ): J,r rn-t(u) t1-F(u+z)ln-l

lF(u+z)-r1uy1l-k-t t(r) f (u+z)du

A titre de cas particulier, considérons la longueur des mailles, c,est-à-direl'écart entre deux coordonnées successive. Zk*1,k 1[: 1 à n _ 1) :

ekri,uLzr : ffi J,* rn-t (u)

[1-F(z+u;]n-k-t.f (u) f (u+z)du

En calculant E (Zx*t,u),on obtient après changement de variables ;

E(zx*r,r,.): cl Jn t1-F(v)ln k rk1v1 ov

Exemple:

Soit X de loi exponentielle ), (1).

eu*t,ut.t :6 *îil+, (1 -g-u;k-t

"-(n-k-1)(z+u) "-u "-(z+u) 6u

PH. TASSI - S, LEGAIT 285

Page 289: Theorie Des Probabilites

OBSE RVATI ONS O RDONNE ES

n ' "-

(n-k)z ,1 (1 _ t)k 1 ,n_k 6,(k-1)l(n-k-1)!

en posant t: e-u; cette dernière intégrale n'est autre que B (n - k + 1, k), etdonc :

Q*+1,k(z) : (n - k) s- n-k z

Zk*1,u-y(1,n-k)

1

E(Zn*1,1) : n_k

1

V (Zk.1,k) : (" _ kf

4.2 L'étendue W

a) Loi de W

Pour obtenir la loi de l'étendue W :X(n)- Xf,,f il suffit de faire I : n et k : 1

dans gr,o (z).

La densité en, t de W est donnée par :

pn,1(w) : n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du.

Sa fonction de répartition Fn,,, (w) est :

.^wFn,

1 (w) : J'o e n,1Ql dz

: d: n(n-lf fJ[ fr(z+u)-F(u)]n-2 f (u) f (z+u)dz) du

: d: n(n-1) f (u) du (JT** tF(v)-F(u)ln-2 f (v)dv)

: d: nlF(u1w)-F(u)ln 1 orluy

b) Espérance de l'étendue

286

E(W) :E(X1n1) -E(X(1))

PH IASSI - S. LEGA]T

Page 290: Theorie Des Probabilites

OBSERVATIONS ORDONNEES

Avec les notations précédentes :

n-1 n-1E(W) :

k:1 E(zr,*t,n) :

ol r Jn cl (1 - F(v))n-k Fk(v) dv

E (w) : t^ ;: t

c5 tr - F (v))n-k rklv; dv

que l'on peut écrire :

E(W) : J,* tt -tl-F(v)ln - Fn(v)l ov

en utilisant :

! cT (1 - F)n-m pm - ',

m:oExemple

Soit X de loi uniforme sur tO. 1 I. La densité de W : X(n) - X111 est :

pn,,, (w) = n (n - t) "f; - * [(u + w)- u]n-2 du

: n (n - 1) (1 - w) y7n-2 tto,r1 (*)

E(W) : ll f r -(1 -w)n-wnl dw:++Remarque

Soit X suivant une loi d'écart-type a; considérons la v.a.r. R cléfinie par:

1WR: il

(Xtn)_Xt,t) : O

où la constante dn est. par définitionl égale à , -n

/x,. x.. \E( ,n, _ rrr

!

\o o /Par construction, on a E (R) : o. Cette propriété est fort utile en statistique,

et les constantes dn ont été calculées pour la loi normale.

c) Contenance de l'étendue

Partons de la densité de la loi de (X,,,,. X,n/ :

fn,r (u,v) : n(n- 1) tF(v)-F(u)ln-2f (u) f (v) 11,.u1

PH. TASSI - S. LEGAIT 287

Page 291: Theorie Des Probabilites

OBSERVATIONS ORDONNEES

Procédons au changement de variables :

(",,,\ /'\ : (*u, \\*,",/ \"/

: \rrx,",r -F(x(1//

Son jacobien est :

: f (X1n/

d'où la densiré de (2, nl :

fr,o(.,Trl: n(n-1) rn-2 l(.1 1r_,p_111 _.oy1el

La loi marginale de rr est :

fr(nl : îL-" n(n- 1l rn-z da avec a : Flz)

f 7r0r) : n (n - 1) (1 - r) rn'2 1to,r1 (n)

ll s'ensuit que n, qui représente la probabilité que X soit dans l'étendueobservée, suit une loi bêta F 6 - 1 ,2).

Soit alors ), € [0, 1]. ta probabilité P {r } y} : P (f) est ta probabilitépour que 1oo y o/o au moins de la population soit dans l'étendue observée (Xtrr Xtn/.

P(trln: fy f ,(tr) dr - 1 - n yn-1 + (n- 1) rn

P(yl:1-nyn-1 +(n-1Jy"On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre

d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de lapopulation soit dans l'étendue d'un échantillon observé.

1

_ i (xrr/

0

f (x(n/

28B PH, TASSI S. LEGAIT

Page 292: Theorie Des Probabilites

Chapitre 10

Notions élémentaires sur les processus

_ Ce chapitre se propose de montrer comment le temps est introduit dans leséléments classiques du calcul er de la théorie des probabiliiés.

1 DEFINITION D'UN PROCESSUS ALEATOIRE

Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espacequelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant lapropriété de mesurabilité ;

V A' e .4' x-1 1p-'l e ,slLa loi de probabirité de X est [image de p par X, notée px, définie par :

V A'€_ ,t4' px(A') : p(X-1 (A'))

1.1 Définition d'un processus

Soit (T, G7 un espace quelconque, G étant la tribu des événements de T.

Définition 1

On appelle processus aléatoire l'application X :

@, .vll x $, Gl - (a',,&,1qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t e rfixé, X, est une v.a. sur (Q, ,,4,p).

Par extension, on écrira un processus sous la forme d'une suite de v.a.indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant unegrandeur aléatoire varia'nt dans le temps.

Remarques

- U -Si ,o', ,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou

(lRn, g,nl, le processusx est réel ou multidimensionnel ;on dira plutôt univarié oumultivarié de dimension n ; si A' C Z le processus est à espace d,états discret.

PH. TASSI . S, LEGAIT 289

Page 293: Theorie Des Probabilites

NOTIONS ELEMENTAIRES SUF LES PROCESSUS

2) Pour c.r € Q fixé, X, (ar) est la trajectoire de X pour l'individu ar,

3) Si T : lR. on parle de processus continu.

4) Si T : Z, on parle de processus discret, noté (Xt, leZ).

5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instantd'observation de la v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeurtemporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uraniumd'une carotte rocheuse dans une exploitation en un point a-r et à la profondeur t.

Définition 2

On appelle loi du processus PX. loi image de P parVt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre guepondante extraite de P^.

1.2 Processus équivalent

Xla

; on en déduit que,loi marginale corres-

Définition 3

Soient deux processus X et X* admettant le même ensemble des temps T etmême espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,,.il*, p*|.

Ces deux processus seront dits équivalents si la relation R suivante :

P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R)

est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et departies Br. ..., Bn extraites de ..n('.

Remarque

Un processus stochastique est une représentation mathématique d'un "sys-tème, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le"hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un trèsgrand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la

valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuellement avec n grand, pour être dans les conditions d'application des lois des grandsnombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'auphénomène étudié est associé une classe d'équivalence de processus plutôt qu'unproeessus. Le probabiliste aura donc la liberté de choisir dans une classe deprocessus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarcheest analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur desclasses de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. cha-pitre 3).

PH, TASSI S. LEGAIT

Page 294: Theorie Des Probabilites

NOTIONS ELTMENTAIRES SUR LES PROCESSUS

2 PROCESSUS STATIONNAIRES

Dans l'étude des processus stochastiques, une place particulièrement impor-tante est tenue par les processus dont les lois de probabiiité présentent une inva-riance pour toute translation dans le temps (on considère ici que l,ensemble desindices qui caractérisent le processus est l'ensemble des temps). Cette propriétéd'invariance temporelle est couramment utilisée en économétrie, en théorie desfiltres, en analyse statistique des séries temporelles à I'aide de processus auto-régressifs- moyennes mobiles (ARMA).

2.1 Stationnarité stricte

Définition 4

Le processus réel (X,, t e r) est dit strictement stationnaire si, pourtout n-uple de temps tt < tzT, et pour tout temps h appartenant à T avec ti + h C T, Vi : 1, ..., n,la suite(X,,, * n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)

px,t' ' *,n - p*r, + h' ,Xtn + h

Remarque

Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, toustl,tz, ...,tn et tout h :

P (Xtr < "1,

...,X,n ( xn) : p (X,,,

En particulier pour n : 1 :

P(Xt<x) : P(Xtnr. (

* h ( x1, ..., Xtn* r,

( xn)

En effet, d'après la définition 4,pour toutchoixd'événementsA,,..., An, on a:

P(Xr1 €A1,...,X,ne An) : p(*,1 *n € A,'...,Xtn*5 e An)

ll suffit de prendre A, : J- *, x,[.

PH. TASSI - S. LEGAIT

x),Vh€T

Page 295: Theorie Des Probabilites

NOTIONS ELEMENTAIRES SUR LES PI]OCESSUS

Théorème 1

Si{Xfl t € T) (avec T : lR, lN ou Z) est stationnaire, alors on a en particulier:

(i) E(X,) :m Yt€T(ii) Var {X,) : o2 Vt € T

(iii) Cov (X,, Xr) : r (lt - sl) V (t, s) € T'?.

Démonstration

(i) et (ii) sont évidents ; (iii) Ccv (X,. Xr) existe si e (X'?,) et E tx'?.) { - d'aprèsl'inégalité de Schwarz :

lE (xrxs)l < 1e 1x]))"' 1e 1x!))"'

D'après la définition, il est clair qu'en prenant deux temps t et s, et h untemBs quelconque de T :

Cov(Xrnh,Xr*6) : Cov(Xt, Xs) Vh € T

Notons / (t, s) cette covariance :

f (t. s) : Cov (Xr _ s, Xd en posant h : -s: Cov (Xo, Xs_t) en posant h : - t

Donc la covariance ne dépend que de la valeur absolue de la différence destemps et de la loi de Xo ; dans ce cas, on notera cette covariance f (lt - sl ).

Ces propriétés conduisent à une définition plus faible du concept de station-narité.

2.2 Stationnarité faible

Définition 5

Le processus (X,, t € T) est dit faiblement stationnaire ou stationnaire audeuxième ordre s'il satisfait aux propriétés suivantes :

E(X,) : m Yt € T

Var (Xr) : o2 Vt € T

Cov (X,, X, u 6) : r (h) V (t. h) € T'z

Définition 6

;r {hr} porte ie norn de fonction d'autocovariance eiu processus.

292 PH TASSI S. LFGA]T

Page 296: Theorie Des Probabilites

NOTIONS ELEMENTAIÊES SUR tES PROCESSUS

La condition de stationnarité au deuxième ordre est plus faible que la condi-tion de stationnarité (stricte). Cette stationnarité faible est très souvent utilisée enéconomie. Par abus de langage. nous appellerons par la suite série stationnaireune série temporelle stationnaire au sens faible; il convient de remarquer qu,im-poser l'espérance et la fonction d'autocovariance indépendantes de t est une condi-tion très difficile à remplir dans la réalité des séries économiques. Néanmoins, ainsique nous le verrons par la suite, les processus stationnaires présentent un grandnombre d'avantages. L'une des préoccupations du statisticien sera donc de usta-tionnariser, les séries dont il dispose.

Propriété 1

f (h) est une fonction paire.

Soitt* : t+h

r (h) : Cov (Xr Xt * 1.,) : Cov (Xt* _ h, Xt*)

: Cov (Xt_, Xr* _ n) : y (- h)

2.3 Remarques diverses sur la stationnarité

a) Exemple de processus non stationnaire

considérons le processus X, : at + b + r- où la suite des e. est indéoendanteet identiquement distribuée (i.i.d.)'d'espérance riulle et de varianc'e ar. Le processusX, n'est pas faiblement stationnaire car :

E(X,) : at+bPour le "stationnarisero, considérons maintenant le processus *différence

premièreo Y, :

Yr: Xr-X,_, : a*tr-€t_lE (Yr) : a pour tout t

Var(Y,) : var(er-st_1) : var(c,) +var(st _1) = 2o2

d'après les hypothèses sur rt.

cov(Y'' Y'*n) : Il,:;;;1.;:*:-::]l ,,*h *,,_, 6,_,*6)

- *E(rr r,_1+fl - E(er_,, er*n)

d'après les hypothèses sur rr.

PH TASSI . S. LEGAIT

Page 297: Theorie Des Probabilites

NOTIONS ELEMENTAIRES SUR LES PROCESSUS

Le processus (Y,) est donc faiblement stationnaire.

b) Processus stationnaire

ll est fréquent d'assimiler la notion de processus stationnaire à celle de pro-cessus maîtrisable. régulier, "sympathiquen. ll n'en est rien, et les trois exemplessuivants sont à retenir :

Exemple I

Soit le processus X, à valeurs sur {- 1, + 1}, tel que :

1P(Xt: 1) : P(Xt -- 1) :;, pourtoutt.

Ona:E(X*) : o

1^1V(Xt) :(-1f.

z*lf . t -1et pour h*O:

y(h) : E(Xr Xt*6) : 1 + -2î11

Le graphe du processus est, par exemple :

?-+-1

Cov (Y,, Y, * n) :

( -o"^si h: -1| -o'si h : 1

{ o si h€ z-(-1,0, 1)

-o11- +1. -44

,tlrrlr1i\

294 PH. TASSI . S. LEGAIT

Page 298: Theorie Des Probabilites

NOTIONS ELEMENTAIRES SUR LES PROCESSUS

La meilleure prévision de X, par une constante est E (X,) : o (cf. chapitre 5),qui n'appartient pas à l'espace des valeurs de X,; le processus X, est bien station-naire, mais oimprévisible> au sens propre du ternie.

Exemple 2

on corrsidère le processus X, eui, à la date t (T € lN - {o}), prend les valeurs :

I O avec la probabilité 1 - 1/t

*, : I tï avec la Probabilité +t I - .,Æ avec ta probabitité +

- t/l tftE(X.) : + -0'2t21V(Xt) : E(X? : ;t: + j. : t2t 2t

Cov (X,, X,) : E (Xr Xr,)

o

- y\ Jl' avec la probabilité -]-2tt'

v\ v\' avec la probabilité -:-2tt'

X, X,, :

d'où E (X, X,.) : O.

X, est donc stationnaire au sens faible.

PH. TASSI S. LEGAIT 295

Page 299: Theorie Des Probabilites

NOTIONS ELEl\IENTAIBES SUR LES PROCESSUS

Plus t augmente. plus X, prend des valeurs nulies sauf, avec une probabilité

de plus en plus faible, des valeurs t Vt qui tendent vers I'infini. Le processus X,est stationnaire, et pourtant est susceptible d'engendrer des points oaberrants,.

Exemple 3

Soient les processus X, : €t et Yr : (- 1)t er où e, est un processus

stationnaire, E (€t) : O, V ltr) : o", E (e, e,.) : 0.

S, : X, + Y, est tel que :

I

^ |2r, sitestpaira5.:(t i o sinon

\

o E(S,) : O

I

I q o' si r est pairr V(S,) :

{

( O si t est impair

S, est non stationnaire ; la somme de deux séries stationnaires n'a doncaucune raison d'être stationnaire.

3 CORRELATION ET CORRELOGRAMME

3.1 Le coefficient d'autoccrrélation

Définition 7

Soit le processus (Xt, t C T) ; on appelle coefficient d'autocorrélation pour les

temps t et s, la valeur :

Cov (X' X")ut\..Al -' ' I s' lv (xr)lt" lv (xr)1"'

Si le processus est faiblement stationnaire, p lXt, X, o r,) est défini pour lestempstett+hpar:

p(h) :p(XrXt-n) :+I V (Xt)1"' 1V (X1 * 6)1"'

296 PH, TASS] - S. LFGAIT

Page 300: Theorie Des Probabilites

NOTIONS ELEMENTAIFES SUR LES PROCESSUS

et, puisque V (Xr) : V (X, * 6) :

p{h) :

p(n) :

b ez)

T-hZ- (xt-xr) (x,*h-xT)

ï:l

-"2- Xr)

r(0):

r (h)

r (0)

Propriété du coefficient d'autocorrélation

Si le processus est faiblement stationnaire, alors. puisque y (h) est une fonc-tion paire :

p(h) : p(-h)

Pour les calculs effectifs, p (h) est estimé de la façon suivante ; si l'on disposedes observations (xr, ..., xr) du processus, on estime p (h) par :

Z) l'applicationnction s'appellepropriété précé-

X" "', X, * t' on..., X, * p) (donc

I

I

I

)

(xt, t €cette fotu de la

= tN.

notées; de (X.

' P (t't

i

i.... p il )

"'... 1

Définition 8

On appelle fonction d'autocorrélation d'un processus ()Z * l- 1, + 1l définie par h * p (h). Le graphe de cl'a utocorrélogra m me (ou corrélogramme). Compte ten(dente, le corrélogramme est en général tracé pour h eSoient alors (k + 1) valeurs successives du processus, r

appelle matrice de Toeplitz la matrice des autocorrélationssymétrique):

a 1. p(1t.t'...| '...I P(t) """'l:t:t:i:\.- p ik) .. .. p (1i""

Tt (x,

+- 1i- I

T4t

297PI-1, TASSI - S. TEGAIT

Page 301: Theorie Des Probabilites

NOTIONS ETEMENTAIFES SUR LES PROCESSUS

3.2 Exemples de corrélogramrnes

L'examen purement descriptif du corrélogramme fournit souvent d'intéressantsrenseignements quant au processus étudié.

Examinons quelques cas, la pratique montrant qu'existent des formes relati-vement standard.

Exemple 1

L'autocorrélation devient rapidement "statistiquement> nulle, puisque seulsp (1) et p (2) sont différents de zéro. (Les droites horizontales représentent les limitesde la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deuxlimites, on accepte Ho.) lci seuls p (1) et p (2) sont significativement différents de

zéro, p (1].- O,lZ et p 12):0,38 ; bien sûr p (O) : 1, ce qui n'apporte aucuneinformation. X, est donc corrélé linéairement avec X, _ ,l et avec X, _ 2 ; aucuneautre observation du passé du processus n'est liée de façon linéaire à X,.

Exernple 2

Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin quec'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogrammede:

où eo -) N (0,1).

298

4a...a a aaaa....

a. aa aaaaaaaaa.taaa a.a.a

O)æF(otf)+cY)

N

o.Ncr)+r.c)

(of-æO)

I

Xr: at+b+st

PI_i.TASSI S LEGAIT

Page 302: Theorie Des Probabilites

NOTIONS ELEMENTAIFES SUR LES PROCESSUS

Exemple 3

Page 303: Theorie Des Probabilites

NOIIONS ELEMENTAIRES SUR LES PROCESSUS

Le processus représenté est :

7TT 7TTX, : 0,51+5+4 (3sin 6 -cos

-)+e,s, -) N (O,2)

Exemple 4

Les corrélations p (h) sont toutes nulles, sauf p (12) et p (241; X, est donccorrélé avec Xr_ 12 et Xt ,o. Ceci laisse présager une saisonnalité de période 12(saisonnalité annuelle si X, est une observation mensuelle). Pour une série trimes-trielle, on aurait p (4) - O.

ll semblerait donc suffisant d'extraire la saisonnalité pour obtenir une sériestationnaire, en étudiant la série X, - X, _ , r.

Exemple 5

La série analysée présente là encore un phénomène saisonnier de période12, mais également un grand nombre de corrélations non nulles hors des picssaisonniers. Le processus est a priori non stationnaire et saisonnier. Le corrélogrammeest celui de la série représentée ci-après. qui est le trafic aérien des lignes exté-rieures. graphe dont le simple examen révèle la non-stationnarisation (tendance detype exponentiel) et la saisonnalité (pics et creux réguliers) ; remarquons que cettesaisonnalité se déforme.

o)æF(o|r)stcf)(\

oC\,1

cf)<trf)(oFcoo)

I

PH. TASSI S. LEGAII

Page 304: Theorie Des Probabilites

NOI]ONS ELEMENTAIRES SUR LES PROCESSUS

ar"a a.a aaa aaaa a.a

a

n

al

I

/\ AA /\ A r{, ,[,

|{

1963 1964 1965 't966 1967 1968 1969 1970

301PH TASSI- S. LFGAIT

Page 305: Theorie Des Probabilites

NOTIONS ELEMENTAIFES SUF LES PFOCESSUS

4 FONCTION D'AUTOCORRELATION PARTIELLE

4.1 Définition générale

Donnons tout d'abord une définition générale. Soient deux v.a.r. Y., et Yr, et nv.a.r. Zr, ...,2n admettant toutes des variances finies. On note Y] (i : 1,21 la

régression de Y, sur les variables 2.,, ...,Zn, 1 (régression affine, avec termeconsta nt).

On appelle corrélation partielle de Y, et Yrpar rapport à2r, ..., Zn le coeffi-cient de corrélation linéaire entre les parties de Y, et Y, non "expliquéesn par Y{ etY), soit :

Cov (Y., - Yi. Y, - Yà)PY.,Yr/2.,,...,2n: m

Par exemple. pour trois v.a. Y,, Y, et Y.. on trouve le classique coefficient decorrélation partielle de la statistique descriptive :

Ptz- Pts PzzP'rzts : r.--..-.-2: r:--_2_Vl-Prs \/t-Qzs

4.2 Le théorème de Frisch et Waugh

Nous énonçons maintenant sans démonstration un théorème fort utilisé enéconométrie.

Théorème 2

Le coefficient de corrélation partielle de Y, et Y, par rapport à2.,, ..., Zn n'estautre que le coefficient de Y. dans la régression affine de Y., sur 21, ...,2n,Y2.

Plaçons-nous alors dans le cadre d'un processus (Xt, t e Z) réel, stationnaire,du second ordre.

Définition 9

Soit la séquence X,, n, X, h + 1. ...,X, extraite du processus (X,, t e 7Z).On

notera, comme précédemment, Xi et Xi _ n les régressions affines de X, etXr nsurXr_h+ 1, ..., Xt-t.

302 PH. TASSI S. LEGAIT

Page 306: Theorie Des Probabilites

NOTIONS ELEMENTAIRES SUR LFS PROCESSUS

On appelle coefficient d'autocorrélation partielle d'ordre h du processus lacorrélation partielle de X, et X,_n par rapport à X,_,, ..., X,_n*,, soit :

r(h) : P*,, x, -h/xt-1 ....,Xt-h+1

_ Cov(X,-Xi, X,_n-Xi_n)

Le processus étant stationnaire, on a :

r(h) : Cov (X, - Xi, X, _ r, - X*t _ r,)

v (xt - xi)

En vertu du théorème 2 de Frisch et waugh, r (h) est donc le coefficient deXr_n dans la régression affine de X, sur X, _ .,, ..., X, _ ,.,

:

Ona:an: r(h).

4.3 Système de détermination de r (h)

Soit le processus X, et sa régression (l ) :

hXr: âo a, Xr_, + e,

Vj :1àh: r:rh

E(xr.xr_j) : a0 E(Xt_,) *,I1 u, E(xt_i.xt_j)

hE(Xt).E(Xt_i) : [ao *,],, a, E(X,_i)l E(Xr_j)

On en déduit:hyU): cov(X,,X,_j) :

i]t ", y(_l

PH TASSI - S. LEGAIT

Page 307: Theorie Des Probabilites

D'où. en divisant par y (Ol, on obtienr les équations (2) :

(21 P{j) : ! a,e(i_j) (.i :1àh)i:1

Les équations (2) peuvent s'écrire matriciellement :

f rrrr \ ( 1 p(t p(h- 1ù G,\tlllllittttI I I p(1t I I I

(3) I . i:l : : ll-llllll:l| | i p(1) I I itlt\rir't 7 \ot'-tt ptlt 1 ) ttan s'obtient dorrc. une fois calculé le corrélogramme, à partir d'un système linéairede h équations à h inconnues.

4.4 Un exemple

Soit ie processLts déflni par l'équation de régression :

Xr: 0,5 X, _ r - 0.25 Xr _ 2+ €t

avec par exemple, r, -) N (0,1). (C'est ce qu'on appellera un processus autoré-gressif d'ordre 2.)

D'après l'équation, r (21 : -A,25; en outre, en écrivant le système(3) pourh : "l . on obtient le résultat général :

p(1):(1).r(1)p(1) : r(1)

ll ne reste donc plus qu'à calculer I'estimation de p (1 ) pour connaître r (1 ), cequi peut être fait sans difficulté à partir des observations du processus"

NOTIONS ELEMENTAIFES SUR LES PFOCESSUS

5 LES OPERATEURS B ET F

Ce paragraphe a pour objet de définir des êtres mathérnatiques dont nousferons un usage fréquent dans le chapitre 1 1

304 PH TASSI - S, TEGAIT

Page 308: Theorie Des Probabilites

NOTIONS ETEMENTA]RES SUR LES PROCFSSUS

Soit (X,, t € Zl un processus.

On appelle opérateur oretard, (ou nbackwardn) l'opérateur B qui, à X. associeBX, : Ir,l. On appelle opérateur (avance> (ou oforwardo) I'opérateur F qui, à X'associe FX. : X,*,.

ces opérateurs B et F peuvent opérer sur autre chose que des séries tempo-relles: ainsi, si Pn (x) est un polynôme de degré n en la variable réelle x:

BPn(x) : Pn(x- 1) et Fpn(x) : pn(x+ 1)

on peut définir également, à partir des opérateurs de décalage B et F, lesopérateurs "différence premièreo :

V: l-B (nnabla,)

A: F-l ("delta")

(l représentant l'opérateur neutre : lX, : Xr).

VX, : Xt-Xt_t

AX, : Xt*t -Xt

Ces opérateurs permettent de générer tous les opérateurs Vd, Ad ( d e lN),dont l'expression s'obtient par la formule du binôme :

Vd: t-clB+...+ {-1)d ad

La puissance d'ordre k de B ou de F n'est autre que l'opérateur de décalageopérant k fois :

BkX, : X, n

Fk X, : Xr-P

ll est évident que :

BF:FB:In*1

-o -FF-1:B

On peut remarquer que les opérateurs V et A opérant sur un polynôme p^ (x)de la variable x de degré n réduisent le degré du polynôme : Vp^ (x)et Ap_ (xlsbntdes polynômes en x de degré n - 1 ; Vk et ak transforment un [orynôme'Èn {*) enun polynôme de degré n - k si n ) k, en 0 si n < k.

PH TASSI S. LEGAIT 305

Page 309: Theorie Des Probabilites

NOTIONS ELEMFNTAIRES SUR LES PROCESSUS

Enfin, il est possible de donner un sens au développement en série de laquantité:

1

1-iB1

1ou-silÀl <11-ÀF

:1+ ^B+^,

B"+...

=1+^F+^'F"+...

1-.ÀB

1

1-ÀF

PH. TASSI - S. LEGAIT

Page 310: Theorie Des Probabilites

Chapitre 1 1

Exemples de processus

ll existe dans la littérature probabiliste un grand nombre de processus, cer-tains d'entre eux étant adaptés à une situation bien définie. comme les processusétudiant l'évolution d'une population. Sans prétendre à l'exhaustivité. ce chapitre apour principal objectif la présentation de quelques processus probabilistes impor-tants dans l'analyse statistique des séries temporelles.

Pour mémoire, le processus le plus simple consiste en la donnée d'une suitedev,.a,!X,, \e Zltelteque E{Xt) : OgtV_(X.l : o",Cov (X,. X1*6) = Opourroutt et h. Un tel processus porte le hom de bruit 6lanc.

1 LE PROCESSUS DE POISSON

1.1 Les processus à accroissements indépendants

Définition 1

Le processus (X,, t € T) est dit à accroissements indépendants si pour toutn-uple de temps t., { t, ... a tn les v.a.r. Xr,, Xr, - Xtl X,n - X,n_' sontindépendantes.

Définition 2

Le processus (X,, t € T) est dit à accroissements indépendants stationnairessi, de plus, la loi-de Xt*h - Xt, h € T, ne dépend pas de t.

Remargue

Pour de tels processus, on peut montrer à partir de la fonction caractéristiqueQx\ *,n (u,, ..., un) de (X,,, .... Xrn) que la loi du n-uple de v.a.r. est parfaitement

déterminée si I'on connaît les lois de X, et X, - X..

Un bruit blanc est, de façon évidente, un processus stationnaire à accroisse-ments indépendants stationnaires.

PH. TASSI . S. LEGAIT 307

Page 311: Theorie Des Probabilites

EXËMPLES DE PÊOCESSUS

1.2 Le processus de Poisson

a) Définition et hypothèses

Soit un processus (X-, t € lR) à temps continu et espace d'états discrets (parexemple,()'C lN), que l'oh supposera être un processus de dénombrement ou decomptage car, un événement étant choisi. il comptabilise le nombre (aléatoire) deréalisations de cet événement dans l'intervalle de temps [0, t[. Ainsi X, Fourracompter le nombre de voitures passant devant un observateur durant un intervalle[0, t[, ou bien le nombre de clients entrant dans un magasin, etc.

On fait les hypothèses suivantes :

r H1 : Le processus (X,) est à accroissements indépendants: Vto, .... tn € lR,

to(t1v.a. indépendantes.

o H2 : Le processus (X,) est homogène : Vt, t' (t > t'), X, - X, ne dépend quedet-t'etnondetett'.

o H3 : La probabilité P (dt) pour qu'un événement se réalise entre t et t + dtest :

P (dt) : ndr + o (dt) (À > o; tim j9 : oldr -o dt

o H4 La probabilité pour que 2 événements ou plus se produisent entre t ett + dt est négligeable à l'ordre 1 en dt.

b) Loi du processus

Soit pn (t) : P (Xt : n) ; à l'ordre 1, on peut écrire :

pn (t + dt) : pn (r) (1 - ^

dt) + pn_r (r) . .Àdt

pn(t+dt) - pn(t) _ _dr ipn(t) + ÀPn-1 (t)

En faisant dt * O :

(1) P',n (r) : - i Pn (r) + ,1pn*, (t)

D'autre part, on a à I'origine

po (t + dt) : po (t) (1 - ,À dt)

p;(t):-ipo(t)

po(t) : e-i' car. pn(O) : o Vn € lN.

308 PH. TASSI - S. LEGAIT

Page 312: Theorie Des Probabilites

EXEMPLES DE PROCESSUS

Posons Qn (t) = "it Fn (t). L'équation différentielle (1) devient :

(2| q'n(r) : Àqn_, (t) Yn à 1

ll s'ensuit ;

qi(t) : À + qr(t) :it

q, (t) : i qr (t) + Qe (t) : ('1t)'

2

Q'n(t) : iqn-, (t) e qn(r) :-_]41)nnl

et donc :

(3) P (Xt : n) : s-it !+n!

X, suit une loi de Poisson de paramètre .Àt.

c) Lien avec le temps d'attente

soit T la v.a. représentant le temps d'attente du prochain événement, lors-qu'on est à la date t.

P(T>s) : P(X": O) : s-'1s (s>O)

d'où: P(T<s) : 1-e-it.T est donc une v.a. de densité

^ e-isl r- (s), soit T -) f ,1,

À).

Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le tempss'écoulant entre la réalisation des événements n et n + 1. une origine o étantchoisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.

on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépen-dantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1.

Remargue

Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:

Sk : To*... +Tk-r

La loi de Sn est donc une loi gamma y (k, ^1.

PH. TASSI - S. LEGAIT 309

Page 313: Theorie Des Probabilites

EXEMPLÊS DE PROCESSUS

2 LES PROCESSUS DE VIE ET DE MORT

lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvantsubir des événements de type "naissance". entrée dans le système, ou "mort,. sortiedu système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre deojobs, en attente dans un système informatique, l'évolution démographique d'unezone géographique peuvent être de bons exemples d'une telle modélisation.

Soit donc un processus (Xfl t € lR) à temps continu et espace d'états discret.On fait les hypothèses suivantes:

o H1 : (Xr) est à accroissements indépendants.

c H2 : On appelle "événementu soit une naissance. soit une mort. Le systèmeétant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort)survienne entre t et t + dt est i n dt (resp. pn dt).

o H3 : La probabilité pour que surviennent deux événements ou plus entre tet t + dt est un o (dt).

Modélisation

Posons pn(t) : P(Xt: n) ;pourn21,ona:pn(t+dt) : pn(t) (1 -,^ndt) (1 -gndt)

* Pn-, (t) in-, dt (1 -gn-1 dt)

* Pn+r (t) /n+1 dt (1 - in*1 dt)

En supprimant les termes d'ordre 2 et plus en dt, et en procédant commepour l'équation fondamentale du processus de Poisson, on trouve :

p'(t) : -(in+gn)pn(t)+Àn_l pn_1 (t) * !n+.r on*,(t) (n ) 1)

A l'origine :

po(t+dt) : po(t) (1 -iodt)(1 -Podt) + pl (t) g1 dt

d'où : p; (t) : - io po (t) + p, p, (t)

Enfin :

on (O) : 1 si Xo - n, Pn (O) : 0 sinon.

En résumé :

p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) 1)

p; (t) : - io Fo (t) + p, p, (r)

on (0) : î[xo: n]

310 PH. TASSI - S. LEGAIT

Page 314: Theorie Des Probabilites

EXEIVPLES DE PROCESSUS

Remarque

Les cas les plus fréquents sont les suivants : ' ' t)

" in : ,À : naissance au taux i (souvent Ào : 0)

r in : ni : naissance au taux i par individu présent dans re système. Fn g : mort au taux U Uto : O)

. Un : n/_/ : mort au tauxg par individu présent.

3 LE MOUVEMENT BROWNIEN

Le processus (X,, t € lR+) est dit brownien ou de Wiener_Lévy si :

(i) le processus est initialisé en t: O

p(Xo: O) : l(ii) le processus est à accroissements indépendants stationnaires(iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une roinormale d'espérance nulle et de variànce br lt _ s1 :

X, - X. -> N (0, a r,4:SP (Xt - X, € A) : ;#6-J Oe-

*'t2o'(t -,)dx

4 LES PROCESSUS AUTOREGRESSIFS

. Dans cette partie, on ne considérera que des processus réers discrets dudeuxième ordre.

4.1 Définition

soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p, notéX, -) AR (p), si :

pX, : .r- gi Xt-i+ tr- i:1

PH, TASSI - S, LEGAIT

Page 315: Theorie Des Probabilites

EXEMPLES DE PROCESSUS

cr est un bruit blanc :

E(st) :O,V(e,) :02, E(e,e,.) :O (T+t'l

Remarques

a) En faisant intervenir l'opérateur B, on peut écrire :

(-Qt B-...-9oBo) X,: t,.soit<D(B) Xr: ttavec le polynôme :

<D1e; = l-9', B QrB'de degré p.

b) Sous sa forme la plus générale, un processus AR (p) peut contenir un termeconstant do:

pX. : do *

,Z-, 'tXt-i+ Et

c) Supposons E (X,) : m, constante Vt. Alors, m vérifie :

pm(1 - I e,l:A

l:l

psi 1+

i:1ô {z) (ce que nous supposerons par la suite), m : O.

4"2 Etude du modèle AR (p)

a) Inversibilité du processus AR (p)

Soit <D (71 : I - e,,7.... - çpZp le polynôme caractéristique du processusAR (p) ô (B)X,: e,.

Soient 2.,,"..,7p1es racines de <D (Z) dans C, et notons Zr, ...,Zr les r racines de

module supérieur à 1, Zr+1, ..., Zo les p-r racines de module inférieur à 1. (Notons

que le produit 2., ...2, : 1.1

On peut écrire :

elzy: ti rr-4i fi r-4ti:1 Li j:r+1 Lj

312 PH. TASSI S, TEGAIT

Page 316: Theorie Des Probabilites

EXEMPLES DE PROCESSUS

Par analogie, on a :

<D1a; : ti (1 - t', fi lr--1ri:1 Zi j:r+1 Zj'

où 1 représente ici l'opérateur identité.

Soit :

o,qey :5f (t- 3, ",ô,(B) : fi rr-3ti:l li j:r+1 Zj'

@, (B) peut se transformer, en factorisant B, en :

Qr(B) : (- 1;P-r 3n-r fi )g -r,rlet donc:

j:r+1 lj '

vPx, : [(- 1)0-r fl . - z, Fp-' o,t (B) o;t (F)] €tj:r+1 '

avec :

pOo(F) : n f-Z;FIj:r+1

X, est donc une combinaison linéaire d'ordre infini des c, :

+oôXr: : Qi r,*i

l:-oo

On retrouve :

E(X,) : O Vt

Remarque importante

supposons,l: p, c'êst-à-dire que toutes les racines sont de module supérieurà 1, Xt : .Di' (S) e,. Alors, en décomposant en éléments simples, puis endéveloppant en série :

pb,=t

^^-L' i:l . B I

zi

pæBkX,: : b,(: . )e.' i:1 'k:O Z*, t

PH. TASSI - S. LEGA|T

Page 317: Theorie Des Probabilites

EXEMPLES DE PROCFSSUS

oc F b'X.- : (> . )B*s,' k: O i:l Z\,

l- P b;x.-, k:O i:1 Z\ t-K

Soit: X,: i ^tiEr-it:(J

X, n'est donc fonction, dans ce cas, que des (e,) du passé ; on dit alors que le

processus X, est inversible. En outre, on a :

E (e, X,_n) : O (k > 1)

Le bruit stest orthogonal au passé Xr_.,, Xt_2, ...du processus. Dans l'équa-tion de définition de I'AR (p), e, est donc orthogonal au sous-espace de Hilbert

pengendré par (X,_.,, ..., X,,J; la relation X, :

iIf qi Xr_, + st est alors

l'équation de la régression de X, sur Xt_r, ...,X,_o (chapitre 5).

Exemple î

Soit X, le processus de Markov AR (1) défini par :

Xr: O,4 X,_1 * t,

Ô121 :1-O,42

Le polynôme a pour racine 2., : 2,5 supérieur à 1.

On peut écrire :

x, - 1-r-' 1-0,48 t

X, : (1 + 0,4 B + (0,412 82 + ...) st

X, : €, + O,4 et- 1 + ... + (0,4)k tr-k * ...

On a inversé le processus AR (1). On remarque par ailleurs que E (e, Xr-o) : O,

(k > 1), et que le bruit est non corrélé avec les observations passées du processus.

314 PH. TASSI - S, LEGAIT

Page 318: Theorie Des Probabilites

EXEN/PLES DE PFOCESSUS

Exemple 2

Soit: X,: 2Xt_t + €t

(1 -28) X, : €,

v1^t - l--lt rt

Or, le développement de t 1ou

-11-,ÀB ' 1-,îF)n'adesensquesil',al < 1.

On peut écrire :

1 r _F1-28 F-2 2(1 _O,sFt

et donc :

X, : -0.5F (1 + O,S F + (O,S)2 F2 +...) e,

X, : -0,5 e,*r -(O,S). €t+2-... -(O,S)k €t*k_,..

X, s'exprime en fonction des vareurs à venir du bruit e, ; re processus n.est pasinversible.

Contrairement à I'exemple précédent. E (c, Xr_p) n,est pas nul :

E (e, X,_u) : - 1O,S)k o2et rr est corrélé avec le passé du processus.

Exemple 3

Soit le processus de yule AR (2) défini par ;

Xr: -1,5 Xr_1 + Xt_2 + rtO1a; : l+1,5 B-82

e1z1 = t + 1.5 z_22: (1 _ O,sz) (1 +22)Ona:

(1 -0.58) (1 +28) X,: e,

2B(1 -O,Uqt (1 +0,5F) X,:e,

PH. TASSI - S, LEGAIT315

Page 319: Theorie Des Probabilites

(1 - 0,5 B) Xr

EXEMPLES DE PROCESSUS

0,5 F

-Ë^

1 + 0,5F ',

0,5 F (1 - 0,5 F +...+ (- l)k (0,5)k Fk + ...) €t

+oo

K LÎKK- |

avec :

D'où :

Or:

X,:

:

ûk:

,l

1-0,58

æ: (o.s/j:oco

k:l K'

(- t)k-1 (o,slk

r.I r Gk 6t*k

BI : d.t,k:1 K r+K

+ôo

.:^ (0,5)j €t*r_i)I:U

b) Stationnarité

Compte tenu de ce que nous venons de voir quant à la valeur de E (e, Xr_o).la stationnarité d'un AR (p) n'est pas toujours établie.

Ona:

V(Xt) : E(X'?r)

pE (e. X.) :L I

i:l

pE(Xt.( Z- 9, Xr_, + er))

l:l

p

.2- ç, E(Xt Xt_i) + E(e,X1l:l

p

i:1

e, E(e, Xr-J + E (s1)

Premier cas : Le processus est inversible, c'est-à-dire toutes les racines de tD (Z)

sontsupérieuresà 1 en module; alors E(e,Xr-) : O et E(erXr) : o2.

316 PH. TASSI . S. LEGAIT

Page 320: Theorie Des Probabilites

FXEÀ.,1PLFS DE PROCESSUS

D'où :

pr(o) :

i:"1

pr(O) : r(o) r

l:l

r(0) : V(Xr) :

Y$!+s2

Qi Pfiil + q2

êp

1- > (p,p(ilt- I

V (X,) est indépendante de t : le processus est faiblement stationnaire.

Deuxième cas ; Les racines de <D {Z) ne sont pas toutes supérieures à 1 en module.

Nous nous contenterons d'énoncer le résultat : on peut toujours supposer queles racines du polynôme <D (z) sont de rnodule plus grand qu" i, en remplaçant leprocessus S (BlXt : €t par le processus o" {b} xf : a,. où ô* te) s.ôntilnt eÀrernpiaçant, cians s (B), les racines inférieures à 1 en nrodule par leur inverse, a,étant un nouveau bruit blanc.

e) Fonction d'autocarrélation partielle

Vh > p, on peut écrire:p

X_ TI ._4

gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r

avecE(er) :0, V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdoncl'équation de la régression de X, sur X,-r, ....X,*n et r (h), coefficient de X,_n, estnul.

Ceci est une caractéristique des AR (p) :

Vh > p r(h) : 0

d) Fonction d'autocorrélation

Pi xr i X, r, * et Xt-l-,

aiyh-ù

ei ph-ù

Vh > O:Xr. Xt-h : gi:'lp

r(h) : zi:'l

p=' p(h) I ,_I,

(4)

PH TASSI , S. LEGAIT

Page 321: Theorie Des Probabilites

EXEMPLES DE PROCESSUS

On peut écrire les équations (4) sous forme matricielle pour h : 1 à p :

La relation matricielle

Exemple

Soit le processus :

xr

Ona:

1 p (1) ........ p (p - 1)

p(11 .

.

: p(1t

p(p-1) ......... plll 1

(5) s'appelle système de Yule-Walker.

: 0,5 X,_, - O,25 Xr_, + e,

p(3) = A1 pQl * e"p (1) : - 0,125

p(41 : A1 ppl + ezp (2) : -O,OS

(5)

1"

ipr

p

p

(;r) : [],, '.'1) (::,)P (11 : o,5 - o,25 P (1)

p (21 : o,5 p (1)- 0,25

D'où :

p (11 : 0,4 et p (2) : - 0,05.

Pour avoir p (3ll, p (4) etc.. on utilise les relations (4) :

etc.

3'1 B PH. TASSI . S. LEGAIT

Page 322: Theorie Des Probabilites

EXEMPLES DE PFOCESSUS

c) Fonction d'autocovariance

Soit à calculer E (X, . X,_r,)

E (Xt. Xt_h) : E [(rt - 0., €t-., - ... - 9o e,_o)

(€t-6 - dr tt-h-., da t,-q-6)J

e Si h ) q : E(X,.X,_') : 0

c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo'

Le processus est donc stationnaire (au sens faible) et on en déduit la fonctiond'autocorrélation :

P(h) : O Vh ) q

-0,+0.0, +...+0 ep(h) :#si h(q.

1+01+ .*eZ

Le calcul de r (h) ne présente pas de particularité, et est exécuté selon lesystème décrit au chapitre 10.

ll résulte des calculs précédents qu'un processus moyenne mobile est toujoursstationnaire (au sens faible), ce qui n'était pas le cas pour un processus auto-régressif quelconque.

Conclusion

Le problème de l'identification d'un processus MA (q), c'est-à-dire la déter-mination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).

5.3 Remarque sur le lien entre AR et MA

La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para-graphe 4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique.on peut approximer au sens de la moyenne quadratique (donc dans Lr) un proces-susAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)défini par :

Xr:p X, ., * r,

E(€r) : O, V(e,) : o', Cov(e., er*n) :0 (h + O)

324 PH TASS1 S. LEGAIT

Page 323: Theorie Des Probabilites

EXEMPLFS DE PROCESSUS

Par substitutions successives, il est clair que :

X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,

E,*, - ,!o

pi ,, jl, : p"e*" E (x1_q_1)

supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr)pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus). L

Alors :

e (Xt - 9 ^ ri r,-j)" : p'q*' vj:o

et E(X,-Y,,')t -_ O quandq ----> +ôo, en notanty,,, : 9 ,t cr-,. La suitej:0 '[rde v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.

DH T^qst S IFCAIT

I

i

321

Page 324: Theorie Des Probabilites
Page 325: Theorie Des Probabilites

BIBLIOGRAPHIE

I REFERENCES CITEES DANS LE TEXTE

I 11 Z. BIRNBAUM (1948) : On random variables with comparable peakedness,Ann. Math. Statisr., 19, pp. 76-81.

I 2l H. DAVID (1981): Order staristics, Witey.

t 3l L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,New York.

t 4l B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288,Université de Savoie et Laboratoire IMAG, Grenoble.

t 51 B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'unesérie aléatoire, Ann. Marh,44, pp.423-453.

t 6l J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.Paris.

I 7) L. de HAAN (1976) :Sample extremes: an elementary introduction, Statis-tica Neerlandica, 30, pp.161-172.

t 8l N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics,Miffin et Wiley.

Houghton-

t 91 A. KAUFMANN (1968) :Méthodes et modèles de la recherche opération-nelle, Dunod, Paris.

t10l A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge didistribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.

t 1 1 I J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse,Economica, Paris.

112l P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris.

t1 3l E. LUKACS (1960) : Characteristic functions, Griffin, Londres.

[14] H. MANN et D. WHITNEY (1967) : On a rest of whether one of two randomvariables is stochastically larger than the other, Ann. Math. Statist., 18,pp. 50-60.

PH, TASSI - S. LFGAIT ,) 2.1

Page 326: Theorie Des Probabilites

BIB LIOG RAPH IE

t15l R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, inSelected Papers ll (Ann. Math. Soc.), pp.271-2g4.

t16l A. MONFORT (1980) : Cours de probabitités, Economica, paris.

l17l F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math.Statist., 17, pp. 377 -4O8.

tlBl RAND coRPoRAT|oN (1955) :A miilion random digits with tooooo nor-mal deviates. The Free Press. Glencoe, lllinois.

t 191 G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.

t20l P. TASSI (1985) : Méthodes statistiques, Economica. paris.

l21l W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry,Journalof Applied Mechanics, 18.

II AUTRES REFERENCES GENERALES

J. BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,Masson, Paris.

P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley.

N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris.

P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.

G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris.

G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.

D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle,[Vlasson, Paris.

D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices cor-rigés et rappels de cours, Sirey, paris.

J.L. DOOB (1953) : Stochastic Processes, Witey.

M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabi-lités avec rappels de cours, Dia, Belin, paris.

W. FELLER (1966) : An introduction to probability theory and its applications, Wiley,New York.

T. FINE (1973) : Theories of probability. Academic press, New york.

P. HALMOS (1950) : Measure theory, Van Nostrand.

324 PH. TASSI . S. LEGAIT

Page 327: Theorie Des Probabilites

BIB LIOG RAPH IE

P.L. HENNEOUIN et A. TORTRAT (196b) :Théorie des probabitirés er quetquesapplications, Masson, Paris.

A. JACOUARD (1974) : Les probabitités, pUF, Coil. Oue sais-je ?, paris.

B, de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues,Technip, Paris.

A. KRIEF et s. LEVY (19721: calcul des probabilités, exercices, Hermann, paris.

M. LOEVE (1960) : Probability rheory, Van Nostrand.

M. METIVIER (1968) : Notions fondamentales de la théorie des probabilités, Dunod,Paris.

J. NEVEU (1964) : Bases mathématiques du calcul des probabilités, Masson, Paris.

PARTHASARATHY (1967) : Probabitity on metric spaces, Academic press.

J. PELLAUMAIL (1986) : Probabilirés, statistiques, f ites d'artente. Dunod, paris.

A. RENYI(1966) : Calculdes probabitités, Dunod, paris.

s. Ross (1987) : lnitiation aux probabilités, presses polytechniques romandes,Lausanne.

Y. ROZANOV (1975) : Processus aléatoires, Editions de Moscou.

A. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléa-toires, Masson, Paris.

K. VO KHAC (1984) :Théorie des probabitités, Eilipses, paris.

PH. TASSI - S, LEGAIT 325

Page 328: Theorie Des Probabilites
Page 329: Theorie Des Probabilites

TABLES NUMERIOUES

Les tables I à I sont reproduites avec I'aimable autorisation duCERESTA: lo, rue Bertin Poirée - 75001 Paris. Elles sont extraitesde I'Aide-mémoire pratique des techniques statistiques, qui constitueun numéro spécial du volume XXXIV de la Revue de statistigueappliquée, 1986.

Les tables I à I I sont extraites du livre Statistique non paramétriqueet robustesse, de Jean-Pierre l-ecoutre et Philippe Tassi, Economica,Paris, 1987.

PH. TASSI S. LEGAIT

Page 330: Theorie Des Probabilites
Page 331: Theorie Des Probabilites

TABLES NTJMEFIOTJES

Table no 1

FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE

cette table donne, pour u >- 0, la valeur p : F(u) de la fonction de répartition de la loinormale réduite telle que

P : Fttt) : f' L "-5 a,J--/2n

Pourr < 0: P: F(u) - I - F(-r).u 0,00 0,01 0.02 0,03 0,04 0.05 0.06 0,07 0.08 0,09

0,00,1n)0,30,4

0,50,60,70,80,9

1,0I,lt,21,3t,4

1,51,6I,'l1,81,9

2,02,1'\1Z,J2,4t<2,62,72,8)o3,03,1J.t113,4

1S3,63,73,83,9

0,50000,53980,57930,6 t 790,6554

0,69150,725'70,75800,788 I

0,8 l 59

.q,-q4!]0,86430,88490,90320,9192

0,93320,94520,95540,964 I0,97 l3

0,97720,98210,98610,98930,9918

0,99380,99530,99650,99740,9981

0,99870,9r030,gr3l0,9'520.9r66

0,9^770,9'940.9'89 l

0,9'2g i

0,9"52 |

0,50400,54380,58320,62170,6591

0,69500,72910,76 I I

0,79 I 00,8 186

0,84380,86650,88690,90490,9207

0,93450,94630,95640,96490,97 r9

0,97780,98260,98640,98e60,9920

0,99400,99550,99660,997 50,9982

0,99870,9r060,93340,9'530,9r68

0,9r780,9r950,93g00,9'3 |

0,9454

0,50800,54'780,58710,62550,6628

0,69850,73240,76420,79390,82t20,84610,86860,88880,90660,9222

0,93570,94'74ô s5710,96560,9726

0,97830,98300,98680,98980,9922

0,994 I0,99560,99670,997 60,9982

0,99870,9r l00,93360,9r550,9r6g

0,gr7g0,9r850,94000,9"330,9056

0,5 l 200,55 r70,59100,62930,6664

0,70 l90,73570,'76730,79670,8238

0,84850,87080,89070,90820,9236

0,93700,94840,95820,96640,9'732

0,97880,98340,98710,99010,9925

0,99430,99570,99680997'70,9983

0,99880,9r l30,9r390,9r570,9170

0,9r790,9r860,9'040,9'360,9'59

0,5 I 600,5 5 570,59480,633 I0,6700

0,70540,73890,77040,79950,8264

0,85080,87290,89250,90990,925 l

0,93820,94950,95910,967 l0,9738

0,97930,98380,98750,99040,9927

0,99450 qssq

0,99690,997'70,9984

0,99880,gr l60,9r400,9r590,9r71

0,9r900,9r860.90080,90390,9t59

0,5 I 990,55960,59870,63680,6736

0,70880,74220,77340,80230,8289

0,853 I

0,87 490,89440,91 l 50,9265

0,93940,95050,95990,96780,9744

0,97980,98420,98780,99060,9929

0,99460,99600,99700,99780,9984

0,99890,gr lga,91420,9r600,91'r'2

0,grg I

0,93970,9'120,914l0.9161

0,52390,56360,60260,64060,6772

0,71230,'t4540,7'7640,805 l0,8315

0 85540,87 700,89620,9r3l0,9279

0,94060.95 l50,96080,96860,9750

0,98030,98460,98810,99090,9.93 I

0,99480,996 I

0,99710,99'190,9985

0,99890,gr2l0.9r440,91610,9r73

0,g3g l0,9r970,90l50,94430.9'63

0,52790,56750,60640,64430,6808

4,7 t5'70,7 4860,77940.80780,8340

0,85 770,87900,89800,9t474,9292

0,94180,95250,96160,96930.97 56

0,98080,98500,98840,991 I

0,9932

0,99490,99620.99720,99790,9985

0,99890,9'240,9r460 q'6)0,9\7 4

0,9r920,9rgg0.9'l g

0.91460,9'64

0,53 l90,51t40,61030,64800,6844

0,71900,'7 5 t70,78230,8 1060,8365

0,85990,88 l00,89970,9t620,93060 s4)s0 s51s0,96250,96990,976 I

0,98120,98540,98870,99 r30,9934

0,995 I

0,99630.99730,99800,9986

0,99900,9r260,9r490,9r640.9r7 5

0,grg30,9rgg0,90220,9'490,9'66

0 5'l5a0,57530,6 l4l0,65170,6879

0,72240,75490,7 8520,8 l 330,83 89

0,862 l0,88300,901 5

0,9t770,93 r9

0,94410,95450,96330,97060,9767

0,98170,985 70,98900,99 I60,9936

0,99520,99640.997 40,998 I

0,9986

0,99900,gr2g0,9r500,9r650,9r76

0,93830,9'990,94250,91500.9067

N.B. l. La notation 0,9J03, par exemple, équivaut à 0,999032. Pour les valeurs de r > 3,99, on pourra utiliser I'approximation suivante (à l0-r près)

u)

F(u):t-e 2 (t--t 3 15 los\' urt7-x\' ;*,i- n* ,i)

PH IASSI S. LEGAIT 2to

Page 332: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 2

FRACTILES DE LA LOI NORMALE REDUITE

Cette table donne les valeurs absolues des fractiles, nr de la loi normale réduite tels que

î,P , -!'F1u,l: I +e--ldu:PJ__lztt

Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs.

Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs.

P 0.000 0.001 0.002 0.003 0.004 0,005 0,006 0,007 0,008 0,009 0,010

0,000,0 r

0,020,030,04

0,050,060,070,080,09

0, l00,1 I0, l20, l30,14

0,150, l60,1 7

0,r80, l90,200,21

0,220,230,24

0,2s0,260,270,280,29

2,32632,053'71,8808I,7 507

t,6M9I,5548I,4758I,405 Il,3408

I ,28 l6|,22651,1750|,1264I,0803

t,03640,99450,95420,91 540,8179

0,84160,80640,77220,73880,7063

0,67450,64330,61 28

0,s8280,5534

3,09022,29042,0335I,8663t,'t392

I,63521,5464I,4684I,3984|,3346

I,27 59t,2zlzI,t700I,t2t7I,0758

|,43220,99040,95020,91160,8742

0,83810,80300,76880,73560,7031

0,67130,64030,60980,57990,5505

2,87822,257 |2,01411,8522|,72'79

r,6258l,5382I ,461 II,39t7l,3285

t,2702I,2r60I,1650I ,l 170

l,0714

|,02790,98630,94630,90780,8705

0,83450,79950,76550,73230,6999

0,66820,63720,60680,57 690,5476

2,74'182,2262I,9954I,8384t,7 t69

|,6164l,530 r

I,4538l,38521,3225

1,2646|,2t07I , l60lI,l 123

l,0669

1,02374,98220,94240,90400,8669

0,83 10

0,796 l0,762t0,72900,6967

0,66510,63410,60380,57400,5446

2,65212,19731,977 41,8250l,7060

I,6012t5220t,4466t,3787I ,3165

I,259tI,20551,1 552|,1077I,0625

I ,0 194

0,97820,93850,90020,8633

0,82740,79260,75880,72570,6935

0,66200,631l0,60080,57100,5417

2,57 58

2,t7011,9600l,8ll9|,6954

l,5982l,5141I,4395|,37221,3 106

t,25361,2004I,1 503I,l03 lI,0581

l,01520,91410,93460,89650,8596

0,82390,78920,7 5540,72250,6903

0,65880,62800,59780,568 I

0,5388

z,5t2l2,1u4t,943tI,7991I,6849

I,5893I,50631,4325I,3658|,3047

I ,248 r

I,19521,1 455l,0985I,0537

I ,01 l00,970 I0,93070,89270,8560

0,82040,78580,7 5210,7 t920,6871

0,65570,62500,59480,565 l0.5359

2,45732,12011,9268l,7866I,67 47

l,5805l,49851,4255l,3595I,2988

|,2426I,l90lt,t407l,0939I,0494

l,00690,96610,92690,88900,8524

0,8 169

0,78240,74880,7 I 600,6840

0,65260,62t90.59 l 80,56220.5330

2,40892,0969I ,91 l0|,'77 44|,6646

l,5718I,4909I ,41 87

r,3532t,2930

t,2372l, I 8501,1 359r,0893I,0450

I,00270,962t09na0,88530,8488

0,8 l 340,77900,7 4540,7 t280,6808

0,64950,61 890,58880,55920.5302

2,36562,0749I,8957t,1624t,6546

I,5632l,4833l,4l l81,34691,2873

I,2319I,1 800l,l3 I Il,0848I,0407

0,99860,95810,91920,88 l60,8452

0,80990,1'7560,74210,70950,6176

0,64640,61 58

0,58580,55630.5273

2,32632,0537l,88081,7 507

|,6449

I,5548l,4758r,4051l,3408I ,28 l6I,2265I,1 750t,t2641,0803r,0364

0,99450,95420,91 544,87790,84 I 6

0,80640,'77220,73880,70630,67 45

0,64330,61280,5 8280 st140.5244

0,990,980,970,960,95

0,940,930,920,9 r

0,90

0,890,880,870,860,85

0,840,830,820,810,80

0,790,780,7'7

0,760,75

0,7 40,'t30,720,710,70

0,010 0,009 0.008 0,007 0,006 0,005 0,004 0,003 0.002 0,001 0,000 P

JJU PH TASSI S, LEGAIT

Page 333: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 2 (suite)

FRACTILES DE LA LOI NORMALE REDUITE

Grandes valeurs de u

P 0,000 0,001 0.002 0.003 0,004 0,005 0.006 0.007 0.008 0,009 0.010

0,300,310,320,330,34

0,350,360,370,380,39

0,400,410,420,430,44

0,450,460,470,480,49

0,52440,49590,467',l0,43990,4125

0,38530,35850,33 t 90,30550,2793

0,25330,22750,20190, I 7640,1510

0,125'10, I 0040,07530,05020.0251

0,52 I 5

0,49300,46490,43720,409'7

0,38260,3s580,32920,30290,2767

0,25080,22s00, l 9930, I 7380,1484

0,12310,09790,07280,04760,0226

0,5 1870,49020,46210,43440,4070

0,37990,35310,32660,30020,2741

0,24820,22240,19680,17130,1459

0, l 2060,09540,07020,04510,020 l

0,5 I 580,48'140,45930,43 l60,4043

0,37720,35050,32390,29760,2715

0,24560,2 198

0,t9420, I 6870,t434

0,1 l8 l0,09290,06770,04260,0175

0,51290,48450,45650,42890,40 l60,3'7450,34780,32 l30,29500,2689

0,24300,21'730,t9170,16620, I 408

0,1 156

0,09040,06520,040 l0,01 50

0,5 l0 l0,48170,45380,42610,3989

0,37 t90,34510,3 186

0,29240,2663

0,24040,21470,18910, l 6370, l 383

0,1 r300,08780,06270,03760.0125

0,50720,4'7890,45 l0a,42340,396 l0,36920,34250,3 160

0,28980,263't

0,23780,2t210, l 8660, l6l I0, I 358

0,1 105

0,08530,06020,03510.01 00

0,50440,476t0,44820,42070,3934

0,36650,33980,3 134

0,287 |0,261I

0,23530,20960, l 8400, l 5860,t332

0, I 0800,08280,05170,03260,0075

0,50 I 50,47330,44540,4t790,3907

0,36380,33720,3 107

0;?8450,2585

0,23270,20'100,l8l50, l 5600, I 307

0,10550,08030,05520,030 I0,0050

0,49870,47054,442'70,4t520,3880

0,361l0,33450,308 I0,28190,25s9

0,230 l0,20450, r 7890, I 5350,1282

0, I 0300,07780,05270,02'160,0025

0,49590,46770,43990,41250,3853

0,35850,33 l90,3055{27930,2533

0,22750,20 l 9

0,17640,1 5 10

0,1257

0,10040,07530,05020,025 l0,0000

0,65

0,640,630,620,6 r

0,60

0,590,580,570,560,55

0,540,530,520,510.50

0,690,680,670,66

0.010 0,009 0,008 0,007 0,006 0.005 0.004 0,003 0,002 0,00 r 0.000 P

P l0-" l0-5 l0 -o l0 -' l0 -Et 0-'q

uP 3.7 190 4,2649 4,1534 5. l 993 5,6 120 5,9978

PH, TASSI - S, LEGAIT 331

Page 334: Theorie Des Probabilites

TABLFS NUMEBIOUES

Table no 3

LOI BINOMIALE - PROBABILITES CUMULEES

n c

t-.Probabilités cumulées Pr (& < c) : I Cl po (l - p)

t_0

p: l% P:2ol p:3% p:4% P: 5ok P : 60l p:'7% P:8% p :9% p : t09

5

I

2

34

0,95 l00,9990I

0,90390,9962I

0,8 5 87

0,99150,9997I

0,81530,98520,9994I

0,77380,97'7 40,9988I

0 Tttq0,96810,9980I

0,69510 q575

0,99690,9999I

0,659 I0,94560,99550,9998I

0,62404,93260,99370,999'7I

0,59050,91850,99t40,9995I

0

I

2

J

4

5

6

0,90440,99570,9999I

0,81710,983 8

0,999 I

I

0,73'740,96550,99720,9999I

0,66480,94180,99380,9996I

0,59870,9 r 39

0,98850,99900,9999

I

0,53860,88240,98 12

0,99800,9998

I

0,48400,84830,911 ,1

0,99640,9997

I

0,43440,8l2l0,9599o os4,0,9994

1

0,38940,77 460,94600,99120,9990

0,9999I

0,34860,73610,92980,98720,9984

0,9999I

l5

0

I

2J

4

5

6'1

0,860 l0,99040,9996I

0,73860,96470,99700,9998I

0,63 33

4,92700,99060,99920,9999

I

0,542t0,88090,97970,997 60,9998

l'

0,46330,82900,96380,99450,9984

I

0,39530,'77380,94290,98960,9986

0,9999l

0,33670,7 l 680,91 7 l0 sR2t0,9972

0,9997I

0,28630,65970,88700,97270,9950

0,99930,9999I

0,24300,60350,853 I0,960 I0,9918

0,99870,9999I

0,99780,9997I

0,20590,54900,8 r 594,94r'.5o sÂ71

20

0

I2

3

4

5

6

7

8

9

0,81790,983 I0,99901

0,66760,940 l0,99294,9994I

0,54380,88020,97900,99730,9997

I

0,41200,8 103

0,95610,99260,9990

0,9999I

0,35 850,735 8

0,924s0,98410,997 4

0,9997I

0,290 l0,66050,88500,97100,9944

0,99910,9999I

0,23420,58690,83900,95290,9893

0,99810,9997I

0, I 8870,5 169

0,78790,92940,981 7

0,99620,99940,9999I

0,15160,45 l60,13340,90070,97 l0

0.99320,99870,9998I

0,12160,39170,67690,86700,9568

0,98870,99760,99960,9999I

30

0

I)3

4

5

6

7

8

9

l0n

0,73970,96390,99670,99980,9999

I

0,54550,87940,97830,99710,9996

I

0,40 l00,7'7310,93990,98810,9982

0,9997I

0,29390,66t20,883 I0,96940 qs17

0,99890,9999I

0,2r460 5s1s

0,81220,93920,9844

0,99670,99940,9999I

0, I 5630,45550.73240,89740,9685

0,99210,99830,99970,9999I

0,1 1 340,36940,64880,84500,9447

0,983 8

0,99600,9992.0,9999I

0,08200,29580,56540,78420,9126

0,97070,99180,99800,99960,9999

I

0,05910,23430,485 5

0,717 5

0,8723

0,95 r 9

0,9848n ooss0,991 0

0,9998

I

0,04240, l 8370,41t40,647 40,8245

0,92680,91420 ss?)0,99800,9995

0,9999I

332 PH. TASS S LEGA]'I

Page 335: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 3 (suite)

LOI BINOMIALE - PROBABILITES CUMULEES

n

Probabilirés cumulées Pr (k < c) :

p: l% P:20Â P:30/o P : 40Â P: 5o/o P : 60/o P:70/o P:80/o P:9% l0 0t

40

0

I2

3

4

5

6

7

89

l0llt2l3

0,66900,93930,992s0,9993I

0,44570,80950,95430,99 r 8

0,9988

0,9999I

0,29570,661 5

0,88220,96860,9933

0,99880,9998I

0. l 9540,52 l 00,78550,92520,9790

0,99510,99900,9998I

0, I 2850,399 I0,67 670,86190,9520

0,986 I0,99660,99930,9999I

0,08420,29900,56650,78270,9104

0,969 I0,99090,99770,99950,9999

I

0,05490,22010,46250,69370,8546

0,94t90,980 l0,99420,99850,9997

0,9999I

0,03560, I 5940,36940,60070,7868

0,90330,96240,98730,99630,9990

0,9998I

0,02300,1 140

0,28940,50920,7 103

0,85350,936 l0,97580,99200,9976

0,99940,9999I

0,01480,08050,22280,42310,6290

0,79370,90050,958 l0.98450,9949

0,99850,99960,99991

50

0I2

3

4

5

6

7

8

9

l0llt2l3t4l5

0,60500,91060,98620,99840,9999

I

0,36420,735 8

0,92160,98220,9968

0,99950,9999I

0,2 I 8lo 5ss'l

0,8 l 060,93720,9832

0,99630,99930,9999I

0,12990,40050,67670,86090,95 l0

0,98560,99640,99920,9999I

0,0'7690,27940,54050,76040,8964

0,96220,98820,99680,99920,9998

I

0,04530, r 9000,41620,64730,8206

0,92240,971 l0,99060,99730,9993

0,9998I

4,02660,t2650,3 108

0,53270,7290

0,86500,94t70,97800,99270,9978

0,99940,9999I

0,01550,08270,22600,42530,6290

0,79190,898 I0,95620,98340,9944

0,99830,99950,9999I

0,00900,05320, r 6050,33030,527',|

0,70720,84040,9232t,96't20,9875

0,99570,99870,99960,9999I

0,00520,03380,1 I l70,25030,43t2

0,61610,77020,87790,94210,9755

0,99060,99680,99900,999'70,9999I

PH. TASSI S. LEGAIT ??2

Page 336: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 4

LOI DE POISSON PROBABILITES CUMULEES

(

Probabilités cumulées Pr (/< < c) - 'i' "-^ ^rÏ^ kt.

m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,90It34

5

6

0,90480,99530,9998I

0,81870,98250,99880,9999I

0,74080,96310,99640,9997I

0,67030,93840,9920o,99920,9999

I

0,60650,90980,98560,99820,9998

I

0,54880,87810,97690,99660,9996

1

0,49660,84420,96590,99420,9992

0,9999I

0,44930,80880,95260;9e0e0,9986

0,9998I

0,40660,77250,93720,98660,9977

0,9997,l

c

Probabilités cumulées Pr (k < c) - 'i' "-^ ^*Ê" ft!

m-1,0 m-1,5 m-2,0 m-2,5 m-3,0 m-3,5 m-4,0 m-4,5 m-5,00I7

3

4

5

6

7

8

9

l0l1t2l3l4

l5l6

0,36790,73580,91970,98100,9963

0,99940,9999I

0,22310,55780,80880,93440,9814

0,99550,99910,9998I

0, I 3530,4060a,67670,85710,9473

0,98340,99550,99890,9998I

0,08210,28'tt0,54380,75't60,8912

0,95790,98580,99580,99890,9997

0,9999I

0,04980,199i0,42320,64720,8 r 53

0,91610,96650,988 1

0,99620,9989

0,99970,9999I

0,03020, l 3590,32080,53660,7254

0,85760,93474,97330,99010,9967

0,99900,99970,9999I

0,01830,09160,23810,43350,6288

0,78510,88930,94890,97860,9919

0,99720,9991099970,9999I

0,01l I0,06110,1 7360,14230,532 l

0,70290,831 1

0,91340,9s970,9829

0,99330,99't60,99920,99970,9999

I

0,0067O,MM0,12470,26500,4405

0,61600,76220,86660,93190,9682

0,98630,99450,99800,99930,9998

0,9999I

334 PH. TASSl - S. LEGAIT

Page 337: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 4 (suite)

LOI DE POISSON - PROBABILITES CUMULEES

Probabilités cumulées Pr (k < ,, : ti"u^

#

0,00010,00080,00420,01490,0403

0,08850,16490,26870,39180,521 8

0,64530,'15200,83640,898 I0,9400

0,96650,98230,991I0,99570,9980

0,99910,99960,99980,99991

0,00020,00190,00930,03010,0746

0,14960,25620,38560,52310,6530

0,'16140,84870,90910,94860,9726

0,98620,99t40,99700,99870,9995

0,99980,99991

0,00010,00120,00620,02120,0550

0,1 1 57

0,2068a32190,45570,5874

0,70600,80300,87580,92610,9585

0,97800,98890,99470,99760,9989

0,99960,99980,9999I

0,00030,00300,01380,04240,0996

0,l9l20,31340,45300,59250,7166

0,81590,888 I

0,91620,96580,9827

0,99180,99630,99840,99930,9997

0,9999I

0,00060,00470,02030,05910,1 32 1

0,24140,37820,52460,66200,7764

0,86220,92080,95730,97840,9897

0,99540,99800,99920,99970,9999

I

0,00090,00730,02960,08180, r730

0,30070,44970,59870,'12910,8305

0,90150,94660,97300,98720,9943

0,99760,99900,99960,9999I

0,00150,01130,04300,1 I l80,22!7

0,36900,52650,67280,79160,8774

0,93320,966 I0,98400,99290,9970

0,99880,99960,9998I

0,00410,02660,08840,201'70,3575

0,52890,68600,80950,90440,9462

0,97 470,98900,99550,9983o,9994

0,99980,9999I

0,00250,01740,06200,15 I 2

0,2851

0,44570,60630,74400,84720,9161

0,95'740,97990,99120,99640,9986

0,99950,9998I

I'l

3

4

5

67

8

9

llt213

l4

l5

t7l8l9

23

24

PH. TASSI - S. LEGAIT22Â

Page 338: Theorie Des Probabilites

TABTES NUMERIOUES

Table no 4 (suite)

LOI DE POISSON - PROBABILITES CUMULEES

c

Probabilités cumulées Pr (k < ,) :'t u-^ 4io kt

m:10 m:ll m:12 m:13 m:!4 m:15 m:16 m:17 m:180

I2

34

5

6

7

I9

20

22

23

24

252627

2829

l0lltl

13

t4

l516

l7l8l9

303l32

33

34

3536

0,00050,00280,01040,0293

0,06710, l 3020,22430,33290,4580

0,583 l0,69680,79 I 6

0,86450,9 r 66

0,95 l30,97300,98570,99280,9965

0,99840,99930,999'7û,9999I

0,00020,00120,00490,0151

0,03750,07860,14320,23200,3405

0,45990 57S1

0,68870,78 I 3

0,8541

0,90750,94420,96790,98240,9908

0,99540,99780,99900,99960,9999

I

0,00010,00050,00230,0076

0,02030,04580,08950, I 5500,2424

0,34720,46160,57600,68 l60,7721

0,84450,89880,93710,96260,9787

0,98840,99390,99690,99850,9993

Q,99970,9999I

0,00020,00100,0037

0,01070,02590,05400,09970, I 658

0,25 l70,3s320,463 t

0,57300,6751

0,76360,83550,89050,9302c,9514

0,97510,98600,99250,99620,9982

0,99920,99970,9999I

0,00010,00050,001 8

0,00550,01420,03160,06200, l 093

0, l 7560,26000,35844,46440,5704

0,66930,75590,82720,88260,9235

0,952t0,97120,98330,99070,9950

0,99740,99870,99940,99970,9999

I

0,00020,0009

0,00280,00760,0 r 800,03740,0698

0,1 1 840, I 8470,26'760,36220,4656

0,56800,66400,7 487

0,81930,875 l

0,91690,94680,96720,98050,9888

0,99380,99670,99830,99920,9996

0,99980,9999I

0,00010,0004

0,00140,00400,0 100

0,02200,0433

0,077 40,t2700,19310,27450,3675

0,46670,56590,65930,7423a,8tzz

0,868 I0,91070,96t70,96330,917'7

0,98690,99260,99600,99790,9989

0,99950,99980,9999I

0,0002

0,00070,00210,00540,01260,026 l

0,04910,08470, l 3500,20090,2808

0,37 t40,46770,54400,65500,7363

0,80550,861 5

0,90480,93670,9593

0,97480,98480,99t20,99500,9973

0,99860,99930,99960,99980,9999

I

0,000 I

0,00030,00100,00290,00710,0154

0,03040,05490,09 r 7

0,t4260,2081

0,28670,37500,46860,56220,6509

0,73070,79910,855 I

0,89890,93 l3

0,95540,97 l80,9E270,98970,9941

0,99670,99820,99900,99950,9998

0,9999I

336 PH. TASSI . S. LEGAIT

Page 339: Theorie Des Probabilites

TABLES NUMEFIOUES

Table no 5

FRACTILES DE LA LOI DE x'z(u)

N.8. Pour v > 30, on pourra utiliser I'approximation sulvante

xirvt:"(r-z*,,,f!*)'où t" est le fractile d'ordre P de la loi normale réduite'

PH. TASSi S. LEGAIT

29,6

31,332,934,536, I

37,'7

1q140,842,3

43,845,3

46,848,349,'7

51,252,6

54, I

s5 5

56,9sR159.'l

62,565,268,070,713.4

86,799,6

I 12,3

124,8t3'7,2t49.4

7,8810,612,8

14,9

t6,7

I 8,5

20,322,023,6)( t

26,828.3

5 r,0s) 1

t1 l56,359,06l ,664,266,8

79,592,0

t 04,2116,3

128,3

140,2

26,227,729, l30,6

32,033,434,836,23"1 ,6

38,940,3

6,619,21l r,313,3

I 5,1

16,818,5

20, I

21,'71L t

4l ,643,044,3

45,64',1 ,048,349,650,9

51 5

56, l

58,66t,263,7

'76,2

88,4100,4112,3

t24,1r 35.8

zl,923,324,126,1)? <

28.830,23 r,51?q34,2

1( S

5,02?1Rs 15

ll,lI 2,8

t4,416,017,5

19,0

20,5

36,838, I

39,440,6

4l ,91J,L

44,5

45,7

4'7,O

49.5

52,054,456,959,3'7 t,483,395,0

106,6I l8,lt29,6

2,114,61

6,257,789,24

10,6r 2,013,4

t4,7

35,636,'7

31 ,939, I

40,3

42,644,94'7,2

49.55l,863,27 4,485,596,6

107,6I18.5

2l ,022,4)2,1)5 0

26,32'7,6

28,930, I

31,4

7)'l

1R4

5,997,81

9,49I I,lt2,614, Irs 5

16,9

I 8,3

t9,1

11S'l{ )36.437,1

38,940, I

4l ,3

42,643,8

46,2

48,651,053,455,8

61 ,5'7 9,1

90,5101,9ll3.l124.3

3,494,t14,8'7

5,586,307,047,798,55

9,3110,I

0,0160,21 I

0,5841,06

I ,61

2,202.83

10,9

ll,7t2,4

t3,214,0

14,8

t5,116,5

t? 1

18, I

18,9

10,3

I 1,3

t2,313,3

14,3

15,3

16.3

17,3

18,3

19,3

20.3

0,455r,392,373,364,35

s 1s

6.357,148,349,34

)l 1

))723,324,3

)5 1

26,321 ,328,329,3

3 1.3

15 1

17 1

4,405,01

5,636,26

6,917,568,238,91ass

10,3

0,0010,0510,2r60,4840,831

|,241,69

2,r82,103,25

3,82

18,3

19,8

2t,322,924,4

32,440,548,8{1 t65,6

{ 11

5Rg6,57'7,26

't,96

8,679,3910, I

r 0,9

I 1,6

12,3

13, I

13.8

0,0040,1 030,3520,71 I

I,r5|,642,t12,131'111S4

4.51

r 4,6

15,416,2

16,9

t'7,'7

18,5

20,l2t,-l23,324,926,5

2,092,56

1051574,l l4,665,23

5,81

6,417,01

0,0200,1150,2910,554

0.8'721,24I,65

7,638,26

8,909,5410,210.9l1,5rl t

t2,913,614,3

oto0,0720,2010,412

0,6760,989

1,34l .73

|,2il,8r) 5

r 3,l13,8

15,I16,5

t'7,919,3)î'1

I,l5I,48

l,832,21

2,623,043,48

3,944,424,905,41

5,92

0,0120,0240,0910,2 l0

0,3810,5980,857

6,456,98? {18,088,65

9,229,8010,4I 1,0

I 1,6

12,814,I

I

2

3

45

6

1

8

9

t0

llt2l3t4l5

t6l'll8l920

2l22

23

2425

26

27

28

2930

32

343638

40

50

60708090

r00

aal

Page 340: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 6

FRACTILES DE LA LOI DE STUDENT

Cette table donne les valeurs des fractiles 1r(v) de la loi de Student pour P> 0,60.Pour fes valeurs P( 0,40, on a tp(v) : - t,, e(v).

y'V.8. Pour v > 40, on pourra utiliser I'approximarion suivante

tp(v)-ue*(u)r+u"\/4v

où ur est le fractile d'ordre Pde Ia loi normale réduite.

338

1Pv\ 0,60 0,70 0,80 0,90 0,95 0,975 0,990 0,995 0,999 0,9995

I2345

6789

l0llt2I3t4l5l6l'7l8l920

2t22232425

262'7282930

3234363840

5060708090

r00200500

0,3250,2890,2770,27 t0,267

0,2650,2630,2620,26t0,260

0,2600,2590,2590,2580,258

0,2580,2s70,2570,2570,257

0,2570,2560,2560,2560,256

0,2560,2s60,2560,2560,256

0,2560,2550,2550,2550,255

0,2550,2540,2540,2s40,254

0,2540,2540,2530,253

0,7270,6170,5840,5690,559

0,5530,5490,5460,5430,542

0,5400,5390,5380,53 7

0,536n 51t0,5340,5340,5330,533

0,s320,5320,5320,53 I

0,53 l

0,5310,5310,5300,5300,530

0,5300,5290,5290,5290,s29

0,5260,5250,5250.524

0,5280,5270,5270,s27a.526

I,3'16I ,0610,9780,9410,920

0,9060,8960,8890,8830,879

0,8760,8730,8700,8680,866

0,8650,8630,8620,8610,860

0,8590,8580,8580,8570,856

0,8560,8550,8550,8540,854

0,8530,8520,8520,8510,851

0,8490,8480,8470,8460.846

0,8450,8430,8420.842

,440,4t5,39'l,383-3tt

,078,886,638,533,416

,363,356,350,J45.341

11?

,333,330,328,325

,323,32t,3 r9,3 l8,3 l6

,315,3 l4,3 l3,31 I

.3 l0,309,307,306,304,303

,298,296,294,292,29t,290,286,283.282

5,3t42,9202,3 532,t322,015

1.9431,8951,860I,8331,812

t,7961,782t,77 tI,761I,753

|,746I,740t,7 34t,729I,725

I,72tt,7 t7t,7 14t,7l It,708

I,706I,703t,701t,699t,697

I,694r,691r,688t,6861,684

t,676t,67 I

t,667t,664t,662

t,660t,653t,648r.645

t2,714,3033,1 822,7762,571

2,4472,3652,3062,2622,228

2,20t2,t792,1602,t452,131

2,t202,1 l02,r012,0932,086

2,0802,0742,0692,0642,060

2,0562,0522,0482,0452.042

2,03'12,0322,0282,0242,02t

2,0092,000I,994i,990I,987

I,984I,972I,9651.960

3 1,826,9654,5413,7473,365

3,1432,9982,8962,8212,764

2,7 t82,6812,6502,6242,602

2,5 832,56't2,5522,5392,s28

2,5 r82,5082,5002,4922,485

2,4'192,4732,46'72,4622,457

2.4492,4412,4342,4292,423

2,4032,3902,3812,37423682,3652,3452,3342.126

63,669,9255,84 r

4,6044,032

3,7073,4991 15S

3,2503,t69

3,r0610s53,0t22,9772,947

2,9212,8982,8782,86 I

2,845

2,8312,8 l92,80'72,7972,787

2,7792,7't t

2,7632,7562;750

2,7382,7282,7 t92,7 t22,704

2,6'782,6602,6482,6392,632

2,6262,6012,5862,576

3r8,322,33t0,227,t735,893

5,2084,'t854,5014,2974,t444,0253,9303,8523,7871 711

3,6863,6463,61 l3,5793,55 2

3,s273,5053,4853,46'73,4501 dl{3,4213,4083,3963,385

3,3653,3483,3333,3191 1n7

3,26r3,2323,2n3,1953,1 83

3,1743,13 1

3,1 063,090

636,631,60t2,948,61 06,859

5,9595,4055,0414,7814,587

4,43't4,3 l84,2214,1404,073

4,0r53,9653,9223,8833,850

3,8 l93,'t923,7673,7453.725

3,4963,4603,4353,4r53,402

3,3893,3393,3 l03,29t

3,7073,6903,67 43,6593,646

3,6223,6013,5823,5663,551

PH, TASSI . S. LEGAIT

Page 341: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 7

FRACTILES DE LA LOI F (uI, uz\ P:0,95

N VrDEGRÉS DE LIBERTÉ DU NUMÉRATEUR

2 3 4 5 6 7 8 9 l0 t2 t4

d,f,(r]F

=

z.(Jl

f,

.IJ.]

F

{!

:q.)

th.[]d,()g

!

I

z3

45

6

7

8

9l0

llt2l3l4l5

l6t7l8l920

2t2223

2425

262728

2930

5Z

34363840

5060708090

100

l6lr 8,510, r

7,71

6,61

5,995,595 1t5,t24,96

4,844,7 54,674,604,54

4,494,454,4t4,384,35

4,324,304,284,264,24

4,234,2t4,204, l84,t7

4,l54,t34,l l4,l04,08

4,034,003,98'l s63.95

3,943.84

20019,0s 55

6,945?0

5,t 4

4,7 4

4,464,264, l0

3,983,893,81

3,143,68

3,633,591553,s23,49

11711s3,343,333,32

3,293,283,263,243,23

3,l83, t53, l33,l l3, l0

3,093.00

1413,443,423,403.39

2t6t9,29,286,595,41

4,7 6

4,354,0'l3,863,71

3,593,493,413,343,29

3,243,203, l63, l33, l03,0'l3,053,033,0 r

2,99

2,982,962,952,932,92

2,902,882,872,852,84

2,792,762,741 11

11t

2,702.60

22519,2

9,t26,395,l9

4,534,123,841613.48

3,01

2,962,932,902,87

2,842,822,802,782,76

2,14)112,7 t

2,702,69

2,672,652,632,622,6t

2,562,532,502,492,47

3,363,263,l83,l l

3,06

2,462,37

23019,3

9,016,265,05

4,391473,693,48111

3,203,il3,032,962,90

2,852,8 I

2,772,7 4

2,7 t

2,682,662,642,622,60

2,592,572,56) {<2,53

2,5t2,492,482,462,45

2,402,37z,3s2,332,32

2,3t) )t

21419,3

8,946, t64,95

4,283,873,5 81173,22

2,7 42,702,662,632,60

t<?, {(2,532,5t2,49

2,4'7

2,462,452,432,42

2,402,382,362,352,34

2,292,252,23') t!

2,20

2,t92, l0

3,093,002,922,852.79

4,21

3,793,503,293, l4

3,01

2,912,832,762,7 t

2,662,61

2,5 8

2,542,51

2,492,462,442,422,40

2,392,i72,362,35

2,31))o2,282,26t 1<

2,20', l1

2,142,t32,n2, l02,01

237t9,48,896,094,88

23919,4

8,856,044,82

4,l51713,M3,233,07

2,952,8 5) 11

2,702,64

2,592,552,5t2,482,45

2,422,402,372,362,34

2322,3t))o2,28))1

2,24))12,2t2,t92, r8

2,t32, l02,072,062.04

2,031.94

241t9,48,81

6,004,77

4, l03,683,393,l83,02

2,902,801?r

2,652,59

2,542,492,462,422,39

2372,342,322,302,28

))1))\2,24f f t

2,2t

2,192,1"t2,t52,t42,t2

2,0'l2,042,022,001,99

I,97r .88

24219,4

8,795,964,7 4

4,063,643,3 5

3, l42,98

2,85) 7(2,672,602,54

2,492,452,4t2,382,3s

)1)2,30))1)')<2,241 11

2,202,t92,r82,t6

2,t42,t22,12,092,08

2,03r,99I,911,95

t,94

1,93

1.83

244t9,48,745,91

4,68

4,003,573,283,072,9t

2,792,692,602,s32,48

2,422,3 8

2,342,3t2,28

I l<2,232,202,l82,t6

2,152,t32,122, l02,09

2,072,052,032,022,00

t,95t,921,89

l,88.r,86

I ,85t,7 5

245t9,48,71

5,874,64

J,963,533,243,032,86

2,742,642,552,482,42

2,372,332,292,26) )',

2,202,t72,t5z,t32,n2,092,082,062,0s2,04

2,01

I,99l,98I,96I,95

1,89

1,86

1,84

r,821.80

t,791.69

Pour les valeurs de Fcomprises entre 0 et l, on a:

F,-r(v,, vz): I

F, (vr' v'\

PH TASSI - S. LFGAIT 339

Page 342: Theorie Des Probabilites

TABLES NUI\IEBIOUES

Table no 7 (suite)

FRACTILES DE LA LOI F (ut, uz) P:0.95

Pour vr et vz ) 30, une bonne approximation est donnée par la formule:

f'. (v,, v:) : exP lÆ - l'5681 tu-' - ,t llLy'(vr '+ v;'\- -0,475 I

DEGRÉS DE LIBERTÉ DU NUMÉRATEUR: y. "'/l6 l8 20 22 24 26 28 30 40 60 100

246t9,48,695,844,60

3,923,493,202,992,83

2,702,602,5t2,442,38

2,332,292.252,212,l8

2,t62,t32,n2,092,07

2,0s2,042,022,01

l,99

t,97I,95l,931,92

I,90

l ,85l,82|,79I,'7'lt,76

1,7 5

I,64

247t9,48,675,824,58

3,903,473,t72,962,80

2,6"1)\12,482.4t2,35

2,302,26)))2, l82,t5l rt2,t02,0'l2,052,04

2,022,00I,99|,97I,96

t,94|,921,901,88

I,87

l,81I,78t,7 5

t,73I,72

I ,71I,60

248t9,48,665,804,56

3,873,443, r52,941 a1

2,652,542,462,39, 11

2,28z,z)2,t92,t62,t2

2,t02,072,052,032,01

t,99|,971,96

t,94I,93

I ,911,89

I ,87I ,851,84

1,78

t,7 5

I,72l,70t,69

1,68

t,57

249t9,5i,65t,79J,54

],86t,43i,l31,92)7{

t,63| <r

1,44

t,37t,3 l

) r<t,2ll,t7I,l3I,l0,.,07

t,05t,02r,00

,98q7

st,93,92,91

,88,86,85,83,81

,76,72,70,68,66

,65.54

24919,5

8,645714,51

3,843,41

3,122,902,7 4

2,61

2,51

2,422,35,to2,242,t92,152,1I2,08

2,052,032,00l,981,96

I,95l,93I,911,90

1,89

1,86

l,84I,82I,81I,79

I,741,70

t,671,65

t,64

I,63|,52

24919,5

8,635,76A\)

3,833,403, r02,89', 1)

2,592,492,4t2,332,21

)))2,t72,t32,102,07

2.042,01

l,991,97

1,95

I,93I ,911,90

1,88

I ,87

I ,851,82

I ,81t,'19t,77

I,721,68

1,65

1,63

t,62

I ,611.50

25019,5

8,625 ?S

4,50

3,821103,092,872,7 t

2,5 8

2,482,392,322,26

2,2t2,162,t22,082,05

2,022,00|,97I,95I,93

I ,911,90

1,88

1,87

1,85

l,831,80

I,79I,77t,76

l,701,66

t,64t,62I,60

I,59I,48

25019,5

8,625,7 5

4,50

3,8 r

3,383,082,862,70

)<12,472,3 8

2,3tt')<

2,192,t52,lt2,072,04

2,01

I,981,96

1,94

I,92

1,90l ,881,87

1,85

1,84

1,82

l,801,78

I,76t,7 4

1,69

1,65

I,621,60

I,59

|,57t,46

251t9,51,59i ?,t,46

\'1'7I lr'.1,04)R1

1,66

) s1,-,43

t,34, 11

t,2a

I, l5I, l01,06)n11,99

,96,94,91

,89,87

RS

,84,82,8119

,1',l

,75,73,7t,69

,63,59,5'7

,5451

5).39

252r9,5157

',691,43

t,'74t10|,0 r

t,79

t,62

t,491,3 8

1,30t))

l,l9l,llt,061,02

,98,95

,92

,89,86,84,82

,80,'79

,'77

,'7 5

.'74

,'7 I

,69,6'7

,65,64

,5851

,50,48,46

,45.32

25319,5

3,5 5

i,66+,41

,,7 t

t,27)q72,7 6){o2.,46)'t52,26

z, l9't,t2

2,07) (\)

1,98

1,94

l,9l1,88

I ,85I ,82r,80I ,78

I,76t,74l,'71t,71.r,70

t,67t,651,62

r,6l5q

t,52r,48t,45r,43t,4l

t,39I,24

,.s4

9,5

,53,63,37

,67,21,93,7t,54

,401n

,2t,13

,07

,0i,96,92,88,84

,81

,78,76?1

,'7 I

,69,67,65

,64,62

,59,5755

51

,5 I

,4410

151',)

,30

,28,00

I

2

3

45

6'1

8

9

l0

llt2l3t4l5

l6t7l8l920

2t22

23

2425

2627

28

29

30

)23436J640

5060708090

100

rn

varJ.(,

arJ

-t!fa

-Jlr)'

Ëc

tr.z

=z-lrne:

340 PH TASSI - S. TEGAIT

Page 343: Theorie Des Probabilites

TABLES NUMEFIOUES

Table no 7 (suite)

FRACTILES DE LA LOI F (ut, uzl P : 0,975

NopcnÉs oe lrnenrÉ ou NuvÉnettuR Vt

I 2 3 4 5 6 7 8 9 l0 t2 l4

;fglF

z

z.t!Uf,

.t!Ftrlco

Irrl!

.qld,Uqla

I

2

3

45

67

8

9

l0llt2l3t4l5

l6t'll8t920

2t2223

2425

262'7

28

2930

323436J64A

5060708090

100

6483 8,5t7,4t2,210,0

8,8 t

8,07't \17,2t6,94

6,726,556,4t6,306,20

6,t26,045,98<o)5,87

5,835,',l9575<1)5,69

5,665,615,61s5s557

5 S',l

5,505,475,455,42

5,345,29{ ts<))5,20

5,l85.02

80039,016,010,68,43

7,266,546,065,7 |

5,46

5,265,t04,974,864,76

4,694,624,564,5 I

4,46

4,424,384,354324,29

4,274,244,224,204,18

4,l54,t24,094,074,05

3,981S13,893,863,84

1 R1

3.69

86439,215,49,987,76

6,605,895,425,084,83

4,614,474,354,244,15

4,084,011053,903,86

3,823,783,7 5

3,723,69

3,673,653,633,6115S

3,563,533,5 I

3,483.46

1 '1S

1143,3 I

3,28J,27

3,753,t2

9C0

39,2t5,r9,607,39

6,235 5'5,054,124,47

4,284,124,003,893,80

17'l3,663,6 r

3,563,5 l

3,483,443,41

3,381 1s

3,333,3 lt?s1)13,25

3,223, l93,t13, 15

3, 13

3,063,01

2,982,952,93

2,922.79

9221S1t4,99,367,1 5

5,995,294,824,484,24

4,041,89),773,663,5 8

3,503,M3,383,331?q

1ts3,223,l83,l53, ll3, l03,083,063,043,03

3,002,972,942,922,90

2,832,79) ?<

,'712.7 t

2,10)\1

93739,3t4,79,206,98

5,825,t24,654,324,07

3,881 71

3,603,503,41

3,093,053,022,992,9'7

2.942,92)9n2,882,87

2,842,81

2,192,'162,7 4

2,612,632,60)<17 5t

2,542.4t

3,343,287))3,173,r3

94839,414,6

9,076,85

5,704,994,534,203,95

3.763,61

3,483,3 8

3,29

1, ))3,l63, l01053,01

2,972,932,902,872,8s

2,822,802,782,76-) ?(

) 1)2,692,662,642,62

2,552,51

2,482,452,43

2,42))a

95739.414,5

8,986,7 6

5,604,904,434, l03,85

3,663,51

3,393,29J,20

3,l23,063,012,962,9t

2,8'l) F,4

2,81

2,78t ?(

2,732,7 |

2,692,6'l2,65

2,622,59){77 55) {1

2,462,4t2,382,362,34

) lt2.19

96339,4r4,58,906,68

5 5)4,824,364,033,78

3,593,443,31

3,Zl3,12

3,052,982,932,882,84

2,802,762.732,702,68

2,652,612,6t){of <1

2,54) {t2.492,472,45

2,3 8) 11

2,302,882,26

2,242.r I

969)9,414,4

8,846,62

5,464"164,303,96?.1')

1s11171 ){3,r53,06

2,992,922,872,821 11

2,732,'102,672,642,61

2,592,57

2,55, (1

2,5t

2,482,452,432,4t2,39

)11

2,242,2t2.t9

2, l82.05

9771S414,3

8,756,52

5,374,674,203,873,62

3,433,283,1 5

3,052,96

?Rq2,822,',771 11

2,68

2,642,60)<12,542,51

2,492,47

2,452,432,41

2,382,352,332,3t2,29

)))) 1'1

2,t4'2,n

2,09

2,081.94

98339,414,3

8,696,46

5,104,604,l33,803,55

3,363,21

3,082,982,89

2,82) l52,702,652,60

?.562,s32,502,472,44

2,42?102,372,362.34

2,3t2,28) ){t tt2,2t

2,142,092,062,032,02

2,00l .87

PH. TASSI - S. LEGAIT

Page 344: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 7 (suite)

FRACTILES DE LA LOI F (ut, uz) P:0,975

Pour yr ct yr > 30, une bonne approximation est donnée par la formule:

4o,s (v,, y:) - exp l:-2lll!- - 1.948 (";, - ur,)l' [r|(t;r+ û1-1 -î37 ' 'J

DECRÉS DE LIBERTÉ DU NUMÉRATEUR: V ,,,//vtl6 l8 20 22 24 26 l6 30 40 60 100

98'l39,4t4,28,646,4t

5,254,544,083,743,50

3,303,l53,032,922,84

2,762,702,642,592,55

2,51

2,472,42,4t2,38

2,362,342,322,302,28

))<)J)

2,202,t72,t5

2,082,032,00t,971,95

1,94l,80

99039,4t4,28,606,37

5,2t4,504,033,70145

3,263,1 I2,982,882,79

2,722,652,602,552,50

2,462,432,392,362,34

2,3t2,29aa1

2,25114

2,202,t'l2,t52,t32,tt2,03l,981,95

l,93l,9lI,89|,75

3,233,072,952,842,76

99339,4t4,28,566,33

5,t74,474,003,673,42

2,682,622,562,5t2,46

2,t62,t32,n2,092.07

2,422,392,362,332,30

2,28iJ<t t2

2,212,20

t,99t,94I ,91l,88I,86

I,85I,71

99539,514,I8,536,30

3,203,042,922,8t2,73

2,652,592,532,482,43

2,392,362,332,302,27

2,24,1a

2,202,l82,t6

2,t32, l02,082,052,03

t,96I,91r,88l,85I,83

5, l44,443,973,643,39

I,81t,6'7

99739,514, I

8,51

6,28

5,124,423,9s3,61117

3,t73,022,892,792,70

2,632,562,502,452,41

2,372,332,30

2,24J1)2,t92,t72,t52,14

2, l02,072,052,032,01

I,93l,88l,85l,82l,80

l,78I,U

99939,5t4,t8,496,26

5, l04,393,933,593,34

3,l53,002,872,772,68

2,602,542,482,432,39

2,342,3t2,28))<141

2,t92,t7î r<

2,t32,tl2,082,052,032,00l,98

I,91I,861,82

I,79I,77

t,76I,61

1000

39,514,I8,486,24

5,084,383,81

3,58

3, 13

2,982,85'r 7<

2,66

2,582,s22,462,4t2,37

2,332,292,262,232,20

2,t72,152,t32,n2,09

2,062,032,00I,981,96

l,88l,83r,80I,77t,7 5

t,741.59

100 I

39,514,l8,466,23

5,074,363,893,563,3 l

3,t22,962,842,732,64

2,572,502,442,392,35

2,3t2,272,242,2t2,t8

2,t62,t32,tl2,092,07

2,042,0tI,99l,96t,94

I,87t,82I,781,7 5

I,73

t,7l1.57

1006

39,514,0

8,41

6,18

5,014,3r3,843,5 I

3,26

3,062,9t2,782,672,58

2,5t2,442,3 8

2,332,29

2,252,21

2, l82,t52,t2

2,092,072,052,032,0t

I,981,95

I,92l,90r,88

I,80I,74I,7 t

1,68

1,66

t,64t.48

l0l039,s14,0

8,366,t2

4,964,253,781r'S

3,20

3,002,8571)2,6t2,52

2,452,J82,32111'1 )')

2,t82,142,lt2,082,0s

2,032,00r,98I,96I,94

I ,91I,88l,85I,82l,80

t,72t,67l,63I,601,58

I,56I,39

l0l339,5t4,08,326,08

4,924,211,7 43,403,15

2,962,802,6'7

2,562,47

2,40?112,2'l111

2,t7

2,t32,092,062,022,00

1,97

1,94

I,92I,90l,88

I ,85l,82I,79t,761,74

t,66I,60I,56l,53I,50

I,48I.30

l0l839,513,9

8,266,02

4,854,t43,673,333,08

2,881 11

2,602,492,40

2,32', )<2,t92,132,09

2,042,00|,97I,94l,9ll,88l ,851,83

l,81I,79

t,7 5

I,72I,69t,66t,64

r ,55l,48t,44I,40I,37

r ,35l,00

I

2

3

45

6

7

8

9

l0

llt2l3t4I5

l6t7l8l920

)l22t12425

2627282930

3234363840

5060708090

100

Urî,ôFfll.(t

Uln

Ic!rrlF-tln.l-

eF

11.zoEz-lrnCv

342 PH, TASSI . S, LEGAIT

Page 345: Theorie Des Probabilites

TABLES NUMERIOUES

Table no INOMBRES AU HASARD

t3407 6289950230 6323784980 6245822lL6 3364668645 15068

26518 39t2236493 4166677402 1299483679 971s471802 39356

57494 72484'73364 38416tu99 8396540747 0308442237 59t22

32934 6022705764 t428432706 9487922190 2'755981616 t5641

26099 6580171874 61692087'74 2968937294 9202833912 37996

63610 6147501570 4t70224t59 7778792834 5294116178 60063

81808 3298028628 8207262249 657578454t 9989189052 39061

43645 8923261618 1927s68136 0654674005 3455854437 88825

0r990 9476202404 4240859253 7t53520471 t391465946 60766

00939 47818499s2 29t2317328 7073219420 702t5t9l2l 4l t90

't8937 9052594083 9363409703 7839717545 3132156898 87A2t

96561 560042787t 7t32959892 855814034t 8474102981 89107

22676 443t193128 t029775403 180020'1734 8894092855 62097

58707 4485873069 8083093188 6604995668 532619492t 959',70

69870 844468000t 2143042245 5190356850 8338078967 5720t

26980 2380430282 5464738973 8217888301 22t2759284 t62'79

80660 9839104854 52809122'73 9t26101585 967119981 I 69831

00384 1085840744 2248204029 4'194693779 96t200'7943 81795

89926 847646798t 4368426149 3562999330 3793874084 22484

75949 4470745950 6757846319 269sO90476 7640049t45 05373

25033 563587t652 0265666t79 46982657'72 86s06401 15 27524

50260 68648692t2 5793270823 5333808967 7328779788 51330

15356 05348I l4l9 8293745068 s425788722 857t781276 06318

36081 7998tt723t 4293625988 466562t676 9894363506 22007

58248 2128202305 5974169179 966820s9t2 2983066916 73998

54972 7206806077 2935446802 9024523459 4022948003 44634

62243 t967886608 6801796983 15082297t2 0287'747234 93263

21789 1409312424 98601t9526 2'1t2201695 477203t709 13358

t9159 9535555467 4703087t2^7 4558169649 57964495t4 89820

49105 0677713524 03023t9037 0283151553 1215800755 t78t7

78902 47008 72488 5794957532 60307 91619 48916676t9 39254 90763 740560981 l 82848 922n 5t 17842221 88293 67592 06430

85596 83979 09041 6235065281 57233 07732 5843934405 67080 16568 0085494952 59008 95774 4492737129 31898 3401 I 43304

03582 66183 68392 8684484389 88273 96010 0984318085 92626 6091 I 3913773810 79866 84853 6864781607 00565 56626 77422

01291 68707 45427 82t45484'.12 t8782 st646 3756435365 13800 83745 4014143618 42n0 93402 9399729966 38tM 62556 07864

56938 54729 6775'7 684t234262 15157 27545 1452291819 60812 4763t 5060937612 15593 73198 9928754289 07t47 84313 51939

19403 53756 0428t 9802295704 75928 2l8l I 8827401805 23906 96559 0678574678 2t859 98645 7238808623 32752 40472 05470

39551 18398 36918 43543l l 120 28638 72850 0365083851 77682 81728 52t4770955 59693 26838 9601 I47386 17462 18874 742t006268 46460 97660 2349019089 53166 41836 28205425t5 55048 239t2 81 10588&6 73520 40050 9055304626 64838 92133 44221

982t3 t7704 47400 3083742545 43920 I I 199 3652100185 0104t 46662 9889797149 4t628 78664 8072741310 19722 07045 28808

31998 79942 98351 t026518046 '15287 74989 5815236558 82712 05590 6494114668 15656 37895 9455922757 76116 76977 945't0

PH, TASSI - S. LEGAIT 343

Page 346: Theorie Des Probabilites

TABTES NUMER]OUES

Table no 9

NOMBRES AU I-IASARD GAUSSIEN N (0,1)

l.slg- .00{- t.3?r-2.033- "620 .256.866- .a23- I.878.683 .392 .o53-.24t 1.650 .?o3

.7L6 .997 .a2ol. 136- .169 "t06.{61- .390 .63?.986- .305- t.02{

.686 1.036- .980

.393- 1.190- 1.sto2.155- .2A7- .216

.?65- 1.135 1.1022.161- 1.84? .s2a1.302- 1.?81 .{58-

_.986- -.a36 .50a .82t- 1.169 L.162 .063_r.335 r.rsz .elo- 1.22. r.ssl- i-iià rlàÀi-r.!19- _.?9? t.os3 .3rt .rrg r.aoi- -.iôô_.!?l- t..oq- .640- .s63_ .s21. .zrr- :ié,.226 .1zs- ..86- t.rgs l.oss .ase 1:ôàè

r.!19- l.g?l t.5?1. .s8e- 2.0?6 .o28- .65{.223 1.E65 .060- .112 l.069 r.tee t-rii-1.166- .O42- 1..192- .,1,t3 .31O -ZSZ- t-zrt-l.??\- .5ol l.3ll l.tts- l...l.r- .eos :it5-r.6sr .6s5- 1.126 .680- .o2z_ .zse :aaô.q91 .gl? t"t75- .086 .?e2- .oe3 l.t:.E

_.199- .llq- .e3?- l.o3e .r2s- .zzg- r.i6s-r.ll! -.?19 .522 .e68- .o{t .zsz- r.srt.?-4?- r.g?5- .o3r- .71L t.tzz- z.qea r:?46.589 .t71 1.4?8- .225- .606_ 2.619- .zsn-

r.qq! l.qlg- .7L!- .lqq- .89?- .66e_ .38? .16? 1.6?3 1.1ôo-.999- .t?9- .?s! .7o-2- .7e7 r.rss- .sss- :ti1 -:tià_ -:âôô.Z16-- .9i9 .03?- .l9g r.zos- z.ore- g.rzo- .eas- .zos- :i6a-,!?6-- .??7 2.222 r.el! r.!l? r.o12- .orr .ose r.oii :iat.rs2- .{86 l.o3?- 1.320 .968- .ssr .aaz_ z.ezs i-.oéi- :iû_

.374- L.279 .17O-

.025 t.711- .a8a

.710 1.203-.lal

.347- .2L6 1.1721.075- .681- .o31-

.531- .112- 2.2571.89? .936- .O2t-

. l6a 1.8,t3 l. 862-

.908 .251 .25O

.{59- .302- .762-

.29L 1.489 t..05t

.a56 .569- .t771.Ol,t- 1.088- .853.85{- 2.102 .s9l.80?- .a3l 2.078

.2tq- .53?- 1.235- .326- .449 l.l?o- 1.172.011- .37O .441- 2.680- l.6,trl- 1.916- .Alg-.?qc- ..9I- .56t- .99s- .,r15- 1.585 .5?8__.276- 1.19? 1.603- .9O7- .8,13- Jeg- z.gel1.251 .35?- .387 .922- .6,19- .958- .ZSS-

.7!1. .!06- .2o8- .231- t.l8o L.127- .oo.- .2rO- l.6rto- .Brl--.91! -.199- 2.!?i -.?99 .628- 1.5?o r.zsg- r.glr .zas :iaô-2.991 l.!lq- .?9q- l.6E!- .?8?- 2.003- t:?o?- .oer .oos- :é{i-.?3_? .qqg .r53- 1.219- .075- .ers- .srs .5?O- 1.682- .zet_.3Tt .6rl .o{9- .Bs8- .ls? .985- .eze .osr- .zto_ :æé-

.961 -l.?aa1.826-.7lo-.t57-

1.830.776

t.821l.0l 9-l. 73a

.291 1.o03- .o{9 1.610,227- .17A t.O2g .67?.060- .709 .88?- -A231.t63- .6?0- .100- .327.228- 1.012- 1.a50 t.22L-

344 PH TASSI , S. LEGAIT

Page 347: Theorie Des Probabilites

TABLLS NUIVERIOUES

Table no 1O

ESPERANCE DE LA STATISTIOUE D'ORDRE

_.Cette table fournit E (X,,,), où X,,, est I'observation de rang i lorsque léchantillon

(X,, .. ' xn) extrait d'une loi normale N (0, l) est classé pu, o.J.. décroissant:X,u ),X,r, )- ...2 X,,t ) ...) X,", ; n varie de 2 à 50. par symétrie, E (Xrrr :-E(X," -',)

2

I 0.5642? -0.564234

3

0.E4630.oooo

-0.846t

1.0296 r.1630 t.26720.2970 0.4950 0.6418

-o.29t0 0.0000 0.2015-1.o29ô -0.4950 -0.2015

4s6 7Er.!522 1.42360.1574 0.e5220.3527 0,4728

_0"0000 0. L525

t4 15

1.70t4 t.7t591.20t9 1,24190.901r o,94770.66IE 0.tr490.4556 0.5157

9l0ltt2uI t.4850 1.5388 t.5864 t.6292 r.66S02 0.9323 l.ool4 l.06 l, t. lr57 r. r64t3 0.5720 o.6t6r 0.7286 0"7928 0.84984 0.2145 0.J756 0.4620 0.5]68 0.60285 0.0000 0.t227 0.22{9 0.3t22 o.3ss36 -0.2''45 -O.t22t o.ooq) 0.1026 o.t9o5 0,26:/3 0.3351t -0.5720 -0.3758 -O,2249 -o.1026 o.oooo o.os82 0.1653

16 t7 lE r9 20 21 22

I t.76602 r.284t3 0.990!4 0.75325 0.5700

r.7939 [email protected] r.3to[1.0295 l.o65t0.E074 0.t4810.6r95 0.664to.ôJu 0.tot60.2952 0.350s0.1460 0.207t0.æ00 0.6S!

-0.1460 -0.06s!

-0.2952 -o.20r,

1.841.5 1.8675t.3799 [email protected] l. u090.E85t 0.92t00.7066 0.74'É0.y77 0.59030.4016 0.44330.2537 0.3r490. uot 0. 18700.0000 0.0620

-0.Llot -0.0620

67

t9

l0

ll

0.39620.233E0.07t3

-0.07tt-0.z3tt-0.3t62

1.9292 r,%7t1.4€14 r.5034t"2144 1.23921.0u6 t.o4090.8470 0.!t68

0.t012 0.733t0.t690 [email protected] 0.68390.329t 0.37050.21t5 0.2616

0.108 r 0.1558o.(xn, 0.0518

-0. l08l -0.0t!t.0.2rtt -0. r35C

1.9653 1.9E22l.t2(! t.*21.2626 t.2t5lI .0'66t I .091ô0.9050 0.9tr7

0.t64t 0.t9290.6369 0.66790.519t 0.5t2t0.4096 o.t t l.40.t0lt 0.34t0

0.2001 0.2(130.0995 0.r4!90.0000 0.0478

-0.0995 -0.0{t8

r.E892 1.9097r.4336 1.45S2l. r60t t. rE820.9538 0.98460.7E15 0.E153

0.629E O.66670.4915 0.53160.3620 0.ré560.2384 0.2r580.1184 0.rt00

0.0000 0.0564

1.99E3 2.0U7 2.0285r.5633 t"5815 l.r9E9r.3064 1.326t r.3462l. rl47 l. t3t0 1.15E:0.9570 0.9812 1.00ôl

0.8202 0.8461 0.87080.6973 0,7251 0.75t50.t84t 0.6138 0.64200.4780 0.5098 0.5t980.37t r 0.4u0 0.(430

0.2798 0.3160 0.3t010. r852 0.2239 0.26020.0922 0.tit36 0.t7240.0000 0.0444 0.0859

23 24 2' 26 2t 2E Le

I2345

6ItI

t0

tll2lfl4

Page 348: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 1O (suite)

ESPERANCE DE LA STATISTIOUE D'ORDRE

t0 31 32 33 34 35 36

6II9

l0

nt213

l4l5

r6l?t8

I 2.0428 2.05652 r.6156 r.63173 r.3648 t.38274 l. 1786 1.19805 1.026t l.o47t

2,0697 2,08241.64.7 r 1.6620t.3999 1.41641.2167 r.234''1.0672 1.0865

0.9384 0.95900.8236 0.84550.rt8t o"74200.6213 0.64600.5294 0.5555

0.4418 0,t6940.3575 0.386to.2751 0.!0650.1957 0.22830. t169 0. 1515

0.0389 0.0755-0.0389 0.0000-0"1169 -0.0755

0.89t4 0.91690.7767 0.E0070.6688 0.69440.5683 0.59550.a733 0.5021

0"3824 0.41290.2915 0.32690.2088 0.24320. l24r 0.16u0.0415 0.0804

-0.04r5 0.0000-o.L241 -0.0804-0.20EE -0. t6 ul

r 2.u93 2.lrol 2.1506 2.t60E2 1.7166 r.7291 1.74L1 1.75313 l.{768 1.4906 r.5040 r,5r704 r.3002 r.3r5t r.3296 r.34375 1.1568 r.1728 l.tEEt 1.2033

6 1.0339 1.0509 r.0674 r.0833t 0.9250 0.9&30 0.9604 0.97728 0.8260 0.8451 0.8634 0.6Ell9 0.7316 0,754'' O.71tû 0.7926

r0 0.6490 0.6701 0.6904 0.7099

ll 0.5679 0.5900 0.6113 0.6318t2 0.4904 0. t 136 0.5359 0.357413 0.4158 0.rlol 0./635 0.485914 0.3434 0.3669 0.3934 0.4 169t5 0.2'127 0.2995 0.3252 0.3198

16 0.2014 0.2316 0.2585 0.2A42l7 0. 135 r 0. 1647 0 . l 929 0 .2 199l8 0.0674 0.0985 0.1282 0.156419 0.0000 0.0328 0.0610 0.091620 -0.067ô -0.0328 0.0000 0.03u2l -0.1351 -0.0985 -0.06ro -0.0312

2.0947 2. 1066 2 . r r8 t1.6764 1.6902 1.70361.432t t.tA75 t.tÂ241.2520 r.2666 t.28471.1051 l.1229 t.1402

0.9789 0.9979 1.01620.â666 0.8E68 0.90620.t643 0.7857 0.80630.6695 0.592r 0.7r380.5804 0.6043 0.6271

0.4957 0.5208 O.W90.4144 0.4409 0.tû620.3358 0.3637 0.39030.2592 0.2886 0.3 166

0.1842 0.2152 0.2tA6

0.1101 0. 1426 0.17390.0366 0.0712 0.1040

-0.0366 0.0000 0.0346

2.L707 2.r80! 2.18971.76/+6 1.7757 1.7865r.5296 r.5419 1.5s38t.3573 1.3705 1.38331.2178 r.Èr9 r.2456

r.0967 1.t136 l.t28t0.9935 1.0092 1.02450.E983 0.9r48 0.93080.8106 0.8279 0.W70.7287 0.7tÉ9 0.7645

0.6515 0.6705 0.6EE90.5780 0.59t9 0.6 r7 l0.5075 0.5283 0.54830.4394 0.46 lt 0.ô8200.3734 0.3%0 0.4176

0.3089 0.3326 0.35530.2457 O,2704 O.29t 20.1835 0.2093 0.23410. t2r9 0.1490 0.17490.0608 0.0e92 0. l16l

0.0000 0.029? 0.0580

37 38 39 tâ 41 42 43

346 PH TASSI . S. LEGAIT

Page 349: Theorie Des Probabilites

TABLES NUMEBIOUES

Table no 10 (suite)

ESPERAI\CE DE I-A STATISTIOUE D'ORDRE

I2

34t61

€I

t0

ilt2r3t4l5

l6ltItl920

2t222l242t

2. l98t 2.207t1.797t 1.80131.5653 t.57661.395t 1.407E1.2588 t.27rtl.t42t l"t55E1.0392 t.05360.9I'63 0. 96 140.86 t0 0.876t0.7E15 0.t979

0.7067 0.t2380.6356 0.65350.5616 0.58630.5022 0.52170.4t89 0.4591

0.37t, 0.!9S!0.!rto 0,3!900.257' 0.28080.r9rt 0.22360.1422 0. t67l0.0851 0.tllt0.02tt 0.0155.0.02tt 0.0000

-0.0851 -0.05t5-0.1422 -0. lllr

2.2164 2,2249r.8u3 l.E27l1.5875 1.59821.4196 l.(3ur.2842 1.2964

l.1690 l. lsl,l.067t t.08100.9760 0.99020.8920 0.90680.8139 0.t294

0.7405 0.tt660.6t09 0.68?t0.60rÉ 0.62190.5405 0.55860.478t 0.4975

0.418t 0.43630.t602 0.t8060.10t9 0.324t0.2455 0.26360.1910 0.et40

0.u60 0.1t990.081ô 0.10640.0271 0.053r

-0.0271 [email protected] -0.05t1

2.2331 2.24t2 2.249r1.8366 1.8458 r.8549t.6oE6 l.6rE7 t.62E5l.tA22 t.453t 1.463?1.3083 l.3r9E r.3lut.1944 !.2066 r.2r851"0942 !..1070 r. ll95l.0o4o _ r.0174 l.g3o40.9212 0.93s3 0.94s90.c,uA 0.8590 0.E732

0.172t 0,78750.7040 0.71980.6368 0.65520.5763 0.59330.5159 0.53t6

0.ao220.735 t0.67 rt0.60990.5t08

0.45tt o.4't5, 0.49350.4{x)t 0.4191 0.43790.3t'46 o.tê,tA 0.!tt60.2899 0.trot 0.!!oa0.2361 0.25t5 0.2761

0.t830 0.2051 0.22650. u03 0.1534 0.17560.0781 0. t020 0. u5r0.0260 0.0509 0.0749

-0,0260 0.00co 0.0250

PH. TASSI . S, LEGAIT 347

Page 350: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 11

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

X, , représente l'observation de rang i dans un échantillon (X,, .. X") extrait d'une loiN (0, l) classé par ordre décroissant : X,,, > ...2 X,",. Cette table iournit, par n allant cie 2 à20.iesvaleursdeV(X,,,)etCov(X(i),X,;,).OnaCov(X,,,,X,;,) = Cov(X,",*,r,X1" 1*,r).

Â{

g-9

Â3

!-7

!I

Lz

5t0 I

LI 0.53 1'2 0.3 U32 0.6t17I 0.55952 0.275t3 0.1649, g.tÆ1I 0.ô9172 0.24553 o.ljto4 0.10ô72 1r.36053 0.2359I O.t{?52 0.22ô!3 g.lt{ I4 0. t05r5 0.07{22 0.3115, 0.20844 0.1499! 0.2868I 0..u92 0.1085I 0.11944 0.10245 0.07146 0.05612 0.27963 o.uto4 0.13975 0.10593 0.2662I 0. lrttI 0.!9192 0.19623 0.t!2I4 0.09E5t 0.07666 0.05997 0.O4/.E2 0.25673 0. lt494 0. Ll075 0.10205 0.0Ê30

L! 0.2197{ 0.16565 0. t:lt64 0.2104i 0.J7292 o.18633 0.1260a 0.094?5 0.07lrt6 0.0602t 0.0451t 0.036E2 0.239tt 0.1632a 0. t2335 0.09766 0.0787t 0.06323 0.20084 0. u2ô5 0.ut06 0.09784 0.16725 0.1492I 0.35742 0. lTElI 0. uota 0.09L1t 0.07276 0.0595? 0.q91t 0.0401, 0"03112 0.225't 0. l54l4 0.ltt0t 0.09t46 0.076tt 0.0632E 0.051,! 0.1E6{4 0.t4215 0.1!!E6 0.09t{r 0.0?724 0,1706

l.5 0. ul706 0.lt2tt 0.1661I 0.34432 0.ltlt3 0. l16lt 0.08825 0.070t6 0.0584t 0.04ê9e 0.04ItI 0.03ré

l0 0.02672 0.2145! 0.1466a 0. ut?5 0.089tô 0.07427 0.0é22! 0.05239 0.0434t 0. l7r0ô 0. l3t85 0.l0rt6 0.0ô92t 0.0?ô9I 0.0630a 0.ur95 0. u7t6 0.105tt 0.08695 0.15116 0. u56I 0.3!322 0.1654t 0.1u4a 0.065tt 0.068E6 0.0572t 0.o4t4t 0.04 u9 0.03t1

l0 0.0294ll 0.023tI 0.2052! 0. raoS

2ll

24t

36l

att

5

ll I

348 PH TASSI - S. LEGAIT

Page 351: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 11 (suite)

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

Lll

J

4 0.t0715 0.08646 0.c719t 0.05098 0.05209 0.0443

l0 0.0371I 0.16574 0.1:lr0t 0.10266 0.0E59t 0.0725E 0.05199 0.052e4 0.1$0J 0. lr996 0.loæ7 0.oE{9t 0.0725t 0. u966 0. 1167? 0.09926 0. ljtr2I 0.32362 0. t6023 0. t0c9ô 0.0tll5 0.06716 0.05ro7 0.0477t 0.0ct0t 0.0354

l0 0.0305ll 0.025tll 0.02062 0. tr?3! 0. lJ{9( 0.1032t 0.or3t6 0.06967 0.05 9rt 0.0512I 0.O.i3

l0 0.0361ll 0.03Ët 0. u60

J

a 0.12t25 0.09E36 0.08227 0.07016 0.06049 0.052!

l0 0.04504 0.u9r5 o. tt366 0.0952t 0.0612ô 0.07019 0.0607t 0. tito66 0.10967 0.09378 0.08096 0.12667 0.10E4I 0.31522 0.155t3 0.10594 0.06095 0.065t6 0.0548? 0.0459t 0.066I 0.0354

l0 0.0t09I I 0.0269t2 0.0229Li 0.01842 C.1904J 0. L'024 0.09975 0.08096 0.0ô747 0.0tr0t 0.05039 0.0439

l0 0.ct84ll 0.0!tt12 0.02tô3 0. l5l4ô 0. u6!5 0.094t

J

6 0.07937 0.0679t 0.05899 0.0514

l0 0.0{50u 0.0J914 0. Lt30t 0.108Jô 0.0910? 0.0780t 0.06779 0.0592

t0 0.05175 0.12336 0.10377 0.0890E 0.07i49 0.0ô766 0.11837 0. 1017t 0.0886? 0. u6EI 0.307t2 o.ut?3 0.10324 0.07895 0.06(06 0.05377 0.0461t 0.0rot9 0.0352

l0 0.0310n 0.0273u 0.0219u c.020514 0.0t662 0.tt44I 0.I26ta 0.0967t 0.07856 0.0660t 0.056tt 0.049{9 0.043ô

lo 0.0382ll 0.0337

!3

o

12

t2

L!t

!3

7

14 I

6

tit I

512 I

PH TASSI . S. LEGAIT 349

Page 352: Theorie Des Probabilites

TABLES NUMERIOUFS

Table no 11 (suite)

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

a

l5

r-Âut

2

L1142

3

Lu 0.0295lJ 0.02533 0.t45t4 0.1u0t 0.0il1t 0.0t6t? 0.065,I o.otraI 0.050t

lo 0.0445ll 0.0392tl 0.0r4ta 0. uttt o. tott6 0.0ttat 0.0t5tt 0.06tt9 0.05t6

lo 0.0t0tl! 0.0{4t5 0. u7t6 0.096Et 0.0t51I 0.07ô2t 0.o65t

lo 0.0516ô o.uut 0.0t61t 0.0t40t o.0tl9t 0. to90t 0.095tI O.tOUt2 o.t.tlI 0.100t4 0.0t7tI 0.06266 0.052tt 0.o4ttt 0.0t969 0.0t4t

t0 0.0110tt 0.0275U 0.014/alJ 0.02ut{ 0.01t5

Llt 0.0ut2 0.lt9rt 0. u2ô{ 0.09tt5 0.07646 0.o64t7 0.0t5{t 0.0414, 0.042t

lo 0.03tttl 0.03ttu 0.0299u 0.0263t4 0.022tt o.laota o.rort5 0.0æ2ô 0.074tt 0.0641t 0.05609 0.or94

l0 0.o6t9ll 0.0!90u 0.0]atu 0.0æ5a 0.1.it12t 0.09t73 0.oE42t 0.0716t 0.061tt 0.0561

l0 0.o49Eu 0.o{4tu o.0t9at 0.1119é 0.0945t 0.ocr6I 0.071(I 0.06t1

l! 0.0561ll 0.0{996 0. 1059r 0.0tut 0.0ælI 0.0t09

lo 0.0630

Lt o. t02t! 0.09009 0.0t97t 0. t0t7I 0.29502 0. 1449I 0.09E5ô 0.0ttaI 0.06136 0.0517t 0.0446t 0.0t90I 0.014t

lo 0.030t11 0.02?tu 0.02t6u 0.0220la 0.0195u 0.016ttô 0.0Lrt2 0.174{t 0. t19la 0.0il{t 0.074,6 0.06æt 0.0542t 0.0475I 0.0421

l0 0.0tr5ll 0.03t6u o.0to0u 0.0t6tl4 0.023tu 0.0206t 0. Ll6la 0.104t5 0.0ttt6 0.0722, o,o6ut 0.054t9 0.011ô4

l0 0.0{t2ll o.o3ô,12 0.0146Lt 0.0309tô 0.02t4

I7

t16 I

.,

!.t I

350 PH, TASSI . S. LEGAIT

Page 353: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 11 (suite)

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

D

l6

Ls 0.11795 0.09636 o.08Lt7 0.0703t 0.0617I 0.05at

t0 0.oagall 0.0437rt 0.0t9tll 0.0!495 0. to746 0.0roat 0.0tEtI 0.06t99 0.0611

l0 0.05a6lt 0.ûtr9u o.o(tr6 0. !0r0t 0.0875E 0.076t9 0.0682

lo 0.0609ll 0.0145? o,o974! 0.06569 0.07æ

l0 0.0679t 0.0t5t9 0.0850I 0.21952 0. tatt! 0,0965a 0.0t395 0.06016 0.050tt 0.043tt 0.03E59 0.0tôt

l0 0.0ætll 0.027at2 0.0247tt 0.022tl{ 0.02mrt 0.017t16 0.0155

Ll7 0.01272 0.170t3 0. lt62ô 0.or925 0.072t6 0.0614t 0.0531t 0.0466I 0.o4la

lo 0"0170ll 0.0t3!u 0.0toou 0.02?0rÔ 0.02{2u 0.021t16 0.0utI 0. u2{a 0. trl95 0.ot3l6 0.070t7 0.o60tt 0.05t49 0.0475

10 0.042tll 0.0382u 0.034au 0.011014 0.02ttu 0.02ôta o.ltao5 0.09326 0.078t7 0.0562t 0.0ôoot 0.053!

lo 0.o4ttll 0.0429u 0.036tu 0.0t49la 0.031;,5 0. t0'46 0.06167 0.07J9t 0.066t9 0.0r9t

lo 0.0531

l-ll o.utEL2 0.0{31lJ 0.03Eâ6 0.09697 0.oô{ô5 0.073'9 0.o65t

l0 0.05E9tl 0.05!{,12 0.047tt 0.0929E o.oEut 0.072t

10 0.o65tlt 0.05E!6 0.0st9 0.oa0E

l0 0.07259 0.09001 0.?84t2 0. u93t 0.09a54 0.072t5 0.05906 0.0499t 0.&31t 0.0t79t 0.033t

l0 0.030!ll 0.0273u 0.0247Ll o,at2416 0.020t15 0.01E2t6 0.0t6tr7 0.0r€lt 0.0rD2 0. r66tI 0. 1135ô 0.o€t25 0.0?u6 0.0601t 0.0520r 0.045t9 0.o40t

l0 0.036t

a

I

2

!4

B

l7

Ll7

!5

9Itl

3

rt I

PH TASSI -S LFGAIT 351

Page 354: Theorie Des Probabilites

TABLES NUMERIOUES

Table no 11 (sufte)

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

Ll8

!2

J

ll 0.033012 0.029813 0.027014 0.0245t5 0.022116 0.0197l7 0.01723 0. l2t9a 0.09925 0.0t106 0.06157 0,059{I 0.05229 0.0a6J

lo 0.o4ttlt 0.037712 0.0341lJ 0.0309l{ 0.02t015 0.025216 0.02254 0. l1065 0.09046 0.0766t 0.0664t 0.05ô4I 0.0520

lg 0.0rri6?tt 0.(xt2u 0.0112lJ 0.0346l( 0.03Ltu 0.02E35 0.09996 0.0847? 0.0734t 0.06ô79 0.0577

t0 0.051tlt 0.o46tu 0.(x2lll 0.038{l4 0.0tl!6 0.09327 0.0609I 0-07Lt

J

9 0.0636l0 0.0571t1 0.05t6u 0.0467Lt 0.O42t7 .0.08 90t 0.07E59 0.0700

!0 0.062tll 0.0569u 0.05ut 0.oEô59 0.0172

l0 0.069ôtl 0.06279 0.0653

l0 0.076tI 0.27992 0.Lt6t3 0.0929a 0.07 u5 0.05806 0"04907 0.0425t 0.0314I 0.0333

lo 0.030011 0.02ttl2 0.026lj! 0.0124l{ 0.020{u 0.0u516 0.016tl7 0.0150u 0.0132lt 0.0t092 0.161ôt 0. nlla 0.08535 0.06966 0.0569t 0.0510t 0.0(50r 9-9401

l0 0.0360ll 0.0326

J

t2 0.029613 0.02t014 0.0246u 0.02È16 0.0202t? 0.0181lE 0.0u93 0.12574 0.09675 0.07906 0.06697 0.0580t 0.05ut 0.0456

l0 0.0410tl 0.0371u 0.033tu 0.0307ll 0.02t0u 0,025415 0.0230l, 0.0206a 0. t075t 0.06796 0.07411 0.o64t6t 0.0570t 0.0509

l0 0.o{5Ell 0.o4tô!:l 0.0376lJ 0.034314 0.031t5 o.o2E416 0.025t5 0.096t6 0.0t217 0.071tt 0.06299 0.0561

l0 0.0505ll 0.95t12 0.041613 0.037 9la 0.0345u 0.0314

t-t9

s-l8

!6

1

2

t9

352 PH. TASSI - S, LEGAIT

Page 355: Theorie Des Probabilites

TABLES NUMER1OUES

Table no 11 (suite)

VARIANCES ET COVARIANCES DE LA STATISTIOUE D'ORDRE

n

l9

J

6 0.0900, 0.0782E 0.06909 0.0616

t0 0.0555ll 0.050212 0.0457tjt 0.041614 0.03797 0.0E56E 0.07569 0.067t

t0 0.0608ll 0.055112 0.0501l3 0.o45tt 0.062t9 0.07/€

l0 0.0667tl 0.060412 0.05509 0.06u

t0 0.07ttll 0.066tl0 0.080tt 0.2t5?2 0. ui45! 0.0911a 0.07005 0.05t16 0.04Et? 0.0418t 0.03699 0.0329

l0 0.0297u 0.0269t2 0.0245l! 0.0224l4 0.020515 0.01E716 0.0ltl17 0.0155It 0.01J I19 0.0t2120 0.01022 0.1J96

J.3 0. l08t4 0.083ô5 0.06t26 0.057E7 0.0501t 0.0442I 0.0395

l0 0.0396lr o.0t22L2 0.029413 0.0268t{ 0.02{515 0.022516 0.0205t7 0.0u6It 0.0167t9 0.01473 0. u2ta 0.094t5 0.01726 0.06557 0.056t6 0.0501I 0.044t

t0 0.o{oltt 0.036612 0.0ltttt 0.0305l4 0.0279t5 0.0255t6 0.023317 0.0211u 0.01904 0.10475 0.08566 0.0726t 0.06315 0.05579 0.049E

l0 0.0]148ll 0.0ro712 0.0171lJ 0 .0319l4 0.0310u 0.0284t6 0.0259

t

lt 0.02355 0.o9lo6 0.0794? 0.069!t 0.06119 0.054t

lo 0.0491ll 0.o44tt2 0.olo8Ll 0.0373l4 0.0341rJ 0.03ut6 0.02E56 0.08727 0.075Et 0.06709 0.0599

t0 0.05{0lt 0.04æ12 0.04{7u 0.olÉ8la 0.037415 0.0342? 0.0E26E 0.07309 0.065!

I0 0.0589tl 0.053512 0.046Eu 0.0446la 0.0tot8 0.07969 0.07 13

l0 0.0641tl 0.0564l2 0.0533lJ 0.O4o,9 0.0778

l0 0.0703ll 0.063E12 0.05E2l0 0.0?69ll 0.0699

!6

l020 I

L20

E

2

L!204

5

PH TASSI . S, LEGAIT

Page 356: Theorie Des Probabilites

I

Page 357: Theorie Des Probabilites

INDEX

A

Absolue coniinuité, bg, 7,l.Accroissements indépendants, 307.Affinité, 243.Algèhre, 13.

Approximation, 115, 214, 236.Attraction, 282.Autocorrélation, 2g6.Autccorrélation partielle, 3 02.Autocovarianc e, 292.Autorégressif. 31 l.

B

Banach. I 66.Bayes (théorènel, 27.Beppo-l-evi, 49.Bienaymé-Tchebichev, EZ, 76.Bochner. I 89.Borélien" 18.

Brownien, 31 1 .

c

Cauchy-Schwarz. Sl,83, I 69.Centile, 78.

Gentral limite (théorènel, 227.Goefficient de corrélation, gJ, 1iZ.Coefficient de détermination, I 7g.Gomptage (mesure), 40.Convergence dans [r, 166.Convergence dans l-a,

,|67.

Convergence dominée (théorème), bg.Convergence en loi, 2.l3.Convergence en probabilité, 20g.Gonvergence presque sûre, 207.Corrélogramm e, 297 .

eovariance, S2.

Cramer-von Mises, 247.Cramer-Wold, 217.

PH TASSI - S. LEGAIT

D

Décile, 78.

Densité, 59, 73, 80.Dirac (mesure), 37.Distance de lipschitz, 244.0istance d'Hellinger, 243.Distance de Paul Léuy,241.Distance de Frohorov, 244.Distance en uaùation, 242.Domaine d'attraction, 282.

E

Ecart-type, 76.Echantillon, 154.Espace mesurable. .l3,

3b.Espace mesuré, 3b.Espace probabilisable, I 3.Espace probabiiisé, 22.Espérance, 51, 53, 7b.Espérance conditionnelle, g8.

Etagée (fonct!on),46.Etendue, 284.Evénement, 12.Expérience, I 2.

Extrême, 266.

F

Famille exponentielle, 1 b2.Fisher (coefficienrs), 1 50.Fisher (théorème), I 82.Fonction caraetéristique, I 86.Fonction de répartition, 22, 72, 80.Fonetion de répartition empirique, 2S1.Fonction génératrice, 187.Fonetion intégrahle, 50.Fonction mesurable, 40.Fonction muette, 56.

Page 358: Theorie Des Probabilites

INDEX

Fractile,77.Fractile empirique, 273.Frisch-Waugh, 302.Fubini (théorènne), 65.

G

Gnedenko, 281.Grands nombres (loil, 223.

H

llellinger (distance), 243.Hermite, 128.

Henry (droite), 143.

Hilbeit (espace), 169.Holder (inégalité), 1 69.

I

lndépendance, 24, 87, 195.lnjectivité, 188.

lntégrale bêta incomplète, 264.lntégration, 46, 6 1 .

lnversion, I 88.

Jensen,52.

K

Khintchine,223.Kofmogorov, 18,243.Kuf lback-Leiblet, 248.

tlebesgue (mesure), 39.lebesgue-Nikodym, 6 1 .

Lebesgue (théorème), 59

lévy Paul (distance), 241.lévy Paul (lois), 190.

lévy Paul (théorème), 217

356

Logarithme itété,253.loi conditionnelle, I1.Loi d'une u.a., 44, 71.loi des extrêmes, 276.loi du type l, 277.Loi du gpe ,4, 277.Loi du type all, 277.Loi marginale, 86.lois usuelles :

Bernoulli, 108.

Bêta,121.Binomiale, 1 :10.

Binomiale négative, 1 15.

Cauchy, 140.

Dirac, 107.Exponentielle, 1 1 8.

Fisher-Snedecor, 140.

Gamma, 1 17.

Géométrique, 1 16.

Gumbel, 124.Hypergéométrique, I 13.

lndicatrice, 1 08.Khi-deur 136, 255.laplace, I 92.log-normale, 135.

Multinomiale, 1 10.

Itlormale unidimensionn elle, 1 24.ltlormale multidimensionnelle, 1 31.Pascal, 1 16.

Poisson, 1 09.

Student, I 38.Uniforme, 1 16.

Weibull, 1 19.

M

Markov, 31 4.

Masse, 35.Médiane, 78.

Mesurable (application), 40.Mesure, 35.Mesure discrète, 37.Mesure étrangère, 61.

PH, TASSI - S. LEGAIT

Page 359: Theorie Des Probabilites

INDEX

Mesure image, 43.Mesure produit 64.Mesure o-linie, 37.Minkowski, 168, 1 70.Moment 75,82,271,Mouvement brownien, 3l I .

Moyenne arithmétique, I 72.Moyenne quadratique, I 71.

N

ilégligeabilité, 54.

0

0pérateur, 304.0rdre, 258.0rdre (statistique), 26 1.

P

Papier fonctionnel, 1 42.Pearson (coefficients), 1 50.Pearson (distance), 247.Poincaré (formule), 21.Polya (théorème), 189.Presque partout, 54.Presque sûrement 54.Probabilité, 18.Probabilité conditionnelle, 23.Processus, 289.Processus autorégressif, 31 1.

Processus de Poisson, 307.Processus de vie et de mort, 310.Processus équivalent, 2 g0.

Processus moyenne mobile, 3l g.

Processus stationnaire, 291.Prohorov, 244.Proximiré, 246,253.

0uartile, 78.

Ouasi-étendue, 2 84.

PH TASSI - S. LEGAIT

R

Radon-Nikodym, 6 1.

Happort de corrélation, 1 01.Référentiel, 12.Bésulrar, 12.

s

Slutsky (théorème), 21 1, 21 4.Somme (de v.a.), 194.srabiliré, 281.Stationnarité, 2 9 1 .

Stationnarité laible, 2gZ.Stationnarité stricte, 2gl.Statistique descriptive, 1 71.Statistique d'ordre, 261.

T

Tableau statistique, 92.Trajectoire, 290.Translert (théorème), 62.Tribu, I3.Tribu borélienne, 1 7.

Tribu engendrée, 1 6, 40.Tribu produit, 44.Type,281.

V

Valeur extrêm e, 266, 278.Variable aléatoire, 43, 71.Variance, 75.Variances-Covariances (matrice), 84.Vitesse de convergence, 2b3.

W

Woltowitz,247.

Yu|e,315,318.

Page 360: Theorie Des Probabilites
Page 361: Theorie Des Probabilites

lmprimé àI'INSTITUT FRANCAIS DU PETROLE

B.P. 31192506 RUEIL-MALMAISON CEDEX

FRANCE

Achevé d'imprimer en janvier 199ONo d'ordre éditeur : 8O5

Dépôt légal :

1"'trimestre 1990

Page 362: Theorie Des Probabilites
Page 363: Theorie Des Probabilites

r/

lsBN 2.7 108-0582-0