[Muhammad Ali Mazidi, Sarmad Naimi, Sepehr Naimi] (BookFi.org)
[Jean-Claude Bertein, Roger Ceschi] Processus Stoc(BookFi.org) (2)
-
Upload
ben-hssine-mariem -
Category
Documents
-
view
32 -
download
0
Transcript of [Jean-Claude Bertein, Roger Ceschi] Processus Stoc(BookFi.org) (2)
-
Processus stochastiques discretset filtrages optimaux
-
LAVOISIER, 2005LAVOISIER11, rue Lavoisier75008 Paris
www.hermes-science.comwww.lavoisier.fr
ISBN 2-7462-1201-3
Tous les noms de socits ou de produits cits dans cet ouvrage sont utiliss des finsdidentification et sont des marques de leurs dtenteurs respectifs.
Le Code de la proprit intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'unepart, que les "copies ou reproductions strictement rserves l'usage priv du copiste et nondestines une utilisation collective" et, d'autre part, que les analyses et les courtes citationsdans un but d'exemple et d'illustration, "toute reprsentation ou reproduction intgrale, oupartielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, estillicite" (article L. 122-4). Cette reprsentation ou reproduction, par quelque procd que cesoit, constituerait donc une contrefaon sanctionne par les articles L. 335-2 et suivants duCode de la proprit intellectuelle.
-
Processusstochastiques discretset filtrages optimaux
Jean-Claude BerteinRoger Ceschi
-
A nos familles
-
TABLE DES MATIRES
Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
Chapitre 1. Vecteurs alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.1. Dfinitions et proprits gnrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2. Les espaces L1(dP) et L2(dP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1.2.1. Dfinitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.2.2. Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.3. Esprance mathmatique et applications. . . . . . . . . . . . . . . . . . . . . . . . 35 1.3.1. Dfinitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.3.2. Fonctions caractristiques dun vecteur alatoire. . . . . . . . . . . . . . 45
1.4. Variables et vecteurs alatoires du second ordre . . . . . . . . . . . . . . . . . . 50 1.5. Indpendance linaire des vecteurs de L2(dP) . . . . . . . . . . . . . . . . . . . . 57 1.6. Esprance conditionnelle (cas des vecteurs densit) . . . . . . . . . . . . . . 61 1.7. Exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Chapitre 2. Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.1. Quelques rappels sur les variables alatoires gaussiennes . . . . . . . . . . . 71 2.2. Dfinition et caractrisation des vecteurs gaussiens. . . . . . . . . . . . . . . . 73 2.3. Rsultats relatifs lindpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.4. Transformation affine dun vecteur gaussien . . . . . . . . . . . . . . . . . . . . 79 2.5. Existence des vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.6. Exercices du chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
-
8 Processus stochastiques et filtrages optimaux
Chapitre 3. Gnralits sur les processus temps discret . . . . . . . . . . . . . . . 99 3.1. Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.2. Processus stationnaires du deuxime ordre et mesure spectrale. . . . . . . 111
3.2.1. Densit spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.3. Reprsentation spectrale dun processus stationnaire du deuxime ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
3.3.1. Problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.3.2. Rsultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
3.3.2.1. Processus accroissements orthogonaux et mesure associe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 3.3.2.2. Intgrale stochastique de Wiener . . . . . . . . . . . . . . . . . . . . 117 3.3.2.3. Reprsentation spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3.4. Gnralits sur le filtrage numrique . . . . . . . . . . . . . . . . . . . . . . . . . 119 3.5. Exemple important : processus autorgressif . . . . . . . . . . . . . . . . . . . 131 3.6. Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
Chapitre 4. Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.2. Estimation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 4.3. Meilleure estimation Esprance conditionnelle. . . . . . . . . . . . . . . . . 156 4.4. Exemple : prdiction dun processus autorgressif AR (1) . . . . . . . . . . 164 4.5. Processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.6. Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
Chapitre 5. Le filtre de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
5.1.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.2. Rsolution et calcul du filtre Finite Impulse Response (FIR) . . . . . . . . 181 5.3. Evaluation de lerreur minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 5.4. Rsolution et calcul du filtre Infinite Impulse Response (IIR) . . . . . . . . 184 5.5. Evaluation de lerreur minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 5.6. Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Chapitre 6. Filtrage adaptatif : algorithme du gradient et du LMS . . . . . . 193 6.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 6.2. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6.3. Reprsentation des donnes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 6.4. Minimisation de la fonction cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
6.4.1. Calcul du cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 6.5. Algorithme du gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
-
Table des matires 9
6.6. Estimation du gradient et algorithme LMS . . . . . . . . . . . . . . . . . . . . . 205 6.7. Interprtation gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 6.8. Stabilit et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
6.8.1. Convergence de lalgorithme du LMS . . . . . . . . . . . . . . . . . . . . 215 6.9. Exemple dapplication de lalgorithme LMS . . . . . . . . . . . . . . . . . . . 215 6.10. Exercice du chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223
Chapitre 7. Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.2. Approche de lestimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228
7.2.1. Cas scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 7.2.2. Cas multivari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
7.3. Filtrage de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 7.3.1. Equation dtat. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 7.3.2. Equation dobservations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 7.3.3. Processus dinnovation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 7.3.4. Matrice de covariance du processus dinnovation . . . . . . . . . . . . 235 7.3.5. Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 7.3.6. Equation de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 7.3.7. Algorithme et rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 7.3.8. Equations du filtre de Kalman dans le cas non linaire. . . . . . . . . 247
7.4. Exercices du chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
Table des symboles et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271
-
AVANT-PROPOS
Le filtrage optimal discret appliqu aux signaux stationnaires et non stationnaires permet de traiter de la manire la plus efficace possible, au sens du critre choisi, tous les problmes que lon peut rencontrer dans les situations dextraction de signaux bruits.
Il constitue la brique lmentaire ncessaire dans les domaines les plus divers : calcul des orbites ou de guidages daronefs dans le domaine arospatial ou aronautique, calcul de filtres dans le domaine des tlcommunications ou dans le domaine de la commande des systmes ou encore dans celui des traitements de signaux sismiques, la liste est non exhaustive.
De plus, ltude et les rsultats obtenus sur des signaux discrets permet une implmentation trs facile sur calculateur.
Dans leur ouvrage, les auteurs ont eu le souci permanent de la pdagogie et ils lont souvent prfre lrudition ; tous les prliminaires mathmatiques et probabilistes utiles la bonne comprhension du filtrage optimal ont t traits de faon rigoureuse. Il ne sera pas toujours ncessaire davoir recours dautres ouvrages pour acqurir une bonne connaissance des sujets tudis.
Grce cet ouvrage, le lecteur pourra non seulement comprendre le filtrage optimal discret mais pourra de plus approfondir aisment les diffrents aspects de ce large domaine.
-
INTRODUCTION
Cet ouvrage a pour but de prsenter les bases du filtrage optimal discret dune manire progressive et rigoureuse.
Le caractre optimal sentend au sens o nous choisissons toujours le critre qui minimise la norme L2 de lerreur.
Le premier chapitre aborde les vecteurs alatoires, ses principales dfinitions et proprits.
Le second chapitre traite des vecteurs gaussiens. Etant donn limportance pratique de cette notion, les dfinitions et rsultats sont accompagns de nombreux commentaires et schmas explicatifs.
Le troisime chapitre, Gnralits sur les processus temps discrets , est de nature plus physique que les prcdents et peut tre considr comme une introduction au filtrage numrique. Les rsultats essentiels pour la suite seront donns.
Le chapitre 4, Estimation , nous apporte les briques essentielles la construction des filtres optimaux. Les rsultats obtenus sur les projections dans les espaces de Hilbert constituent la clef de vote des dmonstrations venir.
Le chapitre 5 traite du filtre de Wiener, dispositif lectronique bien adapt au traitement des signaux stationnaires du second ordre. Des calculs pratiques de tels filtres, rponse impulsionnelle finie ou infinie, seront dvelopps.
Le filtrage adaptatif, qui est le sujet trait au chapitre 6, peut tre considr comme une application assez directe de la mthode du gradient dterministe ou stochastique. Au bout du processus dadaptation ou de convergence, nous retrouvons le filtre de Wiener.
-
14 Processus stochastiques et filtrages optimaux
Louvrage sachve avec ltude du filtrage de Kalman qui permet le traitement des signaux stationnaires ou non stationnaires ; on peut dire que de ce point de vue, il gnralise le filtre optimal de Wiener.
Chaque chapitre est ponctu par une srie dexercices corrigs et des exemples rsolus sont galement fournis en utilisant le logiciel Matlab bien adapt aux problmes de traitement de signaux.
-
CHAPITRE 1
Vecteurs alatoires
1.1. Dfinitions et proprits gnrales
On rappelle que ( ){ }1,..., ; 1 a n n jx x x x j n= = =! ! , lensemble des
n-uples rels peut tre muni de deux lois : ( )
, et ,
n n n n n
x y x y x x
+
! ! ! ! ! !
qui en font un espace vectoriel de dimension n.
La base implicitement considre sur n! sera la base canonique ( ) ( )1 1,0,...,0 ,..., 0,...,0,1 et nne e x= = ! exprim dans cette base sera not :
1
x
xn
x =
" (ou ( )1,...,T nx x x= ).
Dfinition dun vecteur alatoire rel
On dit que le vecteur rel 1
n
XX
X
=
" li un phnomne physique, biologique, etc.,
est alatoire si la valeur prise par ce vecteur est inconnue, tant que le phnomne ne sest pas ralis.
-
16 Processus stochastiques et filtrages optimaux
Pour des raisons typographiques, le vecteur sera plutt crit ( )1,...,T nX X X= ou mme ( )1,..., nX X X= quand aucune confusion ne sera craindre.
Autrement dit, tant donn un vecteur alatoire X et n ! on ne sait pas si lassertion (appel vnement) ( )X est vraie ou fausse
n!
.X
Par contre, on connat en gnral la chance pour que X ; celle-ci est note ( )X B et est appele probabilit de lvnement ( )X .
Aprs la ralisation du phnomne, le rsultat (appel aussi ralisation) sera not
( )1
1ou ,...,x
x
Tn
n
x x x x = =
" ou mme ( )1,..., nx x x=
quand aucune confusion ne sera craindre.
Voici maintenant la dfinition rigoureuse dun vecteur alatoire rel de dimension n . On se donne :
= espace fondamental. Cest lensemble de tous les rsultats possibles (ou preuves) lis un phnomne alatoire ;
a = une tribu (dvnements) sur . On en rappelle les axiomes :
-
Vecteurs alatoires 17
1) a , 2) si a alors le complmentaire cA a , 3) si ( ),j j J est une famille dnombrable dvnements j
j JA
est un
vnement, cest--dire jj J
A a
;
n =! espace des observables ;
( )n =!B tribu borlienne sur n! ; cest la plus petite tribu sur n! qui contient tous les ouverts de n! .
DFINITION. On dit que X est un vecteur alatoire rel de dimension n dfini sur
( ),a si X est une application ( ) ( )( ), ,n na ! !B mesurable, cest--dire : ( ) ( )1 .n a !B
Quand 1n = , on parlera de variable alatoire ou plus rapidement de v.a.
Dans la suite lvnement ( )1 est not galement ( ){ }X B et mme plus simplement ( )X B .
PROPOSITION. Pour que X soit un vecteur alatoire rel de dimension n (cest--
dire une application ( ) ( )( ), ,n na ! !B mesurable), il faut et il suffit que chaque composante 1 j j n = soit une v.a. relle (cest--dire soit une
application ( ) ( )( ), ,a R RB mesurable).
DMONSTRATION ABRGE. Il suffit de considrer :
( ) ( )1 o1 1... ,...,n n RB
car on montre que ( ) ( ) ( )...n = ! R RB B B est gale la tribu engendre par les pavs mesurables 1 ... n .
-
18 Processus stochastiques et filtrages optimaux
Or ( ) ( ) ( )1 1 11 1 1... ...n n nX X X = ,
qui appartient a si et seulement si chaque terme appartient a , cest--dire si chaque jX est une v.a. relle.
DFINITION. On dit que 1 2X X iX= + est une variable alatoire complexe dfinie sur ( ),a si les parties relles et imaginaires et1 2 X X sont des variables relles, cest--dire si les variables alatoires et1 2 X X sont des applications
( ) ( )( ), , Ba ! ! mesurables.
PAR EXEMPLE. A un vecteur alatoire rel ( )1,..., nX X X= et un n-uple rel ( )1,..., nnu u u= ! , on peut associer la v.a. complexe :
jcos sin
j jj
i u X
j j j jj
e u X i u X
= +
Ltude de cette variable alatoire sera reprise quand nous dfinirons les fonctions caractristiques.
Loi
Loi X du vecteur alatoire X .
On suppose dabord que la tribu a est munie dune mesure P , cest--dire dune application P : [ ]0,1a vrifiant :
1) ( ) 1P =
2) Pour toute famille ( ),jA j J dvnements 2 2 disjoints :
( )j jj J j J
P A P A
=
-
Vecteurs alatoires 19
DFINITION. On appelle loi du vecteur alatoire X, la mesure image XP de P
par lapplication X , cest--dire la mesure dfinie sur ( )n!B de la faon suivante : ( )n !B
( ) ( ) ( )( )
( )( ) ( )
11
Dfinition
,...,
X X nP dP x x P X B
P X P X
= =
= =
Les termes 1 et 2 dune part et les termes 3, 4 et 5 dautre part sont des notations diffrentes de la mme notion mathmatique.
( )nB !B( )1X B a
n!X
Figure 1.1. Application mesurable X
Il faut bien noter que la mesure P tant donne sur a , ( )XP est calculable pour tout ( )n !B parce que X est mesurable.
Lespace n! muni de la tribu ( )n!B et ensuite de la loi XP est not :
( )( ), ,n n XP! !B
-
20 Processus stochastiques et filtrages optimaux
REMARQUE. Sur la dfinition nave et sur la dfinition rigoureuse : la dfinition nave des vecteurs alatoires est videmment beaucoup plus simple et plus intuitive et lon peut sen contenter dans les applications lmentaires du calcul des probabilits.
Par contre dans les tudes plus thoriques ou plus sophistiques et notamment dans celles faisant intervenir plusieurs vecteurs alatoires, , , , ...X Y Z , considrer ces derniers comme des applications dfinies sur le mme espace ( ),a ,
( ) ( )( )( )soit X,Y,Z, ... : , ,n na ! !B se rvlera souvent utile voire mme indispensable.
( )X
n!
( )Y
( )Z
Figure 1.2. Famille dapplications mesurables
En effet, via lespace ( ), ,Pa , les expressions et calculs faisant intervenir plusieurs (ou lensemble) de ces vecteurs scrivent sans ambigut. Prcisment, les vnements lis , , , ...X Y Z sont des lments A de a (et les probabilits de ces vnements sont mesurs par P ).
Donnons deux exemples :
1) soit deux vecteurs alatoires ( ) ( )( ), : , , ,n nX Y Pa ! !B et soit ( )et nB B !B . Lvnement ( ) ( )X B Y B (par exemple) se traduit
par ( ) ( )1 1X B Y B a ; 2) soit 3 v.a. ( ) ( )( ), , : , , ,X Y Z Pa ! !B et soit *a +! .
-
Vecteurs alatoires 21
Cherchons exprimer lvnement ( )Z a X Y .
Posons ( ) ( ){ }3et, , , , x + y + zU X Y Z B x y z a= = !
B Borlien de 3! , reprsente le demi espace dlimit par le plan ( ) ne contenant pas lorigine 0 et sappuyant sur le triangle A B C .
0
( )A a
( )B a
( )C a
Figure 1.3. Exemple de Borlien de 3!
U est ( ) ( )( )3 3, ,a ! !B mesurable et : U ( ) ( ) ( )1Z a X Y U B U B a = = .
REMARQUE SUR LESPACE ( ), , Pa . On a dit que lon se donnait et puis a sur et puis P sur a et quensuite, on considrait les vecteurs , , ,...X Y Z comme des applications mesurables :
( ) ( )( ), , ,n nPa ! !B Cette faon dintroduire les diffrents concepts est la plus simple apprhender,
mais elle correspond rarement aux problmes probabilistes rels.
-
22 Processus stochastiques et filtrages optimaux
En gnral ( ), , Pa nest pas prcis ou bien donn antrieurement , , , ...X Y Z applications mesurables . Au contraire, tant donnes des grandeurs alatoires physiques, biologiques , , , ...X Y Z de n! , cest en partant de ces dernires que lon introduit simultanment ( ), , Pa et , , , ...X Y Z applications mesurables dfinies sur ( ), , Pa . ( ), , Pa est un espace artificiel destin servir de lien entre , , , ...X Y Z
Ce qui vient dtre expos peut sembler bien abstrait mais heureusement les vecteurs alatoires gnraux comme ils viennent dtre dfinis sont rarement utiliss dans la pratique.
En tout cas et en ce qui nous concerne, nous naurons dans la suite manipuler que la notion beaucoup plus particulire et plus concrte de vecteur alatoire densit .
DFINITION. On dit que la loi XP du vecteur alatoire X est densit si il existe
une application ( )( ) ( )( ): , ,n nXf ! ! ! !B B mesurable positive appele densit de XP telle que : ( )nB !B .
( ) ( ) ( ) ( )1 1 1,..., ,..., ,...,X X n X n nB BP X B P B dP x x f x x dx dx = = =
VOCABULAIRE. On crit parfois ( ) ( )1 1 1,..., ,..., ,...,X n X n ndP x x f x x dx dx= et on dit aussi que la mesure XP admet la densit Xf par rapport la mesure de Lebesgue sur n! . On dit aussi que le vecteur alatoire X admet la densit Xf .
REMARQUE. ( ) ( )1 1,... ,... 1nX n nB f x x dx dx P X= = ! .
Soit par exemple le vecteur alatoire ( )1 2 3, ,X X X X= de densit ( ) ( )1 2 3 3 1 2 3, , 1 , ,Xf x x x K x x x x= o est la demi-sphre dfinie par
2 2 2 21 2 3x x x R+ + avec 3 0x .
-
Vecteurs alatoires 23
On obtient facilement par un passage en coordonnes sphriques :
4
3 1 2 31 4RKx dx dx dx K
= = do 4
4KR
= .
Marginales
Soit le vecteur alatoire 1
n
XX
X
=
" de loi XP et de densit de probabilit
Xf .
DFINITION. La v.a. , imejX j composante de X , sappelle imej marginale de
X et la loi jXP de jX sappelle loi de la
imej marginale.
Si on connat XP , on sait trouver les lois jXP .
En effet ( )B !B .
( ) ( ) ( ) ( )1 ... ...j j nP X B P X X B X = = ! !
( ) 1 1 2... ...
,..., ,..., ... ...X j n nB
f x x x dx dx dx
! !
par le thorme de Fubini :
( )1 1 1sauf
,..., ,..., ...nj X j n nBj
dx f x x x dx dxdx
= ! $%&%'
Lgalit ayant lieu pour tout B , on obtient :
( ) ( )1 1 1sauf
,..., ,..., ...njX j X j n nj
f x f x x x dx dxdx
= ! $%&%' .
-
24 Processus stochastiques et filtrages optimaux
ATTENTION. Rciproquement, sauf dans le cas des composantes indpendantes, la connaissance des X jP / celle de XP .
EXEMPLE. Considrons :
1) Un couple gaussien ( ),TZ X Y= de densit de probabilit :
( )2 21, exp
2 2Zx yf x y
+=
.
On obtient les densits des marginales :
( ) ( )21, exp
22X zxf x f x y dy
+
= =
et
( ) ( )21, exp
22Y zyf y f x y dx
+
= =
.
2) Un deuxime couple alatoire (non gaussien) ( ),TW U V= dont la densit de probabilit Wf est dfinie par :
( ) ( ) ( ), 2 , si 0 , 0 si 0W Z Wf u v f u v uv f u v uv= = < .
Calculons les marginales
( ) ( ) ( )
( )
, 2 , si 0
2 , si 0
U W Z
Z
f u f u v dv f u v dv u
f u v dv u
+ +
+
= =
= >
Do facilement ( )21 exp
22Uuf u
=
.
-
Vecteurs alatoires 25
Et symtriquement ( )21 exp 22V
vf v
=
.
CONCLUSION. On voit bien sur cet exemple que les densits marginales (elles sont identiques en 1 et 2) ne dterminent pas les densits des vecteurs (elles sont diffrentes en 1 et 2).
Fonction de rpartition
DFINITION. On appelle fonction de rpartition du vecteur alatoire
( )1,...,T nX X X= lapplication :
( ) ( )[ ]
1 1
0,1
: ,..., ,...,n
X n X nF x x F x x
!
dfinie par :
( ) ( )( ) ( )1 1 1,..., ...X n n nF x x P X x X x=
et sous forme intgrale puisque X est un vecteur densit :
( ) ( )11 1 1,..., ,.., ..x xn
X n X n nF x x f u u du du = ( .
Quelques proprits usuelles :
1 j n = lapplication ( )1,...,j X nx F x x est non dcroissante ; ( )1,...,X nF x x quand toutes les variables jx ; ( )1,..., 0X nF x x si lune au moins des variables jx ;
si ( ) ( )1 1,..., ,...,n X nx x f x x est continue, alors 1...
nX
Xn
F fx x
=
.
EXERCICE. Dterminer la fonction de rpartition du couple ( ),X Y de densit ( ),f x y K xy= sur le rectangle [ ] [ ]1,3 2, 4 = et prciser la valeur de .K
-
26 Processus stochastiques et filtrages optimaux
Indpendance
DFINITION. On dit quune famille de v.a. : 1 , ..., nX X est une famille indpendante
si { }1,2,...,J n et pour toute famille de ( )jB !B :
( ) ( )j j j jj J j J
P X B P X B
=
Comme ( )! !B , il est ais de vrifier en galant certains borliens ! , que la dfinition de lindpendance est quivalente la suivante :
( ) ( ) ( )11
:n n
j j jjj
B P X B P X B==
=
! j jB
encore quivalente :
( ) ( ) ( )11
...n
j n jj
B P X B B P X B=
= ! jB
Cest--dire en introduisant les lois de probabilits :
( ) ( ) ( )11
...j
n
j X n Xj
B P B B P B=
=! jB .
REMARQUE. Cette dernire galit est la dfinition de la loi de probabilit XP
(dfinie sur ( ) ( ) ( )...n = ! ! !B B B ) est le produit (tensoriel) des lois de probabilits
jXP (dfinies sur ( )!B ).
Ce quon crit symboliquement 1
...X X XnP P P= .
ATTENTION. Soit 1,..., nX X une famille de v.a. Si cette famille est indpendante, les v.a. sont indpendantes 2 2, mais la rciproque est fausse.
-
Vecteurs alatoires 27
PROPOSITION. Soit ( )1,..., nX X X= un vecteur alatoire rel admettant la densit de probabilit Xf et les composantes 1 , ..., nX X admettant les densits
1,...,X Xnf f .
Pour que la famille des composantes soit une famille indpendante, il faut et il suffit que :
( ) ( )11
,...,j
n
X n X jj
f x x f x=
= .
DMONSTRATION. Dans le cas simplifi o Xf est continue :
si ( )1,..., nX X est une famille indpendante :
( ) ( ) ( ) ( )11 11
,...,n n n
X n j j j j X jjj jj
F x x P X x P X x F x= ==
= = =
en drivant les deux membres extrmes :
( ) ( )( ) ( )11
1 1 1
,...,,...,
... j
n nn X jjX nX n X j
n jj j
F xF x xf x x f x
x x x= =
= = =
;
rciproquement si ( ) ( ) :11
,...,j
n
X n X jj
f x x f x=
=
soit ( )jB !B pour 1 j n= :
( ) ( )
( ) ( ) ( )
1 11 1 1
1 1 11
,..., ...nn
nj j j X n nBj jJ jn n n
n X j j X j j j jjjB B jj j j jj
P X B P X B f x x dx dx
f x dx f x dx P X B
= = =
= = ==
= =
= = =
-
28 Processus stochastiques et filtrages optimaux
REMARQUE. Lgalit ( ) ( )1
1,...,n
X jj
X n jff x x x=
= est la dfinition de la fonction
de n variables Xf est le produit tensoriel des fonctions dune variable X jf . On crit
symboliquement 1
...nX X Xf f f= . (A ne pas confondre avec le produit
ordinaire : 1 2 nf f f f= i(i dfini par : ( ) ( ) ( ) ( )1 2 nf x f x f x f x= i(i ).
EXEMPLE. Soit le couple alatoire ( )1 2,X X X= de densit :
2 21 21 exp
2 2x x
+
.
Comme 2 2 221 2 21 1 1exp exp
2 2 2 22 2x x xx
+ =
et comme 211 exp22x
et 221 exp22x
sont les densits de 1X et de 2X ,
ces deux composantes 1X et 2X sont indpendantes.
DFINITION. On dit que deux vecteurs alatoires :
( ) ( )1 1et,..., Y= ,...,n pX X X Y Y= sont indpendants si :
( ) ( )( ) ( )( ) ( ) ( )
et '
P X B ' '
n pB B
Y B P X B P Y B
=
! !B B
Somme de variables alatoires indpendantes
REMARQUE. On est souvent amen calculer la probabilit P pour quune fonction de n v.a. donnes 1 ,..., nX X vrifie une certaine ingalit. Notons rapidement P (Ingalit) cette probabilit. Supposons que le vecteur alatoire
-
Vecteurs alatoires 29
( )1,..., nX X X= possde une densit de probabilit ( )1,...,X nf x x . La mthode pour obtenir P (Ingalit) consiste dterminer ( )B !nB vrifiant ( )1,..., nX X B .
On a alors : ( )1 1(Ingalit) ,..., ...X n nBP f x x dx dx= .
EXEMPLES.
1) ( ) ( )( ) ( )1 2 1 2 1 2 1 2, ,XBP X X z P X X B f x x dx dx+ = = o ( ){ }2,B x y x y z= + !
z
z
x
0
y
2) ( ) ( )( )( )
1 2 3 1 2 3
1 2 3 1 2 3
, ,
, ,XB
P X X a X P X X X B
f x x x dx dx dx
+ =
=
x
C
A
By
0
z
-
30 Processus stochastiques et filtrages optimaux
B est le 12
espace contenant lorigine 0 et limit par le plan sappuyant sur le
triangle A B C et dquation x y z a+ + = .
3) ( )( ) ( )( )( )
1 2 1 2
1 2 1 2
Max ,
,XB
P X X z P X X B
f x x dx dx
+ =
=
o B est le domaine non hachur ci-contre.
z
zx
0
y
En partant de lexemple 1) nous allons montrer la :
PROPOSITION. Soit X et Y deux v.a. relles indpendantes de densits de probabilits respectives Xf et Yf .
La v.a. Z X Y= + admet une densit de probabilit Zf dfinie par :
( ) ( )( ) ( ) ( )Z X Y X Yf z f f z f x f z x dx+
= = .
DMONSTRATION. Partons de la fonction de rpartition de Z.
( ) ( ) ( ) ( )( )
( ) ( ) ( )(o est dfini dans l'exemple 1) ci-avant)
(Indpendance)
,
,
Z
X YB B
B
F z P Z z P X Y z P X Y B
f x y dx dy f x f y dx dy
= = + =
= =
-
Vecteurs alatoires 31
z x
z
zx
y
x0
x y z+ =
( ) ( )z x
X Yf x dx f y dy+
= .
En posant y u x= :
( ) ( ) ( ) ( )z z
X Y X Yf x dx f u x du du f x f u x dx+ +
= = .
Lapplication ( ) ( )X Yu f x f u x dx+
tant continue, ( )ZF z en est
une primitive et :
( ) ( ) ( ) ( )Z Z X YF z f z f x f z x dx+
= = .
REMARQUE. Si (par exemple) Xf et Yf sont support sur +! , cest--dire si
( ) ( ) [ [ ( )0,1X Xf x f x x= et ( ) ( ) [ [( )0,1Y Yf y f y y=
on a facilement :
( ) ( ) ( )0
zZ X Yf z f x f z x dx= .
EXEMPLE. X et Y sont deux v.a. exponentielles de paramtre et indpendantes.
-
32 Processus stochastiques et filtrages optimaux
Posons Z X Y= + :
Pour ( )0 0Zz f z = .
Pour 0z
( ) ( ) ( ) ( ) 20
z z x z
Z X Yf z f x f z x dx e dx ze
+
= = =
et ( ) [ [ ( )2
0,1z
Zf z z e z = .
1.2. Les espaces ( )1L dP et ( )2L dP 1.2.1. Dfinitions
La famille des v.a. ( ): X X
( ) ( )( ), ,,Pa ! !B
forme un espace vectoriel sur ! , not .
Deux sous-espaces vectoriels de jouent un rle particulirement important ; nous les dfinissons.
Les dfinitions seraient en fait laboutissement de la construction de lintgrale de Lebesgue des applications mesurables, mais cette construction ne sera pas donne ici et on pourra sans inconvnient sen passer dans la suite.
DFINITION. On dit que deux variables alatoires et X X dfinies sur ( ), a sont gales presque srement et on crit X X = p.s. si 'X X= sauf ventuellement sur un vnement N (N lment de a) de probabilit nulle
( )( ) c'est--dire et 0N P Na = .
On note :
X =+ {classe (dquivalence) des v.a. X gales presque srement X } ; O =+ {classe (dquivalence) des v.a. gales presque srement 0 }.
-
Vecteurs alatoires 33
Nous pouvons maintenant donner la :
dfinition de ( )1L dP espace vectoriel de variables alatoires du premier ordre ;
et celle de ( )2L dP espace vectoriel de variables alatoires du second ordre :
( ) ( ) ( ){ }( ) ( ) ( ){ }
1
2 2
v. a.
v. a.
L dP X X dP
L dP X X dP
= <
= <
o, dans ces expressions, les v.a. sont bien dfinies un vnement de probabilit nulle prs, ou bien : les v.a. X sont des reprsentants quelconques des classes X+ , car, par construction les intgrales des v.a. ne sont pas modifies si on modifie ces dernires sur des vnements de probabilits nulles.
Remarque sur lingalit ( ) ( )X dP
< .
Introduisant les deux variables alatoires positives :
( ) ( )Sup et Sup0 0, ,X X X X+ = =
On peut crire et X X X X X X+ + = = + .
Soit ( )1X L dP , on a donc :
( ) ( ) ( ) ( )
( ) ( )
et
.
X dP X dP
X dP
+
< <
<
Donc, si ( )1X L dP , lintgrale :
( ) ( ) ( ) ( ) ( )X dP X dP X dP +
=
-
34 Processus stochastiques et filtrages optimaux
est dfinie sans ambigut.
REMARQUE. ( ) ( )2 1L dP L dP
En effet, soit ( )2X L dP , daprs lingalit de Schwarz :
( ) ( )( ) ( ) ( )2 21
X dP X dP dP
< $%&%'
EXEMPLE. Soit X une v.a. gaussienne (densit 21 1
exp22
x m
).
Elle appartient ( )1L dP et ( )2L dP .
soit Y une v.a. de Cauchy : (densit ( )2
1
1 x +).
Elle nappartient pas ( )1L dP et elle nappartient donc pas ( )2L dP non plus.
1.2.2. Proprits
1) ( )1L dP est un espace de Banach ; nous nutiliserons pas cette proprit dans la suite ;
2) ( )2L dP est un espace de Hilbert. On donne ici les proprits sans dmonstration.
*On peut munir ( )2L dP du produit scalaire dfini par :
( ) ( ) ( ) ( )2, < X,Y > =X Y L dP X Y dP
.
-
Vecteurs alatoires 35
Cette expression est bien dfinie car daprs lingalit de Schwarz :
( ) ( ) ( ) ( ) ( ) ( ) ( )2
2 2 X Y dP X dP Y dP
<
et les axiomes du produit scalaire sont immdiats vrifier.
* ( )2L dP est un espace vectoriel norm par :
( ) ( )2,X X X X dP
= < > = .
Il est facile de vrifier que :
( )2,X Y L dP X Y X Y + + ( )2 et X L dP X X =!
En ce qui concerne le dernier axiome :
si ;0 0 X X= =
si ( ) ( )( ) ( )2 p.s. ou0 0 0X X dP X X = = = = ++ * ( )2L dP est un espace complet pour la norme . dfinie ci-avant. (Toute
suite de Cauchy nX converge vers une X de ( )2L dP ).
1.3. Esprance mathmatique et applications
1.3.1. Dfinitions
On considre un vecteur alatoire gnral (non ncessairement densit) :
( ) ( ) ( )( ),, ..., : , ,1 n nX X X Pn a= ! !B .
-
36 Processus stochastiques et filtrages optimaux
On se donne par ailleurs une application mesurable :
( )( ) ( )( ): , ,n ! ! ! !nB B X , (note aussi ( ) ( )1ou ,..., nX X X ) est une application mesurable
(donc une v. a.) dfinie sur ( ), a .
DFINITION. Sous lhypothse ( )1X L dP , , on appelle esprance mathmatique de la valeur alatoire X , lexpression ( )X , dfinie par :
( ) ( )( ) ( )E X X dP
= , ,
ou, pour rappeler que X est un vecteur :
( )( ) ( ) ( )( ) ( )1 2 1,..., ,..., nE X X X X dP = .
REMARQUE. Cette dfinition de lesprance mathmatique de X , est bien adapte aux problmes gnraux ou orientation thorique ; en particulier, cest en utilisant celle-ci que lon construit ( )2L dP lespace de Hilbert des v.a. du deuxime ordre.
En pratique cependant, cest la loi XP (image de la mesure P par lapplication X ) et non P que lon connat. On veut donc utiliser la loi XP pour exprimer
-
Vecteurs alatoires 37
( )E X , , on dit que lon transfert le calcul de ( )E X , de lespace
( ), ,Pa lespace ( )( ), ,n n XP! !B . Pour simplifier lcriture dans le thorme qui suit (et comme souvent dans la
suite) ( ) ( )1 1 1et,..., , ,..., ...n n nX X x x dx dx seront souvent nots respectivement et ., X x dx
Thorme de transfert
Supposons ( )1X L dP , , on a alors :
1) ( ) ( )( ) ( ) ( ) ( )XnE X X dP x dP x = = !, , En particulier si XP admet une densit Xf :
( ) ( ) ( )XnE X x f x dx = !, et ( )XE X x f x dx= ! ;
2) ( )1 XL dP
DMONSTRATION.
lgalit du 2) est vraie si 1B = avec ( )B !nB car ( ) ( ) ( )
( ) ( ) ( ) ( ) 1
1B X
B X Xn n
E X E X P B
x dP x x dP x
= =
= = ! !
, ,
lgalit est encore vraie si est une fonction tage cest--dire si
11
m
j B jj
=
= o les ( )njB !B et sont disjoints 2 2.
On a en effet :
-
38 Processus stochastiques et filtrages optimaux
( ) ( ) ( )
( ) ( ) ( ) ( )
( ) ( )
1 1
1 1
1
1 1
j
m m
j B j X jj j
m m
n nj B X j B Xj jj j
n X
X X P B
x dP x x dP x
x dP x
= =
= =
= =
= =
=
! !
!
, ,
Supposons maintenant que soit une fonction mesurable positive, on sait quelle est limite dune suite croissante de fonctions tages positives P .
On a donc ( )( ) ( ) ( )
avec
P p Xn
P
X x dP x
=
!,-
p X , est galement une suite croissante positive qui converge vers X , et en prenant les limites des deux membres quand p , on obtient daprs le thorme de la convergence monotone :
( )( ) ( ) ( ) ( )XnX dP x dP x = !, .
Si est une application mesurable quelconque on utilise encore la dcomposition et + + = = + .
Il est par ailleurs clair que ( ) ( ) et X X X X+ + = = , , , , .
Il vient :
( ) ( ) ( ) ( )E X E X E X E X E X+ + = + = + , , , , , .
Cest--dire daprs ce qui prcde :
( ) ( ) ( ) ( ) ( ) ( )nX X Xn nx dP x x dP x x dP x+ = + = ! ! ! .
-
Vecteurs alatoires 39
Comme ( )1 ,X L dP , on en dduit que ( )1 XL dP (rciproquement si ( )1 XL dP alors ( )1X L dP , ).
En particulier ( ) ( )et E X E X+ , , sont finis, et
( ) ( ) ( )( ) ( ) ( ) ( )
( ) ( )
X Xn n
Xn
E X E X E X
x dP x x dP x
x dP x
+
+
=
=
=
! !
!
, , ,
REMARQUE. (qui prolonge la remarque prcdente) : Dans certains ouvrages la notion de vecteur alatoire comme application mesurable , juge trop abstraite nest pas dveloppe.
Dans ce cas lintgrale ( ) ( ) ( ) ( )X Xnx dP x x f x dx = ! (si XP admet la densit Xf ) est donne comme dfinition de ( )E X , .
EXEMPLES.
1) Soit le vecteur alatoire gaussien ( )1 2,TX X X= de densit :
( ) ( )2 21 2 1 1 2 222 exp1 1 1, 2
2 1-2 1Xf x x x x x x
= +
o ] [1,1 et soit lapplication ( ) 31 2 1 2: ,x x x x .
La condition :
( ) ( )3 2 2
1 2 1 1 2 2 1 222exp
1 1 22 12 1
x x x x x x dx dx
+ <
!
-
40 Processus stochastiques et filtrages optimaux
est facilement vrifie et :
( ) ( )23 3 2 2
1 2 1 2 1 1 2 2 1 222exp
1 1 22 12 1
EX X x x x x x x dx dx
= +
!
2) Soit une variable alatoire de Cauchy de densit ( ) 21 1
1Xf x
x=
+
( )12 donc1 1 et
1x dx X L dP EX
x= +
+! nest pas dfinie.
Considrons ensuite la transformation qui consiste redresser et crter la v.a. X .
0 KK
x
K
Figure 1.4. Opration de redressement et dcrtage
( ) ( ) 2 2 21
1 1 1K K
X K K
K Kx dP x x dx dx dxx x x
= + +
+ + + !
( )21 2 2ln K K K = + + <
Donc ( )1X L dP , et :
-
Vecteurs alatoires 41
( ) ( ) ( ) ( )21 2 2XE X x dP x ln K K K+
= = + + , .
DFINITION. Etant donnes np v.a. ( ) ( )11 , 1 de jKX j p k n L dP= = ,
on dfinit lesprance de la matrice 11 1
1
n
jk
p pn
X XX
X X
=
" "
( par :
11 1
1
n
jk
p pn
EX EXE X
EX EX
=
" "
(.
En particulier : tant donn un vecteur alatoire :
( )( )1
1ou ,...,T
n
n
XX X X X
X
= =
" vrifiant ( )1 1 jX L dP j n =
On pose [ ] ( )( )1
1
2
ou ,...,T n
EXE X E X EX EX
EX
= =
" .
Esprance mathmatique dune v.a. complexe
DFINITIONS. Etant donne une v.a. complexe 1 2X X i X= + , on dit que :
( ) ( )1 11 2si et XX L dP X L dP .
Si ( )1X L dP on dfinit son esprance mathmatique par :
( ) 1 2E X EX i EX= + .
-
42 Processus stochastiques et filtrages optimaux
Transformation des vecteurs alatoires
On considre un vecteur alatoire rel ( )1,..., nX X X= de densit de probabilit ( ) ( ) ( ) ( )1 11 ,..., 1 ,...,X D X n D nf x x f x x x x= o D est un ouvert de n! .
On se donne par ailleurs lapplication :
( ) ( ) ( ) ( )( )1 1 1 1: ,..., ,..., ,..., ,...,n n n nx x x y x x x x xD
= = =
On suppose que est un 1C diffomorphisme de D sur un ouvert de n! , cest--dire que est bijective et que et 1 = sont de classe 1C .
D
X ( )Y X=
Figure 1.5. Transformation dun vecteur alatoire X par un 1C diffomorphisme
Le vecteur alatoire ( ) ( ) ( )( )1 1 1 1,..., ,..., ,..., ,...,n n n nY Y Y X X X X = = prend ses valeurs sur et on veut dterminer ( ) ( )1Yf y y sa densit de probabilit.
PROPOSITION.
( ) ( ) ( )( ) ( ) ( )1 1Y Xf y y f y Dt J y y =
-
Vecteurs alatoires 43
DMONSTRATION.
Soit :
( )1L dy ( )( ) ( ) ( ) ( )1YnE y y f y y dy = ! .
Par ailleurs :
( )( ) ( )( ) ( )( ) ( ) ( )1X DnE Y E X x f x x dx = = ! .
Par application du thorme du changement de variables dans les intgrales multiples et en notant par ( )J y la matrice jacobienne de lapplication , il vient :
( ) ( )( ) ( )Dt n Xy f y J y dy= ! .
Finalement, lgalit :
( ) ( ) ( )
( ) ( )( ) ( ) ( )Dt 1
1
Yn
Xn
y f y y dy
y f y J y y dy
=
!
!
ayant lieu pour tout ( )1L dy , on en dduit par le lemme de Haar la formule cherche :
( ) ( ) ( )( ) ( ) ( )Dt 1 1Y Xf y y f y J y y = .
EN PARTICULIER. Soit X est une v.a. et soit lapplication ( ): x x
D ! !
lgalit devient ( ) ( ) ( )( ) ( ) ( )1 1Y Xf y y f y y y = .
-
44 Processus stochastiques et filtrages optimaux
EXEMPLE. Soit le couple alatoire ( ),Z X Y= de densit de probabilit :
( ) ( ) ] [ ] [2 221 1 o 1, 1,, ,Z D
x yf x y x y D = = !
On se donne par ailleurs le 1C diffomorphisme :
dfini par :
( )/ ( ) ( )( )
( )/ ( ) ( )( )
1 2
1 2
: , , , ,
: , , , ,
D
D
x y u x y xy v x y x y
u v x u v uv y u v u v
= = = = = = = =
$%%%%%%%%&%%%%%%%%'
$%%%%%%%%&%%%%%%%%'
( ) ( )3
2
1 1et
2 2, ,
1 v
v uu v
J u v Dt J u vuuv v
= =
.
Le vecteur ( ), XW U X Y V Y= = = admet donc la densit de probabilit :
-
Vecteurs alatoires 45
( ) ( ) ( ) ( )( ) ( ) ( )
( ) ( )( ) ( )
1 2
2 2 2
, , , , , Dt , ,
1 1 1 1, ,
2 2
1 1
1 1
W Zf u v u v f u v u v J u v u v
u v u vv u vuuv
v
=
= =
REMARQUE. Rciproquement le vecteur ( ),W U V= de densit de probabilit ( ) ( ), 1 ,Wf u v u v et dont les composantes sont dpendantes est transform par
en vecteur ( ),Z X Y= de densit de probabilit ( ) ( ), 1 ,Z Df x y x y et dont les composantes sont indpendantes.
1.3.2. Fonctions caractristiques dun vecteur alatoire
DFINITION. On appelle fonction caractristique du vecteur alatoire :
( )1...T nX X X= lapplication ( ) ( )1 2 1 2: ,..., ,...,X Xn
u u u u 0!
dfinie par :
( )
( )
11
1 11
exp
exp
,...,
,... ...
n
X n j jj
n
j j X n nnj
u u E i u X
i u x f x x dx dx
=
=
=
=
!
(On a crit la dfinition de ( )1,..., nE X X avec :
( )11
exp,..., n
n j jj
X X i u X=
=
et on a appliqu le thorme sur lintgration par rapport la mesure image).
X est donc la transforme de Fourier de ( )( )X X Xf F f = .
-
46 Processus stochastiques et filtrages optimaux
En analyse on crirait plutt :
( )( ) ( )1 1 11
exp,..., ,..., ...n
uX n j j X n nnj
F f u u i u x f u dx dx=
=
! .
Quelques proprits usuelles de la transforme de Fourier :
( ) ( ) ( )1 2 1 1 ,... ,..., ... 0,...,0 1X X n n Xnu u f x x dx dx = =! ; lapplication ( ) ( )1 2 1 2,..., ,...,X
nu u u u
0!est continue ;
lapplication : X XF f est injective.
Exemple trs simple :
Le vecteur alatoire X prend ses valeurs dans lhypercube [ ]1,1 n = et il admet une densit de probabilit :
( ) ( )1 112
,..., ,...,1nX n nf x x x x=
(noter que les composantes jX sont indpendantes).
( ) ( )
( )
1 1 1 1
1
11 1
exp
expsin
1,..., ... ...21 2
n n n nn
n nj
j j jnjj j
u u i u x u x dx dx
uiu x dx
u
+
= =
= + +
= =
o, dans cette dernire expression et grce aux prolongements par continuit, on remplace :
1 21 2
1 2
sin sinpar si par si1 0 , 1 0 ,... u uu u
u u= =
-
Vecteurs alatoires 47
Inversion de la transforme de Fourier
F1F
Xf X
On a, comme on le verra, de bonnes raisons (calculs simplifis) dtudier certaines questions en utilisant les fonctions caractristiques plutt que les densits de probabilits, mais on a souvent besoin de revenir aux densits ; le problme qui se pose est celui de linversibilit de la transforme de Fourier F, tudie dans les cours spcialiss.
Rappelons simplement ici une condition suffisante :
PROPOSITION. Si ( )1 1,..., ...X n nn u u du du < ! (cest--dire ( )1 1...X nL du du ), alors 1F existe et :
( )( )
( )1 1 11
exp1,..., ,..., ...
2
n
X n j j X n nnnj
f x x i u x u u du du =
=
!
En outre lapplication ( ) ( )1 1,..., ,...,n X nx x f x x est continue.
EXEMPLE. Soit une v.a. gaussienne ( )2,X m .
Cest--dire que ( )2
exp1 1
22Xx mf x
= et supposons 0
on obtient ( )2 2
exp2X
uu ium
=
.
Il est clair que ( ) ( ) ( ) ( )1 et exp1 2X X X
L du f x iux u du
+
= .
-
48 Processus stochastiques et filtrages optimaux
Proprits et applications des fonctions caractristiques
1) Indpendance
PROPOSITION. Pour que les composantes jX du vecteur alatoire
( )1,...,T nX X X= soient indpendants, il faut et il suffit que :
( ) ( )11
,...,n
X n X jjju u u
=
= .
DMONSTRATION.
Condition ncessaire :
( ) ( )1 1 11
,..., exp ,..., ...n
n
X n j j X n nj
u u i u x f x x dx dx=
= ! .
Grce lindpendance :
( ) ( )11 1 1
exp ...j
n nn
j j X j n X jn jj j j
i u x f x dx dx u= = =
= = ! .
CONDITION SUFFISANTE. On part de lhypothse :
( )
( )
1 11
11
exp ,..., ...
exp ...
n
j j x n nnj
n
j j X j nn jj
i u x f x x dx dx
i u x f x dx dx
=
=
=
!
!
Do on dduit : ( ) ( )11
,...,n
X n X jjj
f x x f x=
= , cest--dire lindpendance,
puisque la transformation de Fourier Xf F X est injective.
-
Vecteurs alatoires 49
REMARQUE. On ne confondra pas ce rsultat avec celui qui concerne la somme de v.a. indpendantes et qui snonce de la manire suivante.
Si 1,..., nX X sont des v. a. indpendantes alors ( ) ( )1
n
X Xj jj ju u
=
=
Soient par exemple n variables alatoires indpendantes :
( ) ( )2 21 1, ,..., ,n nX m X m
et soient n constantes relles 1,..., n .
La remarque nous permet de dterminer la loi de la valeur alatoire 1
n
j jj
X= .
En effet les v.a. j jX sont indpendantes et :
( ) ( ) ( )2 2 2
2 2 2
12
1 1 1
12
j j j j
j j j
j j j jj j
n n n iu m uX X jXj jj j j j
iu m u
u u u e
e
= = =
= = =
=
donc 2 2
1,
n
j j j j j jj j j
X m =
.
2) Calcul des moments (jusquau 2e ordre par exemple)
Supposons ( )2 nX C ! . En appliquant une fois le thorme de Lebesgue de drivation sous signe somme
(dont les hypothses sont immdiates vrifier) il vient :
-
50 Processus stochastiques et filtrages optimaux
( )
( )( )
( )1
1 1
0,..., 0
1 1
0, ..., 0
exp
1
,..., ...
,..., ...n
X
X
K j j X n nnj u u
K X n n Kn
K nu
ix i u x f x x dx dx
i x f x x dx dx i E X
= =
=
=
= =
!
!
Soit ( )0, ..., 0XKK
E X iu
=
.
En appliquant ce thorme une deuxime fois, il vient :
( ) ( )2
et 1, 2, 0, ..., 0..., XKK
k n EX Xu u
= 2 2
2 .
1.4. Variables et vecteurs alatoires du second ordre
Commenons par rappeler les dfinitions et proprits usuelles relatives aux variables alatoires du 2e ordre.
DFINITIONS. Etant donn ( )2X L dP de densit de probabilit Xf , 2 et E X E X ont un sens. On appelle variance de X lexpression :
( ) ( )2 22Var X E X E X E X E X= = .
On appelle cart type de X lexpression ( ) Var X X = .
Soit maintenant deux v.a. ( )2et Y X L dP . En utilisant le produit scalaire ,< > sur ( )2L dP dfini en 1.2. on a :
( ) ( ) ( ),E X Y X Y X Y dP
=< >=
-
Vecteurs alatoires 51
et, si le vecteur ( ),Z X Y= admet la densit f , alors :
( )2 ,ZE X Y xy f x y dx dy= ! .
On a dj constat, en appliquant lingalit de Schwarz, que E X Y a bien un sens.
DFINITION. Soit deux v.a. X , ( )2Y L dP on appelle covariance de X et Y :
Lexpression ( )Cov ,X Y E X Y E X E Y= .
Quelques remarques ou proprits faciles vrifier :
( )Cov , V arX X X=
( ) ( )Cov , Cov ,X Y Y X=
si est une constante relle ( ) 2Var Var X X = ; si X et Y sont deux v.a. indpendantes, alors ( )Cov , 0X Y = mais la
rciproque nest pas vraie ;
si 1,..., nX X sont des v.a. 2 2 indpendantes
( )1 1Var ... Var X ... Var n nX X X+ + = + +
Coefficients de corrlation
Les Var jX (toujours positives) et les ( )Cov ,j KX X (de signe quelconque) peuvent prendre des valeurs algbriques trs leves. On prfre parfois utiliser les coefficients de corrlation (normaliss) :
( ) ( )Cov ,,Var Var
j K
j K
X Xj k
X X =
dont voici les proprits :
-
52 Processus stochastiques et filtrages optimaux
1) ( ) [ ], 1,1j k
En effet : supposons (uniquement pour simplifier lcriture) que jX et KX soient centres et considrons le trinme du 2e degr en .
( ) ( ) ( )2 2 2 22 0j K j j K KE X X EX E X X E X = = +
( ) 0 ! si et seulement si le discriminant :
( )2 2 2j K j KE X X E X E X =
est ngatif ou nul, soit ( ) 2Cov Var Var,j K j KX X X X (cest--dire ( ) [ ], 1,1j k ).
Ce qui est aussi lingalit de Schwarz.
On peut par ailleurs prciser que ( ), 1j k = si et seulement si 0 ! tel que 0K jX X= p.s. : en effet en remplaant KX par 0 jX dans la dfinition de ( ),j k , on obtient ( ), 1j k = .
Rciproquement, si ( ), 1j k = (par exemple), cest--dire si : 00 , = ! tel que 0K jX X= p.s.
Si jX et kX ne sont pas centrs, on remplace dans ce qui prcde jX par
j jX X et kX par k kX E X
2) Si jX et kX sont indpendantes, j k j kE X X E X E X= donc
( )Cov , 0j kX X = et ( ), 0j k = Mais la rciprocit est fausse dans le cas gnral comme le prouve lexemple
suivant.
-
Vecteurs alatoires 53
Soit une variable alatoire uniformment rpartie sur [ [0 , 2 cest--dire
( ) [ [ ( )0 , 21
21f
= .
Soit aussi deux v.a. sinjX = et coskX = .
On vrifie facilement que , ,j k j kE X E X E X X sont nuls donc
( )Cov ,j kX X et ( ),j k sont nuls. Cependant 2 2 1j kX X+ = et les v.a. jX et kX sont dpendantes.
Vecteurs alatoires du second ordre
DFINITION. On dit quun vecteur alatoire ( )1,...,T nX X X= est du second ordre si ( )2 1 jX L dP j n = .
DFINITION. Etant donn un vecteur alatoire du second ordre
( )1,...,T nX X X= , on appelle matrice de covariance de ce vecteur, la matrice symtrique :
( )
( )
1 1
1
Var Cov
Cov Var
,
,
n
X
n n
X X X
X X X
=
" "
(
Si on se reporte la dfinition de lesprance dune matrice de v.a., on voit que
lon peut crire ( )( )TX E X E X X E X = .
On constate aussi que X X X = .
REMARQUE. Variables et vecteurs alatoires complexes du second ordre : on dit quune variable alatoire complexe 1 2X X i X= + est du second ordre si 1X et
( )22X L dP .
-
54 Processus stochastiques et filtrages optimaux
La covariance de deux variables alatoires du second ordre et centres
1 2X X i X= + et 1 2Y Y iY= + a pour dfinition naturelle :
( ) ( )( )( ) ( )
1 2 1 2
1 1 2 2 2 1 1 2
,
Cov X Y EXY E X i X Y iY
E X Y X Y iE X Y X Y
= = +
= + +
et la condition de dcorrelation est donc :
( ) ( )1 1 2 2 2 1 1 2 0E X Y X Y E X Y X Y+ = = .
On dit quun vecteur alatoire complexe ( )1,..., ,...T j nX X X X= est du second ordre si pour tout ( ) 1 21,..., j j jj n X X iX = + est une variable alatoire complexe du second ordre.
La matrice de covariance dun vecteur alatoire complexe du second ordre et centr est dfinie par :
21 1
21
n
X
n n
E X EX X
EX X E X
=
" "
(
Si lon ne craint pas les lourdeurs dcriture, on peut sans difficult crire ces dfinitions pour des variables et vecteurs alatoires complexes non centrs.
Revenons aux vecteurs alatoires rels.
DFINITION. On appelle matrice des moments du second ordre la matrice symtrique TE X X . Si X est centr
TX E X X = .
Transformation affine dun vecteur du 2e ordre
Notons par ( ),M p n lespace des matrices p lignes et n colonnes.
-
Vecteurs alatoires 55
PROPOSITION. Soit ( )1,...,T nX X X= un vecteur alatoire de vecteur esprance ( )1,...,T nm m m= et de matrice de covariance X .
Soit par ailleurs une matrice ( ),A M p n et un vecteur certain
( )1,...,T PB b b= .
Le vecteur alatoire Y AX B= + possde Am B+ pour vecteur esprance et
Y XA A = pour matrice de covariance.
DMONSTRATION.
[ ] [ ] [ ]E Y E AX B E AX B Am B= + = + = + .
Et aussi par exemple :
( )E AX E X A m A = =
( ) ( )( )Y AX AX E A X m A X m
+ = = = =
( )( ) ( )( ) XE A X m X m A A E X m X m A A A = =
dans la suite, nous aurons aussi besoin du rsultat facile suivant.
PROPOSITION. Soit ( )1,...,T nX X X= un vecteur alatoire du 2e ordre, de matrice de covariance .
Alors :
( )11
var,...,n
T nn X j j
jX
=
= =
! .
-
56 Processus stochastiques et filtrages optimaux
DMONSTRATION.
( ) ( )( )( )
( )
, ,
22
,
Var
X j K j K j j K K j Kj K j K
j j j j j j j j jj j j j
Cov X X E X EX X EX
E X EX E X E X X
= =
= = =
CONSQUENCE. n! on a toujours 0 .
Rappelons ce propos ces dfinitions dalgbre :
si, 0T X > ( ) ( )1,..., 0,...,0n = , on dit que X est dfinie positive ;
si ( ) ( )1,..., 0,...,0n = tel que 0X = , on dit que X est semi-dfinie positive.
REMARQUE. Dans cet ouvrage la notion de vecteur apparat dans deux contextes diffrents et afin dviter certaines confusions, revenons, en insistant, sur quelques points de vocabulaire.
1) On appelle vecteur alatoire de n! (ou vecteur alatoire valeurs dans
n! ), tout n-uple de variables alatoires 1
"
n
XX
X
=
( ) ( )( )1 1ou ou meme ,..., ,...,T n nX X X X X X= = .
X est un vecteur en ce sens que pour chaque , on obtient un n-uple
( ) ( ) ( )( )1 ,..., nX X X = qui appartient lespace vectoriel n
! .
2) On appelle vecteur alatoire du second ordre, tout vecteur alatoire de n
! ( )1,..., nX X X= dont toutes les composantes jX appartiennent ( )2L dP .
-
Vecteurs alatoires 57
Dans ce contexte, les composantes jX elles-mmes sont des vecteurs
puisquelles appartiennent lespace vectoriel ( )2L dP .
Donc, dans la suite quand on parlera dindpendance linaire ou de produit scalaire ou dorthogonalit, il faudra bien prciser quel espace vectoriel,
n! ou
( )2L dP , on fait rfrence.
1.5. Indpendance linaire des vecteurs de ( )2L dP
DFINITION. On dit que les n vecteurs 1,..., nX X de ( )2L dP sont linairement indpendants si 1 1 10 p.s. 0... ...n n nX X + + = = = = (o ici, 0 est
le vecteur nul de ( )2L dP ).
DFINITION. On dit que les n vecteurs 1 2,...,X X de ( )2L dP sont linairement dpendants si 21,..., n non tous nuls et un vnement A de probabilit positive tel que ( ) ( )1 1 ... 0n nX X A + + = .
En particulier : 1,..., nX X seront linairement dpendants si 1,..., n non tous nuls tel que 1 1 0... n nX X + + = p.s.
Exemples : soient les trois applications mesurables :
[ ] [ ]( ) ( )( )1 2 3, , : 0, 2 , 0, 2 , ,X X X d ! !B B
dfinies par :
( )( )( )
[ [( ) ( )
( )( )
[ [
11 1
2 2
3 3
sur 0,1 et sur 1, 2
2 2
3 2 5
X X e
X X
X X
= = = =
= = +
-
58 Processus stochastiques et filtrages optimaux
Figure 1.6. Trois variables alatoires
Les trois applications sont videmment mesurables et appartiennent ( )2L d , ce sont 3 vecteurs de ( )2L d .
Ces 3 vecteurs sont linairement dpendants car sur [ [0,1A = de mesure de
probabilit 12
: ( ) ( ) ( )1 2 35 1 1 0X X X A + + = .
Matrice de covariance et indpendance linaire
Soit donc X la matrice de covariance de ( )1,..., nX X X= vecteur du 2e ordre.
1) Si X est dfinie positive : * *1 1 1,..., n n nX X EX X X EX= = sont
alors des vecteurs linairement indpendants de ( )2L dP .
En effet :
2
VarT X j j j j j jj j j
X E X E X
= =
-
Vecteurs alatoires 59
( )2
0j j jj
E X EX = =
Cest--dire :
( ) p.s.0j j jj
X EX =
Ce qui implique, puisque X est dfinie positive, que 1 0n = = =(
On peut dire aussi que * *1 ,..., nX X engendrent un hyperplan de ( )2L dP de dimension n que lon peut noter ( )* *1 ,..., nX XH .
En particulier, si les v.a. 1 ,..., nX X sont dcorreles 2 2 (donc a fortiori si elles sont stochatiquement indpendantes), on a :
21Var 0 0 .
TX j j n
jX = = = = = (
donc dans ce cas X est dfinie positive et * *1 ,..., nX X sont encore linairement
indpendantes.
REMARQUE. Si TE X X , la matrice des moments dordre 2, est dfinie positive alors 1 ,..., nX X sont des vecteurs linairement indpendants de ( )2L dP .
2) Si maintenant X est semi-dfinie positive :
* *1 1 1 , . . . , n n nX X EX X X EX= =
sont alors des vecteurs linairement dpendants de ( )2L dP .
En effet :
( ) ( )1,..., 0,...,0n =
-
60 Processus stochastiques et filtrages optimaux
tel que : ( ) jj
Var 0T X jX
= =
Cest--dire :
( ) ( ) ( )1 tel que 00,..., 0,..., n j j jj
X EX = = p.s.
Figure 1.7. Vecteur ( )X et vecteur X
Exemple : on considre 1
2
3
XX X
X
=
un vecteur alatoire de 3! du 2e ordre,
admettant
31
2m
=
pour vecteur esprance et
4 2 02 1 00 0 3
X
=
pour matrice
-
Vecteurs alatoires 61
de Covariance. On constate que X est semi-dfinie positive. En prenant par
exemple ( )1 , 2 , 0T = on vrifie que ( ) 0T X = . Donc Var ( ) * *1 2 3 1 2 et p.s.2 0 0 2 0X X X X X + = =
1.6. Esprance conditionnelle (cas des vecteurs densit)
Soit X une v.a. relle et soit ( )1,..., nY Y Y= un vecteur alatoire rel. On suppose que : X et Y sont indpendants et que le vecteur
( )1, ,..., nZ X Y Y= admet une densit de probabilit ( )1, ,...,Z nf x y y .
Dans ce paragraphe on emploiera selon les cas les notations ( )1,..., nY Y ou ( )1, ,..., nY y y ou y.
Rappelons pour commencer que ( ) ( ),Y Zf y f x y dx= ! .
Probabilit conditionnelle
On veut, pour tout ( )B !B et tout ( )1,..., nny y ! , dfinir et calculer la probabilit pour que X B sachant que 1 1,..., n nY y Y y= = .
On note cette quantit ( ) ( ) ( )( )1 1 .. n nP X B Y y Y y = = ou plus simplement ( )1,..., nP X B y y . Notons quon ne peut pas, comme le cas des variables discrtes, crire :
( ) ( ) ( )( ) ( ) ( ) ( )( )( ) ( )( )1 1
1 11 1
....
..n n
n nn n
P X B Y y Y yP X B Y y Y y
P Y y Y y
= = = = =
= =
Le quotient ici est indtermin et gale 0
0
-
62 Processus stochastiques et filtrages optimaux
Pour 1j = n , posons ,j j j hI y y + =
On crit :
( ) ( ) ( ) ( )( )( ) ( ) ( )( )
( ) ( )( )( )
( )
( )( )
( )( )
1
1
1 1 10
1 1
0 1 1
1 1...
1 1...
lim
lim
,..., ..
....
, ,..., ...
,..., ...
, ,
n
n
n n nh
n n
h n n
Z n nB I I
y n nI I
ZB ZB
Y Y
P X B y y P X B Y I Y I
P X B Y I Y IP Y I Y I
dx f x u u du du
f u u du du
f x y dx f x ydx
f y f y
=
=
=
= =
Il est donc naturel de dire que la densit conditionnelle de la v.a. X sachant ( )1,..., ny y est la fonction :
( ) ( )( ) ( )si 0,Z
YY
f x yx f x y f y
f y =
! !
On peut ngliger lensemble des y pour lesquels ( ) 0Yf y = car il est de mesure (dans n! ) nul.
Posons en effet ( ) ( ){ }, 0Yx y f y = = , on remarque :
( )( ) ( ) ( )( ){ }0, , ,YZ y f yP X Y f x y dx dy du f x u dx = = = !
( )( ){ }0 0Yy f yY
f u du=
= = , donc ( )Yf y est non nul presque partout.
-
Vecteurs alatoires 63
Finalement, on a obtenu une famille (indicie par les y vrifiant ( ) 0Yf y > ) de densits de probabilits ( ) ( )( )1f x y f x y dx = ! .
Esprance conditionnelle
Soit toujours le vecteur alatoire ( )1, ,..., nZ X Y Y= de densit ( ),Zf x y et ( )f x y la densit de probabilit de X sachant 1,..., ny y .
DFINITION. Etant donne une application mesurable
( )( ) ( )( ): , , ! ! ! !B B , sous lhypothse ( ) ( )x f x y dx < ! (cest--dire ( )( )1L f x y dx on appelle esprance conditionnelle de ( )X sachant ( )1,..., ny y lesprance de ( )X calcule avec la densit
conditionnelle ( ) ( )1,..., nf x y f x y y= et on crit :
( )( ) ( ) ( )1,..., nE X y y x f x y dx = ! .
( )( )1,..., nE X y y est une valeur certaine, fonction de ( )1,..., ny y , notons la ( )1 ,..., ng y y (cette notation prendra son sens dans le chapitre sur lestimation).
DFINITION. On appelle esprance conditionnelle de ( )X par rapport ( )1,..., nY Y Y= la v.a. ( ) ( )( )1 1 ,..., ,...,n ng Y Y E X Y Y= (note aussi ( )( )E X Y qui prend la valeur ( ) ( )( )1 1 ,..., ,...,n ng y y E X y y= quand
( )1,..., nY Y prend la valeur ( )1,..., ny y .
REMARQUE. Comme on ne distingue pas deux v.a. gales p.s., on appellera encore esprance conditionnelle de ( )X par rapport 1,..., nY Y toute v.a. ( )1 ,..., ng Y Y telle que ( ) ( )1 1 ,..., ,...,n ng Y Y g Y Y = p.s.
-
64 Processus stochastiques et filtrages optimaux
Cest--dire ( ) ( )1 1 ,..., ,...,n ng Y Y g Y Y = sauf ventuellement sur tel que ( ) ( ) 0YP f y dy = = .
PROPOSITION. Si ( ) ( )1X L dP (cest--dire ( ) ( )Xx f x dx < ! ) alors ( ) ( )( ) ( )1g Y E X Y L dP= (cest--dire ( ) ( )n Yg y f y dy < ! .
DMONSTRATION.
( ) ( ) ( )( ) ( )( ) ( ) ( )
n n
n
Y
Y
g y f y dy E X y f y dy
f y dy X f x y dx
=
=
! !
! !
Par le thorme de Fubini :
( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( )
1 1 ,
,
n n
n
Y Z
Z X
x f y f x y dx dy x f x y dx dy
x dx f x y dy x f x dx
+ + =
= = <
! !
! ! !
Principales proprits de lesprance conditionnelle
Les hypothses dintgrabilit tant vrifies :
1)
2) Si X et Y sont indpendants ( )( ) ( )( )E X Y E X = 3) ( )( ) ( )E X X X = 4) Conditionnements successifs
( )( )( ) ( )( )1 1 1 1,..., , ,..., ,...,n n n nE E X Y Y Y Y Y E X Y Y+ = 5) Linarit
( ) ( )( ) ( )( ) ( )( )1 1 2 2 1 1 2 2E X X Y E X Y E X Y + = +
-
Vecteurs alatoires 65
Les dmonstrations en gnral faciles sont laisses en exercice.
Remarquons en particulier quen ce qui concerne la premire proprit, il suffit de rcrire la dmonstration de la dernire proposition en y tant les valeurs absolues.
Le chapitre sur lestimation en moyenne quadratique rendra plus concrte la notion desprance conditionnelle.
Exemple : soit ( ),Z X Y= un couple alatoire de densit de probabilit ( ) ( ) ( ), 6 2 1 ,Zf x y xy x y x y= o est le carr [ ] [ ]0,1 0,1 .
Calculons ( )E X Y . On a successivement :
( ) ( ) ( )1 10 0
, 6 2f y f x y dx xy x y dx= = avec [ ]0,1y
soit ( ) ( ) [ ] ( )2 0,14 3 1y yf y y=
( ) ( )( )( )
[ ] ( )0,16 2
4 3, 1x x y
yf x y
f x y xf y
= = avec [ ]0,1y
( ) ( ) [ ] ( ) ( ) [ ] ( )1
0,1 0,10
5 42 4 3
1 1yy
E X y xf x y dx y y
= =
Donc :
( ) ( ) [ ] ( )0,15 4
2 4 31Y
YE X Y Y
= .
On a aussi :
( ) ( )( ) ( ) ( )
( ) ( )1 2
0
1
0
5 4 7 4 3
2 4 3 12
y y y dyy
E X E E X Y E X y f y dy
= =
= =
-
66 Processus stochastiques et filtrages optimaux
1.7. Exercices du chapitre 1
Enonc 1.1.
Soit X une v.a. de fonction de rpartition
( )2
0 si 0
1si 0 2
21 si
x
x
x
F x
>
>
! .
Dterminer la constante K et les densits Xf et Yf des v.a. X et Y .
Enonc 1.3.
Soient X et Y deux variables alatoires indpendantes et de densits uniformes sur lintervalle [ ]0,1 :
1) Dterminer la densit de probabilit Zf de la v.a. Z X Y= + . 2) Dterminer la densit de probabilit Uf de la v.a. U X Y= .
-
Vecteurs alatoires 67
Enonc 1.4.
Soient X et Y deux v.a. indpendantes et de densits uniformes sur lintervalle [ ]0,1 . Dterminer la densit de probabilit Uf de la v.a. U X Y= .
Solution 1.4.
U prend ses valeurs dans [ ]0,1
Soit UF la fonction de rpartition de U :
si ( )0 0Uu F u = ; si ( )1 1Uu F u = ; si ] [0,1u : ( ) ( ) ( ) ( )( ),U uF u P U u P X Y u P X Y B= = =
o uB A B= est laire hachure de la figure.
Donc ( ) ( ) ( ) ( ) ( ), ,u u
U X YX YB BF u f x y dx dy f x f y dx dy= =
-
68 Processus stochastiques et filtrages optimaux
( )1 1
01
ux
A u u
dxdx dy dx dy u u u nux
= + = + = 2
Finalement ( ) ( )] ] [ [] [
si 0 - ,0 1,
0,1
U Ux
xf u F u
nu
= =
2
Enonc 1.5.
On considre trois v.a. relles , ,X Y Z indpendantes et de mme loi ( )0,1N ,
cest--dire admettant la mme densit 21
22x
.
Dterminer la densit de probabilit Uf de la v.a.r. ( )1
2 2 2 2U X Y Z= + + .
Solution 1.5.
Soit UF la fonction de rpartition de U :
si 0u ( ) ( )1
2 2 2 2 0UF u P X Y Z u
= + + =
si 0u > ( ) ( )( )U uF u P X Y Z S= + +
O uS est la sphre de 3! centre en ( )0, 0, 0 et de rayon u
( ) ( )
( )( )3
2
2 2 2
, ,
1
2
1exp
2
, ,u
u
X Y ZS
Sx y z dx dy dz
f x y z dx dy dz
+ +
=
=
-
Vecteurs alatoires 69
et en utilisant un passage en coordonnes sphriques :
( )
( )
2 23 0 0 02
2 23 02
1 1exp sin
22
1 12 2 exp
22
e u
u
d d r r dr
r r dr
=
=
et comme 2 2exp12
r r r
est continue :
( ) ( ) 2 2si
exp si
0 0
2 10
22
=
+ est une densit de
probabilit (appele densit de Cauchy). 1b) Vrifier que la fonction caractristique correspondante est
( ) ( )expX u a u = . 1c) Soit une famille de v.a. indpendantes 1,..., nX X de densit af . Trouver
la densit de la v.a. 1... n
nX XY
n+ +
= .
Que constate-t-on ?
2) Par considration de variables alatoires de Cauchy, vrifier que lon peut avoir lgalit ( ) ( ) ( )X Y X Yu u u + = avec X et Y dpendantes.
-
70 Processus stochastiques et filtrages optimaux
Enonc 1.7.
Montrer que
1 2 3
2 1 2
3 2 1
M =
nest pas une matrice de covariance.
Montrer que
1 0, 5 0
0, 5 1 0
0 0 1
M =
est une matrice de covariance.
Vrifier sur cet exemple que la proprit ntre pas corrl avec pour une famille de v.a. nest pas transitive.
Enonc 1.8.
Montrer que le vecteur alatoire ( )1 2 3, ,TX X X X= desprance
( )7, 0,1TX = et de matrice de covariance 10 1 4
1 1 1
4 1 2X
=
appartient
presque srement (p.s.) un plan de 3! .
Enonc 1.9.
On considre le vecteur alatoire ( ), ,U X Y Z= de densit de probabilit ( ) ( ) ( )3 1, , , ,Uf x y z K x y z x y z x y z= o est le cube
[ ] [ ] [ ]0,1 0,1 0,1 .
1) Calculer la constante K .
2) Calculer la probabilit conditionnelle 1 1 1 3
, ,4 2 2 4
P X Y Z = = .
3) Dterminer lesprance conditionnelle ( )2 ,X Y Z .
-
CHAPITRE 2
Vecteurs gaussiens
2.1. Quelques rappels sur les variables alatoires gaussiennes
DFINITION. On dit quune v.a. relle est gaussienne, desprance m et de variance 2 si sa loi de probabilit XP :
admet la densit ( ) ( )2
21
exp2 2
Xx m
f x
=
si 2 0
(par un calcul dintgrale double par exemple, on vrifie que ( )Xf x dx =! 1) ;
est la mesure de Dirac 2 si 0 m = .
Figure 2.1. Densit gaussienne et mesure de Dirac
-
72 Processus stochastiques et filtrages optimaux
Si 2 0 , on dit que X est gaussienne non dgnre.
Si 2 0 = , on dit que X est gaussienne dgnre ; X est dans ce cas une v.a. certaine prenant la valeur m avec la probabilit 1.
2,EX m Var X = = . Ceci se vrifie facilement par utilisation de la fonction de rpartition.
Comme on la dj not, pour spcifier quune v.a. X est gaussienne desprance m et de variance 2 , on crira ( )2,X N m .
Fonction caractristique de ( )2,X N m Commenons dabord par dterminer la fonction caractristique
de ( )0 0,1X N :
( ) ( )2
0
0
21
2iux xiuX
X eu E e e dx
= = ! .
On voit facilement que lon peut appliquer le thorme de drivation sous signe somme et :
( )2
0
2
2
xiuxX
iu e xe dx
= ! .
Ensuite par intgration par parties :
( )2 2
0
2 2
2
x xiux iuxX
i e e iue e dx u u
++
= + =
.
La rsolution de lquation diffrentielle ( ) ( )0 0X Xu u u = avec la
condition ( )0
0 1X = nous conduit la solution ( )2
0
2u
X u e
= .
-
Vecteurs gaussiens 73
Pour ( ) ( )21
2 21
2,
x miux
XX N m u e e dx
+
= .
Par le changement de variable x my
= qui nous ramne au cas prcdent, on
obtient ( )2 21
2ium u
X u e
= .
Si 2 0 = cest--dire si X mP = :
( )X u (transforme de Fourier au sens des distributions de m ) = iume
si bien que dans tous les cas ( 2 ou )0= ( )1 2 22
ium uX u e
= .
REMARQUE. Etant donne la v.a. ( )2,X N m , on peut crire :
( )( ) ( )
( )( ) ( )
( )
12
11 2 22
2
1 1exp
22
1exp
2
X
X
f u x m x m
u ium u u
=
=
Ce sont les critures que lon retrouvera pour les vecteurs gaussiens.
2.2. Dfinition et caractrisation des vecteurs gaussiens
DFINITION. On dit quun vecteur alatoire rel ( )1,...,T nX X X= est gaussien
si ( ) 10 1, ,..., nna a a + ! la v.a. 01
n
j jj
a a X=
+ est gaussienne. (On peut dans
cette dfinition supposer 0 0a = ce que nous ferons en gnral).
-
74 Processus stochastiques et filtrages optimaux
Un vecteur alatoire ( )1,...,T nX X X= nest donc pas gaussien si on peut
trouver un n -uple ( ) ( )1,..., 0,...,0na a tel que la v.a. 1
n
j jj
a X= ne soit pas
gaussienne et il suffit pour cela de trouver un n - uple tel que 1
n
j jj
a X= ne soit pas
une v.a. densit.
EXEMPLE. On se donne une v.a. ( )0,1X N et une v.a. discrte, indpendante de X et tel que :
( ) 112
P = = et ( ) 112
P = = .
On pose Y X= .
En utilisant ce qui prcde, on montrera en exercice que, bien que Y soit une v.a. ( )0,1N , le vecteur ( ),X Y nest pas un vecteur gaussien.
PROPOSITION. Pour quun vecteur alatoire ( )1,...,T nX X X= desprance ( )1,...,T nm m m= et de matrice de covariance X soit gaussien, il faut et il suffit
que sa fonction caractristique f.c( ) X soit dfinie par :
( ) ( )( )1 11
1exp o
2,..., ,...,
mT T
X n j j X nj
u u i u m u u u u u=
= = .
DMONSTRATION.
( )11 1
exp exp,..., .1.n n
X n j j j jj j
u u E i u X E i u X= =
= =
= fonction caractristique de la v.a. 1
n
j jj
u X= en la valeur 1.
-
Vecteurs gaussiens 75
Cest--dire : ( )1
1nj j
ju X
=
et ( )1
2
1 1
11 exp 1 1 Var
2. . n
j jj
n n
j j j ju X j j
i E u X u X=
= =
=
si et seulement si la v.a. 1
n
j jj
u X= est gaussienne.
Enfin, puisque 1
Varn
Tj j X
ju X u u
=
=
, on a bien :
( )11
1exp
2,...,
nT
X n j j Xj
u u i u m u u=
= .
NOTATION. On voit que la fonction caractristique dun vecteur gaussien X est entirement dtermine quand on connat son vecteur esprance m et sa matrice de covariance X . Si X est un tel vecteur, on crira ( ),n XX N m .
CAS PARTICULIER. 0m = et X nI = (matrice identit), ( )( )0,n nX N I est alors appel vecteur gaussien standard.
2.3. Rsultats relatifs lindpendance
PROPOSITION.
1) si le vecteur ( )1,...,T nX X X= est gaussien, toutes ses composantes jX sont alors des v.a. gaussiennes ;
2) si les composantes jX dun vecteur alatoire X sont gaussiennes et indpendantes, le vecteur X est alors gaussien.
-
76 Processus stochastiques et filtrages optimaux
DMONSTRATION.
1) on crit 0 0 0 0... ...j jX X= + + + + + ;
2) ( ) ( ) 2 211 1
1exp
2,...,
j
n n
X n X j j j j jj j
u u u iu m u = =
= =
que lon peut encore crire : 1
1exp
2
nT
j j Xj
i u m u u=
avec
21
2
0
0
X
n
=
# .
ATTENTION. Comme on le verra ultrieurement : composantes jX gaussiennes et indpendantes nest pas une condition ncessaire pour que le vecteur alatoire
( )1,..., ,...,T j nX X X X= soit gaussien.
PROPOSITION. Si ( )1,..., ,...,T j nX X X X= est un vecteur gaussien de matrice de covariance X , on a lquivalence : X diagonale les v.a. jX sont indpendantes.
DMONSTRATION.
21
2
0
0 n
X
=
# ( ) ( )11
,...,j
n
X n X jj
u u u
=
Ce qui est une condition ncessaire et suffisante dindpendance des v.a. jX .
Rsumons par un schma ces deux rsultats simples :
-
Vecteurs gaussiens 77
( )1,..., ,...,T j nX X X X=est un vecteur gaussien
Les composantes jX
sont des v.a. gaussiennes
Si (condition suffisante) les jX sont indpendantes
( jX indpendantes
X est diagonale)
( jX indpendantes ou
X est gaussien)
REMARQUE. Un vecteur gaussien ( )1,..., ,...,T j nX X X X= est videmment du 2e ordre. En effet chaque composante jX est gaussienne et appartient donc
( )2L dP ( )2
22 21
2
x m
x e dx
< !
On peut gnraliser la dernire proposition et remplacer les v.a. gaussiennes par des vecteurs gaussiens.
Considrons par exemple trois vecteurs alatoires :
( ) ( ) ( )1 1 1 1,..., ; ,..., ; ,..., , ,...,T T Tn p n pX X X Y Y Y Z X X Y Y= = =
et posons
Cov( , )
Cov( , )
X
Y
Z
X Y
Y X
=
$
% $ %
$
o ( )Cov ,X Y est ici la matrice des coefficients ( )Cov ,jX Y& et o ( ) ( )( )Cov Cov, , TX Y X Y= .
Mme si
X est diagonale
-
78 Processus stochastiques et filtrages optimaux
PROPOSITION. Si ( )1 1,..., , ,...,T n pZ X X Y Y= est un vecteur gaussien de matrice de covariance Z , on a lquivalence :
( )Cov ,X Y = matrice nulle X et Y sont 2 vecteurs gaussiens indpendants.
DMONSTRATION.
0
0
X
Y
Z
=
$
% $ %
$
( )1 11
exp
01,..., , ,...,2
0
Xn pT
Z n n n p j jj
Y
u u u u i u m u u+
+ +=
=
$
% $ %$
( ) ( )1 1,..., ,...,X n Y n n pu u u u + += Ce qui est une condition ncessaire et suffisante dindpendance des vecteurs X et Y .
ATTENTION. Soit ( ), , ,...T T T TZ X Y U= o , , ,...X Y U sont des v.a. ou des vecteurs alatoires.
Z est un vecteur gaussien est une hypothse plus forte que X gaussien et Y gaussien et U gaussien X gaussien et Y gaussien et U gaussien et leurs covariances (ou
matrices de covariances) sont nulles que ( ), , ,...T T T TZ X Y U= est un vecteur gaussien.
EXEMPLE. Soient , ,X Y Z trois v.a. ( )0,1N , cherchons la loi du vecteur ( ),TW U V= ou U X Y Z= + + et V X Y= avec ! : cause de
lindpendance, le vecteur ( ), ,X Y Z est gaussien et ( ) ( ),a b aU bV a b X a b Y aZ + = + + +! est une v.a. gaussienne.
Donc ( ),TW U V= est un vecteur gaussien.
-
Vecteurs gaussiens 79
Pour le dterminer entirement il faut connatre m EW= et W et on aura ( )2 , WW N m .
Il vient facilement :
( ) ( ), 0,0TEW EU EV= = et ( )
( ) 2Var Cov
Cov Var
3 11 1
,, W
U U VV U V
= = +
En effet :
( )( )
( ) ( )( )
22 2 2 2
22 2 2 2 2
2 2
Var
Var
Cov
3
1
1
V
,
U EU E X Y Z EX EY EZ
EV E X Y EX EY
U V E X Y Z X Y EX EY
= = + + = + + =
= = = + = +
= + + = =
Cas particulier : 1 W = diagonale U et V sont indpendants.
2.4. Transformation affine dun vecteur gaussien
On peut gnraliser aux vecteurs le rsultat suivant sur les v.a. gaussiennes :
Si ( )2,Y N m alors ( )2 2 ., ,a b aY b N am b a + +! En modifiant un peu lcriture,
( )2 2,N am b a + devenant ( ),N am b a VarY a+ , on imagine dj comment ce rsultat va stendre aux vecteurs gaussiens.
PROPOSITION. Soient un vecteur gaussien ( ),n YY N m , A une matrice appartenant ( ),M p n et un vecteur certain pB! .
Alors AY B+ est un vecteur gaussien ( ), Tp YN Am B A A+ .
-
80 Processus stochastiques et filtrages optimaux
DMONSTRATION.
11 1 11
11
1
n
n
i n i i ii
p pn pn
a a bY
a a a bYAY B a Y b
a a bY
=
+ = + = +
& & & & & &
$%
$$ $ $$
% %$ $ $$
$%$
ceci est bien un vecteur gaussien (de dimension p ) car toute combinaison linaire de ses composantes est une combinaison affine des v.a. 1,..., ,...,i nY Y Y et par hypothse ( )1,...,T nY Y Y= est un vecteur gaussien ;
par ailleurs on a vu que si Y est un vecteur de 2e ordre : ( )E AY B AEY B Am B+ = + = + et TAY B YA A+ = .
EXEMPLE. Soient ( )1n + v.a. indpendantes ( )2 0,jY N j = n.
Il vient ( ) ( )0 1 1, ,..., ,T n n YY Y Y Y N m+= avec ( ),...,Tm = et
2
2
0
0
Y
=
# .
Soient par ailleurs les nouvelles v.a. X & dfinies par :
1 0 1 1,..., n n nX Y Y X Y Y= + = +
Le vecteur ( )1,...,T nX X X= est gaussien car 1 0110...0
0110..0
0...011n n
X Y
X Y
=
$ $
plus prcisment, daprs la proposition prcdente, ( ), Tn YX N Am A A .
-
Vecteurs gaussiens 81
REMARQUE. Si dans cet exemple nous supposons 0 = et 2 1 = , nous constatons que le vecteur X est gaussien bien que ses composantes jX ne soient pas indpendantes. En effet, nous avons par exemple :
( )1 2Cov , 0 X X car ( )( ) 21 2 0 1 1 2 1 1EX X E Y Y Y Y EY= + + = = et
( ) ( )1 2 0 1 1 2 0EX EX E Y Y E Y Y= + + = .
2.5. Existence des vecteurs gaussiens
NOTATION. ( ) ( )1 1,..., , ,...,T Tn nu u u x x x= = et ( )1,...,T nm m m= .
On sintresse ici lexistence des vecteurs gaussiens cest--dire lexistence des lois de probabilits sur n! ayant des transformes de Fourier de la forme :
1exp
2T
j jj
i u m u u
PROPOSITION. Etant donn un vecteur ( )1,...,T mm m m= et une matrice ( ),M n n , symtrique et semi-dfinie positive, il existe une probabilit XP
unique sur n! , de transforme de Fourier :
( )11 1
exp exp12
,...,nn n
Tj j X n j j
j ji u x dP x x i u m u u
= =
=
! .
En outre :
1) si est inversible, XP admet sur n! la densit :
( )( ) ( )
( ) ( )11 12 2
exp1 1
22 Det,..., TX n nf x x x m x m
=
;
-
82 Processus stochastiques et filtrages optimaux
2) si est non inversible (de rang r n< ) les v.a. 1 1,..., n nX m X m sont linairement dpendantes. On peut encore dire que ( )X m prend presque srement ses valeurs sur un hyperplan ( ) de n! ou que la probabilit
XP charge un hyperplan ( ) et nest donc pas densit dans n! .
DMONSTRATION.
1) Commenons par rappeler un rsultat dalgbre linaire :
tant symtrique, on peut trouver une base orthonorme de n! forme de vecteurs propres de ; appelons ( ), ...,1 nV V cette base. En notant j les valeurs propres de on a donc j j jV V = o les j sont solutions de lquation
( )Det 0I = .
Quelques consquences
Posons dabord 1 0
0 n
=
# et ( )1,..., nV V V= .
(o les JV sont des vecteurs colonnes).
1 j j jV V j n = = quivaut V V = et, la matrice V tant
orthogonale ( ) ,T T TVV V V I V V= = = .
Dmontrons que, si en outre est inversible les j sont 0 et 0 , donc les
j sont > 0.
Les j sont 0 . En effet, tant inversible,
0 Dt 1
Dtn
jj
=
= =
-
Vecteurs gaussiens 83
Les j sont 0 : considrons en effet la forme quadratique Tu u u
( 0 puisque semi dfinie positive).
Dans la base ( )1... nV V u scrit ( )1,..., nu u avec ju = < ,jV u > et la forme
scrit ( )1
21 0,..., n j j
jn
uu u u u
u
=
$ do le rsultat annonc.
Dmontrons maintenant la proposition.
2) Plaons nous dabord dans le cas gnral, cest--dire celui dans lequel est non ncessairement inversible (cest--dire encore que les valeurs propres j sont 0 ).
Considrons n v.a. indpendantes ( )0,j jY N .
On sait que le vecteur ( )1,...,T nY Y Y= est gaussien ainsi que le vecteur X VY m= + (proposition du paragraphe prcdent) ; plus prcisment
( ), TX N m V V = . Lexistence des vecteurs gaussiens desprance et de matrice de covariance
donne est donc bien prouve.
Par ailleurs, on a vu que si X est ( ),nN m , sa fonction caractristique
(transforme de Fourier de sa loi) est : exp12
Tj j
ji u m u u
.
On a donc bien :
( ) ( )1exp exp 1 ,..., 2nT
j j X n j jj
i u x dP x x i u m u u
=
! .
-
84 Processus stochastiques et filtrages optimaux
Unicit de la loi : elle dcoule de linjectivit de la transformation de Fourier.
3) Prcisons pour terminer le rle jou par linversibilit de .
a) Si est inversible toutes les valeurs propres ( )Varj jY = sont > 0 et le vecteur ( )1...T nY Y Y= admet la densit :
( )
( )
2
11
11
22
1
exp
exp
12
12
2
,...,2
1
nj
Y njj j
T
nnj
j
yf y y
y y
=
=
=
=
En ce qui concerne le vecteur X VY m= + : la transformation affine y x Vy m = + est inversible dinverse ( )1y V x m= et de Jacobien Det 1V = (V orthogonal).
Par aille