[Jean-Claude Bertein, Roger Ceschi] Processus Stoc(BookFi.org) (2)

download [Jean-Claude Bertein, Roger Ceschi] Processus Stoc(BookFi.org) (2)

of 274

Transcript of [Jean-Claude Bertein, Roger Ceschi] Processus Stoc(BookFi.org) (2)

  • Processus stochastiques discretset filtrages optimaux

  • LAVOISIER, 2005LAVOISIER11, rue Lavoisier75008 Paris

    www.hermes-science.comwww.lavoisier.fr

    ISBN 2-7462-1201-3

    Tous les noms de socits ou de produits cits dans cet ouvrage sont utiliss des finsdidentification et sont des marques de leurs dtenteurs respectifs.

    Le Code de la proprit intellectuelle n'autorisant, aux termes de l'article L. 122-5, d'unepart, que les "copies ou reproductions strictement rserves l'usage priv du copiste et nondestines une utilisation collective" et, d'autre part, que les analyses et les courtes citationsdans un but d'exemple et d'illustration, "toute reprsentation ou reproduction intgrale, oupartielle, faite sans le consentement de l'auteur ou de ses ayants droit ou ayants cause, estillicite" (article L. 122-4). Cette reprsentation ou reproduction, par quelque procd que cesoit, constituerait donc une contrefaon sanctionne par les articles L. 335-2 et suivants duCode de la proprit intellectuelle.

  • Processusstochastiques discretset filtrages optimaux

    Jean-Claude BerteinRoger Ceschi

  • A nos familles

  • TABLE DES MATIRES

    Avant-propos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

    Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

    Chapitre 1. Vecteurs alatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.1. Dfinitions et proprits gnrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 1.2. Les espaces L1(dP) et L2(dP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

    1.2.1. Dfinitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32 1.2.2. Proprits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

    1.3. Esprance mathmatique et applications. . . . . . . . . . . . . . . . . . . . . . . . 35 1.3.1. Dfinitions. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35 1.3.2. Fonctions caractristiques dun vecteur alatoire. . . . . . . . . . . . . . 45

    1.4. Variables et vecteurs alatoires du second ordre . . . . . . . . . . . . . . . . . . 50 1.5. Indpendance linaire des vecteurs de L2(dP) . . . . . . . . . . . . . . . . . . . . 57 1.6. Esprance conditionnelle (cas des vecteurs densit) . . . . . . . . . . . . . . 61 1.7. Exercices du chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

    Chapitre 2. Vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71 2.1. Quelques rappels sur les variables alatoires gaussiennes . . . . . . . . . . . 71 2.2. Dfinition et caractrisation des vecteurs gaussiens. . . . . . . . . . . . . . . . 73 2.3. Rsultats relatifs lindpendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 2.4. Transformation affine dun vecteur gaussien . . . . . . . . . . . . . . . . . . . . 79 2.5. Existence des vecteurs gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 2.6. Exercices du chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

  • 8 Processus stochastiques et filtrages optimaux

    Chapitre 3. Gnralits sur les processus temps discret . . . . . . . . . . . . . . . 99 3.1. Dfinition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 3.2. Processus stationnaires du deuxime ordre et mesure spectrale. . . . . . . 111

    3.2.1. Densit spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111 3.3. Reprsentation spectrale dun processus stationnaire du deuxime ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114

    3.3.1. Problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115 3.3.2. Rsultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116

    3.3.2.1. Processus accroissements orthogonaux et mesure associe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 3.3.2.2. Intgrale stochastique de Wiener . . . . . . . . . . . . . . . . . . . . 117 3.3.2.3. Reprsentation spectrale . . . . . . . . . . . . . . . . . . . . . . . . . . 118

    3.4. Gnralits sur le filtrage numrique . . . . . . . . . . . . . . . . . . . . . . . . . 119 3.5. Exemple important : processus autorgressif . . . . . . . . . . . . . . . . . . . 131 3.6. Exercices du chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

    Chapitre 4. Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143 4.2. Estimation linaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146 4.3. Meilleure estimation Esprance conditionnelle. . . . . . . . . . . . . . . . . 156 4.4. Exemple : prdiction dun processus autorgressif AR (1) . . . . . . . . . . 164 4.5. Processus multivaris . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 4.6. Exercices du chapitre 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174

    Chapitre 5. Le filtre de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179

    5.1.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179 5.2. Rsolution et calcul du filtre Finite Impulse Response (FIR) . . . . . . . . 181 5.3. Evaluation de lerreur minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182 5.4. Rsolution et calcul du filtre Infinite Impulse Response (IIR) . . . . . . . . 184 5.5. Evaluation de lerreur minimale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 5.6. Exercices du chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

    Chapitre 6. Filtrage adaptatif : algorithme du gradient et du LMS . . . . . . 193 6.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193 6.2. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195 6.3. Reprsentation des donnes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 6.4. Minimisation de la fonction cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

    6.4.1. Calcul du cot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200 6.5. Algorithme du gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202

  • Table des matires 9

    6.6. Estimation du gradient et algorithme LMS . . . . . . . . . . . . . . . . . . . . . 205 6.7. Interprtation gomtrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207 6.8. Stabilit et convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

    6.8.1. Convergence de lalgorithme du LMS . . . . . . . . . . . . . . . . . . . . 215 6.9. Exemple dapplication de lalgorithme LMS . . . . . . . . . . . . . . . . . . . 215 6.10. Exercice du chapitre 6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223

    Chapitre 7. Le filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.1. Position du problme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 7.2. Approche de lestimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

    7.2.1. Cas scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228 7.2.2. Cas multivari . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

    7.3. Filtrage de Kalman. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 7.3.1. Equation dtat. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 232 7.3.2. Equation dobservations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233 7.3.3. Processus dinnovation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 7.3.4. Matrice de covariance du processus dinnovation . . . . . . . . . . . . 235 7.3.5. Estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236 7.3.6. Equation de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244 7.3.7. Algorithme et rsum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246 7.3.8. Equations du filtre de Kalman dans le cas non linaire. . . . . . . . . 247

    7.4. Exercices du chapitre 7 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248

    Annexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255

    Table des symboles et notations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

    Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269

    Index . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271

  • AVANT-PROPOS

    Le filtrage optimal discret appliqu aux signaux stationnaires et non stationnaires permet de traiter de la manire la plus efficace possible, au sens du critre choisi, tous les problmes que lon peut rencontrer dans les situations dextraction de signaux bruits.

    Il constitue la brique lmentaire ncessaire dans les domaines les plus divers : calcul des orbites ou de guidages daronefs dans le domaine arospatial ou aronautique, calcul de filtres dans le domaine des tlcommunications ou dans le domaine de la commande des systmes ou encore dans celui des traitements de signaux sismiques, la liste est non exhaustive.

    De plus, ltude et les rsultats obtenus sur des signaux discrets permet une implmentation trs facile sur calculateur.

    Dans leur ouvrage, les auteurs ont eu le souci permanent de la pdagogie et ils lont souvent prfre lrudition ; tous les prliminaires mathmatiques et probabilistes utiles la bonne comprhension du filtrage optimal ont t traits de faon rigoureuse. Il ne sera pas toujours ncessaire davoir recours dautres ouvrages pour acqurir une bonne connaissance des sujets tudis.

    Grce cet ouvrage, le lecteur pourra non seulement comprendre le filtrage optimal discret mais pourra de plus approfondir aisment les diffrents aspects de ce large domaine.

  • INTRODUCTION

    Cet ouvrage a pour but de prsenter les bases du filtrage optimal discret dune manire progressive et rigoureuse.

    Le caractre optimal sentend au sens o nous choisissons toujours le critre qui minimise la norme L2 de lerreur.

    Le premier chapitre aborde les vecteurs alatoires, ses principales dfinitions et proprits.

    Le second chapitre traite des vecteurs gaussiens. Etant donn limportance pratique de cette notion, les dfinitions et rsultats sont accompagns de nombreux commentaires et schmas explicatifs.

    Le troisime chapitre, Gnralits sur les processus temps discrets , est de nature plus physique que les prcdents et peut tre considr comme une introduction au filtrage numrique. Les rsultats essentiels pour la suite seront donns.

    Le chapitre 4, Estimation , nous apporte les briques essentielles la construction des filtres optimaux. Les rsultats obtenus sur les projections dans les espaces de Hilbert constituent la clef de vote des dmonstrations venir.

    Le chapitre 5 traite du filtre de Wiener, dispositif lectronique bien adapt au traitement des signaux stationnaires du second ordre. Des calculs pratiques de tels filtres, rponse impulsionnelle finie ou infinie, seront dvelopps.

    Le filtrage adaptatif, qui est le sujet trait au chapitre 6, peut tre considr comme une application assez directe de la mthode du gradient dterministe ou stochastique. Au bout du processus dadaptation ou de convergence, nous retrouvons le filtre de Wiener.

  • 14 Processus stochastiques et filtrages optimaux

    Louvrage sachve avec ltude du filtrage de Kalman qui permet le traitement des signaux stationnaires ou non stationnaires ; on peut dire que de ce point de vue, il gnralise le filtre optimal de Wiener.

    Chaque chapitre est ponctu par une srie dexercices corrigs et des exemples rsolus sont galement fournis en utilisant le logiciel Matlab bien adapt aux problmes de traitement de signaux.

  • CHAPITRE 1

    Vecteurs alatoires

    1.1. Dfinitions et proprits gnrales

    On rappelle que ( ){ }1,..., ; 1 a n n jx x x x j n= = =! ! , lensemble des

    n-uples rels peut tre muni de deux lois : ( )

    , et ,

    n n n n n

    x y x y x x

    +

    ! ! ! ! ! !

    qui en font un espace vectoriel de dimension n.

    La base implicitement considre sur n! sera la base canonique ( ) ( )1 1,0,...,0 ,..., 0,...,0,1 et nne e x= = ! exprim dans cette base sera not :

    1

    x

    xn

    x =

    " (ou ( )1,...,T nx x x= ).

    Dfinition dun vecteur alatoire rel

    On dit que le vecteur rel 1

    n

    XX

    X

    =

    " li un phnomne physique, biologique, etc.,

    est alatoire si la valeur prise par ce vecteur est inconnue, tant que le phnomne ne sest pas ralis.

  • 16 Processus stochastiques et filtrages optimaux

    Pour des raisons typographiques, le vecteur sera plutt crit ( )1,...,T nX X X= ou mme ( )1,..., nX X X= quand aucune confusion ne sera craindre.

    Autrement dit, tant donn un vecteur alatoire X et n ! on ne sait pas si lassertion (appel vnement) ( )X est vraie ou fausse

    n!

    .X

    Par contre, on connat en gnral la chance pour que X ; celle-ci est note ( )X B et est appele probabilit de lvnement ( )X .

    Aprs la ralisation du phnomne, le rsultat (appel aussi ralisation) sera not

    ( )1

    1ou ,...,x

    x

    Tn

    n

    x x x x = =

    " ou mme ( )1,..., nx x x=

    quand aucune confusion ne sera craindre.

    Voici maintenant la dfinition rigoureuse dun vecteur alatoire rel de dimension n . On se donne :

    = espace fondamental. Cest lensemble de tous les rsultats possibles (ou preuves) lis un phnomne alatoire ;

    a = une tribu (dvnements) sur . On en rappelle les axiomes :

  • Vecteurs alatoires 17

    1) a , 2) si a alors le complmentaire cA a , 3) si ( ),j j J est une famille dnombrable dvnements j

    j JA

    est un

    vnement, cest--dire jj J

    A a

    ;

    n =! espace des observables ;

    ( )n =!B tribu borlienne sur n! ; cest la plus petite tribu sur n! qui contient tous les ouverts de n! .

    DFINITION. On dit que X est un vecteur alatoire rel de dimension n dfini sur

    ( ),a si X est une application ( ) ( )( ), ,n na ! !B mesurable, cest--dire : ( ) ( )1 .n a !B

    Quand 1n = , on parlera de variable alatoire ou plus rapidement de v.a.

    Dans la suite lvnement ( )1 est not galement ( ){ }X B et mme plus simplement ( )X B .

    PROPOSITION. Pour que X soit un vecteur alatoire rel de dimension n (cest--

    dire une application ( ) ( )( ), ,n na ! !B mesurable), il faut et il suffit que chaque composante 1 j j n = soit une v.a. relle (cest--dire soit une

    application ( ) ( )( ), ,a R RB mesurable).

    DMONSTRATION ABRGE. Il suffit de considrer :

    ( ) ( )1 o1 1... ,...,n n RB

    car on montre que ( ) ( ) ( )...n = ! R RB B B est gale la tribu engendre par les pavs mesurables 1 ... n .

  • 18 Processus stochastiques et filtrages optimaux

    Or ( ) ( ) ( )1 1 11 1 1... ...n n nX X X = ,

    qui appartient a si et seulement si chaque terme appartient a , cest--dire si chaque jX est une v.a. relle.

    DFINITION. On dit que 1 2X X iX= + est une variable alatoire complexe dfinie sur ( ),a si les parties relles et imaginaires et1 2 X X sont des variables relles, cest--dire si les variables alatoires et1 2 X X sont des applications

    ( ) ( )( ), , Ba ! ! mesurables.

    PAR EXEMPLE. A un vecteur alatoire rel ( )1,..., nX X X= et un n-uple rel ( )1,..., nnu u u= ! , on peut associer la v.a. complexe :

    jcos sin

    j jj

    i u X

    j j j jj

    e u X i u X

    = +

    Ltude de cette variable alatoire sera reprise quand nous dfinirons les fonctions caractristiques.

    Loi

    Loi X du vecteur alatoire X .

    On suppose dabord que la tribu a est munie dune mesure P , cest--dire dune application P : [ ]0,1a vrifiant :

    1) ( ) 1P =

    2) Pour toute famille ( ),jA j J dvnements 2 2 disjoints :

    ( )j jj J j J

    P A P A

    =

  • Vecteurs alatoires 19

    DFINITION. On appelle loi du vecteur alatoire X, la mesure image XP de P

    par lapplication X , cest--dire la mesure dfinie sur ( )n!B de la faon suivante : ( )n !B

    ( ) ( ) ( )( )

    ( )( ) ( )

    11

    Dfinition

    ,...,

    X X nP dP x x P X B

    P X P X

    = =

    = =

    Les termes 1 et 2 dune part et les termes 3, 4 et 5 dautre part sont des notations diffrentes de la mme notion mathmatique.

    ( )nB !B( )1X B a

    n!X

    Figure 1.1. Application mesurable X

    Il faut bien noter que la mesure P tant donne sur a , ( )XP est calculable pour tout ( )n !B parce que X est mesurable.

    Lespace n! muni de la tribu ( )n!B et ensuite de la loi XP est not :

    ( )( ), ,n n XP! !B

  • 20 Processus stochastiques et filtrages optimaux

    REMARQUE. Sur la dfinition nave et sur la dfinition rigoureuse : la dfinition nave des vecteurs alatoires est videmment beaucoup plus simple et plus intuitive et lon peut sen contenter dans les applications lmentaires du calcul des probabilits.

    Par contre dans les tudes plus thoriques ou plus sophistiques et notamment dans celles faisant intervenir plusieurs vecteurs alatoires, , , , ...X Y Z , considrer ces derniers comme des applications dfinies sur le mme espace ( ),a ,

    ( ) ( )( )( )soit X,Y,Z, ... : , ,n na ! !B se rvlera souvent utile voire mme indispensable.

    ( )X

    n!

    ( )Y

    ( )Z

    Figure 1.2. Famille dapplications mesurables

    En effet, via lespace ( ), ,Pa , les expressions et calculs faisant intervenir plusieurs (ou lensemble) de ces vecteurs scrivent sans ambigut. Prcisment, les vnements lis , , , ...X Y Z sont des lments A de a (et les probabilits de ces vnements sont mesurs par P ).

    Donnons deux exemples :

    1) soit deux vecteurs alatoires ( ) ( )( ), : , , ,n nX Y Pa ! !B et soit ( )et nB B !B . Lvnement ( ) ( )X B Y B (par exemple) se traduit

    par ( ) ( )1 1X B Y B a ; 2) soit 3 v.a. ( ) ( )( ), , : , , ,X Y Z Pa ! !B et soit *a +! .

  • Vecteurs alatoires 21

    Cherchons exprimer lvnement ( )Z a X Y .

    Posons ( ) ( ){ }3et, , , , x + y + zU X Y Z B x y z a= = !

    B Borlien de 3! , reprsente le demi espace dlimit par le plan ( ) ne contenant pas lorigine 0 et sappuyant sur le triangle A B C .

    0

    ( )A a

    ( )B a

    ( )C a

    Figure 1.3. Exemple de Borlien de 3!

    U est ( ) ( )( )3 3, ,a ! !B mesurable et : U ( ) ( ) ( )1Z a X Y U B U B a = = .

    REMARQUE SUR LESPACE ( ), , Pa . On a dit que lon se donnait et puis a sur et puis P sur a et quensuite, on considrait les vecteurs , , ,...X Y Z comme des applications mesurables :

    ( ) ( )( ), , ,n nPa ! !B Cette faon dintroduire les diffrents concepts est la plus simple apprhender,

    mais elle correspond rarement aux problmes probabilistes rels.

  • 22 Processus stochastiques et filtrages optimaux

    En gnral ( ), , Pa nest pas prcis ou bien donn antrieurement , , , ...X Y Z applications mesurables . Au contraire, tant donnes des grandeurs alatoires physiques, biologiques , , , ...X Y Z de n! , cest en partant de ces dernires que lon introduit simultanment ( ), , Pa et , , , ...X Y Z applications mesurables dfinies sur ( ), , Pa . ( ), , Pa est un espace artificiel destin servir de lien entre , , , ...X Y Z

    Ce qui vient dtre expos peut sembler bien abstrait mais heureusement les vecteurs alatoires gnraux comme ils viennent dtre dfinis sont rarement utiliss dans la pratique.

    En tout cas et en ce qui nous concerne, nous naurons dans la suite manipuler que la notion beaucoup plus particulire et plus concrte de vecteur alatoire densit .

    DFINITION. On dit que la loi XP du vecteur alatoire X est densit si il existe

    une application ( )( ) ( )( ): , ,n nXf ! ! ! !B B mesurable positive appele densit de XP telle que : ( )nB !B .

    ( ) ( ) ( ) ( )1 1 1,..., ,..., ,...,X X n X n nB BP X B P B dP x x f x x dx dx = = =

    VOCABULAIRE. On crit parfois ( ) ( )1 1 1,..., ,..., ,...,X n X n ndP x x f x x dx dx= et on dit aussi que la mesure XP admet la densit Xf par rapport la mesure de Lebesgue sur n! . On dit aussi que le vecteur alatoire X admet la densit Xf .

    REMARQUE. ( ) ( )1 1,... ,... 1nX n nB f x x dx dx P X= = ! .

    Soit par exemple le vecteur alatoire ( )1 2 3, ,X X X X= de densit ( ) ( )1 2 3 3 1 2 3, , 1 , ,Xf x x x K x x x x= o est la demi-sphre dfinie par

    2 2 2 21 2 3x x x R+ + avec 3 0x .

  • Vecteurs alatoires 23

    On obtient facilement par un passage en coordonnes sphriques :

    4

    3 1 2 31 4RKx dx dx dx K

    = = do 4

    4KR

    = .

    Marginales

    Soit le vecteur alatoire 1

    n

    XX

    X

    =

    " de loi XP et de densit de probabilit

    Xf .

    DFINITION. La v.a. , imejX j composante de X , sappelle imej marginale de

    X et la loi jXP de jX sappelle loi de la

    imej marginale.

    Si on connat XP , on sait trouver les lois jXP .

    En effet ( )B !B .

    ( ) ( ) ( ) ( )1 ... ...j j nP X B P X X B X = = ! !

    ( ) 1 1 2... ...

    ,..., ,..., ... ...X j n nB

    f x x x dx dx dx

    ! !

    par le thorme de Fubini :

    ( )1 1 1sauf

    ,..., ,..., ...nj X j n nBj

    dx f x x x dx dxdx

    = ! $%&%'

    Lgalit ayant lieu pour tout B , on obtient :

    ( ) ( )1 1 1sauf

    ,..., ,..., ...njX j X j n nj

    f x f x x x dx dxdx

    = ! $%&%' .

  • 24 Processus stochastiques et filtrages optimaux

    ATTENTION. Rciproquement, sauf dans le cas des composantes indpendantes, la connaissance des X jP / celle de XP .

    EXEMPLE. Considrons :

    1) Un couple gaussien ( ),TZ X Y= de densit de probabilit :

    ( )2 21, exp

    2 2Zx yf x y

    +=

    .

    On obtient les densits des marginales :

    ( ) ( )21, exp

    22X zxf x f x y dy

    +

    = =

    et

    ( ) ( )21, exp

    22Y zyf y f x y dx

    +

    = =

    .

    2) Un deuxime couple alatoire (non gaussien) ( ),TW U V= dont la densit de probabilit Wf est dfinie par :

    ( ) ( ) ( ), 2 , si 0 , 0 si 0W Z Wf u v f u v uv f u v uv= = < .

    Calculons les marginales

    ( ) ( ) ( )

    ( )

    , 2 , si 0

    2 , si 0

    U W Z

    Z

    f u f u v dv f u v dv u

    f u v dv u

    + +

    +

    = =

    = >

    Do facilement ( )21 exp

    22Uuf u

    =

    .

  • Vecteurs alatoires 25

    Et symtriquement ( )21 exp 22V

    vf v

    =

    .

    CONCLUSION. On voit bien sur cet exemple que les densits marginales (elles sont identiques en 1 et 2) ne dterminent pas les densits des vecteurs (elles sont diffrentes en 1 et 2).

    Fonction de rpartition

    DFINITION. On appelle fonction de rpartition du vecteur alatoire

    ( )1,...,T nX X X= lapplication :

    ( ) ( )[ ]

    1 1

    0,1

    : ,..., ,...,n

    X n X nF x x F x x

    !

    dfinie par :

    ( ) ( )( ) ( )1 1 1,..., ...X n n nF x x P X x X x=

    et sous forme intgrale puisque X est un vecteur densit :

    ( ) ( )11 1 1,..., ,.., ..x xn

    X n X n nF x x f u u du du = ( .

    Quelques proprits usuelles :

    1 j n = lapplication ( )1,...,j X nx F x x est non dcroissante ; ( )1,...,X nF x x quand toutes les variables jx ; ( )1,..., 0X nF x x si lune au moins des variables jx ;

    si ( ) ( )1 1,..., ,...,n X nx x f x x est continue, alors 1...

    nX

    Xn

    F fx x

    =

    .

    EXERCICE. Dterminer la fonction de rpartition du couple ( ),X Y de densit ( ),f x y K xy= sur le rectangle [ ] [ ]1,3 2, 4 = et prciser la valeur de .K

  • 26 Processus stochastiques et filtrages optimaux

    Indpendance

    DFINITION. On dit quune famille de v.a. : 1 , ..., nX X est une famille indpendante

    si { }1,2,...,J n et pour toute famille de ( )jB !B :

    ( ) ( )j j j jj J j J

    P X B P X B

    =

    Comme ( )! !B , il est ais de vrifier en galant certains borliens ! , que la dfinition de lindpendance est quivalente la suivante :

    ( ) ( ) ( )11

    :n n

    j j jjj

    B P X B P X B==

    =

    ! j jB

    encore quivalente :

    ( ) ( ) ( )11

    ...n

    j n jj

    B P X B B P X B=

    = ! jB

    Cest--dire en introduisant les lois de probabilits :

    ( ) ( ) ( )11

    ...j

    n

    j X n Xj

    B P B B P B=

    =! jB .

    REMARQUE. Cette dernire galit est la dfinition de la loi de probabilit XP

    (dfinie sur ( ) ( ) ( )...n = ! ! !B B B ) est le produit (tensoriel) des lois de probabilits

    jXP (dfinies sur ( )!B ).

    Ce quon crit symboliquement 1

    ...X X XnP P P= .

    ATTENTION. Soit 1,..., nX X une famille de v.a. Si cette famille est indpendante, les v.a. sont indpendantes 2 2, mais la rciproque est fausse.

  • Vecteurs alatoires 27

    PROPOSITION. Soit ( )1,..., nX X X= un vecteur alatoire rel admettant la densit de probabilit Xf et les composantes 1 , ..., nX X admettant les densits

    1,...,X Xnf f .

    Pour que la famille des composantes soit une famille indpendante, il faut et il suffit que :

    ( ) ( )11

    ,...,j

    n

    X n X jj

    f x x f x=

    = .

    DMONSTRATION. Dans le cas simplifi o Xf est continue :

    si ( )1,..., nX X est une famille indpendante :

    ( ) ( ) ( ) ( )11 11

    ,...,n n n

    X n j j j j X jjj jj

    F x x P X x P X x F x= ==

    = = =

    en drivant les deux membres extrmes :

    ( ) ( )( ) ( )11

    1 1 1

    ,...,,...,

    ... j

    n nn X jjX nX n X j

    n jj j

    F xF x xf x x f x

    x x x= =

    = = =

    ;

    rciproquement si ( ) ( ) :11

    ,...,j

    n

    X n X jj

    f x x f x=

    =

    soit ( )jB !B pour 1 j n= :

    ( ) ( )

    ( ) ( ) ( )

    1 11 1 1

    1 1 11

    ,..., ...nn

    nj j j X n nBj jJ jn n n

    n X j j X j j j jjjB B jj j j jj

    P X B P X B f x x dx dx

    f x dx f x dx P X B

    = = =

    = = ==

    = =

    = = =

  • 28 Processus stochastiques et filtrages optimaux

    REMARQUE. Lgalit ( ) ( )1

    1,...,n

    X jj

    X n jff x x x=

    = est la dfinition de la fonction

    de n variables Xf est le produit tensoriel des fonctions dune variable X jf . On crit

    symboliquement 1

    ...nX X Xf f f= . (A ne pas confondre avec le produit

    ordinaire : 1 2 nf f f f= i(i dfini par : ( ) ( ) ( ) ( )1 2 nf x f x f x f x= i(i ).

    EXEMPLE. Soit le couple alatoire ( )1 2,X X X= de densit :

    2 21 21 exp

    2 2x x

    +

    .

    Comme 2 2 221 2 21 1 1exp exp

    2 2 2 22 2x x xx

    + =

    et comme 211 exp22x

    et 221 exp22x

    sont les densits de 1X et de 2X ,

    ces deux composantes 1X et 2X sont indpendantes.

    DFINITION. On dit que deux vecteurs alatoires :

    ( ) ( )1 1et,..., Y= ,...,n pX X X Y Y= sont indpendants si :

    ( ) ( )( ) ( )( ) ( ) ( )

    et '

    P X B ' '

    n pB B

    Y B P X B P Y B

    =

    ! !B B

    Somme de variables alatoires indpendantes

    REMARQUE. On est souvent amen calculer la probabilit P pour quune fonction de n v.a. donnes 1 ,..., nX X vrifie une certaine ingalit. Notons rapidement P (Ingalit) cette probabilit. Supposons que le vecteur alatoire

  • Vecteurs alatoires 29

    ( )1,..., nX X X= possde une densit de probabilit ( )1,...,X nf x x . La mthode pour obtenir P (Ingalit) consiste dterminer ( )B !nB vrifiant ( )1,..., nX X B .

    On a alors : ( )1 1(Ingalit) ,..., ...X n nBP f x x dx dx= .

    EXEMPLES.

    1) ( ) ( )( ) ( )1 2 1 2 1 2 1 2, ,XBP X X z P X X B f x x dx dx+ = = o ( ){ }2,B x y x y z= + !

    z

    z

    x

    0

    y

    2) ( ) ( )( )( )

    1 2 3 1 2 3

    1 2 3 1 2 3

    , ,

    , ,XB

    P X X a X P X X X B

    f x x x dx dx dx

    + =

    =

    x

    C

    A

    By

    0

    z

  • 30 Processus stochastiques et filtrages optimaux

    B est le 12

    espace contenant lorigine 0 et limit par le plan sappuyant sur le

    triangle A B C et dquation x y z a+ + = .

    3) ( )( ) ( )( )( )

    1 2 1 2

    1 2 1 2

    Max ,

    ,XB

    P X X z P X X B

    f x x dx dx

    + =

    =

    o B est le domaine non hachur ci-contre.

    z

    zx

    0

    y

    En partant de lexemple 1) nous allons montrer la :

    PROPOSITION. Soit X et Y deux v.a. relles indpendantes de densits de probabilits respectives Xf et Yf .

    La v.a. Z X Y= + admet une densit de probabilit Zf dfinie par :

    ( ) ( )( ) ( ) ( )Z X Y X Yf z f f z f x f z x dx+

    = = .

    DMONSTRATION. Partons de la fonction de rpartition de Z.

    ( ) ( ) ( ) ( )( )

    ( ) ( ) ( )(o est dfini dans l'exemple 1) ci-avant)

    (Indpendance)

    ,

    ,

    Z

    X YB B

    B

    F z P Z z P X Y z P X Y B

    f x y dx dy f x f y dx dy

    = = + =

    = =

  • Vecteurs alatoires 31

    z x

    z

    zx

    y

    x0

    x y z+ =

    ( ) ( )z x

    X Yf x dx f y dy+

    = .

    En posant y u x= :

    ( ) ( ) ( ) ( )z z

    X Y X Yf x dx f u x du du f x f u x dx+ +

    = = .

    Lapplication ( ) ( )X Yu f x f u x dx+

    tant continue, ( )ZF z en est

    une primitive et :

    ( ) ( ) ( ) ( )Z Z X YF z f z f x f z x dx+

    = = .

    REMARQUE. Si (par exemple) Xf et Yf sont support sur +! , cest--dire si

    ( ) ( ) [ [ ( )0,1X Xf x f x x= et ( ) ( ) [ [( )0,1Y Yf y f y y=

    on a facilement :

    ( ) ( ) ( )0

    zZ X Yf z f x f z x dx= .

    EXEMPLE. X et Y sont deux v.a. exponentielles de paramtre et indpendantes.

  • 32 Processus stochastiques et filtrages optimaux

    Posons Z X Y= + :

    Pour ( )0 0Zz f z = .

    Pour 0z

    ( ) ( ) ( ) ( ) 20

    z z x z

    Z X Yf z f x f z x dx e dx ze

    +

    = = =

    et ( ) [ [ ( )2

    0,1z

    Zf z z e z = .

    1.2. Les espaces ( )1L dP et ( )2L dP 1.2.1. Dfinitions

    La famille des v.a. ( ): X X

    ( ) ( )( ), ,,Pa ! !B

    forme un espace vectoriel sur ! , not .

    Deux sous-espaces vectoriels de jouent un rle particulirement important ; nous les dfinissons.

    Les dfinitions seraient en fait laboutissement de la construction de lintgrale de Lebesgue des applications mesurables, mais cette construction ne sera pas donne ici et on pourra sans inconvnient sen passer dans la suite.

    DFINITION. On dit que deux variables alatoires et X X dfinies sur ( ), a sont gales presque srement et on crit X X = p.s. si 'X X= sauf ventuellement sur un vnement N (N lment de a) de probabilit nulle

    ( )( ) c'est--dire et 0N P Na = .

    On note :

    X =+ {classe (dquivalence) des v.a. X gales presque srement X } ; O =+ {classe (dquivalence) des v.a. gales presque srement 0 }.

  • Vecteurs alatoires 33

    Nous pouvons maintenant donner la :

    dfinition de ( )1L dP espace vectoriel de variables alatoires du premier ordre ;

    et celle de ( )2L dP espace vectoriel de variables alatoires du second ordre :

    ( ) ( ) ( ){ }( ) ( ) ( ){ }

    1

    2 2

    v. a.

    v. a.

    L dP X X dP

    L dP X X dP

    = <

    = <

    o, dans ces expressions, les v.a. sont bien dfinies un vnement de probabilit nulle prs, ou bien : les v.a. X sont des reprsentants quelconques des classes X+ , car, par construction les intgrales des v.a. ne sont pas modifies si on modifie ces dernires sur des vnements de probabilits nulles.

    Remarque sur lingalit ( ) ( )X dP

    < .

    Introduisant les deux variables alatoires positives :

    ( ) ( )Sup et Sup0 0, ,X X X X+ = =

    On peut crire et X X X X X X+ + = = + .

    Soit ( )1X L dP , on a donc :

    ( ) ( ) ( ) ( )

    ( ) ( )

    et

    .

    X dP X dP

    X dP

    +

    < <

    <

    Donc, si ( )1X L dP , lintgrale :

    ( ) ( ) ( ) ( ) ( )X dP X dP X dP +

    =

  • 34 Processus stochastiques et filtrages optimaux

    est dfinie sans ambigut.

    REMARQUE. ( ) ( )2 1L dP L dP

    En effet, soit ( )2X L dP , daprs lingalit de Schwarz :

    ( ) ( )( ) ( ) ( )2 21

    X dP X dP dP

    < $%&%'

    EXEMPLE. Soit X une v.a. gaussienne (densit 21 1

    exp22

    x m

    ).

    Elle appartient ( )1L dP et ( )2L dP .

    soit Y une v.a. de Cauchy : (densit ( )2

    1

    1 x +).

    Elle nappartient pas ( )1L dP et elle nappartient donc pas ( )2L dP non plus.

    1.2.2. Proprits

    1) ( )1L dP est un espace de Banach ; nous nutiliserons pas cette proprit dans la suite ;

    2) ( )2L dP est un espace de Hilbert. On donne ici les proprits sans dmonstration.

    *On peut munir ( )2L dP du produit scalaire dfini par :

    ( ) ( ) ( ) ( )2, < X,Y > =X Y L dP X Y dP

    .

  • Vecteurs alatoires 35

    Cette expression est bien dfinie car daprs lingalit de Schwarz :

    ( ) ( ) ( ) ( ) ( ) ( ) ( )2

    2 2 X Y dP X dP Y dP

    <

    et les axiomes du produit scalaire sont immdiats vrifier.

    * ( )2L dP est un espace vectoriel norm par :

    ( ) ( )2,X X X X dP

    = < > = .

    Il est facile de vrifier que :

    ( )2,X Y L dP X Y X Y + + ( )2 et X L dP X X =!

    En ce qui concerne le dernier axiome :

    si ;0 0 X X= =

    si ( ) ( )( ) ( )2 p.s. ou0 0 0X X dP X X = = = = ++ * ( )2L dP est un espace complet pour la norme . dfinie ci-avant. (Toute

    suite de Cauchy nX converge vers une X de ( )2L dP ).

    1.3. Esprance mathmatique et applications

    1.3.1. Dfinitions

    On considre un vecteur alatoire gnral (non ncessairement densit) :

    ( ) ( ) ( )( ),, ..., : , ,1 n nX X X Pn a= ! !B .

  • 36 Processus stochastiques et filtrages optimaux

    On se donne par ailleurs une application mesurable :

    ( )( ) ( )( ): , ,n ! ! ! !nB B X , (note aussi ( ) ( )1ou ,..., nX X X ) est une application mesurable

    (donc une v. a.) dfinie sur ( ), a .

    DFINITION. Sous lhypothse ( )1X L dP , , on appelle esprance mathmatique de la valeur alatoire X , lexpression ( )X , dfinie par :

    ( ) ( )( ) ( )E X X dP

    = , ,

    ou, pour rappeler que X est un vecteur :

    ( )( ) ( ) ( )( ) ( )1 2 1,..., ,..., nE X X X X dP = .

    REMARQUE. Cette dfinition de lesprance mathmatique de X , est bien adapte aux problmes gnraux ou orientation thorique ; en particulier, cest en utilisant celle-ci que lon construit ( )2L dP lespace de Hilbert des v.a. du deuxime ordre.

    En pratique cependant, cest la loi XP (image de la mesure P par lapplication X ) et non P que lon connat. On veut donc utiliser la loi XP pour exprimer

  • Vecteurs alatoires 37

    ( )E X , , on dit que lon transfert le calcul de ( )E X , de lespace

    ( ), ,Pa lespace ( )( ), ,n n XP! !B . Pour simplifier lcriture dans le thorme qui suit (et comme souvent dans la

    suite) ( ) ( )1 1 1et,..., , ,..., ...n n nX X x x dx dx seront souvent nots respectivement et ., X x dx

    Thorme de transfert

    Supposons ( )1X L dP , , on a alors :

    1) ( ) ( )( ) ( ) ( ) ( )XnE X X dP x dP x = = !, , En particulier si XP admet une densit Xf :

    ( ) ( ) ( )XnE X x f x dx = !, et ( )XE X x f x dx= ! ;

    2) ( )1 XL dP

    DMONSTRATION.

    lgalit du 2) est vraie si 1B = avec ( )B !nB car ( ) ( ) ( )

    ( ) ( ) ( ) ( ) 1

    1B X

    B X Xn n

    E X E X P B

    x dP x x dP x

    = =

    = = ! !

    , ,

    lgalit est encore vraie si est une fonction tage cest--dire si

    11

    m

    j B jj

    =

    = o les ( )njB !B et sont disjoints 2 2.

    On a en effet :

  • 38 Processus stochastiques et filtrages optimaux

    ( ) ( ) ( )

    ( ) ( ) ( ) ( )

    ( ) ( )

    1 1

    1 1

    1

    1 1

    j

    m m

    j B j X jj j

    m m

    n nj B X j B Xj jj j

    n X

    X X P B

    x dP x x dP x

    x dP x

    = =

    = =

    = =

    = =

    =

    ! !

    !

    , ,

    Supposons maintenant que soit une fonction mesurable positive, on sait quelle est limite dune suite croissante de fonctions tages positives P .

    On a donc ( )( ) ( ) ( )

    avec

    P p Xn

    P

    X x dP x

    =

    !,-

    p X , est galement une suite croissante positive qui converge vers X , et en prenant les limites des deux membres quand p , on obtient daprs le thorme de la convergence monotone :

    ( )( ) ( ) ( ) ( )XnX dP x dP x = !, .

    Si est une application mesurable quelconque on utilise encore la dcomposition et + + = = + .

    Il est par ailleurs clair que ( ) ( ) et X X X X+ + = = , , , , .

    Il vient :

    ( ) ( ) ( ) ( )E X E X E X E X E X+ + = + = + , , , , , .

    Cest--dire daprs ce qui prcde :

    ( ) ( ) ( ) ( ) ( ) ( )nX X Xn nx dP x x dP x x dP x+ = + = ! ! ! .

  • Vecteurs alatoires 39

    Comme ( )1 ,X L dP , on en dduit que ( )1 XL dP (rciproquement si ( )1 XL dP alors ( )1X L dP , ).

    En particulier ( ) ( )et E X E X+ , , sont finis, et

    ( ) ( ) ( )( ) ( ) ( ) ( )

    ( ) ( )

    X Xn n

    Xn

    E X E X E X

    x dP x x dP x

    x dP x

    +

    +

    =

    =

    =

    ! !

    !

    , , ,

    REMARQUE. (qui prolonge la remarque prcdente) : Dans certains ouvrages la notion de vecteur alatoire comme application mesurable , juge trop abstraite nest pas dveloppe.

    Dans ce cas lintgrale ( ) ( ) ( ) ( )X Xnx dP x x f x dx = ! (si XP admet la densit Xf ) est donne comme dfinition de ( )E X , .

    EXEMPLES.

    1) Soit le vecteur alatoire gaussien ( )1 2,TX X X= de densit :

    ( ) ( )2 21 2 1 1 2 222 exp1 1 1, 2

    2 1-2 1Xf x x x x x x

    = +

    o ] [1,1 et soit lapplication ( ) 31 2 1 2: ,x x x x .

    La condition :

    ( ) ( )3 2 2

    1 2 1 1 2 2 1 222exp

    1 1 22 12 1

    x x x x x x dx dx

    + <

    !

  • 40 Processus stochastiques et filtrages optimaux

    est facilement vrifie et :

    ( ) ( )23 3 2 2

    1 2 1 2 1 1 2 2 1 222exp

    1 1 22 12 1

    EX X x x x x x x dx dx

    = +

    !

    2) Soit une variable alatoire de Cauchy de densit ( ) 21 1

    1Xf x

    x=

    +

    ( )12 donc1 1 et

    1x dx X L dP EX

    x= +

    +! nest pas dfinie.

    Considrons ensuite la transformation qui consiste redresser et crter la v.a. X .

    0 KK

    x

    K

    Figure 1.4. Opration de redressement et dcrtage

    ( ) ( ) 2 2 21

    1 1 1K K

    X K K

    K Kx dP x x dx dx dxx x x

    = + +

    + + + !

    ( )21 2 2ln K K K = + + <

    Donc ( )1X L dP , et :

  • Vecteurs alatoires 41

    ( ) ( ) ( ) ( )21 2 2XE X x dP x ln K K K+

    = = + + , .

    DFINITION. Etant donnes np v.a. ( ) ( )11 , 1 de jKX j p k n L dP= = ,

    on dfinit lesprance de la matrice 11 1

    1

    n

    jk

    p pn

    X XX

    X X

    =

    " "

    ( par :

    11 1

    1

    n

    jk

    p pn

    EX EXE X

    EX EX

    =

    " "

    (.

    En particulier : tant donn un vecteur alatoire :

    ( )( )1

    1ou ,...,T

    n

    n

    XX X X X

    X

    = =

    " vrifiant ( )1 1 jX L dP j n =

    On pose [ ] ( )( )1

    1

    2

    ou ,...,T n

    EXE X E X EX EX

    EX

    = =

    " .

    Esprance mathmatique dune v.a. complexe

    DFINITIONS. Etant donne une v.a. complexe 1 2X X i X= + , on dit que :

    ( ) ( )1 11 2si et XX L dP X L dP .

    Si ( )1X L dP on dfinit son esprance mathmatique par :

    ( ) 1 2E X EX i EX= + .

  • 42 Processus stochastiques et filtrages optimaux

    Transformation des vecteurs alatoires

    On considre un vecteur alatoire rel ( )1,..., nX X X= de densit de probabilit ( ) ( ) ( ) ( )1 11 ,..., 1 ,...,X D X n D nf x x f x x x x= o D est un ouvert de n! .

    On se donne par ailleurs lapplication :

    ( ) ( ) ( ) ( )( )1 1 1 1: ,..., ,..., ,..., ,...,n n n nx x x y x x x x xD

    = = =

    On suppose que est un 1C diffomorphisme de D sur un ouvert de n! , cest--dire que est bijective et que et 1 = sont de classe 1C .

    D

    X ( )Y X=

    Figure 1.5. Transformation dun vecteur alatoire X par un 1C diffomorphisme

    Le vecteur alatoire ( ) ( ) ( )( )1 1 1 1,..., ,..., ,..., ,...,n n n nY Y Y X X X X = = prend ses valeurs sur et on veut dterminer ( ) ( )1Yf y y sa densit de probabilit.

    PROPOSITION.

    ( ) ( ) ( )( ) ( ) ( )1 1Y Xf y y f y Dt J y y =

  • Vecteurs alatoires 43

    DMONSTRATION.

    Soit :

    ( )1L dy ( )( ) ( ) ( ) ( )1YnE y y f y y dy = ! .

    Par ailleurs :

    ( )( ) ( )( ) ( )( ) ( ) ( )1X DnE Y E X x f x x dx = = ! .

    Par application du thorme du changement de variables dans les intgrales multiples et en notant par ( )J y la matrice jacobienne de lapplication , il vient :

    ( ) ( )( ) ( )Dt n Xy f y J y dy= ! .

    Finalement, lgalit :

    ( ) ( ) ( )

    ( ) ( )( ) ( ) ( )Dt 1

    1

    Yn

    Xn

    y f y y dy

    y f y J y y dy

    =

    !

    !

    ayant lieu pour tout ( )1L dy , on en dduit par le lemme de Haar la formule cherche :

    ( ) ( ) ( )( ) ( ) ( )Dt 1 1Y Xf y y f y J y y = .

    EN PARTICULIER. Soit X est une v.a. et soit lapplication ( ): x x

    D ! !

    lgalit devient ( ) ( ) ( )( ) ( ) ( )1 1Y Xf y y f y y y = .

  • 44 Processus stochastiques et filtrages optimaux

    EXEMPLE. Soit le couple alatoire ( ),Z X Y= de densit de probabilit :

    ( ) ( ) ] [ ] [2 221 1 o 1, 1,, ,Z D

    x yf x y x y D = = !

    On se donne par ailleurs le 1C diffomorphisme :

    dfini par :

    ( )/ ( ) ( )( )

    ( )/ ( ) ( )( )

    1 2

    1 2

    : , , , ,

    : , , , ,

    D

    D

    x y u x y xy v x y x y

    u v x u v uv y u v u v

    = = = = = = = =

    $%%%%%%%%&%%%%%%%%'

    $%%%%%%%%&%%%%%%%%'

    ( ) ( )3

    2

    1 1et

    2 2, ,

    1 v

    v uu v

    J u v Dt J u vuuv v

    = =

    .

    Le vecteur ( ), XW U X Y V Y= = = admet donc la densit de probabilit :

  • Vecteurs alatoires 45

    ( ) ( ) ( ) ( )( ) ( ) ( )

    ( ) ( )( ) ( )

    1 2

    2 2 2

    , , , , , Dt , ,

    1 1 1 1, ,

    2 2

    1 1

    1 1

    W Zf u v u v f u v u v J u v u v

    u v u vv u vuuv

    v

    =

    = =

    REMARQUE. Rciproquement le vecteur ( ),W U V= de densit de probabilit ( ) ( ), 1 ,Wf u v u v et dont les composantes sont dpendantes est transform par

    en vecteur ( ),Z X Y= de densit de probabilit ( ) ( ), 1 ,Z Df x y x y et dont les composantes sont indpendantes.

    1.3.2. Fonctions caractristiques dun vecteur alatoire

    DFINITION. On appelle fonction caractristique du vecteur alatoire :

    ( )1...T nX X X= lapplication ( ) ( )1 2 1 2: ,..., ,...,X Xn

    u u u u 0!

    dfinie par :

    ( )

    ( )

    11

    1 11

    exp

    exp

    ,...,

    ,... ...

    n

    X n j jj

    n

    j j X n nnj

    u u E i u X

    i u x f x x dx dx

    =

    =

    =

    =

    !

    (On a crit la dfinition de ( )1,..., nE X X avec :

    ( )11

    exp,..., n

    n j jj

    X X i u X=

    =

    et on a appliqu le thorme sur lintgration par rapport la mesure image).

    X est donc la transforme de Fourier de ( )( )X X Xf F f = .

  • 46 Processus stochastiques et filtrages optimaux

    En analyse on crirait plutt :

    ( )( ) ( )1 1 11

    exp,..., ,..., ...n

    uX n j j X n nnj

    F f u u i u x f u dx dx=

    =

    ! .

    Quelques proprits usuelles de la transforme de Fourier :

    ( ) ( ) ( )1 2 1 1 ,... ,..., ... 0,...,0 1X X n n Xnu u f x x dx dx = =! ; lapplication ( ) ( )1 2 1 2,..., ,...,X

    nu u u u

    0!est continue ;

    lapplication : X XF f est injective.

    Exemple trs simple :

    Le vecteur alatoire X prend ses valeurs dans lhypercube [ ]1,1 n = et il admet une densit de probabilit :

    ( ) ( )1 112

    ,..., ,...,1nX n nf x x x x=

    (noter que les composantes jX sont indpendantes).

    ( ) ( )

    ( )

    1 1 1 1

    1

    11 1

    exp

    expsin

    1,..., ... ...21 2

    n n n nn

    n nj

    j j jnjj j

    u u i u x u x dx dx

    uiu x dx

    u

    +

    = =

    = + +

    = =

    o, dans cette dernire expression et grce aux prolongements par continuit, on remplace :

    1 21 2

    1 2

    sin sinpar si par si1 0 , 1 0 ,... u uu u

    u u= =

  • Vecteurs alatoires 47

    Inversion de la transforme de Fourier

    F1F

    Xf X

    On a, comme on le verra, de bonnes raisons (calculs simplifis) dtudier certaines questions en utilisant les fonctions caractristiques plutt que les densits de probabilits, mais on a souvent besoin de revenir aux densits ; le problme qui se pose est celui de linversibilit de la transforme de Fourier F, tudie dans les cours spcialiss.

    Rappelons simplement ici une condition suffisante :

    PROPOSITION. Si ( )1 1,..., ...X n nn u u du du < ! (cest--dire ( )1 1...X nL du du ), alors 1F existe et :

    ( )( )

    ( )1 1 11

    exp1,..., ,..., ...

    2

    n

    X n j j X n nnnj

    f x x i u x u u du du =

    =

    !

    En outre lapplication ( ) ( )1 1,..., ,...,n X nx x f x x est continue.

    EXEMPLE. Soit une v.a. gaussienne ( )2,X m .

    Cest--dire que ( )2

    exp1 1

    22Xx mf x

    = et supposons 0

    on obtient ( )2 2

    exp2X

    uu ium

    =

    .

    Il est clair que ( ) ( ) ( ) ( )1 et exp1 2X X X

    L du f x iux u du

    +

    = .

  • 48 Processus stochastiques et filtrages optimaux

    Proprits et applications des fonctions caractristiques

    1) Indpendance

    PROPOSITION. Pour que les composantes jX du vecteur alatoire

    ( )1,...,T nX X X= soient indpendants, il faut et il suffit que :

    ( ) ( )11

    ,...,n

    X n X jjju u u

    =

    = .

    DMONSTRATION.

    Condition ncessaire :

    ( ) ( )1 1 11

    ,..., exp ,..., ...n

    n

    X n j j X n nj

    u u i u x f x x dx dx=

    = ! .

    Grce lindpendance :

    ( ) ( )11 1 1

    exp ...j

    n nn

    j j X j n X jn jj j j

    i u x f x dx dx u= = =

    = = ! .

    CONDITION SUFFISANTE. On part de lhypothse :

    ( )

    ( )

    1 11

    11

    exp ,..., ...

    exp ...

    n

    j j x n nnj

    n

    j j X j nn jj

    i u x f x x dx dx

    i u x f x dx dx

    =

    =

    =

    !

    !

    Do on dduit : ( ) ( )11

    ,...,n

    X n X jjj

    f x x f x=

    = , cest--dire lindpendance,

    puisque la transformation de Fourier Xf F X est injective.

  • Vecteurs alatoires 49

    REMARQUE. On ne confondra pas ce rsultat avec celui qui concerne la somme de v.a. indpendantes et qui snonce de la manire suivante.

    Si 1,..., nX X sont des v. a. indpendantes alors ( ) ( )1

    n

    X Xj jj ju u

    =

    =

    Soient par exemple n variables alatoires indpendantes :

    ( ) ( )2 21 1, ,..., ,n nX m X m

    et soient n constantes relles 1,..., n .

    La remarque nous permet de dterminer la loi de la valeur alatoire 1

    n

    j jj

    X= .

    En effet les v.a. j jX sont indpendantes et :

    ( ) ( ) ( )2 2 2

    2 2 2

    12

    1 1 1

    12

    j j j j

    j j j

    j j j jj j

    n n n iu m uX X jXj jj j j j

    iu m u

    u u u e

    e

    = = =

    = = =

    =

    donc 2 2

    1,

    n

    j j j j j jj j j

    X m =

    .

    2) Calcul des moments (jusquau 2e ordre par exemple)

    Supposons ( )2 nX C ! . En appliquant une fois le thorme de Lebesgue de drivation sous signe somme

    (dont les hypothses sont immdiates vrifier) il vient :

  • 50 Processus stochastiques et filtrages optimaux

    ( )

    ( )( )

    ( )1

    1 1

    0,..., 0

    1 1

    0, ..., 0

    exp

    1

    ,..., ...

    ,..., ...n

    X

    X

    K j j X n nnj u u

    K X n n Kn

    K nu

    ix i u x f x x dx dx

    i x f x x dx dx i E X

    = =

    =

    =

    = =

    !

    !

    Soit ( )0, ..., 0XKK

    E X iu

    =

    .

    En appliquant ce thorme une deuxime fois, il vient :

    ( ) ( )2

    et 1, 2, 0, ..., 0..., XKK

    k n EX Xu u

    = 2 2

    2 .

    1.4. Variables et vecteurs alatoires du second ordre

    Commenons par rappeler les dfinitions et proprits usuelles relatives aux variables alatoires du 2e ordre.

    DFINITIONS. Etant donn ( )2X L dP de densit de probabilit Xf , 2 et E X E X ont un sens. On appelle variance de X lexpression :

    ( ) ( )2 22Var X E X E X E X E X= = .

    On appelle cart type de X lexpression ( ) Var X X = .

    Soit maintenant deux v.a. ( )2et Y X L dP . En utilisant le produit scalaire ,< > sur ( )2L dP dfini en 1.2. on a :

    ( ) ( ) ( ),E X Y X Y X Y dP

    =< >=

  • Vecteurs alatoires 51

    et, si le vecteur ( ),Z X Y= admet la densit f , alors :

    ( )2 ,ZE X Y xy f x y dx dy= ! .

    On a dj constat, en appliquant lingalit de Schwarz, que E X Y a bien un sens.

    DFINITION. Soit deux v.a. X , ( )2Y L dP on appelle covariance de X et Y :

    Lexpression ( )Cov ,X Y E X Y E X E Y= .

    Quelques remarques ou proprits faciles vrifier :

    ( )Cov , V arX X X=

    ( ) ( )Cov , Cov ,X Y Y X=

    si est une constante relle ( ) 2Var Var X X = ; si X et Y sont deux v.a. indpendantes, alors ( )Cov , 0X Y = mais la

    rciproque nest pas vraie ;

    si 1,..., nX X sont des v.a. 2 2 indpendantes

    ( )1 1Var ... Var X ... Var n nX X X+ + = + +

    Coefficients de corrlation

    Les Var jX (toujours positives) et les ( )Cov ,j KX X (de signe quelconque) peuvent prendre des valeurs algbriques trs leves. On prfre parfois utiliser les coefficients de corrlation (normaliss) :

    ( ) ( )Cov ,,Var Var

    j K

    j K

    X Xj k

    X X =

    dont voici les proprits :

  • 52 Processus stochastiques et filtrages optimaux

    1) ( ) [ ], 1,1j k

    En effet : supposons (uniquement pour simplifier lcriture) que jX et KX soient centres et considrons le trinme du 2e degr en .

    ( ) ( ) ( )2 2 2 22 0j K j j K KE X X EX E X X E X = = +

    ( ) 0 ! si et seulement si le discriminant :

    ( )2 2 2j K j KE X X E X E X =

    est ngatif ou nul, soit ( ) 2Cov Var Var,j K j KX X X X (cest--dire ( ) [ ], 1,1j k ).

    Ce qui est aussi lingalit de Schwarz.

    On peut par ailleurs prciser que ( ), 1j k = si et seulement si 0 ! tel que 0K jX X= p.s. : en effet en remplaant KX par 0 jX dans la dfinition de ( ),j k , on obtient ( ), 1j k = .

    Rciproquement, si ( ), 1j k = (par exemple), cest--dire si : 00 , = ! tel que 0K jX X= p.s.

    Si jX et kX ne sont pas centrs, on remplace dans ce qui prcde jX par

    j jX X et kX par k kX E X

    2) Si jX et kX sont indpendantes, j k j kE X X E X E X= donc

    ( )Cov , 0j kX X = et ( ), 0j k = Mais la rciprocit est fausse dans le cas gnral comme le prouve lexemple

    suivant.

  • Vecteurs alatoires 53

    Soit une variable alatoire uniformment rpartie sur [ [0 , 2 cest--dire

    ( ) [ [ ( )0 , 21

    21f

    = .

    Soit aussi deux v.a. sinjX = et coskX = .

    On vrifie facilement que , ,j k j kE X E X E X X sont nuls donc

    ( )Cov ,j kX X et ( ),j k sont nuls. Cependant 2 2 1j kX X+ = et les v.a. jX et kX sont dpendantes.

    Vecteurs alatoires du second ordre

    DFINITION. On dit quun vecteur alatoire ( )1,...,T nX X X= est du second ordre si ( )2 1 jX L dP j n = .

    DFINITION. Etant donn un vecteur alatoire du second ordre

    ( )1,...,T nX X X= , on appelle matrice de covariance de ce vecteur, la matrice symtrique :

    ( )

    ( )

    1 1

    1

    Var Cov

    Cov Var

    ,

    ,

    n

    X

    n n

    X X X

    X X X

    =

    " "

    (

    Si on se reporte la dfinition de lesprance dune matrice de v.a., on voit que

    lon peut crire ( )( )TX E X E X X E X = .

    On constate aussi que X X X = .

    REMARQUE. Variables et vecteurs alatoires complexes du second ordre : on dit quune variable alatoire complexe 1 2X X i X= + est du second ordre si 1X et

    ( )22X L dP .

  • 54 Processus stochastiques et filtrages optimaux

    La covariance de deux variables alatoires du second ordre et centres

    1 2X X i X= + et 1 2Y Y iY= + a pour dfinition naturelle :

    ( ) ( )( )( ) ( )

    1 2 1 2

    1 1 2 2 2 1 1 2

    ,

    Cov X Y EXY E X i X Y iY

    E X Y X Y iE X Y X Y

    = = +

    = + +

    et la condition de dcorrelation est donc :

    ( ) ( )1 1 2 2 2 1 1 2 0E X Y X Y E X Y X Y+ = = .

    On dit quun vecteur alatoire complexe ( )1,..., ,...T j nX X X X= est du second ordre si pour tout ( ) 1 21,..., j j jj n X X iX = + est une variable alatoire complexe du second ordre.

    La matrice de covariance dun vecteur alatoire complexe du second ordre et centr est dfinie par :

    21 1

    21

    n

    X

    n n

    E X EX X

    EX X E X

    =

    " "

    (

    Si lon ne craint pas les lourdeurs dcriture, on peut sans difficult crire ces dfinitions pour des variables et vecteurs alatoires complexes non centrs.

    Revenons aux vecteurs alatoires rels.

    DFINITION. On appelle matrice des moments du second ordre la matrice symtrique TE X X . Si X est centr

    TX E X X = .

    Transformation affine dun vecteur du 2e ordre

    Notons par ( ),M p n lespace des matrices p lignes et n colonnes.

  • Vecteurs alatoires 55

    PROPOSITION. Soit ( )1,...,T nX X X= un vecteur alatoire de vecteur esprance ( )1,...,T nm m m= et de matrice de covariance X .

    Soit par ailleurs une matrice ( ),A M p n et un vecteur certain

    ( )1,...,T PB b b= .

    Le vecteur alatoire Y AX B= + possde Am B+ pour vecteur esprance et

    Y XA A = pour matrice de covariance.

    DMONSTRATION.

    [ ] [ ] [ ]E Y E AX B E AX B Am B= + = + = + .

    Et aussi par exemple :

    ( )E AX E X A m A = =

    ( ) ( )( )Y AX AX E A X m A X m

    + = = = =

    ( )( ) ( )( ) XE A X m X m A A E X m X m A A A = =

    dans la suite, nous aurons aussi besoin du rsultat facile suivant.

    PROPOSITION. Soit ( )1,...,T nX X X= un vecteur alatoire du 2e ordre, de matrice de covariance .

    Alors :

    ( )11

    var,...,n

    T nn X j j

    jX

    =

    = =

    ! .

  • 56 Processus stochastiques et filtrages optimaux

    DMONSTRATION.

    ( ) ( )( )( )

    ( )

    , ,

    22

    ,

    Var

    X j K j K j j K K j Kj K j K

    j j j j j j j j jj j j j

    Cov X X E X EX X EX

    E X EX E X E X X

    = =

    = = =

    CONSQUENCE. n! on a toujours 0 .

    Rappelons ce propos ces dfinitions dalgbre :

    si, 0T X > ( ) ( )1,..., 0,...,0n = , on dit que X est dfinie positive ;

    si ( ) ( )1,..., 0,...,0n = tel que 0X = , on dit que X est semi-dfinie positive.

    REMARQUE. Dans cet ouvrage la notion de vecteur apparat dans deux contextes diffrents et afin dviter certaines confusions, revenons, en insistant, sur quelques points de vocabulaire.

    1) On appelle vecteur alatoire de n! (ou vecteur alatoire valeurs dans

    n! ), tout n-uple de variables alatoires 1

    "

    n

    XX

    X

    =

    ( ) ( )( )1 1ou ou meme ,..., ,...,T n nX X X X X X= = .

    X est un vecteur en ce sens que pour chaque , on obtient un n-uple

    ( ) ( ) ( )( )1 ,..., nX X X = qui appartient lespace vectoriel n

    ! .

    2) On appelle vecteur alatoire du second ordre, tout vecteur alatoire de n

    ! ( )1,..., nX X X= dont toutes les composantes jX appartiennent ( )2L dP .

  • Vecteurs alatoires 57

    Dans ce contexte, les composantes jX elles-mmes sont des vecteurs

    puisquelles appartiennent lespace vectoriel ( )2L dP .

    Donc, dans la suite quand on parlera dindpendance linaire ou de produit scalaire ou dorthogonalit, il faudra bien prciser quel espace vectoriel,

    n! ou

    ( )2L dP , on fait rfrence.

    1.5. Indpendance linaire des vecteurs de ( )2L dP

    DFINITION. On dit que les n vecteurs 1,..., nX X de ( )2L dP sont linairement indpendants si 1 1 10 p.s. 0... ...n n nX X + + = = = = (o ici, 0 est

    le vecteur nul de ( )2L dP ).

    DFINITION. On dit que les n vecteurs 1 2,...,X X de ( )2L dP sont linairement dpendants si 21,..., n non tous nuls et un vnement A de probabilit positive tel que ( ) ( )1 1 ... 0n nX X A + + = .

    En particulier : 1,..., nX X seront linairement dpendants si 1,..., n non tous nuls tel que 1 1 0... n nX X + + = p.s.

    Exemples : soient les trois applications mesurables :

    [ ] [ ]( ) ( )( )1 2 3, , : 0, 2 , 0, 2 , ,X X X d ! !B B

    dfinies par :

    ( )( )( )

    [ [( ) ( )

    ( )( )

    [ [

    11 1

    2 2

    3 3

    sur 0,1 et sur 1, 2

    2 2

    3 2 5

    X X e

    X X

    X X

    = = = =

    = = +

  • 58 Processus stochastiques et filtrages optimaux

    Figure 1.6. Trois variables alatoires

    Les trois applications sont videmment mesurables et appartiennent ( )2L d , ce sont 3 vecteurs de ( )2L d .

    Ces 3 vecteurs sont linairement dpendants car sur [ [0,1A = de mesure de

    probabilit 12

    : ( ) ( ) ( )1 2 35 1 1 0X X X A + + = .

    Matrice de covariance et indpendance linaire

    Soit donc X la matrice de covariance de ( )1,..., nX X X= vecteur du 2e ordre.

    1) Si X est dfinie positive : * *1 1 1,..., n n nX X EX X X EX= = sont

    alors des vecteurs linairement indpendants de ( )2L dP .

    En effet :

    2

    VarT X j j j j j jj j j

    X E X E X

    = =

  • Vecteurs alatoires 59

    ( )2

    0j j jj

    E X EX = =

    Cest--dire :

    ( ) p.s.0j j jj

    X EX =

    Ce qui implique, puisque X est dfinie positive, que 1 0n = = =(

    On peut dire aussi que * *1 ,..., nX X engendrent un hyperplan de ( )2L dP de dimension n que lon peut noter ( )* *1 ,..., nX XH .

    En particulier, si les v.a. 1 ,..., nX X sont dcorreles 2 2 (donc a fortiori si elles sont stochatiquement indpendantes), on a :

    21Var 0 0 .

    TX j j n

    jX = = = = = (

    donc dans ce cas X est dfinie positive et * *1 ,..., nX X sont encore linairement

    indpendantes.

    REMARQUE. Si TE X X , la matrice des moments dordre 2, est dfinie positive alors 1 ,..., nX X sont des vecteurs linairement indpendants de ( )2L dP .

    2) Si maintenant X est semi-dfinie positive :

    * *1 1 1 , . . . , n n nX X EX X X EX= =

    sont alors des vecteurs linairement dpendants de ( )2L dP .

    En effet :

    ( ) ( )1,..., 0,...,0n =

  • 60 Processus stochastiques et filtrages optimaux

    tel que : ( ) jj

    Var 0T X jX

    = =

    Cest--dire :

    ( ) ( ) ( )1 tel que 00,..., 0,..., n j j jj

    X EX = = p.s.

    Figure 1.7. Vecteur ( )X et vecteur X

    Exemple : on considre 1

    2

    3

    XX X

    X

    =

    un vecteur alatoire de 3! du 2e ordre,

    admettant

    31

    2m

    =

    pour vecteur esprance et

    4 2 02 1 00 0 3

    X

    =

    pour matrice

  • Vecteurs alatoires 61

    de Covariance. On constate que X est semi-dfinie positive. En prenant par

    exemple ( )1 , 2 , 0T = on vrifie que ( ) 0T X = . Donc Var ( ) * *1 2 3 1 2 et p.s.2 0 0 2 0X X X X X + = =

    1.6. Esprance conditionnelle (cas des vecteurs densit)

    Soit X une v.a. relle et soit ( )1,..., nY Y Y= un vecteur alatoire rel. On suppose que : X et Y sont indpendants et que le vecteur

    ( )1, ,..., nZ X Y Y= admet une densit de probabilit ( )1, ,...,Z nf x y y .

    Dans ce paragraphe on emploiera selon les cas les notations ( )1,..., nY Y ou ( )1, ,..., nY y y ou y.

    Rappelons pour commencer que ( ) ( ),Y Zf y f x y dx= ! .

    Probabilit conditionnelle

    On veut, pour tout ( )B !B et tout ( )1,..., nny y ! , dfinir et calculer la probabilit pour que X B sachant que 1 1,..., n nY y Y y= = .

    On note cette quantit ( ) ( ) ( )( )1 1 .. n nP X B Y y Y y = = ou plus simplement ( )1,..., nP X B y y . Notons quon ne peut pas, comme le cas des variables discrtes, crire :

    ( ) ( ) ( )( ) ( ) ( ) ( )( )( ) ( )( )1 1

    1 11 1

    ....

    ..n n

    n nn n

    P X B Y y Y yP X B Y y Y y

    P Y y Y y

    = = = = =

    = =

    Le quotient ici est indtermin et gale 0

    0

  • 62 Processus stochastiques et filtrages optimaux

    Pour 1j = n , posons ,j j j hI y y + =

    On crit :

    ( ) ( ) ( ) ( )( )( ) ( ) ( )( )

    ( ) ( )( )( )

    ( )

    ( )( )

    ( )( )

    1

    1

    1 1 10

    1 1

    0 1 1

    1 1...

    1 1...

    lim

    lim

    ,..., ..

    ....

    , ,..., ...

    ,..., ...

    , ,

    n

    n

    n n nh

    n n

    h n n

    Z n nB I I

    y n nI I

    ZB ZB

    Y Y

    P X B y y P X B Y I Y I

    P X B Y I Y IP Y I Y I

    dx f x u u du du

    f u u du du

    f x y dx f x ydx

    f y f y

    =

    =

    =

    = =

    Il est donc naturel de dire que la densit conditionnelle de la v.a. X sachant ( )1,..., ny y est la fonction :

    ( ) ( )( ) ( )si 0,Z

    YY

    f x yx f x y f y

    f y =

    ! !

    On peut ngliger lensemble des y pour lesquels ( ) 0Yf y = car il est de mesure (dans n! ) nul.

    Posons en effet ( ) ( ){ }, 0Yx y f y = = , on remarque :

    ( )( ) ( ) ( )( ){ }0, , ,YZ y f yP X Y f x y dx dy du f x u dx = = = !

    ( )( ){ }0 0Yy f yY

    f u du=

    = = , donc ( )Yf y est non nul presque partout.

  • Vecteurs alatoires 63

    Finalement, on a obtenu une famille (indicie par les y vrifiant ( ) 0Yf y > ) de densits de probabilits ( ) ( )( )1f x y f x y dx = ! .

    Esprance conditionnelle

    Soit toujours le vecteur alatoire ( )1, ,..., nZ X Y Y= de densit ( ),Zf x y et ( )f x y la densit de probabilit de X sachant 1,..., ny y .

    DFINITION. Etant donne une application mesurable

    ( )( ) ( )( ): , , ! ! ! !B B , sous lhypothse ( ) ( )x f x y dx < ! (cest--dire ( )( )1L f x y dx on appelle esprance conditionnelle de ( )X sachant ( )1,..., ny y lesprance de ( )X calcule avec la densit

    conditionnelle ( ) ( )1,..., nf x y f x y y= et on crit :

    ( )( ) ( ) ( )1,..., nE X y y x f x y dx = ! .

    ( )( )1,..., nE X y y est une valeur certaine, fonction de ( )1,..., ny y , notons la ( )1 ,..., ng y y (cette notation prendra son sens dans le chapitre sur lestimation).

    DFINITION. On appelle esprance conditionnelle de ( )X par rapport ( )1,..., nY Y Y= la v.a. ( ) ( )( )1 1 ,..., ,...,n ng Y Y E X Y Y= (note aussi ( )( )E X Y qui prend la valeur ( ) ( )( )1 1 ,..., ,...,n ng y y E X y y= quand

    ( )1,..., nY Y prend la valeur ( )1,..., ny y .

    REMARQUE. Comme on ne distingue pas deux v.a. gales p.s., on appellera encore esprance conditionnelle de ( )X par rapport 1,..., nY Y toute v.a. ( )1 ,..., ng Y Y telle que ( ) ( )1 1 ,..., ,...,n ng Y Y g Y Y = p.s.

  • 64 Processus stochastiques et filtrages optimaux

    Cest--dire ( ) ( )1 1 ,..., ,...,n ng Y Y g Y Y = sauf ventuellement sur tel que ( ) ( ) 0YP f y dy = = .

    PROPOSITION. Si ( ) ( )1X L dP (cest--dire ( ) ( )Xx f x dx < ! ) alors ( ) ( )( ) ( )1g Y E X Y L dP= (cest--dire ( ) ( )n Yg y f y dy < ! .

    DMONSTRATION.

    ( ) ( ) ( )( ) ( )( ) ( ) ( )

    n n

    n

    Y

    Y

    g y f y dy E X y f y dy

    f y dy X f x y dx

    =

    =

    ! !

    ! !

    Par le thorme de Fubini :

    ( ) ( ) ( ) ( ) ( )( ) ( ) ( ) ( )

    1 1 ,

    ,

    n n

    n

    Y Z

    Z X

    x f y f x y dx dy x f x y dx dy

    x dx f x y dy x f x dx

    + + =

    = = <

    ! !

    ! ! !

    Principales proprits de lesprance conditionnelle

    Les hypothses dintgrabilit tant vrifies :

    1)

    2) Si X et Y sont indpendants ( )( ) ( )( )E X Y E X = 3) ( )( ) ( )E X X X = 4) Conditionnements successifs

    ( )( )( ) ( )( )1 1 1 1,..., , ,..., ,...,n n n nE E X Y Y Y Y Y E X Y Y+ = 5) Linarit

    ( ) ( )( ) ( )( ) ( )( )1 1 2 2 1 1 2 2E X X Y E X Y E X Y + = +

  • Vecteurs alatoires 65

    Les dmonstrations en gnral faciles sont laisses en exercice.

    Remarquons en particulier quen ce qui concerne la premire proprit, il suffit de rcrire la dmonstration de la dernire proposition en y tant les valeurs absolues.

    Le chapitre sur lestimation en moyenne quadratique rendra plus concrte la notion desprance conditionnelle.

    Exemple : soit ( ),Z X Y= un couple alatoire de densit de probabilit ( ) ( ) ( ), 6 2 1 ,Zf x y xy x y x y= o est le carr [ ] [ ]0,1 0,1 .

    Calculons ( )E X Y . On a successivement :

    ( ) ( ) ( )1 10 0

    , 6 2f y f x y dx xy x y dx= = avec [ ]0,1y

    soit ( ) ( ) [ ] ( )2 0,14 3 1y yf y y=

    ( ) ( )( )( )

    [ ] ( )0,16 2

    4 3, 1x x y

    yf x y

    f x y xf y

    = = avec [ ]0,1y

    ( ) ( ) [ ] ( ) ( ) [ ] ( )1

    0,1 0,10

    5 42 4 3

    1 1yy

    E X y xf x y dx y y

    = =

    Donc :

    ( ) ( ) [ ] ( )0,15 4

    2 4 31Y

    YE X Y Y

    = .

    On a aussi :

    ( ) ( )( ) ( ) ( )

    ( ) ( )1 2

    0

    1

    0

    5 4 7 4 3

    2 4 3 12

    y y y dyy

    E X E E X Y E X y f y dy

    = =

    = =

  • 66 Processus stochastiques et filtrages optimaux

    1.7. Exercices du chapitre 1

    Enonc 1.1.

    Soit X une v.a. de fonction de rpartition

    ( )2

    0 si 0

    1si 0 2

    21 si

    x

    x

    x

    F x

    >

    >

    ! .

    Dterminer la constante K et les densits Xf et Yf des v.a. X et Y .

    Enonc 1.3.

    Soient X et Y deux variables alatoires indpendantes et de densits uniformes sur lintervalle [ ]0,1 :

    1) Dterminer la densit de probabilit Zf de la v.a. Z X Y= + . 2) Dterminer la densit de probabilit Uf de la v.a. U X Y= .

  • Vecteurs alatoires 67

    Enonc 1.4.

    Soient X et Y deux v.a. indpendantes et de densits uniformes sur lintervalle [ ]0,1 . Dterminer la densit de probabilit Uf de la v.a. U X Y= .

    Solution 1.4.

    U prend ses valeurs dans [ ]0,1

    Soit UF la fonction de rpartition de U :

    si ( )0 0Uu F u = ; si ( )1 1Uu F u = ; si ] [0,1u : ( ) ( ) ( ) ( )( ),U uF u P U u P X Y u P X Y B= = =

    o uB A B= est laire hachure de la figure.

    Donc ( ) ( ) ( ) ( ) ( ), ,u u

    U X YX YB BF u f x y dx dy f x f y dx dy= =

  • 68 Processus stochastiques et filtrages optimaux

    ( )1 1

    01

    ux

    A u u

    dxdx dy dx dy u u u nux

    = + = + = 2

    Finalement ( ) ( )] ] [ [] [

    si 0 - ,0 1,

    0,1

    U Ux

    xf u F u

    nu

    = =

    2

    Enonc 1.5.

    On considre trois v.a. relles , ,X Y Z indpendantes et de mme loi ( )0,1N ,

    cest--dire admettant la mme densit 21

    22x

    .

    Dterminer la densit de probabilit Uf de la v.a.r. ( )1

    2 2 2 2U X Y Z= + + .

    Solution 1.5.

    Soit UF la fonction de rpartition de U :

    si 0u ( ) ( )1

    2 2 2 2 0UF u P X Y Z u

    = + + =

    si 0u > ( ) ( )( )U uF u P X Y Z S= + +

    O uS est la sphre de 3! centre en ( )0, 0, 0 et de rayon u

    ( ) ( )

    ( )( )3

    2

    2 2 2

    , ,

    1

    2

    1exp

    2

    , ,u

    u

    X Y ZS

    Sx y z dx dy dz

    f x y z dx dy dz

    + +

    =

    =

  • Vecteurs alatoires 69

    et en utilisant un passage en coordonnes sphriques :

    ( )

    ( )

    2 23 0 0 02

    2 23 02

    1 1exp sin

    22

    1 12 2 exp

    22

    e u

    u

    d d r r dr

    r r dr

    =

    =

    et comme 2 2exp12

    r r r

    est continue :

    ( ) ( ) 2 2si

    exp si

    0 0

    2 10

    22

    =

    + est une densit de

    probabilit (appele densit de Cauchy). 1b) Vrifier que la fonction caractristique correspondante est

    ( ) ( )expX u a u = . 1c) Soit une famille de v.a. indpendantes 1,..., nX X de densit af . Trouver

    la densit de la v.a. 1... n

    nX XY

    n+ +

    = .

    Que constate-t-on ?

    2) Par considration de variables alatoires de Cauchy, vrifier que lon peut avoir lgalit ( ) ( ) ( )X Y X Yu u u + = avec X et Y dpendantes.

  • 70 Processus stochastiques et filtrages optimaux

    Enonc 1.7.

    Montrer que

    1 2 3

    2 1 2

    3 2 1

    M =

    nest pas une matrice de covariance.

    Montrer que

    1 0, 5 0

    0, 5 1 0

    0 0 1

    M =

    est une matrice de covariance.

    Vrifier sur cet exemple que la proprit ntre pas corrl avec pour une famille de v.a. nest pas transitive.

    Enonc 1.8.

    Montrer que le vecteur alatoire ( )1 2 3, ,TX X X X= desprance

    ( )7, 0,1TX = et de matrice de covariance 10 1 4

    1 1 1

    4 1 2X

    =

    appartient

    presque srement (p.s.) un plan de 3! .

    Enonc 1.9.

    On considre le vecteur alatoire ( ), ,U X Y Z= de densit de probabilit ( ) ( ) ( )3 1, , , ,Uf x y z K x y z x y z x y z= o est le cube

    [ ] [ ] [ ]0,1 0,1 0,1 .

    1) Calculer la constante K .

    2) Calculer la probabilit conditionnelle 1 1 1 3

    , ,4 2 2 4

    P X Y Z = = .

    3) Dterminer lesprance conditionnelle ( )2 ,X Y Z .

  • CHAPITRE 2

    Vecteurs gaussiens

    2.1. Quelques rappels sur les variables alatoires gaussiennes

    DFINITION. On dit quune v.a. relle est gaussienne, desprance m et de variance 2 si sa loi de probabilit XP :

    admet la densit ( ) ( )2

    21

    exp2 2

    Xx m

    f x

    =

    si 2 0

    (par un calcul dintgrale double par exemple, on vrifie que ( )Xf x dx =! 1) ;

    est la mesure de Dirac 2 si 0 m = .

    Figure 2.1. Densit gaussienne et mesure de Dirac

  • 72 Processus stochastiques et filtrages optimaux

    Si 2 0 , on dit que X est gaussienne non dgnre.

    Si 2 0 = , on dit que X est gaussienne dgnre ; X est dans ce cas une v.a. certaine prenant la valeur m avec la probabilit 1.

    2,EX m Var X = = . Ceci se vrifie facilement par utilisation de la fonction de rpartition.

    Comme on la dj not, pour spcifier quune v.a. X est gaussienne desprance m et de variance 2 , on crira ( )2,X N m .

    Fonction caractristique de ( )2,X N m Commenons dabord par dterminer la fonction caractristique

    de ( )0 0,1X N :

    ( ) ( )2

    0

    0

    21

    2iux xiuX

    X eu E e e dx

    = = ! .

    On voit facilement que lon peut appliquer le thorme de drivation sous signe somme et :

    ( )2

    0

    2

    2

    xiuxX

    iu e xe dx

    = ! .

    Ensuite par intgration par parties :

    ( )2 2

    0

    2 2

    2

    x xiux iuxX

    i e e iue e dx u u

    ++

    = + =

    .

    La rsolution de lquation diffrentielle ( ) ( )0 0X Xu u u = avec la

    condition ( )0

    0 1X = nous conduit la solution ( )2

    0

    2u

    X u e

    = .

  • Vecteurs gaussiens 73

    Pour ( ) ( )21

    2 21

    2,

    x miux

    XX N m u e e dx

    +

    = .

    Par le changement de variable x my

    = qui nous ramne au cas prcdent, on

    obtient ( )2 21

    2ium u

    X u e

    = .

    Si 2 0 = cest--dire si X mP = :

    ( )X u (transforme de Fourier au sens des distributions de m ) = iume

    si bien que dans tous les cas ( 2 ou )0= ( )1 2 22

    ium uX u e

    = .

    REMARQUE. Etant donne la v.a. ( )2,X N m , on peut crire :

    ( )( ) ( )

    ( )( ) ( )

    ( )

    12

    11 2 22

    2

    1 1exp

    22

    1exp

    2

    X

    X

    f u x m x m

    u ium u u

    =

    =

    Ce sont les critures que lon retrouvera pour les vecteurs gaussiens.

    2.2. Dfinition et caractrisation des vecteurs gaussiens

    DFINITION. On dit quun vecteur alatoire rel ( )1,...,T nX X X= est gaussien

    si ( ) 10 1, ,..., nna a a + ! la v.a. 01

    n

    j jj

    a a X=

    + est gaussienne. (On peut dans

    cette dfinition supposer 0 0a = ce que nous ferons en gnral).

  • 74 Processus stochastiques et filtrages optimaux

    Un vecteur alatoire ( )1,...,T nX X X= nest donc pas gaussien si on peut

    trouver un n -uple ( ) ( )1,..., 0,...,0na a tel que la v.a. 1

    n

    j jj

    a X= ne soit pas

    gaussienne et il suffit pour cela de trouver un n - uple tel que 1

    n

    j jj

    a X= ne soit pas

    une v.a. densit.

    EXEMPLE. On se donne une v.a. ( )0,1X N et une v.a. discrte, indpendante de X et tel que :

    ( ) 112

    P = = et ( ) 112

    P = = .

    On pose Y X= .

    En utilisant ce qui prcde, on montrera en exercice que, bien que Y soit une v.a. ( )0,1N , le vecteur ( ),X Y nest pas un vecteur gaussien.

    PROPOSITION. Pour quun vecteur alatoire ( )1,...,T nX X X= desprance ( )1,...,T nm m m= et de matrice de covariance X soit gaussien, il faut et il suffit

    que sa fonction caractristique f.c( ) X soit dfinie par :

    ( ) ( )( )1 11

    1exp o

    2,..., ,...,

    mT T

    X n j j X nj

    u u i u m u u u u u=

    = = .

    DMONSTRATION.

    ( )11 1

    exp exp,..., .1.n n

    X n j j j jj j

    u u E i u X E i u X= =

    = =

    = fonction caractristique de la v.a. 1

    n

    j jj

    u X= en la valeur 1.

  • Vecteurs gaussiens 75

    Cest--dire : ( )1

    1nj j

    ju X

    =

    et ( )1

    2

    1 1

    11 exp 1 1 Var

    2. . n

    j jj

    n n

    j j j ju X j j

    i E u X u X=

    = =

    =

    si et seulement si la v.a. 1

    n

    j jj

    u X= est gaussienne.

    Enfin, puisque 1

    Varn

    Tj j X

    ju X u u

    =

    =

    , on a bien :

    ( )11

    1exp

    2,...,

    nT

    X n j j Xj

    u u i u m u u=

    = .

    NOTATION. On voit que la fonction caractristique dun vecteur gaussien X est entirement dtermine quand on connat son vecteur esprance m et sa matrice de covariance X . Si X est un tel vecteur, on crira ( ),n XX N m .

    CAS PARTICULIER. 0m = et X nI = (matrice identit), ( )( )0,n nX N I est alors appel vecteur gaussien standard.

    2.3. Rsultats relatifs lindpendance

    PROPOSITION.

    1) si le vecteur ( )1,...,T nX X X= est gaussien, toutes ses composantes jX sont alors des v.a. gaussiennes ;

    2) si les composantes jX dun vecteur alatoire X sont gaussiennes et indpendantes, le vecteur X est alors gaussien.

  • 76 Processus stochastiques et filtrages optimaux

    DMONSTRATION.

    1) on crit 0 0 0 0... ...j jX X= + + + + + ;

    2) ( ) ( ) 2 211 1

    1exp

    2,...,

    j

    n n

    X n X j j j j jj j

    u u u iu m u = =

    = =

    que lon peut encore crire : 1

    1exp

    2

    nT

    j j Xj

    i u m u u=

    avec

    21

    2

    0

    0

    X

    n

    =

    # .

    ATTENTION. Comme on le verra ultrieurement : composantes jX gaussiennes et indpendantes nest pas une condition ncessaire pour que le vecteur alatoire

    ( )1,..., ,...,T j nX X X X= soit gaussien.

    PROPOSITION. Si ( )1,..., ,...,T j nX X X X= est un vecteur gaussien de matrice de covariance X , on a lquivalence : X diagonale les v.a. jX sont indpendantes.

    DMONSTRATION.

    21

    2

    0

    0 n

    X

    =

    # ( ) ( )11

    ,...,j

    n

    X n X jj

    u u u

    =

    Ce qui est une condition ncessaire et suffisante dindpendance des v.a. jX .

    Rsumons par un schma ces deux rsultats simples :

  • Vecteurs gaussiens 77

    ( )1,..., ,...,T j nX X X X=est un vecteur gaussien

    Les composantes jX

    sont des v.a. gaussiennes

    Si (condition suffisante) les jX sont indpendantes

    ( jX indpendantes

    X est diagonale)

    ( jX indpendantes ou

    X est gaussien)

    REMARQUE. Un vecteur gaussien ( )1,..., ,...,T j nX X X X= est videmment du 2e ordre. En effet chaque composante jX est gaussienne et appartient donc

    ( )2L dP ( )2

    22 21

    2

    x m

    x e dx

    < !

    On peut gnraliser la dernire proposition et remplacer les v.a. gaussiennes par des vecteurs gaussiens.

    Considrons par exemple trois vecteurs alatoires :

    ( ) ( ) ( )1 1 1 1,..., ; ,..., ; ,..., , ,...,T T Tn p n pX X X Y Y Y Z X X Y Y= = =

    et posons

    Cov( , )

    Cov( , )

    X

    Y

    Z

    X Y

    Y X

    =

    $

    % $ %

    $

    o ( )Cov ,X Y est ici la matrice des coefficients ( )Cov ,jX Y& et o ( ) ( )( )Cov Cov, , TX Y X Y= .

    Mme si

    X est diagonale

  • 78 Processus stochastiques et filtrages optimaux

    PROPOSITION. Si ( )1 1,..., , ,...,T n pZ X X Y Y= est un vecteur gaussien de matrice de covariance Z , on a lquivalence :

    ( )Cov ,X Y = matrice nulle X et Y sont 2 vecteurs gaussiens indpendants.

    DMONSTRATION.

    0

    0

    X

    Y

    Z

    =

    $

    % $ %

    $

    ( )1 11

    exp

    01,..., , ,...,2

    0

    Xn pT

    Z n n n p j jj

    Y

    u u u u i u m u u+

    + +=

    =

    $

    % $ %$

    ( ) ( )1 1,..., ,...,X n Y n n pu u u u + += Ce qui est une condition ncessaire et suffisante dindpendance des vecteurs X et Y .

    ATTENTION. Soit ( ), , ,...T T T TZ X Y U= o , , ,...X Y U sont des v.a. ou des vecteurs alatoires.

    Z est un vecteur gaussien est une hypothse plus forte que X gaussien et Y gaussien et U gaussien X gaussien et Y gaussien et U gaussien et leurs covariances (ou

    matrices de covariances) sont nulles que ( ), , ,...T T T TZ X Y U= est un vecteur gaussien.

    EXEMPLE. Soient , ,X Y Z trois v.a. ( )0,1N , cherchons la loi du vecteur ( ),TW U V= ou U X Y Z= + + et V X Y= avec ! : cause de

    lindpendance, le vecteur ( ), ,X Y Z est gaussien et ( ) ( ),a b aU bV a b X a b Y aZ + = + + +! est une v.a. gaussienne.

    Donc ( ),TW U V= est un vecteur gaussien.

  • Vecteurs gaussiens 79

    Pour le dterminer entirement il faut connatre m EW= et W et on aura ( )2 , WW N m .

    Il vient facilement :

    ( ) ( ), 0,0TEW EU EV= = et ( )

    ( ) 2Var Cov

    Cov Var

    3 11 1

    ,, W

    U U VV U V

    = = +

    En effet :

    ( )( )

    ( ) ( )( )

    22 2 2 2

    22 2 2 2 2

    2 2

    Var

    Var

    Cov

    3

    1

    1

    V

    ,

    U EU E X Y Z EX EY EZ

    EV E X Y EX EY

    U V E X Y Z X Y EX EY

    = = + + = + + =

    = = = + = +

    = + + = =

    Cas particulier : 1 W = diagonale U et V sont indpendants.

    2.4. Transformation affine dun vecteur gaussien

    On peut gnraliser aux vecteurs le rsultat suivant sur les v.a. gaussiennes :

    Si ( )2,Y N m alors ( )2 2 ., ,a b aY b N am b a + +! En modifiant un peu lcriture,

    ( )2 2,N am b a + devenant ( ),N am b a VarY a+ , on imagine dj comment ce rsultat va stendre aux vecteurs gaussiens.

    PROPOSITION. Soient un vecteur gaussien ( ),n YY N m , A une matrice appartenant ( ),M p n et un vecteur certain pB! .

    Alors AY B+ est un vecteur gaussien ( ), Tp YN Am B A A+ .

  • 80 Processus stochastiques et filtrages optimaux

    DMONSTRATION.

    11 1 11

    11

    1

    n

    n

    i n i i ii

    p pn pn

    a a bY

    a a a bYAY B a Y b

    a a bY

    =

    + = + = +

    & & & & & &

    $%

    $$ $ $$

    % %$ $ $$

    $%$

    ceci est bien un vecteur gaussien (de dimension p ) car toute combinaison linaire de ses composantes est une combinaison affine des v.a. 1,..., ,...,i nY Y Y et par hypothse ( )1,...,T nY Y Y= est un vecteur gaussien ;

    par ailleurs on a vu que si Y est un vecteur de 2e ordre : ( )E AY B AEY B Am B+ = + = + et TAY B YA A+ = .

    EXEMPLE. Soient ( )1n + v.a. indpendantes ( )2 0,jY N j = n.

    Il vient ( ) ( )0 1 1, ,..., ,T n n YY Y Y Y N m+= avec ( ),...,Tm = et

    2

    2

    0

    0

    Y

    =

    # .

    Soient par ailleurs les nouvelles v.a. X & dfinies par :

    1 0 1 1,..., n n nX Y Y X Y Y= + = +

    Le vecteur ( )1,...,T nX X X= est gaussien car 1 0110...0

    0110..0

    0...011n n

    X Y

    X Y

    =

    $ $

    plus prcisment, daprs la proposition prcdente, ( ), Tn YX N Am A A .

  • Vecteurs gaussiens 81

    REMARQUE. Si dans cet exemple nous supposons 0 = et 2 1 = , nous constatons que le vecteur X est gaussien bien que ses composantes jX ne soient pas indpendantes. En effet, nous avons par exemple :

    ( )1 2Cov , 0 X X car ( )( ) 21 2 0 1 1 2 1 1EX X E Y Y Y Y EY= + + = = et

    ( ) ( )1 2 0 1 1 2 0EX EX E Y Y E Y Y= + + = .

    2.5. Existence des vecteurs gaussiens

    NOTATION. ( ) ( )1 1,..., , ,...,T Tn nu u u x x x= = et ( )1,...,T nm m m= .

    On sintresse ici lexistence des vecteurs gaussiens cest--dire lexistence des lois de probabilits sur n! ayant des transformes de Fourier de la forme :

    1exp

    2T

    j jj

    i u m u u

    PROPOSITION. Etant donn un vecteur ( )1,...,T mm m m= et une matrice ( ),M n n , symtrique et semi-dfinie positive, il existe une probabilit XP

    unique sur n! , de transforme de Fourier :

    ( )11 1

    exp exp12

    ,...,nn n

    Tj j X n j j

    j ji u x dP x x i u m u u

    = =

    =

    ! .

    En outre :

    1) si est inversible, XP admet sur n! la densit :

    ( )( ) ( )

    ( ) ( )11 12 2

    exp1 1

    22 Det,..., TX n nf x x x m x m

    =

    ;

  • 82 Processus stochastiques et filtrages optimaux

    2) si est non inversible (de rang r n< ) les v.a. 1 1,..., n nX m X m sont linairement dpendantes. On peut encore dire que ( )X m prend presque srement ses valeurs sur un hyperplan ( ) de n! ou que la probabilit

    XP charge un hyperplan ( ) et nest donc pas densit dans n! .

    DMONSTRATION.

    1) Commenons par rappeler un rsultat dalgbre linaire :

    tant symtrique, on peut trouver une base orthonorme de n! forme de vecteurs propres de ; appelons ( ), ...,1 nV V cette base. En notant j les valeurs propres de on a donc j j jV V = o les j sont solutions de lquation

    ( )Det 0I = .

    Quelques consquences

    Posons dabord 1 0

    0 n

    =

    # et ( )1,..., nV V V= .

    (o les JV sont des vecteurs colonnes).

    1 j j jV V j n = = quivaut V V = et, la matrice V tant

    orthogonale ( ) ,T T TVV V V I V V= = = .

    Dmontrons que, si en outre est inversible les j sont 0 et 0 , donc les

    j sont > 0.

    Les j sont 0 . En effet, tant inversible,

    0 Dt 1

    Dtn

    jj

    =

    = =

  • Vecteurs gaussiens 83

    Les j sont 0 : considrons en effet la forme quadratique Tu u u

    ( 0 puisque semi dfinie positive).

    Dans la base ( )1... nV V u scrit ( )1,..., nu u avec ju = < ,jV u > et la forme

    scrit ( )1

    21 0,..., n j j

    jn

    uu u u u

    u

    =

    $ do le rsultat annonc.

    Dmontrons maintenant la proposition.

    2) Plaons nous dabord dans le cas gnral, cest--dire celui dans lequel est non ncessairement inversible (cest--dire encore que les valeurs propres j sont 0 ).

    Considrons n v.a. indpendantes ( )0,j jY N .

    On sait que le vecteur ( )1,...,T nY Y Y= est gaussien ainsi que le vecteur X VY m= + (proposition du paragraphe prcdent) ; plus prcisment

    ( ), TX N m V V = . Lexistence des vecteurs gaussiens desprance et de matrice de covariance

    donne est donc bien prouve.

    Par ailleurs, on a vu que si X est ( ),nN m , sa fonction caractristique

    (transforme de Fourier de sa loi) est : exp12

    Tj j

    ji u m u u

    .

    On a donc bien :

    ( ) ( )1exp exp 1 ,..., 2nT

    j j X n j jj

    i u x dP x x i u m u u

    =

    ! .

  • 84 Processus stochastiques et filtrages optimaux

    Unicit de la loi : elle dcoule de linjectivit de la transformation de Fourier.

    3) Prcisons pour terminer le rle jou par linversibilit de .

    a) Si est inversible toutes les valeurs propres ( )Varj jY = sont > 0 et le vecteur ( )1...T nY Y Y= admet la densit :

    ( )

    ( )

    2

    11

    11

    22

    1

    exp

    exp

    12

    12

    2

    ,...,2

    1

    nj

    Y njj j

    T

    nnj

    j

    yf y y

    y y

    =

    =

    =

    =

    En ce qui concerne le vecteur X VY m= + : la transformation affine y x Vy m = + est inversible dinverse ( )1y V x m= et de Jacobien Det 1V = (V orthogonal).

    Par aille