Processus stochastique

186
Processus stochastiques M2 Math´ ematiques Jean-Christophe Breton Universit´ e de Rennes 1 Septembre–Octobre 2017 Version du 19 octobre 2017

Transcript of Processus stochastique

Page 1: Processus stochastique

Processus stochastiques

M2 Mathematiques

Jean-Christophe Breton

Universite de Rennes 1

Septembre–Octobre 2017

Version du 19 octobre 2017

Page 2: Processus stochastique

2

Page 3: Processus stochastique

Table des matieres

I Processus stochastiques 1

1 Processus stochastiques 31.1 Loi d’un processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Regularite des trajectoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.3 Convergence faible des lois de processus . . . . . . . . . . . . . . . . . . . . 10

1.3.1 Rappels sur la convergence faible . . . . . . . . . . . . . . . . . . . 111.3.2 Equitension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2 Processus gaussiens 172.1 Lois des processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2 Regularite gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.3 Espace gaussien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.4 Exemples de processus gaussiens . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Bruit blanc et integration stochastique 293.1 Mesure aleatoire (bruit blanc) . . . . . . . . . . . . . . . . . . . . . . . . . 293.2 Integrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303.3 Approche de l’integrale de Wiener-Ito . . . . . . . . . . . . . . . . . . . . . 323.4 Processus stationnaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3.4.1 Faible stationnarite . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.4.2 Representation spectrale des processus stationnaires . . . . . . . . . 353.4.3 Cas des processus stationnaires discrets . . . . . . . . . . . . . . . . 36

4 Mouvement brownien 394.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394.2 Definition, premieres proprietes . . . . . . . . . . . . . . . . . . . . . . . . 41

4.2.1 Proprietes immediates . . . . . . . . . . . . . . . . . . . . . . . . . 414.3 Proprietes en loi du mouvement brownien . . . . . . . . . . . . . . . . . . 434.4 Proprietes trajectorielles du mouvement brownien . . . . . . . . . . . . . . 45

4.4.1 Loi du 0/1 de Blumenthal . . . . . . . . . . . . . . . . . . . . . . . 454.4.2 Consequences trajectorielles de la loi du 0/1 de Blumenthal . . . . . 484.4.3 Regularite trajectorielle brownienne . . . . . . . . . . . . . . . . . . 50

4.5 Variation quadratique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

i

Page 4: Processus stochastique

ii Table des matieres

4.6 Propriete de Markov forte . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.6.1 Temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

4.6.2 Propriete de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . 56

4.6.3 Principe de reflexion . . . . . . . . . . . . . . . . . . . . . . . . . . 57

4.7 Equation de la chaleur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4.7.1 Origine physique . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4.7.2 Origine mathematique . . . . . . . . . . . . . . . . . . . . . . . . . 59

II Martingales 65

5 Martingales en temps continu 67

5.1 Filtration et processus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

5.2 Filtrations et temps d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . 70

5.3 Martingales en temps continu . . . . . . . . . . . . . . . . . . . . . . . . . 74

5.3.1 Definition, exemples . . . . . . . . . . . . . . . . . . . . . . . . . . 74

5.3.2 Inegalites pour martingales . . . . . . . . . . . . . . . . . . . . . . . 74

5.3.3 Regularisation de trajectoires . . . . . . . . . . . . . . . . . . . . . 76

5.3.4 Theoremes de convergence . . . . . . . . . . . . . . . . . . . . . . . 79

5.3.5 Theoreme d’arret . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

5.4 Processus de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

6 Semimartingales continues 87

6.1 Processus a variation bornee . . . . . . . . . . . . . . . . . . . . . . . . . . 87

6.1.1 Fonctions a variation finie . . . . . . . . . . . . . . . . . . . . . . . 87

6.1.2 Integrale de Stieltjes . . . . . . . . . . . . . . . . . . . . . . . . . . 90

6.1.3 Extension de l’integration de Stieltjes a R+ . . . . . . . . . . . . . . 91

6.1.4 Processus a variation finie . . . . . . . . . . . . . . . . . . . . . . . 91

6.2 Martingales locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

6.3 Variation quadratique d’une martingale locale . . . . . . . . . . . . . . . . 97

6.4 Semimartingales continues . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

III Integration stochastique 109

7 Integrale d’Ito 111

7.1 Un premier pas vers la formule d’Ito . . . . . . . . . . . . . . . . . . . . . 111

7.2 Integrales d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

7.3 Proprietes de l’integrale d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . 121

7.4 Generalisation de l’integrale stochastique . . . . . . . . . . . . . . . . . . . 127

7.5 Processus d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

Page 5: Processus stochastique

Table des matieres iii

8 Integration stochastique 1338.1 Par rapport a une martingale bornee dans L2 . . . . . . . . . . . . . . . . 1338.2 Par rapport a une martingale locale . . . . . . . . . . . . . . . . . . . . . . 1408.3 Par rapport a une semimartingale . . . . . . . . . . . . . . . . . . . . . . . 1448.4 Cas non continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146

9 Formule d’Ito et consequences 1499.1 Formule d’Ito . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1499.2 Theoreme de Levy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1569.3 Dubins-Schwarz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1579.4 Representation des martingales (browniennes) . . . . . . . . . . . . . . . . 159

Page 6: Processus stochastique

iv Table des matieres

Page 7: Processus stochastique

Introduction

Ces notes de cours ont pour but de presenter le mouvement brownien et l’integration sto-chastique. Elles sont principalement destinees aux etudiants du Master 2 « Mathematiqueset applications » de l’Universite de Rennes 1. Ces notes ont plusieurs sources d’inspiration,dont principalement [LG1] mais aussi les notes de cours [Gue], [EGK], [CM], [Mal]. Parailleurs, des references standard conseillees sur le sujet sont les livres [KS], [RY] (en anglais)et [Gal], [CM] (en francais).

Le contenu de ces notes est le suivant :On commence par quelques rappels gaussiens en introduction. La notion generale de proces-sus stochastique est presentee au Chapitre 1. Le Chapitre 2 introduit la classe des processusgaussiens. Ces chapitres s’inspirent de [Dav] et des references classiques sont [Bil2], [Kal].Au Chapitre 4, on presente le mouvement brownien, processus stochastique central, donton discute de nombreuses proprietes.Au Chapitre 5, on introduit la notion de martingale en temps continu. On revisite les prin-cipales proprietes connues dans le cas discret.La notion de semimartingale, essentielle dans la theorie de l’integration stochastique, estpresentee au Chapitre 6.Le Chapitre 8 est consacre a la construction des integrales stochastiques et a ses principalesproprietes.Des references valables pour tous les chapitres sont [LG1], [Gue], [EGK], [KS], [RY], [CM]et [Mal].

Les prerequis de ce cours sont des probabilites de base (des fondements des probabilitesaux consequences de la LGN et du TCL – niveau L3), les martingales en temps discret(niveau M1), le mouvement brownien et l’integration stochastique.

v

Page 8: Processus stochastique

vi c©JCB – M2 Math. – Universite de Rennes 1

Page 9: Processus stochastique

Rappels gaussiens

Dans ce chapitre, on rappelle les principaux resultats sur les variables aleatoires gaus-siennes et sur les vecteurs aleatoires gaussiens. Ces rappels seront utiles pour generaliser lecadre gaussien aux processus au Chapitre 2 et presenter la notion de processus gaussien.

Variables gaussiennes

Definition 0.1 Une variable aleatoire X suit la loi normale standard N (0, 1) si elle admetpour densite

t 7→ 1√2π

exp(− t2/2

).

De facon generale, une variable aleatoire X suit la loi normale N (m,σ2) si elle admet pourdensite

t 7→ 1√2πσ2

exp

(−(t−m)2

2σ2

).

Si σ2 = 0, la loi est degeneree, la variable aleatoire X est constante egale a m. Sa loi estune mesure de Dirac en m : PX = δm.

Proposition 0.1 Une variable aleatoire X ∼ N (m,σ2) peut se voir comme la translateeet la dilatee de X0 ∼ N (0, 1) par X = m+ σX0.

Autrement dit si X ∼ N (m,σ2), σ2 > 0, on definit la variable centree reduite X = X−mσ

.Elle suit la loi N (0, 1). Cette action s’appelle « centrer, reduire ».

Proposition 0.2 Une variable aleatoire X de loi N (m,σ2) a pour

— esperance : E[X] = m ;— variance : Var(X) = σ2 ;— fonction caracteristique : ϕX(t) = exp

(imt− σ2t2/2

).

Si X ∼ N (0, σ2) alors les moments de X sont donnes pas

E[X2n] =(2n)!

2nn!σ2n et E[X2n+1] = 0. (1)

vii

Page 10: Processus stochastique

viii c©JCB – M2 Math. – Universite de Rennes 1

Demonstration :[Esquisse] Centrer, reduire pour se ramener a X ∼ N (0, 1). Calculssimples pour E[X], Var(X). Pour la fonction caracteristique, identifier les fonctions holo-morphes E[ezX ] et ez

2/2 pour z ∈ R et considerer z = ix. Pour les moments de tous ordresfaire des integrations par parties successives.

L’estimation de la queue normale suivante s’avere utile : pour N ∼ N (0, 1) et x ≥ 1, on a

P(N ≥ x) =1√2π

∫ +∞

x

e−t2/2dt ≤ 1√

∫ +∞

x

te−t2/2dt ≤ 1√

2πe−x

2/2. (2)

En fait, on a une estimation valable pour tout x > 0 et meilleure si x ≥ 1 :

Proposition 0.3 Soit N ∼ N (0, 1) et x > 0 alors

P(N ≥ x) ≤ 1√2πx2

exp(−x2/2)

Demonstration : En notant f(x) = 1x√

2πexp(−x2/2), on a

f ′(x) = −exp(−x2/2)√2π

− 1

x2

exp(−x2/2)√2π

≤ −exp(−x2/2)√2π

.

D’ou

P(N ≥ x) =

∫ +∞

x

1√2π

exp(−u2/2)du ≤ −∫ +∞

x

f ′(u)du = −[f(u)]+∞x = f(x).

Proposition 0.4 Soient N1 ∼ N (m1, σ21) et N2 ∼ N (m2, σ

22) independantes. Alors N1 +

N2 ∼ N (m1 +m2, σ21 + σ2

2).

Demonstration : Par les fonctions caracteristiques, avec l’independance, on a :

ϕN1+N2(t) = ϕN1(t)ϕN2(t) = exp(im1t− σ2

1t2/2)

exp(im2t− σ2

2t2/2)

= exp(i(m1 +m2)t− (σ2

1 + σ22)t2/2

)= ϕN (m1+m2,σ2

1+σ22)(t)

ce qui prouve le resultat.

Proposition 0.5 Soit (Xn)n≥1 une suite de variables normales de loi N(mn, σ

2n

).

1. La suite (Xn)n≥1 converge en loi ssi mn → m ∈ R et σ2n → σ2 ∈ R+. La loi limite

est alors N (m,σ2).

2. Si la suite(Xn)n≥1 converge en probabilite vers X, la convergence a lieu dans tous lesespaces Lp, p < +∞.

Page 11: Processus stochastique

ix

Demonstration : 1) D’apres le theoreme de Paul Levy, la convergence en loi Xn =⇒ Xest equivalente a avoir pour tout t ∈ R :

ϕXn(t) = exp

(imnt−

σ2n

2t2)→ ϕX(t), n→ +∞. (3)

Comme ϕX est continue et ϕX(0) = 1, il existe t 6= 0 tel que |ϕX(t)| 6= 0. Pour ce t, en

prenant le module dans (3), on a exp(−σ2n

2t2)→ |ϕX(t)|. On deduit alors que limn→+∞ σ

2n =

− 2t2

ln |ϕX(t)| := σ2 existe. Par suite, on a aussi

exp(imnt

)→ exp

(σ2t2/2

)ϕX(t).

Supposons que (mn)n≥1 est non bornee. On construit alors une sous-suite mnk→ +∞,

k → +∞ (ou −∞ ce qui mene a un raisonnement analogue). Alors pour tout η > 0,

P(X ≥ η) ≥ lim supk→+∞

P(Xnk≥ η) ≥ 1

2

puisque, pour k assez grand, P(Xnk≥ η) ≥ P(Xnk

≥ mk) = 1/2 (la moyenne mk etantaussi la mediane). En faisant η → +∞, on a P(X = +∞) ≥ 1/2, ce qui est absurde carP(X ∈ R) = limn→+∞ P(Xn ∈ R) = 1.On a donc (mn)n≥1 bornee. Des lors, si m et m′ sont deux valeurs d’adherence de (mn)n≥1,en passant a la limite sur les bonnes sous-suites, on doit avoir eimt = eim

′t pour tout t ∈ R,ce qui exige m = m′. Il y a donc unicite de la valeur d’adherence, c’est a dire existence dela limite m de mn.Finalement, mn → m et σn → σ (n→ +∞) et en passant a la limite dans (3), on a :

ϕX(t) = exp(imt− σ2

2t2)

ce qui assure X ∼ N (m,σ2).

2) On ecrit Xn = σnNn + mn avec Nn ∼ N (0, 1). Comme Xn converge en loi, les suites(mn)n≥1 et (σn)n≥1 sont bornees d’apres la partie 1). Par convexite pour q ≥ 1

|σnN +mn|q ≤ 2q−1(|σn|q||N |q + |mn|q)

et l’expression des moments de Nn, donnee en (1) assure alors

supn≥1

E[|Xn|q

]< +∞ ∀q ≥ 1.

Comme la convergence en probabilite donne la convergence ps d’une sous-suite Xnk, par le

lemme de Fatou, on a :

E[|X|q

]= E

[lim

k→+∞|Xnk|q]≤ lim inf

k→+∞E[Xnk

|q] ≤ supk≥1

E[|Xnk|q]≤ sup

n≥1E[|Xn|q

]< +∞.

Page 12: Processus stochastique

x c©JCB – M2 Math. – Universite de Rennes 1

Soit p ≥ 1, la suite |Xn−X|p converge vers 0 en probabilite et est uniformement integrablecar bornee dans L2 (d’apres ce qui precede avec q = 2p). Elle converge donc dans L1 vers0 ce qui prouve 2).

Le caractere universel de la loi normale est illustre par le resultat suivant. Il montre que laloi normale standard controle les fluctuations par rapport a leur moyenne des effets cumulesd’un phenomene aleatoire repete avec des repetitions independantes.Dans la suite, iid signifiera independant(e)s et identiquement distribue(e)s, c’est a direde meme loi. Souvent, on notera aussi vaiid pour variables aleatoires independantes etidentiquement distribuees.

Theoreme 0.1 (TCL) Soit (Xn)n≥1 une suite de variables aleatoires iid, d’esperance met de variance finie σ2 > 0. Soit Sn = X1 + · · · + Xn la somme partielle. Alors quandn→ +∞

Sn − nm√σ2n

=⇒ N (0, 1).

Remarque 0.1 — Le TCL complete la loi des grands nombres : en effet, la LGNdonne Sn/n → m, c’est a dire Sn − nm ≈ 0. Le TCL donne la vitesse de cetteconvergence (en loi) : elle est en

√n. Noter que la convergence est presque sure dans

la LGN et en loi (donc beaucoup plus faible) dans le TCL.— La loi N (0, 1) apparaıt a la limite dans le TCL alors que les variables aleatoiresXi sont de lois arbitraires (de carre integrable) : ce resultat justifie le role universelde la loi normale. Elle modelise les petites variations de n’importe quelle loi (avecun moment d’ordre 2) par rapport a sa moyenne.

Demonstration : D’apres le theoreme de Paul Levy, il suffit de montrer la convergencedes fonctions caracteristiques. Posons Yi = (Xi −m)/σ, si bien que les variables aleatoiresYi sont independantes de meme loi avec E[Yi] = 0, Var(Yi) = Var(Xi)/σ

2 = 1. Notons

S ′n = Y1 + · · ·+ Yn et Zn = Sn−nm√n

= S′n√n. On a

ϕZn(t) = E[exp

(itS ′n√n

)]= E

[exp

(it√nS ′n

)]= ϕS′n

(t√n

)= ϕY1

(t√n

). . . ϕYn

(t√n

)=

(ϕY1

(t√n

))nen utilisant ϕY1+···+Yn = ϕY1 . . . ϕYn = ϕnY1

par independance et identique distribution desvariables aleatoires Yi.Comme Y1 a un moment d’ordre 2, ϕY1 est derivable 2 fois avec ϕY1(0) = 1, ϕ′Y1

(0) =iE[Y1] = 0 et ϕ′′Y1

(0) = i2E[Y 21 ] = −1. La formule de Taylor a l’ordre 2 en 0 donne alors

ϕY1(x) = ϕY1(0) + xϕ′Y1(0) +

x2

2ϕ′′Y1

(0) + x2ε(x) = 1− x2

2+ x2ε(x)

Page 13: Processus stochastique

xi

ou la fonction ε verifie limx→0 ε(x) = 0. On a donc

ϕZn(t) =

(ϕY1

(t√n

))n=

(1− t2

2√n

2 +t√n

2 ε(t/√n)

)n

=

(1− t2

2n+

1

nε(1/√n)

)n= exp

(n ln

(1− t2

2n+

1

nε(1/√n)))

= exp

(n(− t2

2n+

1

nε(1/√n)))

= exp

(−t

2

2+ ε(1/

√n)

).

(Noter que la fonction reste ε(·) dans ϕY1 est a valeurs complexes si bien qu’il est un peurapide de prendre directement le logarithme comme precedemment. Cependant l’argumentpeut etre precise sans passer par la forme exponentielle avec les logarithmes ; on renvoie aun (bon) cours de L3 ou de M1.) On a donc pour chaque t ∈ R,

limn→+∞

ϕZn(t) = exp(− t2/2

)= ϕN (0,1)(t).

Le theoreme de Paul Levy donne alors la convergence en loi de Zn vers N (0, 1), ce quiprouve le TCL.

Remarque 0.2 En general, lorsque n est grand, on approxime la loi d’une somme devariables aleatoires iid de L2(Ω) par une loi normale grace au TCL de la facon suivante :Soit Sn = X1 + · · · + Xn la somme de variables aleatoires iid Xi avec σ2

X < +∞, on ad’apres le TCL

X1 + · · ·+Xn − nE[X1]

σ√n

=⇒ N (0, 1).

Quand n est grand on approxime alors la loi de X1+···+Xn−nE[X1]σ√n

par celle de Y = N (0, 1).Si bien que la loi de la somme Sn = X1 + · · ·+Xn est approximee par celle de

nE[X1] + σ√nY ∼ N

(nE[X1], σ2n

).

Regle d’approximation : La somme Sn d’une suite de vaiid L2 de moyenne m et devariance σ2 s’approxime par Sn ≈ N (nm, nσ2).

Application (Moivre-Laplace). Comme une variable aleatoire Xn de loi binomialeB(n, p) peut se voir comme la somme de n variables aleatoires εi independantes de loide Bernoulli b(p), Xn = ε1 + · · ·+ εn, la remarque precedente montre qu’on peut approcherla loi B(n, p) par la loi normale N

(np, np(1− p)

).

Page 14: Processus stochastique

xii c©JCB – M2 Math. – Universite de Rennes 1

Vecteurs gaussiens

On considere des vecteurs aleatoires dans Rn. Muni de son produit scalaire canonique,Rn est un espace euclidien. Pour deux vecteurs a = (a1, . . . , an), b = (b1, . . . , bn) ∈ Rn, onnote 〈a, b〉 =

∑ni=1 aibi leur produit scalaire. On peut generaliser cette section a un espace

E euclidien (si dim(E) = n alors E ∼ Rn).

Definition 0.2 (Vecteur gaussien) Un vecteur aleatoire X = (X1, . . . , Xn) est gaussienssi toutes les combinaisons lineaires de ses coordonnees 〈a,X〉 = a1X1 + · · ·+anXn suiventune loi gaussienne dans R (pour tout a = (a1, . . . , an) ∈ Rn).Dans un cadre euclidien E, X vecteur a valeurs dans E est gaussien ssi pour tout a ∈ E,〈a,X〉 suit une loi gaussienne.

En particulier, chaque marginale Xi suit une loi normale et a donc un moment d’ordre2 fini. Les moments joints E[XiXj] sont donc bien definis et on peut definir licitement lamatrice de covariance :

Definition 0.3 La matrice de covariance d’un vecteur gaussien X = (X1, . . . , Xn) estla matrice carree symetrique, positive

K =(

Cov(Xi, Xj))

1≤i,j≤n.

L’esperance de X = (X1, . . . , Xn) est le vecteur des esperances de ses marginales

E[X] =(E[X1], . . . ,E[Xn]

).

Si E[X] = 0, le vecteur X est dit centre.

Fonction caracteristique gaussienne en dimension n

Si X = (X1, . . . , Xn) est un vecteur gaussien alors 〈a,X〉 =∑n

i=1 aiXi suit une loinormale de parametres

E[〈a,X〉

]= E[a1X1 + · · ·+ anXn] = a1E[X1] + · · ·+ anE[Xn] = 〈a,E[X]〉

Var(〈a,X〉

)= Var(a1X1 + · · ·+ anXn) =

n∑i,j=1

aiaj Cov(Xi, Xj) = at Cov(X)a.

La variable aleatoire 〈a,X〉 suit donc la loi N(〈a,E[X]〉, at Cov(X)a

), sa fonction caracte-

ristique est donnee par

ϕ〈a,X〉(x) = exp

(ix〈a,E[X]〉 − 1

2(at Cov(X)a)x2

).

D’apres la definition des fonctions caracteristiques d’une variable aleatoire et d’un vecteuraleatoire

ϕX(x) = E[ei〈x,X〉

]= ϕ〈x,X〉(1).

On en deduit :

Page 15: Processus stochastique

xiii

Proposition 0.6 La fonction caracteristique d’un vecteur gaussien X = (X1, . . . , Xn) estdonnee par

ϕX(x) = exp

(i〈x,E[X]〉 − 1

2(xt Cov(X)x)

)= exp

(i〈x,E[X]〉 − 1

2〈x,Cov(X)x〉

). (4)

Remarque 0.3 — La loi d’un vecteur gaussien est connue des qu’on a le vecteurmoyenne E[X] et la matrice de covariance Cov(X).

— On parle du vecteur gaussien standard en dimension n lorsque E[X] = 0 etCov(X) = In. Sa fonction caracteristique se simplifie en

ϕX(x) = exp(− 〈x, x〉/2

)= exp

(− ‖x‖2/2

).

— Pour un vecteur gaussien centre, on a E[X] = 0 et on montre que

〈x,Cov(X)x〉 = E[〈x,X〉2],

si bien que dans le cas centre la fonction caracteristique se reecrit :

ϕX(x) = exp

(−1

2〈x,Cov(X)x〉

)= exp

(−1

2E[〈x,X〉2]

).

— En prenant x = (x1, 0, . . . , 0), on a

ϕX1(x1) = ϕX(x) = exp(iE[X1]x1 − Var(X1)x2

1/2).

On retrouve que X1 ∼ N(E[X1],Var(X1)

). Plus generalement, pour tout 1 ≤ i ≤ n,

on a Xi ∼ N(E[Xi],Var(Xi)

).

Comme pour les variables aleatoires gaussiennes, on peut se ramener a un vecteur gaussienstandard en centrant et en reduisant un vecteur gaussien quelconque non degenere. On aen effet :

Proposition 0.7 Soit X ∼ N (m,K) un vecteur gaussien non degenere (ie. detK 6= 0)avec m ∈ Rn et K sa matrice de covariance. Alors

√K−1

(X −m) ∼ N (0, In). (5)

Si X ∼ N (m,K) est degenere, c’est que le vecteur X vit dans un sous-espace vectorielstrict de Rn. Il faut l’etudier dans ce sous-espace vectoriel.Demonstration : Comme le vecteur X est non degenere, sa matrice de covariance K estdefinie (c’est a dire inversible). Il existe donc une matrice A =

√K inversible telle que

K = AAt. (Par la methode de Cholesky, A peut etre choisie triangulaire inferieure.) Il est

Page 16: Processus stochastique

xiv c©JCB – M2 Math. – Universite de Rennes 1

donc legitime d’utiliser√K−1

dans (5).

On montre maintenant que X =√K−1

(X −m) est gaussien, standard :

ϕX(x) = E[exp(i〈x, X〉)

]= E

[exp(i〈x,

√K−1

(X −m)〉)]

= E[exp(i〈(

√K−1

)tx,X −m〉)]

= E[exp(i〈(

√K−1

)tx,X〉)]× exp

(−i〈(√K−1

)tx,m〉)

= ϕX

((√K−1

)tx)× exp

(−i〈(√K−1

)tx,m〉)

= exp

(i〈m, (

√K−1

)tx〉 − 1

2〈(√K−1

)tx,K(√K−1

)tx〉)× exp

(−i〈(√K−1

)tx,m〉)

= exp

(−1

2〈(√K−1

)tx,K(√K−1

)tx〉)

= exp

(−1

2〈x,√K−1K(√K−1

)tx〉)

= exp

(−1

2〈x,√K−1√

K(√K)t(√K−1

)tx〉)

= exp

(−1

2〈x, x〉

)= exp

(−1

2‖x‖2

).

On a donc bien X ∼ N (0, In).

Remarque 0.4 Comme pour les variables aleatoires normales, un vecteur aleatoire X ∼N (m,K) avec K inversible peut se voir comme la translatee et dilatee du vecteur gaussienstandard X0 ∼ N (0, In) :

X ∼√KX0 +m.

Independance de variables gaussiennes

Proposition 0.8 Soient (X, Y ) un couple gaussien. Alors X et Y sont independantes ssiCov(X, Y ) = 0.

Demonstration : Le sens direct est vrai quelque soit la loi deX et de Y et suit de E[XY ] =E[X]E[Y ]. Pour la reciproque, on sait que X et Y sont independantes ssi ϕ(X,Y )(t1, t2) =ϕX(t1)ϕY (t2). Supposons le couple centre pour simplifier. Le vecteur gaussien (X, Y ) a unematrice de covariance diagonale : [

σ2X 00 σ2

Y

]

Page 17: Processus stochastique

xv

car les termes diagonaux sont Cov(X, Y ) = Cov(Y,X) = 0. On deduit de l’expression (4)de la fonction caracteristique de (X, Y ) que

ϕ(X,Y )(t1, t2) = exp(− 1

2

(t21σ

2X + t2σ

2Y

) )= exp

(− 1

2t21σ

2X

)× exp

(− 1

2t22σ

2Y

)= ϕX(t1)ϕY (t2),

ce qui justifie l’independance de X et de Y .

Il est aise de generaliser de la meme facon le resultat pour des vecteurs. Attention, il fautbien veiller a ce que considerer ensemble les vecteurs forment encore un vecteur gaussien,sinon l’exemple ci-dessous montre que le resultat est faux (cf. aussi un autre exemple ci-dessous).

Exemple : Considerons par exemple une variable X ∼ N (0, 1) et une seconde variable εindependante de X et telle que P(ε = 1) = P(ε = −1) = 1/2. Alors X1 = X, X2 = εX sontdeux variables N (0, 1). De plus, Cov(X1, X2) = E[X1X2] = E[ε]E[X2] = 0. Cependant X1

et X2 ne sont evidemment pas independantes (par exemple parce que |X1| = |X2|). Dans cetexemple, le couple (X1, X2) n’est pas un vecteur gaussien dans R2 bien que ses coordonneessoient des variables gaussiennes.

Proposition 0.9 Soit (X1, . . . , Xn, Y1, . . . , Yp) un vecteur gaussien de dimension n + p.Les deux vecteurs aleatoires X = (X1, . . . , Xn) et Y = (Y1, . . . , Yp) sont independants ssitoutes les covariances Cov(Xi, Yj), 1 ≤ i ≤ n, 1 ≤ j ≤ p sont nulles.

Densite gaussienne en dimension n

Soit X ∼ N (0, In) un vecteur gaussien standard en dimension n. Comme Cov(X) = In,les marginales X1, . . . , Xn sont toutes independantes. La loi du vecteur X = (X1, . . . , Xn)est donc la loi produit de ses marginales PX = PX1 ⊗ · · · ⊗ PXn . En terme de densite, ladensite de X est aors donnee par le produit tensoriel

fX(x1, . . . , xn) = fX1(x1)× · · · × fXn(xn)

=

(1√2π

exp(−x21/2)

)× · · · ×

(1√2π

exp(−x2n/2)

)=

1

(2π)n/2exp

(− (x2

1 + · · ·+ x2n)/2

).

On a justifie :

Proposition 0.10 La densite d’un vecteur gaussien X ∼ N (0, In) standard en dimensionn est

fX(x) =1

(2π)n/2exp

(− (x2

1 + · · ·+ x2n)/2

).

Page 18: Processus stochastique

xvi c©JCB – M2 Math. – Universite de Rennes 1

Pour passer au cas general d’un vecteur gaussien X ∼ N (m,K) non degenere (ie. K =Cov(X) inversible), on va utiliser la representation donnee en (5) avec le vecteur gaussienreduit X0 ∼ N (0, In) : X ∼

√KX0 + m. Cela permet d’utiliser la densite deja justifiee

dans la proposition precedente : Soit A ∈ B(Rn)

P(X ∈ A) = P(√

KX0 +m ∈ A)

= P(X0 ∈

√K−1

(A−m))

=

∫√K−1

(A−m)

exp(−‖x‖2/2)

(2π)n/2dx

=

∫A

exp(−‖√K−1

(y −m)‖2/2)

(2π)n/2dy

det√K

(avec le changement de variable y =√Kx+m)

=

∫A

exp(− 〈(x−m), K−1(x−m)〉/2

)((2π)n detK)1/2

dx.

On a obtenu la forme generale de la densite d’un vecteur gaussien non degenere :

Proposition 0.11 La densite d’un vecteur gaussien X ∼ N (m,K) non degenere est

fX(x) =exp

(− 〈(x−m), K−1(x−m)〉/2

)((2π)n detK)1/2

.

Variables gaussiennes et vecteurs non gaussiens

On a deja vu que si un vecteur X = (X1, . . . , Xn) est gaussien alors ses marginales Xi lesont aussi, de meme les combinaisons lineaires de ses marginales le sont. La reciproqueest fausse : si des variables aleatoires sont gaussiennes alors le vecteur forme par cesvariables n’est pas necessairement gaussien. En effet, prenons X une variable aleatoire deloi N (0, 1) et Y de loi donnee, pour a > 0 fixe, par

Y =

X si |X| ≤ a,−X si |X| > a.

Alors Y est de loi N (0, 1) en effet

ϕY (t) = E[eitY ] = E[eitX1|X|≤a] + E[e−itX1|X|>a]

= E[eitX1|X|≤a] + E[eitX1|−X|>a] = E[eitX1|X|≤a] + E[eitX1|X|>a]

= E[eitX(1|X|≤a + 1|X|>a)]

= E[eitX ] = e−t2/2

car la loi de X est symetrique : L(X) = L(−X). Puis, la variable X + Y est donnee par

X + Y =

X +X = 2X si |X| ≤ aX −X = 0 si |X| > a

Page 19: Processus stochastique

xvii

= 2X1|X|≤a.

La combinaison lineaire X + Y a un atome en 0 car P(X + Y = 0) ≥ P(|X| > a) > 0.Elle ne suit donc pas une loi gaussienne. Le couple aleatoire (X, Y ) n’est donc pas gaussien(sinon on devrait avoir X + Y de loi gaussienne).

De plus, cet exemple montre aussi que dans la Proposition 0.8, l’hypothese (X, Y ) gaussienest necessaire et il ne suffit pas de supposer que X et Y sont des variables gaussiennes. Eneffet,

Cov(X, Y ) = E[XY ] = E[X21|X|≤a]− E[X21|X|>a]

= E[X2]− E[X21|X|>a]− E[X21|X|>a]

= 1− 2E[X21|X|>a].

La fonction u(a) = E[X21|X|>a] tend vers 0 en +∞ par convergence dominee, est continueet vaut E[X2] = 1 en 0. Par le theoreme des varleurs intermediaires, il existe donc a telque u(a) = 1/2 et Cov(X, Y ) = 0. Pourtant, X et Y sont non independantes sinon la loidu couple (X, Y ) serait

P(X,Y ) = PX ⊗ PY = N (0, 1)⊗N (0, 1) = N((

00

),

(1 00 1

))qui est gaussienne, ce qui est faux. On a donc des variables gaussiennes X et Y non correleesmais non independantes.

Page 20: Processus stochastique

xviii c©JCB – M2 Math. – Universite de Rennes 1

Page 21: Processus stochastique

Premiere partie

Processus stochastiques

1

Page 22: Processus stochastique
Page 23: Processus stochastique

Chapitre 1

Processus stochastiques

Ce chapitre presente la notion generale de processus stochastique. On decrit d’abord leslois des processus, leurs proprietes (Section 1.1), les trajectoires des processus (Section 1.2)et la notion de convergence faible des processus (Section 1.3).

Definition 1.1 (Processus stochastique) Un processus stochastique X = (Xt)t∈T estune famille de variables aleatoires Xt indexee par un ensemble T .

En general T = R ou R+ et on considere que le processus est indexe par le temps t.Si T est un ensemble fini, le processus est un vecteur aleatoire. Si T = N alors le processusest une suite de variables aleatoires. Plus generalement quand T ⊂ Z, le processus est ditdiscret. Pour T ⊂ Rd, on parle de champ aleatoire (drap quand d = 2).Un processus depend de deux parametres : Xt(ω) depend de t (en general le temps) et del’aleatoire ω ∈ Ω.

— Pout t ∈ T fixe, ω ∈ Ω 7→ Xt(ω) est une variable aleatoire sur l’espace de probabilite(Ω,F ,P).

— Pour ω ∈ Ω fixe, t ∈ T 7→ Xt(ω) est une fonction a valeurs reelles, appelee trajectoiredu processus. C’est un enjeu que de savoir si un processus admet des trajectoiresmesurables, continues, derivables ou encore plus regulieres.

Dans la suite, sauf mention contraire, on prendra T = R+ ou [0, 1].

1.1 Loi d’un processus

Definition 1.2 (Lois fini-dimensionnelles) On appelle lois fini-dimensionnelles d’unprocessus l’ensemble des lois

L(Xt1 , . . . , Xtn) : t1, . . . , tn ∈ T, n ∈ N. (1.1)

Un processus X = (Xt)t∈T est a valeurs dans RT . On munit RT de la tribu cylindriqueσ(Cyl) engendree par la famille des cylindres :

Cyl =x : T → R : x(t1) ∈ A1, . . . , x(tp) ∈ Ap, A1, . . . , Ap ∈ B(R), p ∈ N

.

3

Page 24: Processus stochastique

4 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

Il s’agit de la tribu sur RT rendant mesurables les applications coordonnees Πt : x ∈ RT 7→x(t) ∈ R. Il est legitime de regarder un processus X comme une fonction aleatoire a valeursdans (RT , σ(Cyl)) :

X :

(Ω,F) → (RT , σ(Cyl))

ω 7→ X(ω) =(Xt(ω)

)t∈T

(1.2)

On definit bien une variable aleatoire valeurs dans (RT , σ(Cyl)). En effet pour tout cylindreC = x ∈ RT : x(t1) ∈ A1, . . . , x(tp) ∈ Ap, on a X−1(C) =

⋂pi=1X

−1ti (Ai). Mais chaque

Xti etant une variable aleatoire, on a X−1ti (Ai) ∈ F et X−1(C) ∈ F . Comme Cyl engendre

σ(Cyl), on a bien la(F , σ(Cyl)

)-mesurabilite de (1.2)

On peut alors considerer la loi PX du processus sur(RT , σ(Cyl)

)comme mesure image P

par la variable (1.2). En fait les lois fini-dimensionnelles (1.1) de X definissent une loi sur(RT , σ(Cyl)

)par extension :

Theoreme 1.1 (Extension de Kolmogorov) Soit Q = Qt1,...,tn : t1, . . . , tn ∈ T, n ∈N∗ une famille de lois fini-dimensionnelles verifiant les conditions de compatibilite :

— si s = (ti1 , . . . , tin) est une permutation de t = (t1, . . . , tn) alors pour tout Ai ∈B(R), i = 1, . . . , n, on a

Qt(A1 × · · · × An) = Qs(Ai1 × · · · × Ain);

— si t = (t1, . . . , tn) avec n ≥ 1, s = (t1, . . . , tn−1) et A ∈ B(Rn−1) alors

Qt(A× R) = Qs(A).

Alors il existe une mesure de probabilite P sur(RT , σ(Cyl)

)qui admet Q = Qt1,...,tn :

t1, . . . , tn ∈ T, n ∈ N∗ pour famille de lois fini-dimensionnelles.

Demonstration : Admis, cf. [Kal] ou [KS].

Comme les lois fini-dimensionnelles d’un processus X = (Xt)t∈T satisfont immediatementles relations de compatibilite, le theoreme d’extension de Kolmogorov (Th. 1.1) permeteffectivement de considerer la loi P = PX d’un processus X sur

(RT , σ(Cyl)

). De plus :

Proposition 1.1 La loi d’un processus stochastique X = (Xt)t∈T est entierement caracte-risee par ses lois fini-dimensionnelles

L(Xt1 , . . . , Xtn) : t1, . . . , tn ∈ T, n ∈ N∗

.

Demonstration : Considerons deux processus X(1) et X(2) partageant les memes lois fini-dimensionnelles. Nous montrons que leur loi P1 et P2 sont egales sur

(RT , σ(Cyl)

).

Remarquons que l’ensemble Cyl des cylindres est un π-systeme (stable par ∩ finie : l’in-tersection de deux cylindres est encore un cylindre). Notons M = A ∈ σ(Cyl) : P1(A) =P2(A). Il s’agit d’une classe monotone (RT ∈M ;M est stable par difference ensembliste,M est stable par reunion croissante) et M contient Cyl (puisque X(1) et X(2) ont memeslois fini-dimensionnelles) : pour un cylindre C,

P1(C) = P(X

(1)t1 ∈ A1, . . . , X

(1)tn ∈ An

)= P

(X

(2)t1 ∈ A1, . . . , X

(2)tn ∈ An

)= P2(C).

Page 25: Processus stochastique

1.1. Loi d’un processus 5

Le theoreme de classe monotone assure alors que σ(Cyl) ⊂M, ce qui donne le resultat.

Il y a plusieurs facons pour des processus stochastiques X et Y d’etre egaux :

Definition 1.3 (Egalites de processus)— Deux processus X et Y ont meme lois s’ils ont meme lois fini-dimensionnelles :pour tout n ∈ N et t1, . . . , tn ∈ T ,(

Xt1 , . . . , Xtn

) L=(Yt1 , . . . , Ytn

).

On ecrira XL= Y .

— On dira que Y est une version (ou une modification) du processus X si pour toutt ∈ T , P(Xt = Yt) = 1.

— Deux processus X et Y sont dit indistinguables s’il existe N negligeable tels quepour ω 6∈ N on a Xt(ω) = Yt(ω) pour tout t ∈ T ; de facon un peu abusive (parce queXt = Yt,∀t ∈ T n’est pas necessairent un evenement), on ecrit : P(Xt = Yt,∀t ∈T ) = 1.

Il est facile de voir que pour deux processus stochastiques X et Y , les notions d’egalite deslois de processus s’ordonnent logiquement de la facon suivante :

Proposition 1.2 indistinguable ⇒ modification ⇒ meme lois fini-dimensionnelles.

Les implications sont strictes, comme indique dans les exemples ci-dessous :

Exemple 1.1 1) Soit N ∼ N (0, 1) et pour tout t : Xt = N , Yt = −N . Alors (Xt)t≥0 et(Yt)t≥0 ont meme lois fini-dimensionnelles tandis que P(Xt = Yt) = P(2N = 0) = 0, ie.X, Y ne sont pas version l’un de l’autre.2) Soit l’espace de probabilite

([0, 1],B([0, 1]), λ

)et T = [0, 1]. Considerons D la diagonale

de [0, 1]× [0, 1] et definissons

X(t, ω) = 0 ∀(t, ω), Y (t, ω) = 1D(t, ω).

Pour t fixe, on a X(t, ω) = 0 et Y (t, ω) = 1t(ω). On a donc X(t, ω) = Y (t, ω) pourtout ω 6= t, c’est a dire ps : les processus X, Y sont versions l’un de l’autre. Pourtant,P(ω : X(t, ω) = Y (t, ω),∀t

)= 0 : les processus X et Y ne sont pas indistinguables.

Dans l’exemple 2) ci-dessus, observons que les trajectoires de X sont continues tandisque celles de Y ne le sont pas. En fait, c’est ce qu’il manque pour la reciproque puisquel’implication « indistinguable ⇒ modification » admet la reciproque suivante :

Proposition 1.3 Soient T separable (ie. T contient une partie dense denombrable) etX, Y modifications ont des trajectoires continues ps alors ils sont indistinguables.

Page 26: Processus stochastique

6 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

Si T ⊂ R alors on peut supposer seulement la continuite a droite ou a gauche des trajec-toires.Demonstration : On choisit D une partie denombrable dense dans T . Pour tout t ∈D, P(Xt = Yt) = 1 et par denombrabilite de D, l’ensemble A = Xt = Yt,∀t ∈ Dest de probabilite 1. L’ensemble B = X et Y sont a trajectoires continues est aussi deprobabilite 1. Soit ω ∈ A∩B tel que t 7→ Xt(ω), t 7→ Yt(ω) sont continues. On a P(A∩B) = 1et pour ω ∈ A ∩B :

— si t ∈ D, on a Xt = Yt.— si t 6∈ D, il existe tn ∈ D avec tn → t, n → +∞. On a Xtn = Ytn (tn ∈ D,ω ∈ A)

et Xtn → Xt, Ytn → Yt (continuite des deux trajectoires pour ω ∈ B). On a doncXt = Yt sur A ∩B.

Finalement pour ω ∈ A ∩ B : Xt = Yt ∀t ∈ T ; ce qui signifie que X, Y sont des processusindistinguables.

Exemples de proprietes en loi des processus

Il existe de nombreuses classes de processus particuliers : les processus de Markov (enparticulier les chaınes de Markov quand T = N), les martingales, les processus gaussiens, lesprocessus de Poisson, les processus stables ou encore les processus de Levy (qui contiennentles trois exemples precedents). Ces proprietes ont des proprietes remarquables de leurs loisfini-dimensionnelles. Nous donnons ici quelques exemples de telles proprietes en loi desprocessus. Ces proprietes sont souvent fort utiles pour modeliser des phenomenes reels.

Definition 1.4 Un processus est dit (strict) stationnaire si pour tout h ≥ 0, (Xt+h)t≥0L=

(Xt)t≥0 ne depend pas de h > 0, c’est a dire pour tout h et tout t1, . . . , tn ≥ 0, on a

(Xt1+h, . . . , Xtn+h)L= (Xt1 , . . . , Xtn).

Un processus est dit a accroissements stationnaires si la loi des accroissements Xt+h−Xt ne depend pas de t > 0, ie. Xt+h −Xt

L= Xh.

Un processus X est dit a accroissements independants si pour tout 0 < t1 < t2 · · · < tn,les variables aleatoires Xt1, Xt2 −Xt1 , . . . , Xtn −Xtn−1 sont independantes.

Exemple. T = N. Soit (Xn)n≥1 une suite de variables aleatoires independantes. On consi-dere Sn =

∑ni=1Xi le processus discret de sommes partielles. On parle de marche aleatoire.

Alors (Sn)n∈N∗ est un processus a accroissements independants. Si en plus les variablesaleatoires Xn sont de meme loi (les variables aleatoires sont iid), le processus est a accrois-sements independants et stationnaires.

1.2 Regularite des trajectoires

D’apres l’Exemple 1.1, les versions d’un processus stochastiques n’ont pas toujours lameme regularite de leurs trajectoires. Aussi, il est interessant de chercher si un processus Xadmet des versions X dont les trajectoires ont de bonnes proprietes de regularite et d’avoir

Page 27: Processus stochastique

1.2. Regularite des trajectoires 7

des conditions le garantissant. Dans cette section, on s’attache a trouver des versions atrajectoires continues d’un processus.

Theoreme 1.2 (Kolmogorov-Centsov) Soit (Xt)t∈T un processus indexe par un inter-valle T borne de R et a valeurs dans (E, d) espace metrique complet. On suppose qu’ilexiste a, b, C > 0 verifiant pour tout s, t ∈ T :

E[d(Xt, Xs)

a]≤ C|t− s|1+b. (1.3)

Alors il existe une version X de X dont les trajectoires sont holderiennes d’exposant γ pourtout γ ∈]0, b/a[, ie. pour tout s, t ∈ T : d

(Xs(ω), Xs(ω)

)≤ Cγ(ω)|t − s|γ. En particulier,

X est une version continue de X.

Remarque 1.1 — La condition du theoreme porte sur les lois de dimension 2 :

E[d(Xt, Xs)

a]

=

∫R2

|x− y|a P(Xt,Xs)(dx, dy),

ce qui est une condition legere sur la loi, caracterisee par toutes les loi fini-dimensinnelles.En pratique, pour verifier (1.3), il faut donc calculer des moments pour des vecteursde dimension 2.

— Quand (E, d) = (R, | · |), a priori, dans le theoreme, a et b sont non lies. En realite,on peut toujours prendre a ≥ 1 + b. En effet, si a < 1 + b, alors (1.3) se reecrit

E[∣∣∣∣d(Xt, Xs)

t− s

∣∣∣∣a] ≤ c|t− s|1+b−a

avec 1+b−a > 0. En faisant s→ t, la derivee dans le sens La de (Xt)t∈T est nulle et(Xt)t∈T est donc constant. Ce n’est donc pas tres interessant d’utiliser le Theoreme1.2 dans un tel cas : puisque le processus initial est en fait constant, il est evidentqu’il est aussi continu.

— La condition b > 0 est essentielle : le processus de Poisson compense (Πt − t)t≥0

fournit un contre-exemple quand b = 0. Soit Xt = Πt − t ou (Πt)t≥0 est un pro-cessus de Poisson (processus a accroissements independants, stationnaires avec desmarginales de loi de Poisson, cf. Section 5.4). On a

Πt ∼ P(t), E[Πt] = t, Var(Πt) = t,

soit pour X :

E[|Xt −Xs|2

]= Var

(Πt − Πs

)= Var

(Πt−s

)= t− s.

On a donc (1.3) avec a = 2, b = 0 et C = 1. Or les trajectoires du processus dePoisson sont cadlag (et meme constantes par morceaux avec des sauts +1) or d’apresla Prop. 1.3 et la remarque qui la suit, il devrait coıncider avec sa version continue !

Page 28: Processus stochastique

8 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration : (Th. 1.2, Kolmogorov-Censtov) Nous supposons T intervalle borne. Sil’intervalle T est non borne (par exemple si T = R+), on peut appliquer le cas borne aT = [0, 1], [1, 2], [2, 3] etc et on trouve encore que X a une modification continue definiesur T , qui est localement holderienne d’exposant γ pour tout γ ∈]0, b/a[. Pour simplifierla presentation, on prend dans la suite T = [0, 1].Il suffit de montrer que pour γ ∈]0, b/a[ fixe, X a une modification dont les trajectoires sontholderiennes d’exposant γ. En effet, on appliquera alors ce resultat a une suite γn b/aen observant que les processus obtenus sont des versions continues du meme processus Xdonc indistinguables par la Prop. 1.3.On note D l’ensemble (denombrable) des nombres dyadiques t ∈ [0, 1[ qui s’ecrivent sousla forme

t =

p∑k=1

εk2−k avec εk = 0 ou 1.

Le point clef est le resultat suivant du au lemme de Borel-Cantelli :

Lemme 1.1 Pour tout γ ∈]0, b/a[, il existe ps une constante Cγ(ω) < +∞ telle que pourtout s, t ∈ D

d(Xs, Xt

)≤ Cγ(ω)|t− s|γ.

Preuve du lemme. Avec l’inegalite de Markov, l’hypothese (1.3) du Theoreme 1.2 en-traıne que, pour a > 0 et s, t ∈ T , u > 0

P(d(Xs, Xt) ≥ u

)≤ u−aE

[d(Xs, Xt)

a]≤ Cu−a|t− s|1+b.

En appliquant cette inegalite avec s = (i−1)2−n, t = i2−n (pour i = 1, . . . , 2n) et u = 2−nγ,on a :

P(d(X(i−1)2−n , Xi2−n

)≥ 2−nγ) ≤ C2naγ2−(1+b)n.

En sommant sur i ∈ [1, 2n], on trouve

P( 2n⋃i=1

d(X(i−1)2−n , Xi2−n) ≥ 2−nγ

)≤ 2nC2naγ−(1+b)n = C2−n(b−aγ).

Comme b− aγ > 0, on a

+∞∑n=1

P( 2n⋃i=1

d(X(i−1)2−n , Xi2−n) ≥ 2−nγ

)< +∞

et le lemme de Borel-Cantelli assure que ps il existe n0(ω) tel que des que n ≥ n0(ω) pourtout i ∈ 1, . . . , 2n, on a

d(X(i−1)2−n , Xi2−n

)≤ 2−nγ.

A fortiori, ps

Kγ(ω) := supn≥1

(sup

1≤i≤2n

d(X(i−1)2−n , Xi2−n)

2−nγ

)< +∞

Page 29: Processus stochastique

1.2. Regularite des trajectoires 9

(pour n ≥ n0(ω), le terme entre parentheses est majore par 1, et il y a un nombre fini determe n ≤ n0(ω) : le supn est bien fini !).On obtient alors le resultat du lemme avec Cγ(ω) = 2γ+1(1− 2−γ)Kγ(ω). En effet, conside-rons s, t ∈ D avec s < t. Soit p ≥ 1 tel que 2−p−1 < t− s ≤ 2−p. Il existe m ≥ 1 tel qu’onpuisse ecrire s, t sous la forme :

s = k2−p + ε02−p + ε12−p−1 + · · ·+ εm2−p−m

t = k2−p + ε′02−p + ε′12−p−1 + · · ·+ ε′m2−p−m

ou εj, ε′j = 0 ou 1. On note pour i = 0, . . . ,m

sj = k2−p + ε02−p + ε12−p−1 + · · ·+ εj2−p−j

tj = k2−p + ε′02−p + ε′12−p−1 + · · ·+ ε′j2−p−j

Comme s = sm et t = tm, on a

d(Xs, Xt) = d(Xsm , Xtm)

≤ d(Xs0 , Xt0) +m∑j=1

d(Xsj−1, Xsj) +

m∑j=1

d(Xtj−1, Xtj)

≤ Kγ(ω)2−pγ +m∑j=1

Kγ(ω)2−(p+j)γ +m∑j=1

Kγ(ω)2−(p+j)γ

≤ Kγ(ω)(21−γ + 1)(1− 2−γ)−12−pγ(car

m∑j=1

2−(p+j)γ ≤ 2−pγ2−γ/(1− 2−γ))

≤ Cγ(ω)(t− s)γ

ou la derniere ligne vient de 2−p ≤ 2(t− s) et prouve le Lemme 1.1.

On termine la preuve du Theoreme 1.2 de la facon suivante : d’apres le Lemme 1.1, lafonction t 7→ Xt(ω) est ps γ-holderienne sur D, donc uniformement continue sur D. Comme(E, d) est complet, il existe ps un unique prolongement continu de cette fonction a T = [0, 1].Le prolongement reste γ-holderien. Plus precisement, on pose pour tout t ∈ [0, 1] :

Xt(ω) = lims→t,s∈D

Xs(ω)

sur l’ensemble presque sur ω : Kγ(ω) < +∞ ou s 7→ Xs(ω) est γ-holderienne sur D et

on pose Xt(ω) = x0 sur l’ensemble ω : K(ω) = +∞ negligeable ou x0 est un point fixe

quelconque de E. Par construction, le processus X a alors des trajectoires holderiennesd’exposant γ sur [0, 1].

Il reste a voir que X est bien une version de X. Or l’hypothese (1.3) assure avec l’inegalitede Markov :

P(d(Xs, Xt) ≥ ε

)≤

E[d(Xs, Xt)

a]

εa≤ |t− s|

1+b

εa. (1.4)

Page 30: Processus stochastique

10 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

Ainsi, pour tout t ∈ T fixe,

XsP−→ Xt, s→ t.

Comme par construction Xs → Xt ps quand s→ t, s ∈ D, on conclut que Xt = Xt ps parunicite ps de la limite en probabilite.

1.3 Convergence faible des lois de processus

On a vu qu’un processus X = (Xt)t∈T definit en (1.2) une variable aleatoire sur(RT , σ(Cyl)

). Cependant avec de bonnes proprietes trajectorielles, on peut ameliorer l’es-

pace d’arrivee(RT , σ(Cyl)

), typiquement si X est a trajectoires continues alors X est a

valeurs dans C(T,R) (ou si ce n’est X, une de ses versions en utilisant le Theoreme 1.2).Quand T = [0, 1] (ou est borne), C(T,R) est norme par

‖x− y‖∞ = supt∈T|x(t)− y(t)|, x, y ∈ C(T,R). (1.5)

qui definit la topologie de la convergence uniforme. Il s’agit alors d’un espace de Banach.Quand T = R+, C(R+,R) admet pour distance

d(x, y) =+∞∑n=1

2−n min(‖x− y‖∞,n, 1), (1.6)

ou ‖x− y‖∞,n = supt∈[0,n]

|x(t)− y(t)|, x, y ∈ C(R+,R),

qui metrise la convergence uniforme sur tous les compacts.

L’interet de considerer X a valeurs dans C(T,R) (ou un autre espace fontionnel, souventD(R+,R), l’espace des fonctions cadlag –continue a droite avec des limites a gauche– ditespace de Skorohod, cf. [Bil2]) est alors que X est a valeurs dans un espace metrique (etmeme souvent un espace metrique complet, separable, dit polonais) et que dans ce cadrela notion de convergence en loi est bien developpee, cf. Section 1.3.1.

On commence par s’assurer que le processus X = (Xt)t∈T reste bien une variable aleatoiresur C(T,R) :

X :

(Ω,F) →

(C(T,R),B

(C(T,R)

))ω 7→ X(ω) =

(Xt(ω)

)t∈T .

(1.7)

L’espace C(T,R) est muni de deux tribus naturelles : la trace de la tribu cylindrique σ(Cyl)∩C(R+,R) et sa propre tribu borelienne B

(C(R+,R)

). En fait ces deux tribus coıncident :

Proposition 1.4 Sur C(R+,R), la tribu cylindrique trace coıncide avec la tribu bore-lienne :

σ(Cyl) ∩ C(R+,R) = B(C(R+,R)

).

Page 31: Processus stochastique

1.3. Convergence faible des lois de processus 11

Demonstration : D’abord, Πt0 est continue sur (C(R+,R), d) pour d en (1.6) puisque

|Πt0(x)− Πt0(y)| = |x(t0)− y(t0)| ≤ ‖x− y‖∞,n

pour tout n ≥ t0 dont on deduit aisement la continuite pour d. Des lors Πt0 est mesurablesur

(C(R+,R),B

(C(R+,R)

). Comme tout cylindre s’ecrit C =

⋂pi=1 Π−1

ti (Ai), Ai ∈ B(R),on a bien C ∈ B

(C(R+,R)

)et Cyl ⊂ B

(C(R+,R)

)puis σ(Cyl) ⊂ B

(C(R+,R)

).

Reciproquement, si A = y ∈ C(R+,R) : ‖x − y‖[0,n] < η est ouvert pour la convergenceuniforme sur les compacts, on a A =

⋂t∈[0,n]∩Q Π−1

t (]x(t) − η, x(t) + η[) car la condition

|y(t)− x(t)| < η pour tout t ∈ [0, n] ∩Q est completee pour tout t ∈ [0, n] par continuite.L’ouvert A s’ecrit alors comme une intersection (denombrable) de cylindres, ie. A ∈ σ(Cyl).Puis comme de tels A engendrent B

(C(R+,R)

), on a B

(C(R+,R)

)⊂ σ(Cyl).

Finalement d’apres la Prop. 1.4, le processus X vu comme en (1.7) definit bien une variablealatoire sur C(T,R) et PX est alors une loi sur C(T,R).

1.3.1 Rappels sur la convergence faible

On rappelle la notion de convergence faible de variables aleatoires a valeurs dans unespace metrique S. Quand S est un espace fonctionnel, typiquement C(T,R), la variablealeatoire est en fait un processus stochastique a trajectoires continues.

Definition 1.5 (Convergence faible) Soit (Xn)n≥1 et X a valeurs dans S espace me-trique de lois Pn et P , on a Xn ⇒ X (ou Pn ⇒ P ) ssi pour toute fonction f : S → Rcontinue et bornee

limn→+∞

E[f(Xn)

]= E

[f(X)

].

Nous utiliserons les formulations equivalentes suivantes de la convergence faible, pour plusde details on renvoie a [Bil2].

Theoreme 1.3 (portemanteau) Les assertions suivantes sont equivalentes quand n →+∞ pour des variables aleatoires Xn a valeurs dans un espace metrique S.

1. Xn ⇒ X, ie. pour toute fonction f : S → R continue et bornee

limn→+∞

E[f(Xn)

]= E

[f(X)

].

2. Pour toute fonction f : S → R uniformement continue et bornee

limn→+∞

E[f(Xn)

]= E

[f(X)

].

3. Pour tout ferme F , lim supn→+∞ P(Xn ∈ F ) ≤ P(X ∈ F ).

Page 32: Processus stochastique

12 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

4. Pour tout ouvert G, lim infn→+∞ P(Xn ∈ G) ≥ P(X ∈ G).

5. Pour tout A ∈ B(S) tel que P(X ∈ A \ A

)= 0, limn→+∞ P(Xn ∈ A) = P(X ∈ A).

Demonstration : • 1)⇒ 2) est evident.• 2)⇒ 3). On considere F ferme et δ > 0. Pour ε > 0 assez petit, Gε = x : d(x, F ) < εverifie P(X ∈ Gε) ≤ P(X ∈ F ) + δ puisque (comme F est ferme)

⋂ε>0Gε = F . On

considere f(x) = ϕ(d(x, F )/ε) avec

ϕ(t) =

1 si t ≤ 01− t si 1 ≤ t ≤ 10 si 1 ≤ t

Alors, on montre que f est uniformement continue sur S, f(x) = 1 si x ∈ F et f(x) = 0si x ∈ Gc

ε. De plus, 0 ≤ f(x) ≤ 1 pour tout x ∈ S. D’apres 2), on a E[f(Xn)]→ E[f(X)],n→ +∞. Puis comme 1F (x) = f(x)1F (x) et f(x) = f(x)1Gε(x),

P(Xn ∈ F ) = E[f(Xn)1F (Xn)] ≤ E[f(Xn)]

E[f(X)] = E[f(X)1Gε(X)] ≤ P(X ∈ Gε) ≤ P(X ∈ F ) + δ.

Finalement,

lim supn→+∞

P(Xn ∈ F ) ≤ limn→+∞

E[f(Xn)] = E[f(X)] ≤ P(X ∈ F ) + δ.

Comme δ > 0 est arbitraire, cela etablit 3).• 3)⇔ 4) s’obtient facilement par passage au complementaire.• 3), 4)⇒ 5). Soit A tel que X 6∈ A \ A ps. On a P

(X ∈ A

)= P(X ∈ A). Avec 3) et 4)

on deduit

lim supn→+∞

P(Xn ∈ A) ≤ lim supn→+∞

P(Xn ∈ A

)≤ P

(X ∈ A

)= P(X ∈ A) ≤ lim inf

n→+∞P(Xn ∈ A).

Finalement lim supn→+∞ P(Xn ∈ A) = P(X ∈ A) = lim infn→+∞ P(Xn ∈ A) ce qui montrelimn→+∞ P(Xn ∈ A) = P(X ∈ A).• 5)⇒ 3). Soit F ferme et Fε = x ∈ S : d(x, F ) ≤ ε. Comme les ensembles ∂Fε = x ∈S : d(X,F ) = ε sont disjoints, on a X 6∈ ∂Fε pour presque tout ε > 0. Pour un tel ε,d’apres 5) on a

P(Xn ∈ F ) ≤ P(Xn ∈ Fε)lim supn→+∞

P(Xn ∈ F ) ≤ limn→+∞

P(Xn ∈ Fε) = P(X ∈ Fε)

ce qui prouve 3) car F =⋂ε>0 Fε et P(X ∈ Fε) → P(X ∈ F ), ε → 0 (convergence

monotone).• 4)⇒ 1). Soit f ≥ 0 une fonction continue. Avec le lemme de Fatou, on a

E[f(X)] =

∫ +∞

0

P(f(X) > t)dt ≤∫ +∞

0

lim infn→+∞

P(f(Xn) > t)dt

Page 33: Processus stochastique

1.3. Convergence faible des lois de processus 13

≤ lim infn→+∞

∫ +∞

0

P(f(Xn) > t)dt = lim infn→+∞

E[f(Xn)]. (1.8)

Pour f continue et bornee par M , on applique (1.8) a M + f et M − f pour obtenirlimn→+∞ E[f(Xn)] = E[f(X)], ce qui prouve 1).

Proposition 1.5 Soienn X et Xn, n ≥ 1 des variables aleatoires a valeurs dans un espacemetrique S. Les proprietes suivantes sont faciles a verifier :

1. La convergence en proba XnP−→ X implique la convergence faible Xn ⇒ X.

2. (Continuous mapping theorem) Soit f : S → S ′ une application entre espacesmetriques. Alors si Xn ⇒ X et f est continue PX-ps, on a aussi f(Xn) =⇒ f(X).

3. Si Xn, X sont des processus a trajectoires continues (ie. S = C(R+,R) avec Xn ⇒ X,on a la convergence faible des lois fini-dimensionnelles : pour tout m ∈ N et t1, . . . , tm(

Xn(t1), . . . , Xn(tm))

=⇒(X(t1), . . . , X(tm)

)n→ +∞.

Le continuous mapping theorem montre que la convergence en loi se conserve par lesapplications continues : de la meme facon que si xn → x alors f(xn) → f(x) quand f estcontinue, le resultat reste vrai pour des variables (ou processus aleatoires) qui convergentfaiblement.

Demonstration : Le premier point se justifie comme pour les variables aleatoires.

Le deuxieme point est une consequence facile du theoreme portemanteau (Th. 1.3) : SoitF un ensemble ferme de S. Observons que f−1(F ) ⊂ f−1(F ) ∪ Df . En effet, soit x ∈f−1(F ) limite d’une suite (xn)n≥1 de f−1(F ). Alors si f est continue en x, on a f(x) =limn→+∞ f(xn) ∈ F car F est ferme et f(xn) ∈ F , sinon c’est que x ∈ Df . Par le theoremeportemanteau (Th. 1.3) pour Xn ⇒ X, on a :

lim supn→+∞

P(f(Xn) ∈ F ) ≤ lim supn→+∞

P(Xn ∈ f−1(F )) ≤ lim supn→+∞

P(Xn ∈ f−1(F )

)≤ P

(X ∈ f−1(F )

)≤ P

(X ∈ f−1(F )

)+ P(X ∈ Df )

= P(X ∈ f−1(F )

)c’est a dire, encore par le theoreme portemanteau (Th. 1.3) : f(Xn) =⇒ f(X).

Le troisieme point est une consequence du deuxieme point avec l’application continueΠt1...,tm : C(T,R)→ Rm definie par Πt1...,tm(x) = (x(t1), . . . , x(tm)).

La convergence faible de processus a trajectoires continues entraıne la convergence des loisfini-dimensionnelles. La reciproque est fausse : la convergence des lois fini-dimensionnellesn’entraıne pas la convergence faible des processus. Il peut y avoir un phenomene de pertede masse vers l’infini comme illuste dans l’exemple suivant pour des variables aleatoires

Page 34: Processus stochastique

14 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

reelles. De plus l’affirmation est fausse pour des processus qui ne sont pas a valeurs dansC(T,R) : par exemple pour des processus cadlag, Xn ⇒ X entraıne X(t)⇒ X(t) si X estcontinu en t.

Exemple : Sur C([0, 1],R), on considere les fonctions

xn(t) =

2nt si t ∈ [0, 1/2n]2− 2nt si t ∈ [1/2n, 1/n].

La suite de fonction xn converge simplement vers x = 0. On considere alors la suite de loiPn = δxn et P = δx et on observe que

— On n’a pas Pn ⇒ P car pour la fonction continue bornee f(y) = supt∈[0,1] y(t), on af(xn) = 1, f(x) = 0, soit∫

fdPn = f(xn) = 1 6→ 0 = f(x) =

∫fdP, n→ +∞;

— Pour tout 0 < t1 < · · · < tp, avec Πt1,...,tp(y) = (y(t1), . . . , y(tp)) on a Πt1,...,tp(x) =(0, . . . , 0) et pour n > 1/t1 aussi Πt1,...,tp(xn) = (0, . . . 0), c’est a dire la convergencedes lois fini-dimensionnelles

PnΠ−1t1,...,tp

⇒ PΠ−1t1,...,tp

, n→ +∞.

La convergence des loi fini-dimensionnelles n’entraıne donc pas la convergence en loi detout le processus.

Pour eviter une telle pathologie, il faut une condition supplementaire, c’est l’objet de lasection suivante.

1.3.2 Equitension

L’equitension est la condition qui empeche la perte de masse probabiliste. C’est la condi-tion qui avec la convergence des lois fini-dimensionnelles donnera la convergence faible, cf.Theoreme 1.6. On renvoie a [Bil2] pour plus de details sur cette notion.

Definition 1.6 (Equitension) Soit (Pn)n≥1 une suite de mesures de probabilite. La suiteest dite equitendue si pour tout ε > 0, il existe un compact Kε tel que pour tout n on aPn(Kε) > 1− ε.

En fait, l’equitension s’exprime aussi par une propriete de relative compacite (dans les bonsespaces metriques : ceux qui sont separables et complets, ie. polonais).

Definition 1.7 (Relative compacite) Une suite de mesures (Pn)n≥1 est relativementcompacte si pour toute sous suite (n′) ⊂ N, il existe (n′′) ⊂ (n′) telle que Pn′′ convergefaiblement vers une mesure de probabilite.

Page 35: Processus stochastique

1.3. Convergence faible des lois de processus 15

Theoreme 1.4 (Prohorov) Soit (Pn)n≥1 une suite de mesures dans un espace metriqueseparable complet. Alors (Pn)n≥1 est equitendue ssi (Pn)n≥1 est relativement compacte.

Demonstration : Admis, cf. [Bil2].

En general–dans ce cours–, les processus qu’on considere sont a trajectoires continues etleurs lois sont donc des mesures de probabilite sur l’espace des fonctions continues C(T,R),complet et separable pour la topologie uniforme associee a la norme uniforme ‖f‖∞ =supx∈T |f(x)|, donc polonais. Dans ce cas, on a un critere d’equitension plus explicite :

Theoreme 1.5 Soit (Pn)n≥1 la suite des lois de processus Xn a trajectoires continues. Onsuppose qu’il existe a, b, C > 0 tels que pour tout s, t ∈ [0, 1],

supn≥1

E[|Xn(t)−Xn(s)|a

]≤ C|t− s|1+b.

Alors la suite (Pn)n≥1 est equitendue.

Noter la ressemblance avec le Th. 1.2 (Kolmogorov-Centsov).Demonstration : Admis, cf. [Bil2].

Theoreme 1.6 Soit(P (n)

)n≥1

une suite equitendue dans un espace metrique complet

separable telle que les lois fini-dimensionnelles P(n)t1,...,tm convergent faiblement pour tout

t1, . . . , tm : P(n)t1,...,tm =⇒ Pt1,...,tm. Alors il existe P de lois fini-dimensionnelles Pt1,...,tm :

t1, . . . , tm, m ∈ N telle que P (n) ⇒ P .

En fait, la vraie condition supplementaire necessaire dans le Th. 1.6 est la relative compacitede la suite (Pn)n≥1 mais d’apres le theoreme de Prohorov, c’est equivalent a l’equitensionde la suite pour laquelle on dispose de criteres explicites.

Demonstration : Pour montrer que P (n) ⇒ P , il suffit de voir que pour toute (n′) ⊂ N,il existe (n′′) ⊂ (n′) tel que P (n′′) ⇒ P .En effet, on montre qu’alors pour f continue bornee, on a

∫fdP (n) →

∫fdP . Si ce n’etait

pas le cas, il existerait f continue bornee telle que∫fdP (n) 6→

∫fdP , ie. il existerait ε > 0

et (n′) ⊂ (n) tels que ∣∣∣∣∫ fdP (n′) −∫fdP

∣∣∣∣ > ε. (1.9)

Or par l’equitension (en fait par relative compacite mais d’apres le resultat de Prohorov,c’est l’equitension), il existe (n′′) ⊂ (n′) tel que P (n′′) ⇒ P . En particulier, d’apres le theo-reme portemanteau (Th. 1.3)

∫fdP (n′′) →

∫fdP . Mais

∫fdP (n′′) est une suite extraite de∫

fdP (n′), ce qui nie (1.9). L’absurdite exhibee justifie finalement la convergence cherchee.

Soit donc (n′) ⊂ (n) une sous-suite. Par equitension (relative compacite), il existe (n′′) ⊂(n′) et Q tels que P (n′′) ⇒ Q. En particulier, la convergence des lois fini-dimensionnelles

Page 36: Processus stochastique

16 Chapitre 1. c©JCB – M2 Math. – Universite de Rennes 1

exige que P(n′′)t1,...,tm ⇒ Qt1,...,tm . Mais par hypothese P

(n)t1,...,tm ⇒ Pt1,...,tm et donc en particulier

P(n′′)t1,...,tm ⇒ Pt1,...,tm . On a donc pour tout t1, . . . , tm, Qt1,...,tm = Pt1,...,tm , c’est a dire avec la

Prop. 1.1 : P = Q, et P (n′′) ⇒ P = Q ce qui conclut d’apres l’argument preliminaire.

Page 37: Processus stochastique

Chapitre 2

Processus gaussiens

Dans ce chapitre, on commence par presenter la classe des processus gaussiens donton introduit d’abord la loi en Section 2.1. La regularite des trajectoires est consideree enSection 2.2. La notion d’espace gaussien est decrite en Section 2.3. Enfin, on donne plusieursexemples de processus gaussiens en Section 2.4.

2.1 Lois des processus gaussiens

Definition 2.1 (Processus gaussien) Un processus stochastique (Xt)t∈T est gaussien sitoutes ses lois fini-dimensionnelles L(Xt1 , . . . , Xtn) sont gaussiennes (pour tout n ∈ N ett1, . . . , tn ∈ T ).Autrement dit X = (Xt)t∈T est gaussien ssi toute combinaison lineaire de ses marginalesa1Xt1 + · · ·+ anXtn suit une loi gaussienne (pour tout n ∈ N, t1, . . . , tn ∈ T et a1, . . . , an ∈R).

Remarque 2.1 Les consequences suivantes sont immediates :— Toutes les marginales d’un processus gaussien sont bien sur gaussiennes.— Toute combinaison lineaire de marginales d’un processus gaussien est encore gaus-sienne.

Il est connu que la loi d’un vecteur gaussien (Xt1 , . . . , Xtn) est determinee (par exemple viasa fonction caracteristique) par le vecteur moyenne mX =

(E[Xt1 ], . . . ,E[Xtn ]

)et la matrice

de covariance CovX =(

Cov(Xti , Xtj

)1≤i,j≤n). On comprend des lors que toutes les lois fini-

dimensionnelles d’un processus gaussien (donc la loi du processus, cf. Prop. 1.1) est connuedes qu’on se donne la fonction moyenne m(t) = E[Xt] et l’operateur de covariance K(s, t) =Cov(Xs, Xt). En effet, la loi fini-dimensionnelle de (Xt1 , . . . , Xtn) est alors la loi gaussienneN (mn, Kn) de dimension n avec mn = (m(t1), . . . ,m(tn)) et Kn = (K(ti, tj))1≤i,j≤n. Lesfonctions m et K definissent donc toutes les lois fini-dimensionnelles de X et donc aussi saloi en tant que processus, cf. Prop. 1.1. Observons en plus que

— K est symetrique : K(s, t) = K(t, s) ;

17

Page 38: Processus stochastique

18 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

— K est de type positif, ie. si c : T → R est une fonction a support fini alors :

∑s,t∈T

c(s)c(t)K(s, t) = E

(∑s∈T

c(s)Xs

)2 ≥ 0. (2.1)

Reciproquement, etant donnes une fonction m sur T et un operateur K sur T × T , existe-t-il un processus gaussien X admettant m pour fonction moyenne et K pour operateur decovariance ? La reponse est donnee par le resultat suivant :

Theoreme 2.1 Soit K une fonction symetrique de type positif sur T × T . Il existe alorsun processus gaussien (centre) dont la fonction de covariance est K.

Demonstration : Quitte a considerer ensuite le processus X(t) +m(t), on considere poursimplifier le cas d’un processus centre (m = 0). Il s’agit alors d’une application simpledu theoreme d’extension de Kolmogorov (Th. 1.1). On construit une probabilite P (K) surl’espace mesurable

(RT , σ(Cyl)

)de telle sorte que sous P (K) le processus des coordonnees

Xt(ω) = ω(t) (dit processus canonique) est un processus gaussien de fonction de cova-riance K. Si t1, . . . , tn est une partie finie de T , on construit d’abord une probabilite

P(K)t1,...,tn sur Rt1,...,tn ' Rn comme la loi du vecteur gaussien de matrice de covariance

(K(ti, tj))1≤i,j≤n (qui existe d’apres les rappels gaussiens puisque la matrice est symetrique

positive). On verifie aisement que les lois P(K)t1,...,tn satisfont les proprietes de compatibilite

du theoreme d’extension de Kolmogorov (Th. 1.1) qui s’applique donc. La loi P (K) ainsiconstruite sur

(RT , σ(Cyl)

)est bien celle d’un processus gaussien puisque par construction

toutes ses lois fini-dimensionnelles sont gaussiennes avec pour fonction de covariance K.

Exemple 2.1 (Processus stationnaire) On considere le cas T = R et on se donne unemesure finie symetrique (ie. ν(−A) = ν(A)) sur R. On pose alors

K(s, t) =

∫Reiu(t−s)ν(du). (2.2)

On verifie aisement que K est reel symetrique K(t, s) = K(s, t) (car ν est symetrique) etde type positif : ∑

s,t∈T

c(s)c(t)K(s, t) =

∫ ∣∣∣∑s∈T

c(s)eius∣∣∣2ν(du) ≥ 0.

La fonction K possede la propriete supplementaire de dependre seulement de la differencet− s. On parle de stationnarite faible (ou de deuxieme ordre) et on ecrit alors K(t, s) =K(|t−s|). On en deduit aussitot que le processus X associe a K par le theoreme precedentest stationnaire (au sens strict), c’est a dire pour tout choix de n ∈ N∗ et t1, . . . , tn, h ∈ R,on a (

Xt1+h, . . . , Xtn+h

) L=(Xt1 , . . . , Xtn

).

Page 39: Processus stochastique

2.1. Lois des processus gaussiens 19

Reciproquement, il est vrai aussi que si (Xt)t∈R est un processus gaussien stationnaire,continu dans L2 (ie. lims→t E[(Xt − Xs)

2] = 0) la fonction de covariance de X est dela forme (2.2) (theoreme de Bochner). La mesure ν s’appelle la mesure spectrale duprocessus. Elle vehicule beaucoup d’informations decrivant le processus. Par exemple, ona K(0) = Var(Xt) = ν(R).

De facon generale pour un processus stationnaire, on a

Proposition 2.1 Soit X processus stationnaire L2 centre et de fonction de covariance.On a equivalence entre :

1. la fonction K continue en 0 ;

2. le processus est X L2-continu : lims→t E[(Xt −Xs)2] = 0 ;

3. la fonction K est continue partout.

Demonstration : 1)⇔ 2) On a

E[|Xt −Xs|2

]= E

[X2t

]+ E

[X2s

]− 2E

[XtXs

]= K(t, t) +K(s, s)− 2K(t, s)

= 2K(0)− 2K(|t− s|),

ce qui justifie l’equivalence. Comme 3)⇒ 1) est clair, on conclut avec 2)⇒ 3) qui vient de

K(t+ h) = E[Xt+hX0

]= E

[(Xt+h −Xt)X0

]+K(t)

avec ∣∣∣E[(Xt+h −Xt)X0

]∣∣∣ ≤√E[(Xt+h −Xt)2

]E[X2

0 ] = K(0)1/2‖Xt+h −Xt‖2.

Au passage, on a utilise que la stricte stationnarite d’un processus gaussien est equivalentea la stationnarite faible :

Proposition 2.2 Un processus gaussien X est stationnaire ssi E[Xt] est constante etK(s, t) = K(s− t) (on parle de stationnarite faible).

Demonstration : Il est clair que ces conditions sont necessaires, que le processus soit gaus-sien ou pas : comme par stationnarite, on a L(Xt) = L(Xs) pour tout t, s, on a E[Xt] =E[Xs] et donc la fonction moyenne est constante ; de meme L(Xt, Xs) = L(Xt+h, Xs+h)pour tout t, s, h, on a Cov(Xt, Xs) = Cov(Xt+h, Xs+h) et donc la covariance ne depend quede la difference t− s.Elles sont suffisantes seulement dans le cas gaussien puisque dans ce cas, la loi est caracte-risee par t 7→ E[Xt] et par K(s, t). Il est facile alors de voir dans ce cas qu’une translationdans les parametres de temps ne modifie pas ces fonctions sous les hypotheses de la pro-position donc pas non plus la loi.

Page 40: Processus stochastique

20 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

2.2 Regularite gaussienne

Des bonnes conditions pour avoir une version assez reguliere d’un processus gaussiensont donnees dans le resultat suivant, consequence facile du Theoreme 1.2 (Kolmogorov-Centsov) dans le cadre gaussien.

Theoreme 2.2 (Kolmogorov-Centsov gaussien) Soit X un processus gaussien centre(E[Xt] = 0), de fonction de covariance K(s, t). On suppose qu’il existe α > 0 et C < +∞tels que pour tout s, t :

K(t, t) +K(s, s)− 2K(s, t) ≤ C|t− s|α.

Alors il existe une version continue X de X. De plus, pour tout γ < α/2, les trajectoires

de X sont ps holderiennes de coefficient γ.

Demonstration : A partir de E[|Xt − Xs|2] = E[X2t ] + E[X2

s ] − 2E[XtXs] ≤ C|t − s|α,on ne peut pas appliquer directement le Theoreme 1.2 car α > 1 (requis pour le Th. 1.2)n’est pas garanti. On s’interesse plutot a E[|Xt −Xs|2m]. On rappelle que d’apres la Prop.

0.2, pour X variable aleatoire normale centree, on a : E[X2m] = (2m)!2mm!

Var(X)m. Il vientalors pour tout m :

E[|Xt −Xs|2m

]≤ Cm (2m)!

2mm!|t− s|mα.

Comme cela est valable pour tout m, on choisit m tel que mα > 1. D’apres le Theoreme 1.2(Kolmogorov-Centsov) avec

b = mα− 1, a = 2m, etb

a=mα− 1

2m

on a une version mα−12m

-holderienne de X. Comme limm→+∞mα−1

2m= α

2, il existe une version

γ-holder de X pour tout γ < α/2. Remarquer que les versions holderienne pour des expo-sants γ 6= γ′ coıncident par indistinguabilite (Prop. 1.3).

2.3 Espace gaussien

On rappelle que L2(Ω,F ,P) est un espace de Hilbert pour le produit scalaire 〈X, Y 〉 =E[XY ].

Definition 2.2 (Espace gaussien) Un espace gaussien (centre) est un sous-espace fermede L2(Ω,F ,P) forme de variables gaussiennes centrees.

Par exemple, siX = (X1, . . . , Xn) est un vecteur gaussien centre dans Rn, alors Vect(X1, . . . , Xn)est un espace gaussien. (Vect(X1, . . . , Xn) est constitue des combinaisons lineaires d’un vec-teur gaussien, elles sont donc gaussiennes).

Page 41: Processus stochastique

2.3. Espace gaussien 21

Proposition 2.3 Si X = (Xt)t∈T est un processus gaussien, le sous-espace vectoriel fermede L2(Ω,F ,P) engendre par les variables aleatoires Xt, t ∈ T , est un espace gaussien,appele espace gaussien engendre par le processus X.

Demonstration : Le sous-espace vectoriel ferme VectL2(Ω,F ,P)

(Xt : t ∈ T ) est forme deslimites dans L2(Ω,F ,P) des combinaisons lineaires finies de marginales Xti de (Xt)t∈T . Ceslimites sont gaussiennes car

— comme (Xt)t∈T est gaussien, les combinaisons lineaires∑n

i=1 aiXti le sont aussi ;— les limites L2 de variables gaussiennes sont gaussiennes, cf. Prop. 0.5.

Si H est un sous-ensemble de L2(Ω,F ,P), on note σ(H) la tribu engendree par les variablesaleatoires ξ ∈ H.

Theoreme 2.3 Soit H un espace gaussien et soit (Hi, i ∈ I) une famille de sous-espacesvectoriels de H. Alors les sous-espaces Hi, i ∈ I, sont orthogonaux dans L2(Ω,F ,P) si etseulement si les tribus σ(Hi), i ∈ I, sont independantes.

Ce resultat est une generalisation des Prop. 0.8 et 0.9 pour les variables et vecteurs gaus-siens. Comme dans ces cas, il est crucial que les espaces Hi soient contenus tous dans unmeme espace gaussien.

Demonstration : Si on suppose les tribus σ(Hi), i ∈ I, independantes, alors pour i 6= jet X ∈ Hi, Y ∈ Hj, on a

E[XY ] = E[X]E[Y ] = 0,

ce qui signifie que les espaces Hi sont deux a deux orthogonaux (le produit scalaire etantdonne dans ce contexte par la covariance : 〈X, Y 〉 = E[XY ]).

Reciproquement, supposons les espaces Hi, i ∈ I, deux a deux orthogonaux. Par defi-nition de l’independance d’une famille infinie de tribus, il suffit de montrer que pourtous indices distincts i1, . . . , ip ∈ I, les tribus σ(Hi1), . . . , σ(Hip) sont independantes.Pour cela, il suffit de montrer que, si ξ1

1 , . . . , ξ1n1∈ Hi1 , . . . , ξ

p1 , . . . , ξ

pnp∈ Hip les vecteurs

(ξ11 , . . . , ξ

1n1

), . . . , (ξp1 , . . . , ξpnp

) sont independants. En effet, pour chaque j, les ensembles de

la forme ξj1 ∈ A1, . . . , ξjnj∈ Anj

forment une classe stable par intersection finie qui en-gendre la tribu σ(Hj), et on peut ensuite utiliser un argument classique de classe monotone.Pour chaque j ∈ 1, . . . , p, on considere ηj1, . . . , η

jmj

une base orthonormee de Vect(ξj1, . . . , ξjnj

).La matrice de covariance du vecteur(

η11, . . . , η

1m1, η2

1, . . . , η2m2, . . . , ηp1, . . . , η

pmp

)est alors la matrice identite (car pour i 6= j E[ηilη

jk] = 0 a cause de l’orthogonalite de Hi et

Hj, et pour i = j, c’est du au choix de ηi base orthonormee). Ce vecteur est gaussien carses composantes sont dans H, espace gaussien. D’apres la Proposition 0.9, les composantessont independantes. On conclut que les vecteurs

(η11, . . . , η

1m1

), . . . , (ηp1, . . . , ηpmp

)

Page 42: Processus stochastique

22 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

sont independants. Comme pour chaque j ∈ 1, . . . , p le vecteur (ξj1, . . . , ξjn1

) est une

combinaison lineaire des coordonnees de (ηj1, . . . , ηjm1

), de maniere equivalente les vecteurs

(ξ11 , . . . , ξ

1n1

), . . . , (ξp1 , . . . , ξpnp

)

sont independants, ce qui prouve le theoreme.

Corollaire 2.1 Soient H un espace gaussien et K un sous-espace vectoriel ferme de K.On note pK la projection orthogonale sur K. Soit X ∈ H.

1. On aE[X|σ(K)] = pK(X).

2. Soit σ2 = E[(X − pK(X))2]. Alors, pour tout borelien B de R,

P(X ∈ B|σ(K)) = Q(ω,B),

ou Q(ω, ·) est la loi N(pK(X)(ω), σ2

), ie.

Q(ω,B) =1

σ√

∫B

exp(− (y − pK(X)2)

2σ2

)dy

(et avec Q(ω,B) = 1B(pK(X)) si σ = 0).

Remarque 2.2 1. D’une maniere generale, la loi conditionnelle d’une variable alea-toire reelle X sachant une sous-tribu G est un noyau Q(ω, ·) G-mesurable, ie. uneapplication Q : Ω× B(R)→ [0, 1] telle que— pour tout ω, B 7→ Q(ω,B) est une mesure de probabilite sur (R,B(R)),— pour tout B ∈ B(R), ω 7→ Q(ω,B) est G-mesurable,avec la propriete

P(X ∈ B|G) = Q(ω,B), ∀B ∈ B(R),

plus generalement E[f(X)|G] =∫f(y)Q(ω, dy). La partie 2) du corollaire explique

que dans le cas gaussien, la loi conditionnelle de X sachant la tribu σ(K) est explicite,il s’agit de la loi N

(pK(X), σ2

).

2. En general, pour une variable aleatoire X dans L2(Ω,F ,P), l’esperance conditionnelleest donne par une projection orthogonale, ie. E[X|σ(K)] = pL2(Ω,σ(K),P)(X). Dans lecadre gaussien, l’assertion 1) du corollaire montre que la projection orthogonale esta faire directement sur l’espace K, bien plus petit que L2(Ω, σ(K),P) ou il faut engeneral projete.

3. L’assertion 1) porte aussi le principe de la regression lineaire. Par exemple, si (X1, X2, X3)est un vecteur gaussien, la meilleure approximation de X3 connaissant X1 et X2 s’ecritλ1X1 + λ2X2 ou λ1 et λ2 sont determines en disant que X3 − (λ1X1 + λ2X2) est or-thogonal a Vect(X1, X2).

Page 43: Processus stochastique

2.4. Exemples de processus gaussiens 23

Demonstration : 1) Soit Y = X − pK(X). Alors Y est orthogonal a K et d’apres leTheoreme 2.3, Y est independante de σ(K). On a donc

E[X|σ(K)] = E[pK(X)|σ(K)] + E[Y |σ(K)] = pK(X) + E[Y ] = pK(X).

2) On ecrit, pour toute fonction f mesurable positive sur R+,

E[f(X)|σ(K)] = E[f(pK(X) + Y )|σ(K)] =

∫f(pK(X) + y)PY (dy)

ou PY est la loi de Y qui est une loi N (0, σ2) puisque Y est une variable gaussienne (cen-tree) de variance σ2. (On a utilise le fait general suivant : si Z est une variable G-mesurableet si Y est independante de G alors E[g(Y, Z)|G] =

∫g(y, Z)PY (dy).) Le resultat annonce

en 2) decoule aussitot de la formule precedente.

2.4 Exemples de processus gaussiens

Avant d’etudier en details le mouvement brownien au Chapitre 4, on decrit brievement ceprocessus ainsi que quelques autres processus associes.

Mouvement brownien

Soit T = R+, le mouvement brownien (standard) (Bt)t≥0 est le processus gaussiendefini par E[Bt] = 0 et K(s, t) = min(s, t) (et a trajectoires ps continues). On l’appelleaussi processus de Wiener. Noter que K(t, s) = min(t, s) est bien de type positif au sensde (2.1) puisqu’en ecrivant K(t, s) =

∫R 1[0,t](x)1[0,s](x) dx, on a∑

s,t∈T

c(s)c(t)K(s, t) =

∫R

∑s,t∈T

c(s)1[0,s](x)c(t)1[0,t](x) dx =

∫R

(∑t∈T

c(t)1[0,t](x))2

dx ≥ 0.

Proprietes immediates

1) B0 = 0 car la loi de B0 est N (0, 0) = δ0, la loi degeneree en 0.

2) (Bt)t≥1 est un processus a accroissements independants. En effet soit 0 ≤ t1 < t2 < t3 <t4, on a

Cov(Bt2 −Bt1 , Bt4 −Bt3) = E[(Bt2 −Bt1)(Bt4 −Bt3)]

= E[Bt2Bt4 ]− E[Bt2Bt3 ]− E[Bt1Bt4 ] + E[Bt1Bt3 ]

= t2 − t2 − t1 + t1 = 0.

Les variables aleatoires Bt2 − Bt1 et Bt4 − Bt3 sont donc non correlees. Comme elles sontgaussiennes, elles sont independantes. On justifie de meme l’independance de n accroisse-ments.

Page 44: Processus stochastique

24 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

3) Bt ∼ N (0, t) car E[Bt] = 0 et Var(Bt) = K(t, t) = t.

4) Si s ≤ t, on a Bt −Bs ∼ Bt−s. En effet E[Bt −Bs] = E[Bt]− E[Bs] = 0 et

Var(Bt −Bs) = Cov(Bt −Bs, Bt −Bs)

= Cov(Bt, Bt)− 2 Cov(Bt, Bs) + Cov(Bs, Bs)

= t− 2s+ s = t− s.

Donc Bt −Bs ∼ N (0, t− s) ∼ Bt−s.

5) Autosimilarite : Bt = 1√cBct definit encore un mouvement brownien (standard).

6) Comportement analogue en 0 et en +∞ : Bt = tB1/t definit encore un mouvementbrownien standard.Le processus Bt a donc le meme comportement au voisinnage de 0 et en +∞

7) Localisation : pour tout t0, Bt = Bt+t0 − Bt0 definit encore un mouvement brownienstandard.Le processus Bt a donc le meme comportement en 0 et en t0.

8) (Bt)t≥0 a des trajectoires ps holderiennes d’ordre γ < 1/2 mais non ps derivables.En effet, E[|Bt − Bs|2] = |t − s|, donc la continuite holderienne suit du theoreme 2.2.

On admet la non-derivabilite des trajectoires, cf. Chapitre 4 et theoreme de Kolmogorov-Centsov (Th. 2.2).

[Graphe typique des trajectoires.]

Pont Brownien

Soit T = [0, 1], le pont brownien (Bt )t∈[0,1] est le processus gaussien centre defini par lafonction de covariance K(s, t) = min(s, t)− st.

[Graphe typique des trajectoires.]

Proposition 2.4 On peut definir directement un pont brownien B a partir d’un mouve-ment brownien B par

Bt = Bt − tB1, t ≥ 0.

Demonstration : En effet, d’abord (Bt − tB1)t∈[0,1] est gaussien, centre puis pour s, t ∈[0, 1], on a

Cov(Bt − tB1, Bs − sB1)

= Cov(Bt, Bs)− tCov(B1, Bs)− tCov(Bs, B1) + tsCov(B1, B1)

= min(t, s)− ts− st+ ts

= min(t, s)− ts.

Page 45: Processus stochastique

2.4. Exemples de processus gaussiens 25

Comme le processus (Bt− tB1)t∈[0,1] est gaussien, centre avec la bonne covariance, il s’agitd’un pont brownien.

Reciproquement, on peut construire le mouvement brownien B sur T = [0, 1] a partir dupont brownien B et d’une loi normale X ∼ N (0, 1) independante de B par

Bt = Bt + tX.

Exercice. Verifier par un calcul de covariance qu’on definit ainsi un mouvement brownien.

Proprietes.

1. Bt = B1−t definit encore un pont brownien. Le pont brownien est donc symetriqueen 0 et en 1 par retournement du temps.

2. (Bt )t≥0 a des trajectoires ps holderiennes d’ordre γ < 1/2 mais non ps derivables.

L’argument est le meme que pour le mouvement brownien avec E[(Bt )2] = t− t2.

3. B est un mouvement brownien B conditionne a valoir 0 a la date t = 1.

Processus d’Ornstein-Uhlenbeck

Soit T = R, le processus d’Ornstein-Uhlenbeck est le processus gaussien centre defini par

Ut = e−t/2B(et)

ou B est un mouvement brownien. On montre facilement que Ut ∼ N (0, 1) car Var(Ut) = 1,ce processus est donc stationnaire. Sa fonction de covariance est donnee par

K(s, t) = e−|t−s|/2.

Elle ne depend que de la difference (t − s), il s’agit bien d’un processus stationnaire defonction de covariance plus simplement donnee par K(t) = e−|t|/2 (exercice). Elle est donnee

sous forme integrale (2.2) avec la mesure spectrale ν(du) =du

π(1 + u2).

Brownien geometrique

Ce n’est pas un processus gaussien mais l’exponentiel d’un processus gaussien. Il s’agit de

St = x exp(µt+ σBt − σ2t/2

), t ≥ 0. (2.3)

Un tel processus modelise le cours d’un actif St soumis a un taux d’interet µ et a unevolatilite σ et qui vaut x au temps 0.On le trouve en supposant comme Samuelson que les rendements entre deux periodes sontmesures par les logarithmes des cours St.On suppose de plus que les rendements entre 0 et t suivent un mouvement brownien detendance (drift) µ−σ2/2 et de coefficient de diffusion (volatilite) σ. Cela se traduit par lesproprietes suivantes sur les prix (St)t≥0 :

Page 46: Processus stochastique

26 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

— S0 = x.— Les rendements logSt−logSs suivent une loi gaussienne de moyenne (µ−σ2/2)(t−s)

et de variance σ2(t− s).— Pour tout t0 = 0 ≤ t1 ≤ · · · ≤ tn, les accroissements relatifs Sti+1

/Sti , 0 ≤ i ≤ n− 1,sont independants.

On en deduit qu’il existe un mouvement brownien (Bt)t≥0 tel que en t, St = x exp(µt +σBt − σ2t/2).

Bruit blanc gaussien

Soit (A, µ) un espace mesure et U = A ∈ A : µ(A) < +∞.Le buit blanc est un processus gaussien (XA)A∈A indexe par l’ensemble des mesurables Adefini par E[XA] = 0 et Cov(XA, XB) = µ(A ∩B).Il faut apprehender le buit blanc comme une mesure aleatoire A 7→ XA(ω). Elle est aleatoirecar XA depend de ω. On connaıt quand meme la loi de X(A) ∼ N (0, µ(A)).Attention cependant, un bruit blanc n’est pas une vraie mesure car A 7→ XA n’est pasσ-additif.

Mouvement brownien fractionnaire

Soit T = R+. Le mouvement brownien fractionnaire (mBf) (BH(t))t≥0 est le processusgaussien centre defini par la fonction de covariance

K(s, t) =1

2

(|s|2H + |t|2H − |s− t|2H

).

Le parametre H s’appelle indice de Hurst.

Proprietes immediates.

1. Pour H = 1/2, le mBf devient le mouvement brownien standard.

2. On a E[|BH(t)−BH(s)|2

]= |t− s|2H .

3. Autosimilarite : BH(t) = c−HBH(ct) definit encore un mBf d’indice H.

4. Les accroissements du mBf ne sont independants que lorsque H = 1/2 (c’est a diredans le cas du mouvement brownien).

Cas H = 1. On a E[BH(t)BH(s)

]= st. On montre alors qu’il s’agit d’un processus

degenere de la forme BH(t) = tBH(1). Il s’agit en fait d’une droite aleatoire (la dependanceest donc tres forte dans la trajectoire).Cas H = 0. On a

E[BH(t)BH(s)

]=

1

2(|s|0 + |t|0 − |s− t|0) =

1/2 si s 6= t1 si s = t.

Page 47: Processus stochastique

2.4. Exemples de processus gaussiens 27

Dans le cas H = 0, on peut construire le mBf de la facon suivante : soit (Yt)t≥0 une suitede variables aleatoires indepdendantes et Z une variable aleatoire independante de (Yt)t≥0.On les prend de loi Yt ∼ Z ∼ N (0, 1). Considerons alors Xt = Yt+Z√

2. On montre facilement

que Xt a bien la covariance cherchee. On constate alors que les trajectoires de (Xt)t≥0 sontcompletement discontinues.

[Graphe typique des trajectoires.]

De facon generale, pour 0 < H < 1, les trajectoires du mBf (BH(t))t≥0 sont β-holderiennespour tout ordre β < H. C’est du au Theoreme 2.2 de regularite des processus gaussiens(Kolmogorov-Centsov).

Page 48: Processus stochastique

28 Chapitre 2. c©JCB – M2 Math. – Universite de Rennes 1

Page 49: Processus stochastique

Chapitre 3

Bruit blanc et integrationstochastique

On s’interesse dans ce chapitre aux mesures aleatoires gaussiennes aussi appelees bruitsblancs gaussiens et definies en Section 3.1. On construit une integrale par rapport a cesmesures aleatoires en Section 3.2, ce qui permet une premiere approche de l’integrale deWiener-Ito en Section 3.3 (pour une construction plus generale, voir le Chapitre ??). Lesmesures aleatoires sont liees aux processus (faiblement) stationnaires : on definit ces pro-cessus en Section 3.4 et on y etudie notamment leur representation spectrale.

3.1 Mesure aleatoire (bruit blanc)

On considere µ une mesure finie sur (X ,A).

Definition 3.1 Soit M = M(A), A ∈ A un processus indexe par A verifiant— E[M(A)] = 0 pour tout A ∈ A,— E[M(A)2] < +∞ pour tout A ∈ A,— E[M(A)M(B)] = µ(A ∩B) pour tout A,B ∈ A.

On appelle M une mesure aleatoire de mesure de controle (ou compensateur) µ.

Remarque 3.1— Une mesure aleatoire s’appelle aussi un bruit blanc (BB).— Souvent, on considere un bruit blanc gaussien en demandant que le processus Msoit gaussien. Dans ce cas, on connaıt la loi de M(A) ∼ N (0, µ(A)).

— Meme si la mesure de controle µ n’est pas finie, on peut quand meme definir lamesure aleatoire M sur U = A ∈ A : µ(A) < +∞.

— On dit aussi que la mesureM est orthogonale car siA∩B = ∅, on a E[M(A)M(B)] =0, c’est a dire M(A) et M(B) sont orthogonaux par rapport au produit scalaire〈X, Y 〉 = Cov(X, Y ).

— On dit que M est une mesure car avec A ∩B = ∅, on a

M(A ∪B) = M(A) +M(B) ps (3.1)

29

Page 50: Processus stochastique

30 Chapitre 3. c©JCB – M2 Math – Universite de Rennes 1

puis par recurrence on a meme l’additivite et la σ-additivite.Preuve de (3.1). On calcule

E[|M(A ∪B)−M(A)−M(B)|2

]= E

[M(A ∪B)2

]+ E

[M(A)2

]+ E

[M(B)2

]− 2E

[M(A ∪B)M(A)

]−2E

[M(A ∪B)M(B)

]+ 2E

[M(A)M(B)

]= µ(A ∪B) + µ(A) + µ(B)− 2µ(A)− 2µ(B) + 2µ(A ∩B)

= µ(A) + µ(B) + µ(A) + µ(B)− 2µ(A)− 2µ(B)

= 0.

On a donc E[|M(A ∪ B) −M(A) −M(B)|2] = 0 soit M(A ∪ B) = M(A) + M(B)ps.

— Attention : dans l’additivite (3.1), le ps depend de A et de B si bien que pourω fixe, on n’a pas une vraie additivite. De meme pour la σ-additivite. La mesurealeatoire n’est donc pas ps une vraie mesure.

Theoreme 3.1 (Existence) Pour toute mesure finie µ, il existe M mesure aleatoiregaussienne controlee par µ.

Demonstration : Puisque µ(A ∩ B) = 〈1A,1B〉L2(dµ), K(A,B) = µ(A ∩ B) definit unoperateur de type positif et d’apres le Th. 2.1, il existe un processus gaussien centre decovariance K(A,B) = µ(A ∩B).

[Esquisse]— En supposant l’existence, on trouve les lois fini-dimensionnelles necessaires.— On en deduit l’operateur de covariance necessaire : K(A,B) = µ(A∩B). On verifie

qu’elle est definie positive (ce qui est immediat car µ(A ∩B) = 〈1A,1B〉L2(dµ)).— On verifie les conditions de compatibilite de Kolmogorov sur les lois fini-dimension-

nelles trouvees.— On applique le theoreme d’extension de Kolmogorov (Th. 1.1) pour trouver M

comme cherchee.

Dans la section suivante, on construit une integrale (stochastique) par rapport a ce typede pseudo-mesure aleatoire.

3.2 Integrale stochastique

Soit M une mesure aleatoire controlee par µ. On se propose de definir I(f) =∫fdM pour

f ∈ L2(dµ), c’est a dire pour f satisfaisant∫X

f(x)2 µ(dx) < +∞.

Page 51: Processus stochastique

3.2. Integrale stochastique 31

On construit l’integrale I comme une isometrie de L2(µ) dans L2(Ω,F ,P). Comme d’ha-bitude pour la construction d’une integrale, on commence par les fonctions simples deL2(µ) :

— Pour f = 1A, on pose I(f) = M(A).— Pour f =

∑nk=1 ak1Ak

, avec lesAk deux a deux disjoints, on definit I(f) =∑n

k=1 akM(Ak).On verifie sans probleme qu’une autre ecriture de la meme fonction f (avec d’autes ak et/ouautres Ak) conduit a une integrale qui a la meme valeur. La definition est donc coherente.

On verifie que pour toutes fonctions simples f =∑n

k=1 ak1Ak, g =

∑nk=1 bk1Bk

, on a

1. E[I(f)] = 0

2. 〈I(f), I(g)〉L2(P) = 〈f, g〉L2(µ)

3. I(af + bg) = aI(f) + bI(g) ps.

Preuve. Le point 1) est clair car la mesure aleatoire M est centree (Def. 3.1). Le point 3)vient de (3.1). Pour le point 2) :

〈I(f), I(g)〉L2(P) = E[I(f)I(g)] =∑k,l

akblE[M(Ak)M(Bl)]

=∑k,l

akblµ(Ak ∩Bl) =∑k,l

akbl〈1Ak,1Bl〉L2(µ)

= 〈f, g〉L2(µ).

On peut ensuite definir I(f) pour f ∈ L2(µ) par prolongement uniforme : pour f ∈ L2(µ),il existe (fn)n≥1 suite de fonctions simples qui converge vers f dans L2(µ). Comme (fn)n≥1

est en particulier une suite de Cauchy dans L2(µ), par l’isometrie 2), I(f) est aussi unesuite de Cauchy dans L2(P). Comme l’espace est complet, cette suite de Cauchy convergeet on pose par definition :

I(f) = L2- limn→+∞

I(fn). (3.2)

La definition (3.2) ci-dessus est independante du choix de la suite fn → f dans L2(µ), sibien que la definition est bien licite. Il s’agit de l’integrale stochastique de f ∈ L2(µ)par rapport a M , mesure aleatoire controlee par µ. De plus, il est facile de voir que 1), 2),3) restent encore valables pour I(f) quand f ∈ L2(µ). En particulier, on a :

Proposition 3.1 (Isometrie) Pour f ∈ L2(µ), on a E[I(f)] = 0 et E[I(f)2] =∫f 2dµ.

En particulier, quand M est un bruit blanc gaussien, on a I(f) ∼ N(0,∫f 2dµ

).

Demonstration : On montre (I(f))f∈L2(µ) est un processus gaussien. Pour f =∑n

i=1 ai1Ai,

avec les Ai deux a deux disjoints, on a I(f) =∑n

i=1 aiµ(Ai) gaussienne car sommede gaussiennes µ(Ai) ; pour f ∈ L2(µ), I(f) donnee en (3.2) est limite (L2(P)) de va-riables aleatoires gaussiennes donc gaussienne ; de meme, on montre que toute les loisfini-dimensionnelles sont gaussiennes (exercice).

A partir d’une mesure aleatoire, on peut facilement en construire d’autres :

Page 52: Processus stochastique

32 Chapitre 3. c©JCB – M2 Math – Universite de Rennes 1

Proposition 3.2 Soit M une mesure aleatoire et h ∈ L2(µ). On definit V (A) =∫h1AdM

pour tout A ∈ B. On obtient V une mesure aleatoire controlee par la mesure ν donnee pardν = |h|2dµ.

Demonstration : V est une mesure aleatoire car V est centree, E[V (A)2] < +∞ puisque∫h1AdM ∈ L2(P) et

E[V (A)V (B)

]= 〈I(h1A), I(h1B)〉L2(P) = 〈h1A, h1B〉L2(P)

=

∫h21A∩B dµ = ν(A ∩B).

Par les approximations successives standard (1A, puis

∑ni=1 αi1Ai

, puis f ≥ 0 mesurablepuis f ∈ L2(µ)), on a alors :

Proposition 3.3 Avec les notations precedentes, on a∫fdV =

∫fhdM , c’est a dire

symboliquement dV = h dM .

3.3 Approche de l’integrale de Wiener-Ito

On considere une mesure aleatoire gaussienne M sur (X ,A, µ) = (R+,B(R+), λ), controleepar la mesure de Lebesgue λ (c’est a dire λ([a, b]) = b− a). On definit le processus B surR+ par Bt = M([0, t]).

Proposition 3.4 Le processus B defini sur R+ par Bt = M([0, t]) est (a une version pres)un mouvement brownien standard.

Demonstration : Il s’agit d’un processus gaussien car M est une mesure gaussienne, cf.Prop. 3.1. D’apres les resultats precedents, Bt ∼ N (0, t).De plus si 0 ≤ t1 ≤ t2 ≤ t3 ≤ t4 comme Bt2 − Bt1 = M(]t1, t2]) et Bt4 − Bt3 = M(]t3, t4]),on a bien l’independance des accroissements de B car

Cov(Bt2 −Bt1 , Bt4 −Bt3) = Cov(M(]t1, t2],M(]t3, t4]) = λ(]t1, t2]∩]t3, t4]) = λ(∅) = 0,

ce qui dans le cas gaussien donne Bt2−Bt1 ⊥⊥ Bt4−Bt3 . De la meme facon, n accroissementssont mutuellement independants.De plus la covariance de B est donnee par

Cov(Bs, Bt) = Cov(M([0, s],M([0, t]) = λ([0, s] ∩ [0, t]) = λ([0, s ∧ t]

)= min(s, t).

Le processus B est donc gaussien, centre avec la bonne fonction de covariance. On a dejavu que dans ce cas, le theoreme de regularite de Kolmogorov-Centsov (version gaussien, cfTh. 2.2) s’applique et donne une version de ce processus qui est ps a trajectoires continues.

Page 53: Processus stochastique

3.4. Processus stationnaire 33

On retrouve donc le mouvement brownien en prenant (la bonne version de) Bt = M([0, t]).

On peut maintenant definir une integrale par rapport a B en considerant qu’il s’agit d’uneintegrale par rapport a un bruit blanc gaussien M associe a B.∫

1[0,t](s) dBs = Bt −B0 = Bt = M([0, t]) =

∫1[0,t]dM.

Par des arguments classiques d’approximation (combinaisons lineaires puis approximationpar convergence monotone), on montre que pour toute fonction f ∈ L2(R+, λ)∫

f(s) dBs =

∫fdM. (3.3)

Symboliquement, on a ′′dBs = dM ′′. On appelle cette integrale l’integrale de Wiener-Ito. Noter que l’integrand dans (3.3) est deterministe. Dans le Chapitre ??, on construitune theorie d’integration stochastique beaucoup plus generale : les integrands seront desprocessus et les integrateurs des semimartingales generalisant le cadre du mouvement brow-nien.

3.4 Processus stationnaire

Dans cette setion, il est plus simple de considerer des processus a valeurs dans C enadaptant les definitions precedentes au contexte complexe.

3.4.1 Faible stationnarite

Definition 3.2 (Faible stationnarite) Soit X = (Xt)t∈T un processus L2. Il est dit fai-blement stationnaire si

— E[|Xt|2

]< +∞ pour tout t ∈ T (le processus est L2) ;

— E[Xt] = m pour tout t ∈ T (en general m = 0 et le processus est dit centre) ;— La fonction de covariance K(t, s) ne depend que de t− s :

K(t, s) = E[(Xt −m)(Xs −m)

]= K(t− s).

On peut considerer que le processus est une application X : T −→ L2(Ω,F ,P) et appliquerdes methodes hilbertiennes. Noter que la fonction de covariance K(t) est definie positive :∀t1, . . . , tn ∈ T et ∀z1 . . . , zn ∈ C, on a

n∑i,j=1

zizjK(ti − tj) ≥ 0.

Le resultat suivant (admis) donne un expression spectrale (integrale) de la fonction decovariance dans le cas stationnaire.

Page 54: Processus stochastique

34 Chapitre 3. c©JCB – M2 Math – Universite de Rennes 1

Theoreme 3.2 (Bochner-Khinchine) Soit X un processus L2 faiblement stationnairecentre et de fonction de covariance K.

1. On suppose T = R et que le processus X continu dans L2 (XtL2

−→ Xs quand t→ s).Alors il existe (une unique) mesure ν finie sur R telle que

K(s) =

∫R

exp(ist) ν(ds).

La mesure ν est appelee mesure spectrale. Sa densite f si elle existe est ditespectrale (ν(dx) = f(x)dx).

2. On suppose T = Z alors ν est definie sur [−π, π] et

K(n) =

∫ π

−πexp(int) ν(dt).

Remarque 3.2 La mesure spectrale porte beaucoup d’information sur la loi du processusX. Par exemple, Var(X) = K(0) = ν(R)(= ν(Z) dans le cas discret).

Theoreme 3.3 (Existence) Soit K une fonction definie positive (continue en 0 si T =R). Alors il existe un processus stationnaire gaussien centre (L2-continu si T = R) defonction de covariance K.

Demonstration : On suppose d’abord que le processus existe et on calcule les lois fini-dimensionnelles Pt1,...,tn necessaires. Comme on cherche un processus gaussien, Pt1,...,tn estconnue par sa matrice de covariance definie positive :

Cov(Xti , Xtj

)= K(ti, tj).

D’apres les resultats generaux sur les vecteurs gaussiens, il existe un vecteur gaussien deloi Pt1,...,tn . On dispose alors de la famille des lois fini-dimensionnelles P = Pt1,...,tn :t1, . . . , tn pour laquelle on verifie les conditions de compatibilite. Le theoreme d’extensionde Kolmogorov (Th. 1.1) s’applique et donne un processus de lois fini-dimensionnellesdonnees par P . Le processus est gaussien car ses lois fini-dimensionnelles le sont. Enfin,par construction K est la fonction de covariance du processus. De plus le processus estcontinu dans L2 (si T = R), car comme K(t)→ K(0) quand t→ 0, on a

E[|Xt −Xs|2

]= E

[(Xt −Xs)(Xt −Xs)

]= Cov(Xt, Xt) + Cov(Xs, Xs)− Cov(Xt, Xs)− Cov(Xs, Xt)

= 2K(0)−K(t− s)−K(s− t) −→s→t 2K(0)−K(0)−K(0) = 0.

Remarque 3.3 K continue en 0 ⇔ X est L2-continu ⇔ K est continu partout.

Exemple : Soit X une suite de variables aleatoires iid centrees avec E[X20 ] = 1. C’est un

processus stationnaire sur N. On a facilement

K(n) =

1 n = 00 n 6= 0

⇒ ν =1

2πλ|[−π,π].

Page 55: Processus stochastique

3.4. Processus stationnaire 35

3.4.2 Representation spectrale des processus stationnaires

Theoreme 3.4 Soit X un processus centre stationnaire de fonction de covariance K etde mesure spectrale F . Alors, il existe une mesure aleatoire M controlee par F telle que

Xt =

∫ReitsM(ds).

Demonstration : NotonsHX = Vect(Xt, t ∈ T )L2(P)

(l’adherence dans L2(P) de Vect(Xt, t ∈T )). Il s’agit d’un espace prehilbertien pour le produit scalaire 〈X, Y 〉 = E

[XY

]=

Cov(X, Y ). On va construire une isometrie entre L2(F ) et HX .

Soit J qui associe la variable aleatoire Xt a la fonction (s 7→ eits)

J :

L2(F ) → HX

(s 7→ eits) 7→ Xt

Pour les polynomes trigonometriques, on pose alors

J

(n∑k=1

ck exp(itk·)

)=

n∑k=1

ckXtk .

Ce faisant, on a defini J surM =∑n

k=1 ckeitks : n ∈ N, tk, ck ∈ R

. On verifie sans peine

que c’est une isometrie :〈f, g〉L2(F ) = 〈J(f), J(g)〉HX

.

En effet, soit f =∑

k akeitk· et g =

∑l ble

itl·, on a

〈f, g〉L2(F ) =∑k,l

akbl

∫ei(tk−tl)sF (ds) =

∑k,l

akblK(tk − tl) (Th. de Bochner)

=∑k,l

akblE[XtkXtl

]= E

[∑k

akXtk

∑l

blXtl

]= 〈J(f), J(g)〉HX

.

On utilise maintenant le resultat suivant, bien connu quand F est remplacee par la mesurede Lebesgue mais admis pour F :

Lemme 3.1 L’ensemble M est dense dans L2(F ), ie. M = L2(F ).

Par extension des applications uniformement continues sur les espaces complets, l’isometrieJ : M −→ HX se prolonge en une isometrie J : M = L2(F ) −→ HX . On definit alorsM(A) = J(1A) pour A ∈ B et on verifie maintenant que M est une mesure aleatoire :

— E[M(A)] = 0 : en effet d’abord pour tout t, E[Xt] = 0 si bien que par lineariteE[Y ] = 0 pour tout Y ∈ Vect(Xt, t ∈ T ) ; ensuite par continuite pour tout Y ∈ HX ,E[Y ] = 0 (autrement dit : le caractere centre est conserve par combinaison lineaireet passage a la limite).

— M(A) ∈ L2(F ) par definition.

Page 56: Processus stochastique

36 Chapitre 3. c©JCB – M2 Math – Universite de Rennes 1

— E[M(A)M(B)

]= 〈1A,1B〉L2(F ) = F (A ∩B).

Pour terminer, on montre que pour tout f ∈ L2(F ) : I(f) = J(f). En effet, d’abord pourf = 1A, I(f) = M(A) et J(f) = M(A). Par densite des combinaisons lineaires de 1A dansL2(F ) et par continuite des isometries I et J , on a I(f) = J(f) pour tout f ∈ L2(F ). Ona alors ∫

eitsM(ds) = I(eit·) = J(eit·) = Xt,

ce qui prouve le Theoreme 3.4.

Remarque 3.4 Si X est gaussien alors on montre (facilement) que HX est un espace devariables gaussiennes et M est une mesure aleatoire gaussienne.

3.4.3 Cas des processus stationnaires discrets

Un processus stationnaire discret X est en fait une suite de variables aleatoires iid Xi,i ≥ 1. On la suppose centree E[X1] = 0 et reduite E[X2

1 ] = 1. Alors la covariance estdonnee par K(n) = 1 si n = 0, 0 sinon. Dans ce cas, la mesure spectrale associee estF = (1/2π)λ[−π,π].

Si on suppose en plus que les variables aleatoires Xi sont gaussiennes (le processus X estgaussien discret), la mesure aleatoire est un bruit blanc gaussien : on retrouve (presque)un mouvement brownien en prenant Bt = M([0, t]), en effet

E[BtBs

]= E

[M([0, t])M([0, s])

]= (1/2π)λ

([0, t] ∩ [0, s]

)= (1/2π)(t ∧ s).

Il s’agit (a un facteur pres) du mouvement brownien standard.

Definition 3.3 (Moyenne mobile) Etant donnee une suite ζ = (ζn)n≥1 de variablesaleatoires iid centrees, E[ζn] = 0, et reduites Var(ζn) = E[ζ2

n] = σ2 < +∞, et (an)n≥1 unesuite de `2(N) (ie.

∑n∈N |an|2 < +∞). On appelle processus de moyenne mobile la suite

(Xn)n≥1 donnee par

Xn =∑k∈Z

an−kζk. (3.4)

Proposition 3.5 Soit (Xn)n≥1 un processus stationnaire discret. On a les equivalencesentre

1. Le processus est une moyenne mobile Xn =∑

k∈Z an−kζk avec ζ = (ζk)k∈Z suite iidet (an)n∈Z ∈ `2(Z).

2. La densite spectrale existe et est L2-integrable par rapport a la mesure de Lebesgue λ.

Dans ce cas la mesure spectrale s’ecrit σ2

2π|ϕ|2dλ ou ϕ(s) =

∑k∈Z ake

−iks ∈ L2([−π, π], λ).

Page 57: Processus stochastique

3.4. Processus stationnaire 37

Demonstration : 1)⇒ 2) Comme les ζk sont iid et (an)n∈Z ∈ `2(Z), on a pour m1 ≤ m2

E

∑m1<|k|≤m2

an−kζk

2 = E

∑m1<|k|≤m2

a2n−kζ

2k

+ E

∑m1<|k|6=|l|≤m2

an−kζkan−lζl

= E

∑m1<|k|≤m2

a2n−kζ

2k

+∑

m1<|k|6=|l|≤m2

an−kan−lE[ζkζl]

= σ2

∑m1<|k|≤m2

a2n−k

la suite

(∑|k|≤m an−kζk

)m≥1

est de Cauchy dans L2(P) et donc convergente, si bien que

Xn est bien defini dans L2(P). De plus, on montre aussi facilement que (Xn)n≥1 est unprocessus stationnaire car ζ = (ζk)k≥1 est une suite iid. Comme ζ est stationnaire, on a

ζk =∫ π−π e

iksM(ds) ou M est une mesure aleatoire de mesure spectrale σ2

2πλ (cas de variables

aleatoires iid). Par linearite et convergence dominee (et un changement d’indice), on a

Xn =

∫ π

−πeinsϕ(s)M(ds)

ou ϕ(s) =∑

k∈Z ake−iks ∈ L2([−π, π], λ). Comme

Cov(Xn, Xn+k

)=

∫ π

−πe−insei(n+k)sϕ(s)ϕ(s)

σ2

2πλ(ds) =

∫ π

−πeiks|ϕ(s)|2 σ2

2πλ(ds),

la mesure spectrale de la moyenne mobile X est donc σ2

2π|ϕ|2dλ.

2)⇒ 1). Reciproquement, siX = (Xn)n≥1 est un processus stationnaire discret avec densitespectrale de la forme |ϕ|2 ou ϕ ∈ L2([−π, π], λ). Alors ϕ se decompose en serie de Fouriersous la forme

ϕ(s) =∑k∈Z

ake−iks.

On peut ecrire

Xn =

∫ π

−πeinsϕ(s)ds =

∑k∈Z

ak

∫ π

−πeinse−iksM(ds) =

∑k∈Z

ak

∫ π

−πei(n−k)sM(ds)

=∑k∈Z

akξn−k =∑k∈Z

an−kξk

ou ξk =∫ π−π e

iksM(ds) sont des variables aleatoires iid. Le processus stationnaire discretX = (X)n≥1 se reecrit donc sous la forme d’une moyenne mobile (3.4).

Page 58: Processus stochastique

38 Chapitre 3. c©JCB – M2 Math – Universite de Rennes 1

Theoreme 3.5 (LGN pour les processus stationnaires) Soit X = (Xn)n≥1 un pro-cessus discret stationnaire de fonction de covariance K et de mesure spectrale F . On a lesequivalences :

1. 1n

∑n−1k=0 Xk

L2

−→ 0, n→ +∞ ;

2. limn→+∞1n

∑n−1k=0 K(k) = 0 ;

3. F (0) = 0.

Demonstration : On a Xn =∫ π−π e

insM(ds) ou M est une mesure aleatoire compensee(controlee) par F . On a

1

n

n−1∑k=0

Xk =1

n

n−1∑k=0

∫ π

−πeiksM(ds) =

∫ π

−πϕn(s)M(ds)

avec

ϕn(s) =1

n

n−1∑k=0

eiks =

1 si s = 0eins−1n(eis−1)

si s 6= 0.

Comme∣∣∣ eins−1n(eis−1)

∣∣∣ ≤ 2n|eis−1| , on a

limn→+∞

ϕn(s) = ϕ(s) =

1 si s = 00 si s 6= 0

= 10(s).

Puis comme |ϕn(s)| ≤ 1n

∑n−1k=0 |eiks| = 1, par convergence dominee, on a ϕn → ϕ, n→ +∞,

dans L2(F ). On a donc, par isometrie (Prop. 3.1), dans L2(P), en toute generalite :

1

n

n−1∑k=0

Xk =

∫ π

−πϕn(s)M(ds)

L2

−→∫ π

−πϕ(s)M(ds) = M(0). (3.5)

Des lors, 1)⇔ 3) est immediate avec (3.5) et F (0) = Var(M(0)

)= 0.

Puis par le theoreme de Bochner (Th. 3.2)

1

n

n−1∑k=0

K(k) =1

n

n−1∑k=0

∫ π

−πeiks dF (s) =

∫ π

−πϕn(s) dF −→

∫ π

−πϕ(s)dF = F (0),

ce qui donne 2)⇔ 3) et conclut la preuve du Theoreme 3.5.

Page 59: Processus stochastique

Chapitre 4

Mouvement brownien

Dans ce chapitre, on presente le mouvement brownien (mB). Nous renvoyons a [LG0]pour une introduction generale de ce processus, a [KS], [RY] pour une description detailleedes principales proprietes du mouvement brownien.On commence par quelques dates marquantes de l’histoire du mouvement brownien enSection 4.1 avant de definir le mouvement brownien en Section 4.2. On en etudie lesproprietes en loi en Section 4.3, proprietes des trajectoires en Section 4.4, la variationquadratique en Section 4.5. On etudie enfin la propriete de Markov forte en Section 4.6 avecnotamment le principe de reflexion. On revient a l’equation de la chaleur en Section 4.7.

Historiquement, le mouvement brownien a ete exhibe pour representer des mouvements quievoluent au cours du temps de facon particulierement desordonnee, par exemple en financepour representer des cours de bourses tres volatiles ou en physique pour representer desparticules microscopiques soumises aux multiples chocs de leur environnement. Le mouve-ment brownien joue un role central dans la theorie des processus stochastiques (comme laloi N (0, 1) pour les lois de probabilites sur R). Il apparaıt dans de nombreuses situationsaussi bien theoriques qu’appliquees et il offre un cadre assez simple ou de nombreux calculspeuvent etre menes.

4.1 Historique

En 1827, la premiere description (heuristique) du mouvement brownien est due au bota-niste ecossais Robert Brown (qui lui a donc donne son nom). Il observe de fines particulesorganiques en suspension dans un gaz ou un fluide et en decrit les mouvement particuliere-ment erratique, au point que plusieurs physiciens estiment ensuite pendant le 19eme siecleque ce mouvement ne semble pas admettre de tangente. On ne pourrait donc pas parler devitesse, ni appliquer les lois classiques de la mecanique !En 1900, la premiere approche mathematique du mouvement brownien est due au francaisLouis Bachelier (dans sa Theorie de la speculation). Il l’introduit pour modeliser la dyna-mique des prix des actions a la bourse. Sa demarche sera cependant oubliee jusque vers lesannees 1960.

39

Page 60: Processus stochastique

40 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

En 1905, l’allemand Albert Einstein (dans sa Theorie de la relativite restreinte) construitun modele probabiliste pour decrire le mouvement d’une particule qui diffuse : il montrenotamment que la loi de la position a l’instant t de la particule, sachant que l’etat initialest x, admet une densite qui verifie l’equation de la chaleur et de ce fait est gaussienne.Davantage d’explications sur les relations entre mouvement brownien et equation de lachaleur sont donnees en Section 4.7.La meme annee qu’Einstein, le physicien polonais Marian von Smoluchowki utilise des pro-menades aleatoires pour decrire le mouvement brownien : il en est les limites.En 1923, l’americain Norbert Wiener donne une premiere construction mathematique ri-goureuse du mouvement brownien en tant que processus stochastique. Il etablit en parti-culier la continuite des trajectoires.Dans la periode 1930–1960, de nombreuses proprietes du mouvement brownien sont en-suite etablies notamment par le francais Paul Levy. La notion d’equation differentiellestochastique est introduite. Le japonais Kiyoshi Ito les generalisera et les analysera avecson traite de 1948. Cette demarche tres feconde etablit des liens importants entre analyseet probabilite et fonde l’analyse et le calcul stochastiques.Les relations entre probabilites et physique sont, elles, explorees via le mouvement brow-nien et ses generalisations des 1930 par les neerlandais Leonard Ornstein et George EugeneUhlenbeck en suivant une idee du francais Paul Langevin. Ils montrent que le processusd’Ornstein-Uhlenbeck decrit la situation d’equilibre d’un modele dirige par le mouvementbrownien.Depuis, de nombreux tavaux sont consacres au mouvement brownien, a ses generalisationset au calcul stochastique. Citons pour terminer Wolfgang Doblin, mathematicien franco-allemand dont les travaux precurseurs en analyse stochastique (fin des annees 30) sontrestes meconnus jusqu’a l’ouverture de son celebre pli cachete en 2000 a l’academie dessciences de Paris (Doblin, mobilise pendant la deuxieme guerre mondiale avait envoye sestravaux depuis le front, par crainte de ne pas revenir de la guerre. Il n’en est pas revenu.Son courrier est reste oublie jusqu’en 2000).

Dans le cadre deterministe, de nombreux phenomenes sont regis par des equationsdifferentielles (ou equations aux derivees partielles). Pour les phenomenes modelises parun mouvement brownien, on s’attend a avoir des equations differentielles faisant interve-nir le mouvement brownien. Malheureusement, ce processus a des trajectoires nulle partderivables (cf. Prop. 4.6 et Th. 4.1) et il n’est pas possible de considerer des equationsdifferentielles le faisant vraiment intervenir. Plutot que de le deriver, on cherchera dansla suite, a integrer contre ce processus, ce qui permettra de contourner le probleme enconsiderant des equations integrales (il est d’usage de se ramener a l’ecriture symboliquede derivees et on parlera alors d’equation differentielle stochastique). Dans les prochainschapitres (cf. Chapitre ??), on definit l’integrale stochastique pour une large classe de pro-cessus (les semimartingales, cf. Chapitre 6). Si on se contente du cadre brownien (integraleet equation differentielle stochastique pour le mouvement brownien), on parle de calculd’Ito. Dans ce cadre simplifie, la contruction est plus directe. On consulera les notes cours[Tud] ou le livre [Gal] pour cette approche reservee au brownien

Page 61: Processus stochastique

4.2. Definition, premieres proprietes 41

Dans ce chapitre, nous en donnons les principales proprietes (en loi en Section 4.3, tra-jectorielles en Section 4.4, variation quadratique en Section 4.5) notamment les proprietesde Markov faible et forte (Section 4.6). A la fin du chapitre en Section 4.7, nous exploronsles liens entre le mouvement brownien et l’equation de la chaleur, ce qui correspond a lademarche d’Einstein pour apprehender le mouvement brownien.

4.2 Definition, premieres proprietes

Le caractere tres erratique des trajectoires qui caracterise le mouvement brownien est engeneral associe a l’observation que le phenomene, bien que tres desordonne, presente unecertaine homogeneite dans le temps, au sens ou la date d’origine des observations n’a pasd’importance. Ces proprietes sont reprises dans la definition qui suit.

Definition 4.1 Un mouvement brownien (standard) reel est un processus gaussien centre(Bt)t≥0 a trajectoires continues de fonction de covariance

K(s, t) = min(s, t) := s ∧ t.

On l’appelle aussi processus de Wiener.

L’operateur K(s, t) = min(s, t) est symetrique et de type positif. En effet si c : R→ R esta support borne alors∑

s,t∈R

c(s)c(t)K(s, t) =∑s,t∈R

c(s)c(t)(s ∧ t)

=∑s,t∈R

c(s)c(t)

∫1[0,s](x)1[0,t](x)dx

=

∫ ∑s,t∈R

c(s)c(t)1[0,s](x)1[0,t](x)dx

=

∫ (∑t∈R

c(t)1[0,t](x)

)2

dx ≥ 0.

Par le Theoreme 2.1, il existe donc un processus gaussien centre de covariance K. Parcontre, il n’est pas evident qu’il admette une version a trajectoires continues ps. Cela serajustifie en debut de Section ?? avec le theoreme de regularite de Kolmogorov-Centsov(Th. 2.2).

4.2.1 Proprietes immediates

1) B0 = 0 car la loi de B0 est N (0, 0) = δ0, la loi degeneree en 0.

2) Bt ∼ N (0, t) car E[Bt] = 0 et Var(Bt) = K(t, t) = t.

Page 62: Processus stochastique

42 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

3) (Bt)t≥0 est un processus a accroissements independants. En effet soit 0 ≤ t1 < t2 < t3 <t4, on a

Cov(Bt2 −Bt1 , Bt4 −Bt3

)= E

[(Bt2 −Bt1)(Bt4 −Bt3)

]= E

[Bt2Bt4

]− E

[Bt2Bt3

]− E

[Bt1Bt4

]+ E

[Bt1Bt3

]= t2 − t2 − t1 + t1 = 0.

Les variables Bt2 − Bt1 et Bt4 − Bt3 sont donc non correlees. Comme le vecteur (Bt2 −Bt1 , Bt4−Bt3) est gaussien, Bt2−Bt1 et Bt4−Bt3 sont independantes. On justifie de memel’independance mutuelle de n accroissements, n ≥ 1.

4) Si s ≤ t, on a Bt −Bs ∼ Bt−s. En effet E[Bt −Bs] = E[Bt]− E[Bs] = 0 et

Var(Bt −Bs) = Cov(Bt −Bs, Bt −Bs)

= Cov(Bt, Bt)− 2 Cov(Bt, Bs) + Cov(Bs, Bs)

= t− 2s+ s = t− s.

Donc Bt −Bs ∼ N (0, t− s) ∼ Bt−s.

Remarque 4.1 Les proprietes 3) et 4) s’enoncent comme suit : le mouvement browniena des accroissements independants et stationnaires.

Definition 4.2 (Definition equivalente du mB) Soit B = (Bt)t≥0 une famille de va-riables aleatoires indexees par le temps. On dit que B est un mouvement brownien si c’estun processus a trajectoires continues tel que

i) pour tout t ≥ 0 : Bt ∼ N (0, t).

ii) pour tout 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn, les variables aleatoires Bt1 , Bt2 −Bt1 , . . . Btn −Btn−1

sont independantes.

Preuve de l’equivalence. On sait deja qu’un mB verifie i) et ii). Il reste a voir la reci-proque. En ecrivant Bt = Bs+Bt−Bs pour s ≤ t, on a par independance des accroissementsϕBt = ϕBsϕBt−Bs . D’ou

ϕBt−Bs(x) = ϕBt(x)ϕBs(x)−1 = exp(−tx2/2) exp(sx2/2) = exp(−(t− s)x2/2) = ϕBt−s(x).

Les accroissements sont donc stationnaires, en particulier ils sont gaussiens. Comme lesaccroissements sont independants, un vecteur d’accroissements (Bt1 , Bt2 − Bt1 , . . . Btn −Btn−1) a pour loi la loi produit de ses lois marginales qui sont gaussiennes. Un vecteurd’accroissements est donc gaussien. Mais comme (Bt1 , Bt2 , . . . , Btn) est une transformationlineaire de (Bt1 , Bt2−Bt1 , . . . , Btn−Btn−1) cela reste gaussien. Les lois fini-dimensionnellesetant gaussiennes, le processus est gaussien. Puis pour s ≤ t, on a

Cov(Bt, Bs) = E[BtBs] = E[(Bt −Bs +Bs)Bs] = E[Bt −Bs]E[Bs] + E[B2s ] = 0 + s = s,

Page 63: Processus stochastique

4.3. Proprietes en loi du mouvement brownien 43

ce qui confirme que le processus defini par la definition alternative Def. 4.2 est le mouve-ment brownien.

[Graphe des trajectoires typiques du MB]

La probabilite que Bt appartienne a un petit intervalle [x, x + dx] est donc donnee par ladensite gaussienne centree de variance t

P(Bt ∈ [x, x+ dx]

)=

1√2πt

exp(− x2/2t

)dx.

En particulier, la variable aleatoire Bt qui est une variable aleatoire gaussienne de variance test comprise entre les nombres f1(t) = 2

√t et f2(t) = −2

√t avec une probabilite (d’a peu

pres) 95% (cf. table de la loi N (0, 1)).On peut montrer que cette propriete est vraie pour toute la trajectoire brownienne qui estdonc comprise entre les deux courbes de f1 et de f2 avec une probabilite comparable (c’estvrai globalement et pas seulement « t par t »). Mais en general, les phenomenes observesne sont pas aussi bien normalises.

Definition 4.3 (Mouvement brownien avec derive) On appelle encore mouvement brow-nien issu de x et de derive (ou drift) b et de coefficient de diffusion σ, le processusXt = x+ σBt + µt.

Proposition 4.1 Le mouvement brownien (general) X est encore un processus a accrois-sements independants stationnaires et gaussiens. Il est non centre et tel que X0 = x. Deplus Xt ∼ N

(x+ µt, σ2t

).

Sauf mention contraire, par defaut, quand on parlera du mouvement brownien, il s’agiradu mouvement brownien standard B.

4.3 Proprietes en loi du mouvement brownien

On se fixe dans cette section un mouvement brownien B. Systematiquement, pour verifierqu’on a un mouvement brownien, il s’agit de verifier qu’on a un processus gaussien, cen-tre, a trajectoires continues et avec la bonne fonction de covariance. Dans les proprietesqui suivent, il est facile (et omis) de constater que le processus est gaussien, centre et atrajectoires continues ; on se contente de calculer l’operateur de covariance.

1) Symetrie. −B est un mouvement brownien.

2) Autosimilarite (propriete d’echelle). Pour tout c > 0, B(c)t = 1√

cBct definit un

mouvement brownien (standard).

En effet : B(c)t est un processus gaussien car ses lois fini dimensionnelles en sont de B ; le

processus est centre, a trajectoires continues (car B l’est) et de fonction de covariance

E[B

(c)t B(c)

s

]= E

[1√cBct

1√cBcs

]=

1

cmin(ct, cs) = min(t, s).

Page 64: Processus stochastique

44 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

Consequence : Cette propriete montre que c fois Bt se comporte comme un mouvementbrownien lu en c2t : le changement de temps se lit en espace (et reciproquement).

3) Inversion du temps. Le processus B defini par Bt = tB1/t si t 6= 0 et B0 = 0 est unmouvement brownien standard.En effet, B est gaussien car a nouveau ses lois fini-dimensionnelles sont des transformationslineaires de celles de B ; le processus est centre de covariance,

Cov(Bt, Bs

)= tsCov

(B1/t, B1/s

)= tsmin(1/t, 1/s) = ts/max(t, s) = min(t, s).

De plus, ses trajectoires sont continues sur ]0,+∞[ car celles de B le sont sur R+. Il reste

a voir la continuite des trajectoires de B en 0 et cela vient de

P(

limt→0

Bt = 0)

= P

⋂n≥1

⋃p≥1

⋂t∈]0,1/p]∩Q

|Bt| ≤ 1/n

= P

⋂n≥1

⋃p≥1

⋂t∈]0,1/p]∩Q

|Bt| ≤ 1/n

car (Bt)t>0fdd= (Bt)t>0

= P(

limt→0

Bt = 0)

= 1.

Consequence : le processus B a donc le meme type de comportement en 0 et en +∞4) Retournement du temps. Le processus retourne a l’instant T , B

(T )t = BT −BT−t est

encore un mouvement brownien sur [0, T ].

Il est clair que B(T ) est un processus gaussien, centre a trajectoires continues et sa covarianceest donnee par

Cov(B

(T )t , B(T )

s

)= Cov(BT −BT−t, BT −BT−s)

= Cov(BT , BT )− Cov(BT , BT−s)− Cov(BT−t, BT ) + Cov(BT−t, BT−s)

= T − (T − s)− (T − t) + T −max(t, s) = min(t, s).

5) Propriete de Markov faible (ou invariance par translation). Le mouvement brownien

translate de t0 > 0 B(t0)

t = Bt+t0 − Bt0 est encore un mouvement brownien standard ; de

plus il est independant du mouvement brownien arrete en t0 (Bt)0≤t≤t0 , ie. B(t0) ⊥⊥ FBt0 :=

σ(Bs : s ≤ t0).En effet pour t0 ≤ s ≤ t :

Cov(B

(t0)

t , B(t0)

s

)= Cov(Bt+t0 −Bt0 , Bs+t0 −Bt0)

= K(t+ t0, s+ t0)−K(t+ t0, t0)−K(t0, s+ t0) +K(t0, t0)

= s+ t0 − t0 − t0 + t0 = s = min(s, t).

La deuxieme partie est due a l’independance des accroissements de B : Soit 0 ≤ s1 < · · · <sn ≤ t0, par independance des accroissements de B, B

(t0)

t = Bt+t0−Bt0 est independant de

Page 65: Processus stochastique

4.4. Proprietes trajectorielles du mouvement brownien 45

(Bs1 , Bs2 −Bs1 , . . . , Bsn −Bsn−1), donc par transformation lineaire de (Bs1 , . . . , Bsn). Cela

est encore vrai pour tout vecteur de marginales de B(t0)

. On a donc B(t0)

independant deBs1 ∈ A1, . . . , Bsn ∈ An, 0 ≤ s1 < · · · < sn ≤ t0 et A1, . . . , An ∈ B(R). Comme il s’agit

d’un mesurable typique de FBt0 , on a B(t0)

t ⊥⊥ FBt0 = σ(Bt : t ≤ t0).De la meme facon, on montre que pour t1 < t2,

(Bt1+t0−Bt0 , Bt2+t0−Bt1+t0

)est independant

de FBt0 . Mais comme

(B

(t0)

t1, B

(t0)

t2

)=(Bt1+t0 −Bt0 , Bt2+t0 −Bt0

)en est une image lineaire, cela reste donc vrai pour

(B

(t0)

t1, B

(t0)

t2

)et plus generalement pour

toutes les lois fini-dimensionnelles de B(t0)

:(B

(t0)

t

)t≥0⊥⊥ FBt0 .

Consequence : le processus Bt a donc le meme comportement localement en 0 et en t0,donc en tout point.

Cette propriete se reecrit dans le cadre classique de la theorie de Markov : independancedu futur et du passe conditionnellement au present : en notant Wx la loi du mouvementbrownien issu de x ∈ R, ie. de x+B ou B est un mouvement brownien habituel, on reecrit :

Proposition 4.2 (Propriete de Markov faible) Soit t ≥ 0 fixe. Posons B′s = Bt+s,x ∈ R. Alors conditionnellement a Bt = x, le processus B′ est independant de σ(Bu : u ≤t) = FBt et a pour loi Wx.

Demonstration : Pour cela, il suffit de remarquer que B′s = B(t)

s +Bt ou B(t)

s = Bt+s−Bt

est un mouvement brownien independant de FBt et Bt est une variable FBt -mesurable.

4.4 Proprietes trajectorielles du mouvement brownien

4.4.1 Loi du 0/1 de Blumenthal

On definit d’abord la notion de filtration en temps continu qui sera essentielle pour consi-derer les martingales au Chapitre 5.

Definition 4.4 (Filtration) Une filtration sur un espace de probabilite (Ω,F ,P) est unefamille (Ft)t≥0 de sous-tribus telle que pour s ≤ t, on a Fs ⊂ Ft.

Si on considere un processus (Xt)t≥0, on considere souvent la filtration qu’il engendre :FXt = σ(Xs : s ≤ t). Dans ce cas, il est utile d’interpreter une filtration comme une quan-tite d’information disponible jusqu’a une date donnee : FXt represente ainsi l’informationvehiculee par le processus X jusqu’a la date t.Une filtration est P-complete pour une mesure de probabilite P si F0 contient tous les

Page 66: Processus stochastique

46 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

evenements de mesure nulle, ie. N = N ∈ F tel que P(N) = 0⊂ F0.A une filtration (Ft)t≥0 on associe

Ft+ =⋂ε>0

Ft+ε et Ft− =∨ε>0

Ft−ε.

(On rappelle que A ∨ B = σ(A ∪ B).) La filtration (Ft)tgeq0 est dite continue a droite(resp. continue a gauche) si pour tout t, on a Ft = Ft+ (resp. Ft = Ft−).Dans la suite, on dira qu’une filtration satisfait les conditions habituelles si elle estcomplete et continue a droite.

Proposition 4.3 La filtration brownienne (FBt )t≥0 est continue a droite.

Corollaire 4.1 (Loi du 0/1 de Blumenthal) La tribu FB0+ est triviale, ie. pour toutA ∈ FB0+, on a P(A) = 0 ou 1.

Remarque 4.2 — En fait, la filtration brownienne est aussi continue a gauche :FBt =

∨s<tFBs .

C’est le cas de toute filtration (FXt )t≥0 engendree par un processus a trajectoirescontinues a gauche. En effet, FXt est engendree par les ensemblesA = (Xt1 , . . . , Xtp) ∈Γ avec 0 = t1 < · · · < tp = t et Γ ∈ B(Rp). Comme Xt = limm→+∞Xsm pour toutesuite sm ∈ [0, t) avec sm t, on a A ∈ FXt− . Finalement, FXt− = FXt .

— Une filtration (Ft+)t≥0 est toujours continue a droite.— Attention : si X est a trajectoires continues, (FXt )t≥0 peut ne pas etre continue adroite, ni (FXt+)t≥0 a gauche, cf. contre-exemples p. 89 et 122 dans [KS].

Preuve de la continuite a droite de la filtration brownienne.

i) La tribu FB0+ est triviale (ie. Blumenthal).On considere le processus Xn defini sur [0, 2−n] par Xn =

(B2−n+t − B2−n , 0 ≤ t ≤ 2−n

).

La suite (Xn)n≥1 est une suite de processus independants (par l’independance des accrois-sements du mouvement brownien). On remarque que l’on peut retrouver la trajectoirebrownienne a partir des Xk, k ≥ n, par

B2−n+t = Xn(t) ++∞∑k=1

Xn+k(2−n−k), 0 ≤ t ≤ 2n

car B2−n → 0, n → +∞. Soit pour t > 0 et 2−p ≤ t < 2−p+1, en ecrivant t = 2−p + s,s ∈ [0, 2−p] (ie. p = [−t/ ln 2] + 1) :

Bt = B2−p+s = Xp(t− 2−p) +∑k>p

Xk(2−k)

En particulier pour 0 < t ≤ 2−n, on a p ≥ n et Bt ∈ σ(Xn+1, . . . , Xn+k, . . .

). On en deduit

FB2−n = σ(Xn+1, . . . , Xn+k, . . .

)

Page 67: Processus stochastique

4.4. Proprietes trajectorielles du mouvement brownien 47

et comme FB0+ =⋂n≥0FB2−n , FB0+ est la tribu asymptotique engendree par les processus

independants Xn. D’apres la loi du 0/1 (classique) de Kolmogorov, FB0+ est alors triviale.

i’) Autre preuve de la loi de Blumenthal. Soient 0 < t1 < t2 < · · · < tk, g : Rk → Rune fonction continue bornee et aussi A ∈ FB0+ . Par continuite et convergence dominee, ona

E[1A g(Bt1 , . . . , Btk)

]= lim

ε→0E[1A g(Bt1 −Bε, . . . , Btk −Bε)

].

Mais des que ε < t1, les variables aleatoires Bt1 − Bε, . . . , Btk − Bε sont independantes deFBε (par la propriete de Markov simple) et donc aussi de la tribu FB0+(=

⋂ε>0FBε ). Il vient

E[1A g(Bt1 , . . . , Btk)

]= lim

ε→0P(A)E

[g(Bt1 −Bε, . . . , Btk −Bε)

]= P(A)E[g(Bt1 , . . . , Btk)].

On a donc FB0+ ⊥⊥ σ(Bt1 , . . . , Btk). Comme c’est vrai pour tout 0 < t1 < · · · < tk, on aaussi FB0+ ⊥⊥ σ(Bt, t > 0). Puis B0 etant la limite simple de Bt (continuite de t 7→ Bt en0), on a σ(Bt, t ≥ 0) = σ(Bt, t > 0) et FB0+ ⊂ σ(Bt, t ≥ 0), si bien que FB0+ ⊥⊥ FB0+ , ce quiassure que FB0+ est grossiere.

ii) Continuite a droite de la filtration brownienne (Prop. 4.3).Nous utilisons le theoreme de classe monotone (version fonctionnelle) soient C un ensemblede fonctions stable par multiplication, E un espace vectoriel fonctionnel monotone (ie.f ∈ E est bornee, les constantes sont dans E, si fn ∈ E et fn f bornee alors f ∈ E) telque C ⊂ E alors E contient toutes les fonctions σ(C)-mesurables.Soit t ≥ 0 et ε > 0. On considere la tribu

Gt = σ(Bt+s −Bt : s ≥ 0

).

Montrons que Gt est independante de FBt+ . Par construction, Gt+ε est independante de FBt+εet donc independante de FBt+ =

⋂ε>0FBt+ε. Si t1 ≤ t2 alors Gt2 ⊂ Gt1 car

Bt2+s −Bt2 = Bt1+(t2+s−t1) −Bt1 − (Bt1+(t2−t1) −Bt1)

s’exprime en fonction de deux variables Gt1-mesurables. La famille Gt+ε, ε > 0, est donccroissante quand ε decroit, de limite

∨ε>0 Gt+ε.

Par ailleurs, par continuite des trajectoires deB, pour tout s ≥ 0,Bt+s−Bt = limε→0Bt+s+ε−Bt+ε, donc Bt+s −Bt est mesurable par rapport a

∨ε>0 Gt+ε. D’ou Gt =

∨ε>0 Gt+ε et donc

Gt est independante de FBt+ .Soit maintenant des variables aleatoires bornees telles que X soit FBt -mesurable, Y FBt+-mesurable (positive) et Z Gt-mesurable. Alors

E[XZY ] = E[XY ]E[Z] car FBt ⊂ FBt+ ⊥⊥ Gt= E

[XE[Y |FBt ]

]E[Z]

= E[XZE[Y |FBt ]

]car FBt ⊥⊥ Gt.

Page 68: Processus stochastique

48 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

Considerons l’espace vectoriel E des variables aleatoires bornees W telles que E[WY ] =E[WE[Y |FBt ]

]. Il s’agit d’un espace vectoriel monotone (theoreme de convergence mono-

tone). Cet espace contient la classe multiplicative M des variables aleatoires de la formeXZ avec X ∈ L∞(FBt ) et Z ∈ L∞(Gt). D’apres le theoreme fonctionnel de classe mono-tone, l’espace vectoriel E contient toutes les variables aleatoires bornees et mesurables parrapport a Gt

∨FBt = FB ou FB est la tribu engendree par tout le mouvement brownien.

Par consequent, pour tout W ∈ L∞(FB) on a E[WY ] = E[WE[Y |FBt ]

]. En particulier,

Y = E[Y |FBt ] ps. Comme la tribu est complete, Y coıncide avec une variable FBt -mesurable.On peut faire de meme pour Y de signe quelconque en ecrivant Y = Y +−Y −. Finalement,cela exige FBt = FBt+ .

4.4.2 Consequences trajectorielles de la loi du 0/1 de Blumenthal

Proposition 4.4 (sup et inf browniens)

1. On a ps pour tout ε > 0

sup0≤s≤ε

Bs > 0, inf0≤s≤ε

Bs < 0.

2. Pour tout η > 0, on a ps

supt≥0

Bt ≥ η, inft≥0

Bt ≤ −η.

3. Pour tout a ∈ R, soit Ta = inft ≥ 0 : Bt = a (avec inf ∅ = +∞). Alors psTa < +∞.

4. Par consequent, presque surement

lim supt→+∞

Bt = +∞, lim inft→+∞

Bt = −∞, (4.1)

Remarque 4.3 — La mesurabilite de sup/inf est assuree par la continuite du mou-vement brownien (si bien que le sup est un max, l’inf un min, donc sont mesurables).

— Comme les trajectoires du mouvement brownien sont continues et inf0<t≤εBt <0 < sup0<t≤εBt, par le theoreme des valeurs intermediaires, il existe un zero tε ∈]0, ε[de B. On en deduit que ps t ≥ 0 : Bt = 0 admet 0 comme point d’accumulation.

— Par translation (Markov simple), toute valeur du mouvement brownien est unpoint d’accumulation de sa trajectoire ps.

— En utilisant la propriete de Markov simple, on constate aussi facilement que psla fonction t 7→ Bt n’est monotone sur aucun intervalle non-trivial.

Page 69: Processus stochastique

4.4. Proprietes trajectorielles du mouvement brownien 49

Demonstration : 1) Soit (εp)p≥1 une suite de reels strictement positifs decroissants vers0 et soit

A =⋂p≥1

sup

0≤s≤εpBs > 0

.

Comme sup0≤s≤εp Bs est FBεp-mesurable, on a A ∈⋂p≥1FBεp = FB0+ . Puis, comme l’intersec-

tion definissant A est decroissante, on a

P(A) = limp→+∞

P(

sup0≤s≤εp

Bs > 0)

mais comme

P(

sup0≤s≤εp

Bs > 0)≥ P(Bεp > 0) =

1

2,

on a P(A) ≥ 1/2 et la loi de Blumenthal exige alors P(A) = 1. Comme A ⊂ sup0≤t≤εBt >0, on a le resultat pour le sup. L’assertion concernant inf0≤s≤εBs est obtenue par symetrieen loi en remplacant B par −B.

2) Par convergence monotone des probabilites, on a

1 = P(

sup0≤s≤1

Bs > 0)

= limδ→0

P(

sup0≤s≤1

Bs > δ).

Avec le changement s = tδ2, puis comme par autosimilarite Bδ2t/δ definit encore un mou-vement brownien,

P(

sup0≤s≤1

Bs > δ)

= P(

sup0≤t≤1/δ2

(Bδ2t/δ) > 1)

= P(

sup0≤s≤1/δ2

Bs > 1).

En faisant tendre δ → 0, par convergence monotone des probabilites, on obtient ainsiP(

sups≥0Bs > 1)

= 1. Puis, a nouveau, avec l’autosimilarite, on a, pour tout η > 0,P(

sups≥0Bs > η)

= 1 : Bη2u/η definissant un mouvement brownien standard

P(

sups≥0

Bs > η)

= P(

supu≥0

(Bη2u/η) > 1)

= P(

supu≥0

Bu > 1)

= 1.

Avec le changement B → −B, on a aussi P(

infs≥0Bs < −η)

= 1.

3) Comme Ta > t = sups≤tBs < a, avec tp +∞, on a

P(Ta = +∞) = P

(⋂p≥1

Ta > tp

)= lim

p→+∞P(Ta > tp) = lim

p→+∞P

(sups≤tp

Bs < a

)

= P

(⋂p≥1

sups≤tp

Bs < a)

= P(

sups≥0

Bs < a

)= 0

d’apres 2), si bien que Ta < +∞ ps.

Page 70: Processus stochastique

50 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

4) Puis la derniere assertion est une consequence du fait qu’une fonction continue f : R+ →R ne peut visiter tous les reels que si lim supt→+∞ f(t) = +∞ et lim inft→+∞ f(t) = −∞.

Remarque 4.4 Le mouvement brownien oscille ps entre +∞ et −∞ lorsque t → +∞mais avec une vitesse d’oscillation sous-lineaire puisque |Bt/t| → 0, quand t→ +∞.

En effet, il suffit de se rappeler par inversion du temps que Bt = tB1/t est encore un

mouvement brownien. Si bien que Bt/t = B1/t → B0 = 0 quand t → +∞ (on peut aussijusifier ce fait par la LGN).

4.4.3 Regularite trajectorielle brownienne

Proposition 4.5 Le mouvement brownien (Bt)t≥0 a des trajectoires ps localement holde-riennes de tout ordre γ < 1/2.

En particulier, on montre qu’un processus gaussien centre de covariance t∧s admet donc unemodification a trajectoires continues, c’est a dire une version est un mouvement brownien.

Demonstration : En effet, on a

K(t, t) +K(s, s)− 2K(s, t) = t+ s− 2 min(t, s) = |t− s|.

Donc le Theoreme 2.2 (Kolmogorov-Centsov dans le cas gaussien) s’applique avec α = C =1 pour B sur [0, 1]. Il donne l’existence de version avec la continuite holderienne pour toutγ < α/2 = 1/2. Comme le mouvement brownien et ces versions sont continues, elles sonttoutes indistinguables. C’est bien le mouvement brownien qui a ces proprietes de regula-rite. Le resultat reste vrai pour B sur tout intervalle [0, T ] borne et on a donc la localeHolder-regularite sur R+.

Proposition 4.6 En chaque t ≥ 0, les trajectoires du mouvement brownien sont ps nonderivables.

Demonstration : Par la propriete de translation (Markov simple), il suffit de montrer lanon derivabilite en 0, c’est a dire montrer que

limt→0

Bt −B0

t− 0= lim

t→0

Bt

t

n’existe pas. Or par inversion du temps Bt/t = B1/t ou B est encore un mouvement

brownien. Mais d’apres la Prop. 4.4 pour le mouvement brownien B (cf. (4.1)), on a

lim sups→+∞

Bs = +∞, lim infs→+∞

Bs = −∞

Page 71: Processus stochastique

4.5. Variation quadratique 51

avec s = 1/t, ce qui montre que la limite cherchee n’existe pas.

En fait, on a bien mieux : le resultat suivant montre que : ps, les trajectoires browniennessont nulle part derivables.

Theoreme 4.1 (Dvoretsky, 1963) Il existe une constante C > 0 telle que

P(∃t > 0 : lim sup

s→t+

|Bs −Bt|√s− t

< C

)= 0.

Avant la preuve, etudions la consequence sur la (non) derivabilite des trajectoires brow-

niennes : d’apres Dvoretsky, on a ps ∀t ∈ [0, 1], lim sups→t+|Bs−Bt|√

s−t ≥ C > 0 et si B etaitderivable en t de derivee `, on aurait quand s t

|Bs −Bt|√s− t

=|Bs −Bt|s− t

×√s− t ∼ `

√s− t→ 0,

ce qui nie le resultat de Dvoretsky. Ainsi, ps : en tout t ∈ [0, 1], B est donc non derivable.Le resultat s’etend aisement a tout t ≥ 0 pour un mouvement brownien defini sur R+.

4.5 Variation quadratique

Definition 4.5 (Variation) Soit f : [0, 1]→ R. On definit la α-variation de f par

V ar(f, α) = limε→0

suptk:ρ(tk)≤ε

∑k

∣∣f(tk+1)− f(tk)∣∣α

ou ρ(tk) = maxk |tk − tk−1| est le pas de la subdivision de [0, 1] et le sup est pris surl’ensemble de ces subdivisions.Pour α = 1, on parle de la variation. On dit que f est a variations bornees si V ar(f, 1) <+∞. Pour α = 2, on parle de la variation quadratique.

Remarque 4.5 Pour une fonction f de classe C1, la variation quadratique tend vers 0 surtout intervalle [0, t], en effet, avec une partition 0 = t0 < t1 < · · · < tn = t, on a avec letheoreme des accroissements finis :

Vf (t0, t1, . . . , tn) :=n∑j=1

(f(ti)− f(ti−1))2 =n∑j=1

(f ′(t∗i )(ti − ti−1))2

≤ δ‖f ′‖2∞

n∑j=1

|ti − ti−1| = δ‖f ′‖2∞t

ou t∗i ∈]ti, ti+1[ est donne par le theoreme des accroissements finis applique a la fonctionderivable f .

Page 72: Processus stochastique

52 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

Proposition 4.7 (Variation quadratique brownienne) Soit t > 0 et 0 = t0 < t1 <· · · < tn = t une subdivision de [0, t], notons VB(t0, t1, . . . , tn) =

∑nj=1(Btj−Btj−1

)2. Alors

1. VB(t0, t1, . . . , tn) converge dans L2 vers t lorsque le pas de la subdivision δ := max1≤j≤n(tj−tj−1) tend vers 0.

2. De plus, si la subdivision est uniforme, la convergence est presque sure.

Heuristiquement : la variation quadratique du mouvement brownien sur [0, t] est donc t.

Demonstration : Notons d’abord que le carre d’une variable gaussienne X centree devariance σ2 est une variable aleatoire d’esperance σ2 et de variance Var(X2) = 3σ4 − σ4 =2σ4 (calculs par ipp).

1) On a pour la convergence dans L2 :

E[(VB(t0, t1, . . . , tn)−t)2

]= E

[( n∑j=1

(Btj−Btj−1)2−(tj−tj−1)

)2]=

n∑j=1

Var((Btj−Btj−1

)2)

car les variables (Btj −Btj−1)2 − (tj − tj−1) sont centrees et independantes. On a donc

E[(VB(t0, t1, . . . , tn)− t)2

]= 2

n∑j=1

(tj − tj−1)2 ≤ 2tδ → 0, δ → 0.

2) Notons Vn = VB(0, t

n, . . . , nt

n

). On a Vn =

∑n−1k=0 ∆k(B)2 avec ∆k(B) = B

( (k+1)tn

)−

B(ktn

). On a Vn − t =

∑nk=0 αn,k avec αn,k = ∆k(B)2 − t

n.

Notons ζ = B21 − 1. On a E[ζ] = 0 et

αn,0 = ∆0(B)2 − t

n= B

( tn

)2 − t

nL=t

n(B1)2 − t

n=t

nζ.

On a— Pour k = 0, . . . , n, les variables aleatoires αn,k sont iid (independance et stationnarite

des accroissements de B) ;— E[αn,k] = E[αn,0] = E[tζ/n] = 0 ;— E[α2

n,k] = E[α2n,0] = E[t2ζ2/n2] = (t2/n2) E[ζ2] ;

— E[α4n,k] = E[α4

n,0] = E[ζ4/n4] = (t4/n4) E[ζ4].On utilise maintenant le Lemme ?? :

E[( n−1∑

k=0

αn,k

)4]≤ Cn2E[α4

n,0].

Par l’inegalite de Markov, on a alors

P(|vn − t| ≥ δn

)≤

E[(∑n−1

k=0 αn,k)4]

δ4n

≤ Cn2E[ζ4]

n4δ4n

=C ′

n2δ4n

.

Page 73: Processus stochastique

4.6. Propriete de Markov forte 53

Avec le choix δn = 1/ lnn, on a∑+∞

n=2 P(|vn − t| ≥ δn) < +∞. Le lemme de Borel-Cantellis’applique donc et donne : ps, pour n assez grand on a |vn − t| ≤ δn → 0. D’ou pslimn→+∞ vn = t. s

Proposition 4.8 Presque surement, les trajectoires du mouvement brownien sont a tra-jectoires a variations non bornees.

Ce resultat justifie que, si les trajectoires browniennes sont continues, elles oscillent quandmeme beaucoup. . . tellement que les trajectoires sont ps a variations non bornees. Cephenomene explique les difficultes qu’il y aura a construire une integrale (de type Stieltjes)par rapport au mouvement brownien.

Demonstration : Il suffit de justifier la remarque generale suivante : si f est continue sur[0, 1] et

limn→+∞

n−1∑k=0

∣∣∣f(k + 1

n

)− f

(kn

)∣∣∣2 = a ∈]0,+∞[

alors V ar(f, 1) = +∞. Pour cela, supposons que V ar(f, 1) < +∞ et notons ρf (u) =sup|x−y|<u |f(x)− f(y)| le module de continuite de f . Alors

n∑k=0

∣∣∣f(k + 1

n

)− f

(kn

)∣∣∣2 ≤ ρf( 1

n

) n∑k=0

∣∣∣f(k + 1

n

)− f

(kn

)∣∣∣ ≤ ρf( 1

n

)V ar(f, 1)→ 0

quand n→ +∞ puisque par continuite de f : limn→+∞ ρf (1/n) = 0. Il est donc necessaired’avoir V ar(f, 1) = +∞.

4.6 Propriete de Markov forte

Le but dans cette section est d’etendre la propriete de Markov simple (invariance partranslation, cf. Prop. 4.2) au cas ou l’instant deterministe s est remplace par un tempsaleatoire T . On commence par preciser la classe des temps aleatoires pour lesquels cela estpossible.

4.6.1 Temps d’arret

Definition 4.6 (Temps d’arret) Etant donnee une filtration (Ft)t≥0, une variable alea-toire T a valeurs dans [0,+∞] est un temps d’arret si pour tout t ≥ 0 on a T ≤ t ∈ Ft.

Les proprietes suivantes sont simples :

Proposition 4.9 — Soient T et S deux (Ft)t≥0-temps d’arret alors T ∧ S et T ∨ Ssont des (Ft)t≥0-temps d’arret.

Page 74: Processus stochastique

54 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

— Si (Tn)n∈N est une suite monotone de (Ft)t≥0-temps d’arret alors T = limn→+∞ Tnest un (Ft)t≥0-temps d’arret.

Demonstration : 1) On a pour tout t ≥ 0 :

T ∧ S ≤ t = T ≤ t ∪ S ≤ t ∈ Ftet

T ∨ S ≤ t = T ≤ t ∩ S ≤ t ∈ Ft2) Si Tn T alors pour tout t ≥ 0 :

T ≤ t =⋂n≥1

Tn ≤ t ∈ Ft

Puis si Tn T alors pour tout t ≥ 0 :

T ≤ t =⋃n≥1

Tn ≤ t ∈ Ft.

Remarque 4.6 Si (Ft)t≥0 est une filtration continue a droite alors T est un (Ft)t-tempsd’arret ssi pour tout t ≥ 0, T < t ∈ Ft. En effet, c’est suffisant car

T ≤ t =⋂ε>0

T < t+ ε ∈⋂ε>0

Ft+ε = Ft+ = Ft.

Et c’est necessaire carT < t =

⋃ε>0

T ≤ t− ε ∈ Ft

puisque T ≤ t− ε ∈ Ft−ε ⊂ Ft. C’est le cas pour la filtration brownienne FB = (FBt )t≥0

(Prop. 4.3, generalisation de la loi de Blumenthal).

Exemple 4.1 — Un temps T = t (constant) est un temps d’arret.— Un temps d’atteinte Ta := inft ≥ 0 : Bt = a est un temps d’arret pour lafiltration browienne FB.En effet, Ta ≤ t = sup0≤s≤tBs ≥ a =

⋃s∈[0,t]∩QBs ≥ a ∈ Ft pour a ≥ 0.

— En revanche, T = sups ≥ 1 : Bs = 0 n’est pas un temps d’arret.— Soit O un ouvert alors TO = inft ≥ 0 : Bt ∈ O est un (Ft)t≥0-temps d’arret sila filtration est continue a droite.En effet :TO < t

=

∃s < t : Bs ∈ O

=∃s ∈ [0, t] ∩Q : Bs ∈ O

(trajectoires continues)

=⋃

s∈[0,t]∩Q

Bs ∈ O

∨s∈[0,t]∩Q

Fs ⊂ Ft.

Comme la filtration est continue a droite, T0 < t ∈ Ft suffit.

Page 75: Processus stochastique

4.6. Propriete de Markov forte 55

— Soit F un ferme alors TF = inft ≥ 0 : Bt ∈ F est un (Ft)t≥0-temps d’arret.En effet :

TF ≤ t

=ω ∈ Ω : inf

0≤s≤td(Bs(ω), F ) = 0

=

ω ∈ Ω : inf

s∈[0,t]∩,Qd(Bs(ω), F ) = 0

car B est continu et donc la distance aussi. Par ailleurs, un inf denombrable defonctions mesurables reste mesurable. Par consequent, TF ≤ t ∈ Ft et TF est bienun (Ft)t≥0-temps d’arret.

Definition 4.7 (Temps d’arret simple) Soit T un (Ft)t≥0-temps d’arret. On dit queT est un (Ft)t≥0-temps d’arret simple si l’ensemble des valeurs prises par T sest au plusdenombrable, ie. il existe une suite (tn)n∈N de temps positifs dans R telle que

∑n≥0 P(T =

tn) = 1.

Proposition 4.10 (Approximation de temps d’arret) Soit T un (Ft)t≥0-temps d’ar-ret. Alors il existe une suite decroissante (Tn)n∈N de (Ft)t≥0-temps d’arret simples tels queps limn→+∞ Tn = T .

Demonstration : On pose Tn = ([T2n] + 1)2−n sur T < +∞, ie. Tn = (j + 1)2−n surl’evenement T ∈ [j2−n, (j + 1)2−n[ et Tn = +∞ sur T = +∞. On verifie que Tn estun (Ft)t≥0-temps d’arret :

Tn ≤ t

=

p−1⋃j=0

Tn = (j + 1)2−n

avec p2−n ≤ t < (p+ 1)2−n

=

p−1⋃j=0

T ∈ [j2−n, (j + 1)2−n[

=

T ∈ [0, p2−n[

∈ Fp2−n ⊂ Ft

ou on a utiliseT < p2−n

=⋃ε>0

T ≤ p2−n − ε

∈ Fp2−n . Puis, par construction, on a

facilement Tn → T ps et Tn ≥ T ie Tn T .

Definition 4.8 Soit T un temps d’arret. La tribu des evenements anterieurs a T est

FT =A ∈ F∞ : ∀t ≥ 0, A ∩ T ≤ t ∈ Ft

.

Si T = t est deterministe, alors FT = Ft.

Proposition 4.11 Les variables aleatoires T et BT sont FT -mesurables.

Page 76: Processus stochastique

56 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration : Il s’agit de voir que pour tout s ≥ 0, T−1(] −∞, s]) = T ≤ s ∈ FT .Pour cela, soit t ≥ 0, on a

T ≤ s ∩ T ≤ t = T ≤ t ∧ s ∈ Ft∧s ⊂ Ft

en utilisant le fait que T est un temps d’arret. Pour BT , il suffit de remarquer que parcontinuite ps des trajectoires

BT = limn→+∞

+∞∑i=0

1i2−n<T≤(i+1)2−nBi2−n

puis que Bs1s<T est FT -mesurable. En effet pour tout u ∈ R, on montre que Bs1s<T ≤u ∈ FT . Pour cela, on etablit que, pour tout t ≥ 0, Bs1s<T ≤ u ∩ T ≤ t ∈ Ft.

— si t < s alors Bs1s<T ≤ u∩T ≤ t = 0 ≤ u∩T ≤ t = (∅ ou Ω)∩Ft ∈ Ft ;— si t ≥ s alors Bs1s<T ≤ u ∩ T ≤ t = (Bs ≤ u ∩ s < T ≤ t) ∪ (0 ≤

u ∩ T ≤ s) mais Bs ≤ u ∈ Fs et s < T ≤ t = T ≤ sc ∩ T ≤ t ∈ Ft etT ≤ s ∈ Fs.

Cette notion est developpee en Section 5.2, en particulier les relations entres les diversesfiltrations FT .

4.6.2 Propriete de Markov

Le resultat suivant generalise la Prop. 4.2 a un changement de temps donne par untemps d’arret.

Theoreme 4.2 (Propriete de Markov forte) Soit T un temps d’arret. Alors condi-tionnellement a T < +∞, le processus B(T ) defini par

B(T )t = BT+t −BT

est un mouvement brownien independant de FT .

Demonstration : On suppose d’abord que T < +∞ ps. On prouve alors la propriete deMarkov en montrant que pour A ∈ FT , 0 ≤ t1 ≤ · · · ≤ tp et F une fonction continuebornee sur Rp, on a

E[1AF (B

(T )t1 , . . . , B

(T )tp )]

= P(A)E[F (Bt1 , . . . , Btp)

]. (4.2)

En effet, avecA = Ω, on obtient queB(T ) a les memes lois fini-dimensionnelles queB et il estfacile de voir que B(T ) a des trajectoires ps continues. Autrement dit B(T ) est un mouvementbrownien. Puis pour A quelconque, (4.2) assure que pour tout choix 0 ≤ t1 ≤ · · · ≤ tp, le

vecteur (B(T )t1 , . . . , B

(T )tp ) est independant de FT , d’ou par un argument de classe monotone

B(T ) ⊥⊥ FT .

Page 77: Processus stochastique

4.6. Propriete de Markov forte 57

Pour montrer (4.2), on ecrit, par continuite des trajectoires, ps

F(B

(T )t1 , . . . , B

(T )tp

)= lim

n→+∞

+∞∑k=0

1(k−1)2−n<T≤k2−nF(Bk2−n+t1 −Bk2−n , . . . , Bk2−n+tp −Bk2−n

).

Comme F est bornee, par convergence dominee, il vient :

E[1AF (B

(T )t1 , . . . , B

(T )tp )]

= limn→+∞

+∞∑k=0

E[1A1(k−1)2−n<T≤k2−nF

(Bk2−n+t1 −Bk2−n , . . . , Bk2−n+tp −Bk2−n

)].

Pour A ∈ FT , l’evenement A ∩ (k − 1)2−n < T ≤ k2−n = A ∩ T ≤ k2−n ∩ T ≤(k−1)2−nc est F(k2−n)-mesurable donc coıncide ps avec un evenement de σ(Br : r ≤ k2−n).Par la propriete de Markov simple (Prop. 4.2), on a donc

E[1A1(k−1)2−n<T≤k2−nF (Bk2−n+t1 −Bk2−n , . . . , Bk2−n+tp −Bk2−n)

]= P

(A ∩ (k − 1)2−n < T ≤ k2−n

)E[F (Bk2−n+t1 −Bk2−n , . . . , Bk2−n+tp −Bk2−n)

]= P

(A ∩ (k − 1)2−n < T ≤ k2−n

)E[F (Bt1 , . . . , Btp)

].

par stationnarite des accroissements de B. Finalement, on obtient (4.2) en sommant surk ∈ N.

Lorsque P(T = +∞) > 0, on obtient de la meme facon

E[1A∩T<+∞F (B

(T )t1 , . . . , B

(T )tp )]

= P(A ∩ T < +∞

)E[F (Bt1 , . . . , Btp)

]et le resultat cherche suit.

4.6.3 Principe de reflexion

Une application importante de la propriete de Markov forte est le principe de reflexion.

Theoreme 4.3 (Principe de reflexion) Pour tout t > 0, notons St = sups≤tBs. Alorssi a ≥ 0 et b ≤ a on a

P(St ≥ a,Bt ≤ b

)= P

(Bt ≥ 2a− b

). (4.3)

En particulier, pour chaque t ≥ 0, St a meme loi que |Bt|.

Remarque 4.7 — A chaque trajectoire brownienne depassant le seuil a et termi-nant en deca de b ≤ a, on peut associer la trajectoire brownienne (fictive) obtenuepar symetrie autour de la droite y = a a partir de la date inf(t ≥ 0 : Bt = a).Cette trajectoire termine alors au dela de 2a− b. Il y a ainsi une ”bijection” entre lestrajectoires browniennes verifiant St ≥ a,Bt < b et celles verifiant Bt ≥ 2a− b.Le principe de reflexion (4.3) est une formalisation de cette ”bijection”.[Dessin typique illustant le principe de reflexion].

Page 78: Processus stochastique

58 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

— Le principe (4.3) implique que pour ∀t ≥ 0, StL= |Bt|. Toutefois, attention :

l’egalite tient pour les marginales mais ne s’etend pas aux processus : l’un est crois-sant, l’autre pas.

Demonstration : Il s’agit d’appliquer la propriete de Markov forte au temps d’arretTa = inft ≥ 0 : Bt = a. On a deja vu que Ta < +∞ ps. On a aussi

P(St ≥ a,Bt ≤ b) = P(Ta ≤ t, Bt ≤ b) = P(Ta ≤ t, B

(Ta)t−Ta ≤ b− a

)puisque B

(Ta)t−Ta = Bt−Ta+Ta − BTa = Bt − a. Pour simplifier, notons B′ = B(Ta). Le Theo-

reme 4.2 (propriete de Markov forte) assure que B′ est un mouvement brownien indepen-dant de FTa , donc de Ta. Comme B′ a meme loi que −B′, on a

P(Ta ≤ t, B

(Ta)t−Ta ≤ b− a

)=

∫ t

0

P(B′t−u ≤ b− a) PTa(du)s =

∫ t

0

P(−B′t−u ≤ b− a) PTa(du)

=

∫ t

0

P(B′t−u ≥ a− b) PTa(du) = P(Ta ≤ t, B

(Ta)t−Ta ≥ a− b

)= P(Ta ≤ t, Bt − a ≥ a− b)= P(Bt ≥ 2a− b)

car l’evenement Bt ≥ 2a− b est contenu dans Ta ≤ t (b ≤ a).

Pour la deuxieme partie, on utilise le principe de reflexion et la symetrie (en loi) du mou-vement brownien :

P(St ≥ a) = P(St ≥ a,Bt ≥ a) + P(St ≥ a,Bt < a)

= 2P(Bt ≥ a) = P(Bt ≥ a) + P(−Bt ≥ a)

= P(Bt ≥ a) + P(Bt ≤ −a) = P(|Bt| ≥ a).

On deduit facilement du principe de reflexion que le temps d’atteinte Ta = inf(t ≥ 0 :Bt = a) d’un mouvement brownien du niveau a n’est pas deterministiquement borne :

P(Ta ≤ C) = P(

supt∈[0,C]

Bt ≥ a)

= P(|BC | ≥ a

)= 2P(N ≥ a/C2) < 1

ou N ∼ N (0, 1).

Soit Z une variable aleatoire reelle. Un processus (Xt, t ≥ 0) est appele mouvement brow-nien reel issu de Z si on peut ecrire Xt = Z + Bt ou B est un mouvement brownien issude 0 independant de Z.

Page 79: Processus stochastique

4.7. Equation de la chaleur 59

4.7 Equation de la chaleur

Cette section reprend la presentation de cette equation par [EGK].

4.7.1 Origine physique

L’equation de la chaleur est l’EDP qui decrit la propagation de la chaleur en donnant latemperature T (t, x) dans un milieu en fonction du temps t et du lieu x.Le flux d’energie thermique J qui traverse une surface unitaire par unite de temps estdonne par la loi de Fourier :

J = −k∂T∂x

ou k est le coefficient de conductivite thermique du milieu (en mkgs−3K−1). Cette loistipule qu’une difference de temperature engendre un flux d’energie dans la direction destemperatures decroissantes.Si on calcule le gain d’energie par unite de temps d’un volume d’epaisseur dx et de sectionS, on remarque que cette puissance est egale a la difference entre le flux entrant et le fluxsortant :

P = J(x)S − J(x+ dx)S c’est a dire P = −∂J∂xSdx.

Cette puissance assimilee a cet element de volume Sdx est supposee elever sa temperatureT . On pose une relation lineaire simple

P = cm∂T

∂t

ou c est la chaleur specifique de la matiere consideree. Comme m = ρSdx (ou ρ est la massevolumique du milieu), on a alors

ρc∂T

∂t= −∂J

∂x

qui est l’equation de continuite d’un flux thermique d’energie. En la combinant avec la loide Fourier, on obtient l’equation de la chaleur

∂T

∂t=

k

ρc

∂2T

∂x2.

Cette EDP se generalise facilement en dimension superieure.

4.7.2 Origine mathematique

Les premieres proprietes du mouvement brownien mises en evidence par Bachelier et Ein-stein concernent le lien entre la loi du mouvement brownien issu de x et l’equation dela chaleur. On note pt(x, ·) la densite de la variable aleatoire qui modelise le phenomenex + Bt a la date t et qui part de x a la date 0. Par stationnarite du phenomene, pt(x, y)

Page 80: Processus stochastique

60 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

ne depend de x, y que par la difference y − x. Puis, ces auteurs deduisent de la proprieted’accroissements independants que la densite pt(x, ·) de la loi de x + Bt (qui n’est passupposee gaussienne a priori) verifie l’equation de convolution∫

Rpt(x, y)ph(y, z) dy = pt+h(x, z). (4.4)

En effet, on ecrit x+Bt+h = x+Bt +Bt+h −Bt et on note que

— Bt = Bt −B0 est independant de B′h = Bt+h −Bt,

— si x+Bt = y, la loi de x+Bt+Bt+h−Bt est la meme que celle de y+ Bh de densiteph(y, ·),

— on recupere la densite du tout, en integrant par rapport a la loi de x+Bt de densitept(x, ·).

Bachelier conclut en montrant que l’equation (4.4) est verifiee par les fonctions de la formeAte

−πA2tx

2pour lesquelles A2

t est proportionelle au temps t. Il n’envisage pas a priori d’autretype de fonctions. Ce resultat montre la grande generalite des situations qui peuvent etremodelisees par un mouvement brownien.

Revenons a la densite gaussienne

g(t, x, y) := g(t, y − x) =1√2πt

exp(− (y − x)2/(2t)

)qui traduit que x + Bt+h est la somme des variables gaussiennes independantes x + Bt etBt+h − Bh. Un calcul direct montre que le noyau gaussien est solution de l’equation de lachaleur, c’est a dire de l’EDP

g′t(t, x, y) = 12g′′yy(t, x, y)

g′t(t, x, y) = 12g′′xx(t, x, y).

(4.5)

La densite gaussienne standard satisfait donc l’equation de la chaleur par rapport auxvariables x et y. Cette propriete est etendue a une vaste classe de fonctions construites apartir du mouvement brownien.

Theoreme 4.4 1. Considerons la fonction

u(t, x, f) = E[f(x+Bt)] =

∫Rg(t, x, y)f(y) dy

ou f est une fonction borelienne bornee. La fonction u est C∞ en espace et en tempspour t > 0 et verifie l’equation de la chaleur

u′t(t, x, f) =1

2u′′xx(t, x, f), u(0, x) = f(x). (4.6)

Page 81: Processus stochastique

4.7. Equation de la chaleur 61

2. Lorsque le point de depart du mouvement X0 est aleatoire avec une loi de densiteπ(x), independante du mouvement brownien, la densite de la loi de X0 +Bt est egalea q(t, y) =

∫R g(t, y − x)π(x)dx et verifie l’equation de la chaleur

q′t(t, y) =1

2q′′yy(t, y), q(0, y) = π(y).

Demonstration : 1) La fonction u(t, x, f) = E[f(x + Bt)] =∫R g(t, x, y)f(y) dy est tres

reguliere pour t > 0, car la densite gaussienne (le noyau de la chaleur) est C∞, a deriveesbornees pour t > a. Par derivation sous le signe integral, on a aisement :

u′t(t, x, f) =

∫Rg′t(t, x, y)f(y) dy, u′′xx(t, x) =

∫Rg′′xx(t, x, y)f(y) dy.

L’equation de la chaleur (4.6) pour u(t, ·, f) suit alors facilement de celle pour g(t, x, y).

2) Supposons que la condition initiale soit aleatoire et independante du mouvement brow-nien et donc de Bt. La loi de X0 +Bt admet une densite qui est la convolee de π(x) et deg(t, x).

La formule precedente peut etre etendue sous certaines conditions a d’autres fonctionsque les fonctions bornees, par exemple pour les fonctions f(x) = eλx, λ > 0. La fonc-tion u(t, x, eλ·) est la transformee de Laplace de x+ Bt. Des calculs gaussiens (classiques)montrent que

u(t, x, eλ·

)= E

[eλ(x+Bt)

]= eλx+ 1

2λ2t.

Lorsque la fonction consideree est reguliere, une autre formulation peut etre donnee a cetterelation qui jouera un role important dans la suite :

Proposition 4.12 Si f est une fonction C1b en temps et C2

b en espace (c’est a dire aderivees bornees en temps et en espace), on a

u′t(t, x, f) = u(t, x, f ′t +

1

2f ′′xx)

soit, en integrant, sous une forme probabiliste :

E[f(t, x+Bt)] = f(0, x) +

∫ t

0

E[12f ′′xx(s, x+Bs) + f ′t(s, x+Bt)

]ds. (4.7)

Demonstration : On represente la fonction u(t, x, f) de la facon suivante

u(t, x, f) = E[f(t, x+Bt)] =

∫Rg(t, y)f(t, x+ y) dy =

∫Rg(t, x, z)f(t, z) dz

ou g(t, y) est la densite de Bt ∼ N (0, t) et g(t, x, z) = g(t, z−x) est la densite de x+Bt ∼N (x, t). Par convergence dominee, on derive sous le signe integral, pour une fonction fdeux fois derivable, a derivees bornees.

u′′xx(t, x, f) =

∫Rg(t, y)f ′′xx(t, x+ y)dy = u(t, x, f ′′xx)

Page 82: Processus stochastique

62 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

=

∫Rg′′xx(t, x, z)f(t, z)dz (avec deux ipp)

u′t(t, x, f) =

∫Rg(t, x, z)f ′t(t, z) dz +

∫Rg′t(t, x, z)f(t, z) dz

= u(t, x, f ′t) +1

2

∫Rg′′xx(t, x, z)f(t, z)dz = u(t, x, f ′t) +

1

2u(t, x, f ′′xx)

en utilisant que g satisfait l’equation de la chaleur. Pour avoir l’equation integrale (4.7), ilsuffit d’integrer par rapport a t et d’expliciter les fonctions u(t, x, f ′t) et u(t, x, f ′′xx) commedes esperances.

Le mouvement brownien decentre Xxt = x+ bt+σBt joue un role important dans les appli-

cations. Les equations aux derivees partielles (EDP) precedentes s’etendent sans difficultea partir de l’EDP satisfaite par la densite de Xx

t

gb,σ2(t, x, y) =1√

2πσ2texp

(−(y − x− bt)2

2σ2t

)= g(σ2t, x+ bt, y) = g(σ2t, x, y − bt).

Nous introduisons le generateur associe a ce processus, c’est a dire l’operateur du 2ndordre defini par

Lb,σ2φ(x) =1

2σ2φ′′xx(x) + bφ′x(x).

Puisque g(t, x, y) satisfait l’equation de la chaleur, la fonction x 7→ gb,σ2(t, x, y) verifie

∂tgb,σ2(t, x, y) =1

2σ2g′′xx(σ

2t, x+ bt, y) + bg′x(σ2t, x+ bt, y)

= Lb,σ2gb,σ2(t, x, y). (4.8)

Dans ce contexte, l’equation (4.8) remplace l’equation de la chaleur (4.5).

Proposition 4.13 1. Soit f : R → R. Les fonctions u(t, x, f) = E[f(x + bt + σBt)] =∫R gb,σ2(t, x, y)f(y) dy satisfont l’EDP

u′t(t, x, f) = Lb,σ2u(t, x, f) = 12σ2u′′xx(t, x, f) + bu′x(t, x, f)

u(0, x, f) = f(x).(4.9)

2. De plus, si f : R+ × R→ R est une fonction de classe C1b en temps sur R+ \ 0 et

C2b en espace, alors

E[f(t,Xxt )] = f(0, x) +

∫ t

0

E[Lb,σ2f(s,Xx

s ) + f ′t(s,Xxs )]ds. (4.10)

Demonstration : L’equation (4.9) s’obtient en integrant par rapport a f(y)dy l’EDP sa-tisfaite par la densite gb,σ2(t, x, y) consideree comme fonction de x. Puis (4.10) suit avecdes integrations par parties comme precedemment.

Page 83: Processus stochastique

4.7. Equation de la chaleur 63

Remarque 4.8 La representation de la solution de l’equation de la chaleur comme E[f(x+Bt)] montre que la trajectoire brownienne joue pour cette equation le meme role que lescaracteristiques, solutions d’equations differentielles du premier ordre, pour la resolutiondes EDP du premier ordre. L’equation (4.9) montre que ce resultat peut etre etendu auxEDP elliptiques a coefficients constants a condition de se referer a un MB decentre.Un objectif important est de passer de cette formule, vraie en moyenne (en esperance), aune formule trajectorielle. Cette etape a ete amorcee par Paul Levy dans les annees 30 etcompletee par Kiyoshi Ito dans les annees 50. Plus precisement, Ito interprete la quantite

Tt(f) = f(t, x+Bt)− f(0, x)−∫ t

0

1

2f ′′xx(s, x+Bs) + f ′(s, x+Bs)ds

qui mesure la difference trajectorielle entre les deux termes de l’equation (4.7) sans prendrel’esperance E comme une integrale stochastique. Ce faisant, il introduit un calcul differentielstochastique, le calcul d’Ito, vrai sur les trajectoires et non plus seulement en moyenne.C’est l’objet des chapitres suivants (Chapitre ??).

Page 84: Processus stochastique

64 Chapitre 4. c©JCB – M2 Math. – Universite de Rennes 1

Page 85: Processus stochastique

Deuxieme partie

Martingales

65

Page 86: Processus stochastique
Page 87: Processus stochastique

Chapitre 5

Martingales en temps continu

Dans ce chapitre, on presente les rudiments sur la theorie des martingales en tempscontinu. Ce sont des processus definis sur des espaces (Ω,F , (Ft)t≥0,P) filtres, c’est a diremuni d’une filtration (Ft)t≥0. On rappelle qu’une filtration sur un espace de probabilite(Ω,F) est une famille (Ft)t≥0 de sous-tribus telles que pour s ≤ t, on a Fs ⊂ Ft.On rappelle qu’on associe a chaque Ft les tribus Ft+ et Ft− et la filtration est dite continuea droite (resp. a gauche) si pour tout t ≥ 0, on a Ft = Ft+ (resp., pour tout t > 0,Ft = Ft−). Elle est dite satisfaire les conditions habituelles si elle est continue a droite etcomplete (ie. contient tous les negligeables de F).Dans tout ce chapitre, on considere (Ω,F , (Ft)t≥0,P) un espace filtre. On commence pardes generalites sur les filtrations en Section 5.1 et sur les temps d’arrets en Section 5.2puis on presente la notion de martingale en temps continu en Section 5.3. On generaliseles principaux resultats rencontres dans le cadre discret (inegalites de Doob, theoremes deconvergence, theoreme d’arret, martingales arretees) et on regularise les trajectoires desmartingales. On termine avec un mot sur le processus de Poisson en Section 5.4.

5.1 Filtration et processus

Definition 5.1 (Filtration) Une filtration sur un espace de probabilite (Ω,F) est unefamille (Ft)t≥0 de sous-tribus telle que pour s ≤ t, on a Fs ⊂ Ft.

Si on considere un processus (Xt)t≥0, on considere souvent la filtration canonique qu’ilengendre : FXt = σ(Xs : s ≤ t), t ≥ 0. Dans ce cas, il est utile d’interpreter une filtrationcomme une quantite d’information disponible a une date donnee : FXt represente l’infor-mation vehiculee par le processus X jusqu’a la date t.Une filtration est P-complete pour une mesure de probabilite P si F0 contient tous lesevenements de mesure nulle, ie. N = N ∈ F tel que P(N) = 0⊂ F0.

Remarque 5.1 L’interet d’une tribu complete vient du fait suivant : soit X = Y ps ou Yest une variable aleatoire G-mesurable, avec G complete. Alors X est G-mesurable.

67

Page 88: Processus stochastique

68 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

Preuve : En effet notons N = X 6= Y , negligeable, donc dans G. Soit A ∈ B(R), on a :

X−1(A) =(Y ∈ A ∩N c

)∪(X ∈ A ∩N

).

On a(X ∈ A ∩ N

)∈ G car

(X ∈ A ∩ N

)⊂ N et G est une tribu complete. Puis(

Y ∈ A ∩N c)∈ G car Y ∈ A ∈ G et N c ∈ G.

A une filtration, on associe Ft+ =⋂ε>0Ft+ε et Ft− =

∨ε>0Ft−ε.

La filtration (Ft)t≥0 est dite continue a droite si pour tout t ≥ 0, on a Ft = Ft+ ,continue a gauche si pour tout t > 0, on a Ft = Ft− .Dans la suite, on dira qu’une filtration satisfait les conditions habituelles si elle estcomplete et continue a droite. C’est le cas de la filtration brownienne (FBt )t≥0 donnee par

FBt = σ(Bs : s ≤ t), cf. Prop. 4.3. Etant donnee une filtration quelconque (Ft)t≥0, on peuttoujours en considerer une satisfaisant les conditions habituelles en ajoutant a Ft+ la classedes P-negligeables de F . Il s’agit de l’augmentation habituelle de (Ft)t≥0.

Definition 5.2 Un processus (Xt)t≥0 est dit mesurable si l’application definie sur (R+ ×Ω,B(R+)⊗F) par (t, ω) 7→ Xt(ω) est mesurable.

Cette propriete est plus forte que de demander a Xt d’etre Ft-mesurable pour tout t ≥0. Cependant, si les trajectoires de X sont ps continues, les deux proprietes deviennentequivalentes.

Definition 5.3 (Adapte) Un processus (Xt)t≥0 est dit adapte si pour tout t ≥ 0, Xt estFt-mesurable.

(Progressif) Un processus (Xt)t≥0 est dit progressif (ou progressivement mesurable) si pourtout t ≥ 0, (s, ω) 7→ Xs(ω) est mesurable sur [0, t]× Ω muni de B([0, t])⊗Ft.

(Tribu progressive) La famille des A ∈ B(R+)⊗F telle que le processus Xt(ω) = 1A(t, ω)est progressif est appelee la tribu progressive. On la note Prog.

Remarque 5.2 — Un processus X est adapte par rapport a sa filtration naturelleFX .

— Un processus progressif est adapte et mesurable.Il est adapte car Xt = X it ou it : ω ∈ (Ω,Ft) 7→ (t, ω) ∈ ([0, t]×Ω,B([0, t])⊗Ft)est mesurable.Il est mesurable car un processus est mesurable ssi pour tout t ≥ 0, (s, ω) 7→ Xs(ω)est mesurable sur [0, t]× Ω muni de B([0, t])⊗F .

— Un processus mesurable et adapte admet une version progressive (Chung et Doob,cf. [DM]).

Exemples

Page 89: Processus stochastique

5.1. Filtration et processus 69

— Soit 0 < t1 < · · · < tn et h1, . . . , hn des variables aleatoires telles que hi est Fti-mesurable. On pose t0 = 0 et tn+1 = +∞. Les processus X =

∑ni=0 hi1[ti,ti+1[ et

Y =∑n

i=0 hi1]ti,ti+1] sont progressifs.En effet, montrons le pour X : soit B ∈ B(R), on a

(s, ω) ∈ [0, t]× Ω : Xs(ω) ∈ B =n⋃i=0

([ti, ti+1[∩[0, t])× ω ∈ Ω : hi(ω) ∈ B

∈ B([0, t])⊗Ft.

— Si la filtration est complete, un processus adapte a trajectoires continues a gaucheest progressif.En effet, on approche le processus X par Xn

t = Xk2−n pour t ∈ [k2−n, (k+ 1)2−n[ etk ∈ 0, . . . , 2n−1. Le processus Xn est progressif (exemple precedent) et comme Xest continu a gauche, Xn

t → Xt pour tout t ≥ 0. Cela garantit que X est progressif.

Proposition 5.1 Soit X un processus adapte et a trajectoires continues a droite. Alors Xest progressif.

Demonstration : On considere Xn donne par Xnt = X(k+1)2−n pour t ∈ [k2−n, (k+1)2−n[.

D’apres l’exemple ci-dessus, le processus Xn est progressif avec la filtration (Ft+2−n)t≥0 etcomme X est continu a droite, pour tout t ≥ 0, Xn

t → Xt.

Fixons t ≥ 0 et considerons Xns = Xn

s 1s<t−2−n + Xt1s=t. Ce processus est mesurable parrapport a B([0, t]) ⊗ Ft. En effet, Xn

s 1s<t−2−n est B([0, t]) ⊗ Ft-mesurable d’apres ce quiprecede. Puis, si on note Ys = Xt1s=t, alors

Y −1(A) = (s, ω) ∈ [0, t]× Ω : Xt(ω)1s=t ∈ A.

Si s = t alors il faut ω ∈ X−1t (A) et si s 6= t, il faut 0 ∈ A, ie. on a ∅ ou Ω. On a donc

Y −1(A) =(

[0, t)× (Ω ou ∅))∪(t ×X−1

t (A) ∈ B([0, t])⊗Ft).

Par ailleurs, quand n→ +∞, Xns → Xs pour s ≤ t.

La restriction de X a [0, t] est donc mesurable par rapport a B([0, t]) ⊗ Ft, ie. X estprogressif.

Un processus est progressif s’il est mesurable par rapport a la tribu progressive Prog.L’interet d’un processus progressif vient de ce que, estime en un temps d’arret, il estmesurable pour la tribu associe au temps d’arret, cf. Prop. 5.4. Avant de voir cela, onrevient sur les principales proprietes des temps d’arret.

Page 90: Processus stochastique

70 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

5.2 Filtrations et temps d’arret

Dans cette section, on rappelle et developpe la notion de temps d’arret.

Definition 5.4 (Temps d’arret) Une variable aleatoire T a valeurs dans [0,+∞] est untemps d’arret si pour tout t ≥ 0 on a T ≤ t ∈ Ft.

On associe a un temps d’arret T les tribus suivantes

FT = A ∈ F∞ : ∀t ≥ 0, A ∩ T ≤ t ∈ FtFT+ = A ∈ F∞ : ∀t ≥ 0, A ∩ T < t ∈ FtFT− = σA ∩ T > t : t ≥ 0, A ∈ Ft.

Les proprietes suivantes sont satisfaites :

Proposition 5.2 1. On a toujours FT− ⊂ FT ⊂ FT+. Si la filtration est continue adroite FT = FT+.

2. Une variable aleatoire T : Ω → R+ est un (Ft+)t temps d’arret ssi pour tout t ≥ 0,T < t ∈ Ft. Cela equivaut encore a dire que T ∧ t est Ft-mesurable pour tout t ≥ 0.

3. Si T = t alors FT = Ft, FT+ = Ft+ et FT− = Ft−.

4. Pour A ∈ F∞, posons TA(ω) = T (ω) si ω ∈ A, +∞ sinon. Alors A ∈ FT ssi TA estun temps d’arret.

5. Le temps d’arret T est FT -mesurable.

6. Si S ≤ T sont deux temps d’arret alors FS ⊂ FT . Pour S, T des temps d’arret,S ∧T et S ∨T sont des temps d’arret et FS∧T = FS ∩FT . De plus S ≤ T ∈ FS∧T ,S = T ∈ FS∧T .

7. Si Sn est une suite croissante de temps d’arret alors S = limn→+∞ Sn est aussi untemps d’arret et FS− =

∨ngeq1

FS−n .

8. Si Sn est une suite decroissante de temps d’arret alors S = limn→+∞ Sn est aussi untemps d’arret de (Ft+)t≥0 et FS+ =

⋂n≥1FS+

n.

9. Si Sn est une suite decroissante stationnaire de temps d’arret (ie. ∀ω, ∃N(ω), ∀n ≥N(ω), Sn(ω) = S(ω)) alors S = limn Sn est aussi un temps d’arret pour (Ft)t≥0 etFS =

⋂nFSn (comparer avec 8)).

Demonstration :

1) Soit A ∩ T > t ∈ FT− avec A ∈ Ft. Alors A ∩ T > t ∈ F∞ et pour s ≥ 0

(A ∩ T > t) ∩ T ≤ s = A ∩ (t < T ≤ s) ∈ Ft

car si s ≤ t alors t < T ≤ s = ∅ tandis que si s > t alors t < T ≤ s = T ≤ tc∩T ≤s ∈ Fs et A ∈ Ft ⊂ Fs. Ainsi A ∩ T > t ∈ FT . Soit maintenant A ∈ FT alors

A ∩ T < t =⋃n

(A ∩ T ≤ t− 1/n) ∈∨n

Ft−1/n ⊂ Ft

Page 91: Processus stochastique

5.2. Filtrations et temps d’arret 71

Puis si la filtration est continue a droite et A ∈ FT+ alors

A ∩ T ≤ t =⋂n

A ∩ T < t+ 1/n ∈⋂n

Ft+1/n = Ft+ = Ft.

2) Soit T est un (Ft+)t-temps d’arret alors

T < t =⋃n

T ≤ t− 1/n ∈∨n

F(t−1/n)+ ⊂ Ft

car pour chaque on a n : F(t−1/n)+ ⊂ Ft. Reciproquement, si T < t ∈ Ft alors

T ≤ t =⋂n

T < t+ 1/n ∈⋂n

Ft+1/n = Ft+ .

Puis si T ∧t est Ft-mesurable alors pour tout s, T ∧t ≤ s = T ≤ s∪t ≤ s ∈ Ft. Maispour s < t, cela garantit donc T ≤ s ∈ Ft pour tout s < t, ie. T ≤ s ∈ Fs+ , c’est adire T est un temps d’arret pour (Ft+)t≥0. Reciproquement, si T est un temps d’arret pour(Ft+)t≥0, alors pour tout s ≥ 0, on a T∧t ≤ s = T ≤ s∪t ≤ s = T ≤ s ∈ Fs+ ⊂ Ftsi s < t et = Ω ∈ Ft+ si t ≤ s et donc T ∧ t est Ft-mesurable.

3) Soit T = t alors A ∈ FT ssi pour tout s ≥ 0 on a A ∩ t ≤ s ∈ Fs. Pour s < t on abien ∅ ∈ Fs et pour t ≤ s, il faut A ∈ Fs. En particulier, il faut A ∈ Ft. La reciproque estclaire.Si A ∈ FT+ ssi pour tout s ≥ 0 on a A ∩ t < s ∈ Fs. Pour s ≤ t on a bien ∅ ∈ Fs etpour t < s, il faut A ∈ Fs. En particulier, il faut A ∈ ∩s>tFs = Ft+ . Pour la reciproque,observer que quand t < s, on a A ∩ t < s = A ∈ Ft+ ⊂ Fs.La tribu FT− est constituee des A ∩ T > s pour A ∈ Fs. Comme T = t : si s ≥ t, cetensemble est vide ; si s < t, cet ensemble est A ∈ Fs. On a donc FT− = σ(∪s<tFs) = Ft− .

4) A ∈ FT ssi pour tout t ≥ 0 : A ∩ T ≤ t ∈ Ft. Mais A ∩ T ≤ t = TA ≤ t ce quipermet de conclure.

5) On a T ≤ s ∈ FT pour tout s car

T ≤ s ∩ T ≤ t = T ≤ t ∧ s ∈ Ft∧s ⊂ Ft.

6) Si S ≤ T et A ∈ FS alors

A ∩ T ≤ t = (A ∩ S ≤ t) ∩ T ≤ t ∈ Ft.

D’ou A ∈ FT . Pour S, T quelconques, on a

S ∧ T ≤ t = S ≤ t ∪ T ≤ t ∈ FtS ∨ T ≤ t = S ≤ t ∩ T ≤ t ∈ Ft.

Page 92: Processus stochastique

72 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

Comme S ∧ T ≤ T, S, on a facilement FS∧T ⊂ FS ∩ FT . De plus, si A ∈ FS ∩ FT , alors

A ∩ S ∧ T ≤ t = (A ∩ S ≤ t ∪ (A ∩ T ≤ t) ∈ Ft,

d’ou A ∈ FS∧T . Puis pour t ≥ 0, on a

S ≤ T ∩ T ≤ t = (S ≤ t ∩ T ≤ t) ∩ S ∧ t ≤ T ∧ t ∈ FtS ≤ T ∩ S ≤ t = S ∧ t ≤ T ∧ t ∩ S ≤ t ∈ Ft

car S ∧ t et T ∧ t sont Ft-mesurables d’apres 5) et 6) deja vus (S ∧ t ≤ t donc S ∧ t qui estFS-mesurable est aussi Ft-mesurable) donc S ∧ t ≤ T ∧ t ∈ Ft. Finalement, cela garantitS ≤ T ∈ FS ∩ FT = FS∧T . L’argument est analogue pour S = T.7) On a S ≤ t =

⋂n≥1Sn ≤ t ∈ Ft. De plus, on a FS−n ⊂ FS− (car pour A ∈ FS−n ,

on a A ∩ Sn > t = (A ∩ Sn > t) ∩ S > t ∈ FS−). Donc∨nFS−n ⊂ FS− . Puis pour

A ∈ FS− , on a

A ∩ S > t =⋃n

(A ∩ Sn > t),

ce qui montre que A ∩ S > t ∈∨nFS−n et FS− ⊂

∨nFS−n .

8) On ecrit S < t =⋃nSn < t ∈ Ft. De plus, on voit aisement que FS+ ⊂ FS+

npour

tout n car pour A ∈ FS+

A ∩ Sn < t = A ∩ (Sn < t ∩ S < t) = (A ∩ (S < t) ∩ Sn < t ∈ Ft.

Reciproquement si A ∈⋂nFS+

nalors

A ∩ S < t =⋃n

(A ∩ Sn < t) ∈ Ft,

d’ou A ∈ FS+ et FS+ =⋂nFS+

n.

9) Dans ce cas, on a en plus S ≤ t = ∪nSn ≤ t ∈ Ft et pour A ∈ ∩nFSn , A∩S ≤ t =∪n(A∩Sn ≤ t) ∈ Ft. D’ou A ∈ FS. Puis si A ∈ FS alors comme S = Sn pour tout n ≥ Net on a A ∈ ∩n≥NFSn . mais comme FSn ⊂ FSp pour n ≥ p, on a ∩n≥NFSn = ∩n≥0FSn .

Proposition 5.3 Soient T un temps d’arret et S une variable aleatoire FT -mesurable telleque S ≥ T . Alors S est aussi un temps d’arret.En particulier, si T est un temps d’arret,

Tn =+∞∑k=0

k + 1

2n1k2−n<T≤(k+1)2−n + (+∞)1T=+∞ (5.1)

est une suite de temps d’arret qui decroıt vers T .

Page 93: Processus stochastique

5.2. Filtrations et temps d’arret 73

Demonstration : On ecrit S ≤ t = S ≤ t ∩ T ≤ t ∈ Ft car S ≤ t ∈ FT (Sest FT -mesurable). La deuxieme partie en decoule facilement puisque Tn ≥ T et Tn estFT -mesurable. En effet, Tn est FT -mesurable si pour tout u ≥ 0, on a Tn ≤ u ∈ FT .Pour cela, il faut voir que pour tout t ≥ 0, on a Tn ≤ u ∩ T ≤ t ∈ Ft. Mais

Tn ≤ u =

Tn ≤

[2nu]

2n

=

[2nu]−1⋃k=0

Tn =

k + 1

2n

=

[2nu]−1⋃k=0

T ∈

]k

2n,k + 1

2n

]=

T ≤ [2nu]

2n

.

On a

Tn ≤ u ∩ T ≤ t =

T ≤ t ∧ [2nu]

2n

∈ Ft∧[2nu]/2n ⊂ Ft.

Le resultat suivant sera utile :

Proposition 5.4 Soit X progressif et T un temps d’arret. Alors XT1T<+∞ est FT -mesurable.

Demonstration : Notons que Y : Ω→ R est FT -mesurable ssi, pour tout t ≥ 0, Y 1T≤test Ft-mesurable. En effet si la condition est verifiee alors pour A ∈ B(R), on a Y ∈A ∩ T ≤ t = Y 1T≤t ∈ A ∩ T ≤ t ∈ Ft donc Y ∈ A ∈ FT . Puis si Y estFT -mesurable, alors Y 1T≤t ∈ A = (Y ∈ A ∩ T ≤ t) ∪ (0 ∈ A ∩ T > t) ∈ Ft.On verifie la FT -mesurabilite de Y = XT1T<+∞ en montrant que pour tout t

Y 1T≤t = XT1T≤t = XT∧t1T≤t

est Ft-mesurable. Mais XT∧t est la composition des deux applications mesurables(Ω,Ft) → ([0, t]× Ω,B([0, t])⊗Ft)ω 7→ (T (ω) ∧ t, ω)

et

([0, t]× Ω,B([0, t])⊗Ft) → B(R)

(s, ω) 7→ Xs(ω)

(respectivement car T est un temps d’arret et X est progressif). On conclut que XT∧t doncaussi XT∧t1T≤t est Ft-mesurable.

Remarque 5.3 Il est necessaire de considerer XT1T<+∞ plutot que XT tant que X∞n’est pas defini. Par contre si X∞ est defini et est F∞-mesurable alors XT est FT -mesurable.En effet, comme XT = XT1T<+∞ + XT1T=+∞ avec XT1T<+∞ FT -mesurable par laProp. 5.4, il reste a voir que XT1T=+∞ est aussi FT -mesurable, ie. pour tout A ∈ B(R) :

XT1T=+∞ ∈ A = (X∞ ∈ A ∩ T = +∞) ∪ (0 ∈ A ∩ T < +∞) ∈ FT .

Pour cela, on a XT1T=+∞ ∈ A ∩ T ≤ t = 0 ∈ A ∩ T ≤ t ∈ Ft quand t < +∞tandis que pour t = +∞,

XT1T=+∞ ∈ A ∩ T ≤ +∞ = X∞ ∈ A ∩ T = +∞ ∈ F∞.

Page 94: Processus stochastique

74 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

5.3 Martingales en temps continu

5.3.1 Definition, exemples

Definition 5.5 (Martingale) Un processus (Xt)t≥0 adapte par rapport une filtration (Ft)t≥0

et tel que pour tout t ≥ 0, Xt ∈ L1 est appele— une martingale si pour s ≤ t : E[Xt|Fs] = Xs ;— une surmartingale si pour s ≤ t : E[Xt|Fs] ≤ Xs ;— une sous-martingale si pour s ≤ t : E[Xt|Fs] ≥ Xs.

Une martingale est, en moyenne, constante, tandis qu’une surmartingale est, en moyenne,decroissante et une sous-martingale, en moyenne, croissante. Ainsi, on peut considererqu’une surmartingale est une generalisation aleatoire d’une fonction decroissante tandisqu’une sous-martingale est une generalisation d’une fonction croissante. Dans la suite, onconsidere souvent des martingales a trajectoires continues a droite, d’apres la Prop. 5.1elles seront progressivement mesurables.

Proposition 5.5 Soit (Xt)t≥0 une martingale (resp. une sous-martingale) et soit ϕ : R→R une fonction convexe (resp. convexe croissante). On suppose que ϕ(Xt) ∈ L1 pour toutt ≥ 0. Alors (ϕ(Xt))t≥0 est une sous-martingale.

Demonstration : En effet, d’apres l’inegalite de Jensen (pour l’esperance conditionnelle),on a, pour s < t,

E[ϕ(Xt)|Fs] ≥ ϕ(E[Xt|Fs]) ≥ ϕ(Xs).

En appliquant cette remarque a la fonction convexe croissante x 7→ x+, on montre que si(Xt)t≥0 est une sous-martingale alors (X+

t )t≥0 aussi. En particulier, on a pour s ∈ [0, t] :E[X+

s ] ≤ E[X+t ]. D’autre part, puisque X est une sous-martingale, on a pour s ∈ [0, t],

E[Xs] ≥ E[X0]. En combinant ces deux inegalites et en utilisant |x| = 2x+ − x, on trouvela borne

sups∈[0,t]

E[|Xs|] ≤ 2E[X+t ]− E[X0].

On peut alors enoncer un resultat utile :

Proposition 5.6 Si (Xt)t≥0 est une sous-martingale (ou en fait surmartingale, ou mar-tingale en changeant X en −X), on a pour tout t ≥ 0 : sups∈[0,t] E[|Xs|] < +∞.

5.3.2 Inegalites pour martingales

Dans cette section, on generalise au cadre continu plusieurs inegalites deja connues dans lecadre discret quand les (sur/sous)-martingales sont a trajectoires continues a droite. Pourcela, l’idee est de considerer un ensemble denombrable dense D qu’on voit comme limitede parties finies croissantes t1, . . . , tn. On applique les resultats discrets aux restrictions

Page 95: Processus stochastique

5.3. Martingales en temps continu 75

a t1, . . . , tn. En passant a la limite (convergence monotone avec t1, . . . , tn D), leresultat s’obtient pour les restrictions a D. Comme D est dense dans R+, la continuite (adroite) permet de lever la restriction t ∈ D et d’obtenir le resultat pour tout t ∈ R+.

Systematiquement, on commence par rappeler les resultats principaux pour des martingalesdiscretes.Inegalite maximale. Soit (Yn)n∈N une surmartingale discrete. Alors pour tout λ > 0 etn ≥ 0, on a

P(

supk≤n|Yk| ≥ λ

)≤ E[|Y0|] + 2E[|Yn|]

λ.

Si on considere maintenant une surmartingale (Xt)t≥0 en temps continu, on peut appliquercette inegalite a la surmartingale en temps discret Yk = Xtk∧n , k ≥ 0, pour toute partiefinie 0 = t0 < t1 < t2 < · · · < tn = t de [0, t]. Elle donne

P(

supk≤n|Xtk | ≥ λ

)≤ E[|X0|] + 2E[|Xt|]

λ.

Si D est un sous-ensemble denombrable de R+ (contenant t), en ecrivant D comme unelimite croissante de parties finies 0 ≤ t1 < t2 · · · < tn = t, on obtient (avec la monotoniesequentielle des probabilites)

P(

sups∈[0,t]∩D

|Xs| ≥ λ)≤ E[|X0|] + 2E[|Xt|]

λ. (5.2)

Si on suppose en plus que les trajectoires de X sont continues a droite alors en prenant Ddense contenant t, on a sups∈[0,t]∩D |Xs| = sups∈[0,t] |Xs| ce qui montre qu’on peut prendresups∈[0,t] dans (5.2) et on a alors montre :

Proposition 5.7 (Inegalite maximale de Doob) Soit (Xt)t≥0 une surmartingale dontles trajectoires sont continues a droite. Alors

P(

sups∈[0,t]

|Xs| ≥ λ)≤ E[|X0|] + 2E[|Xt|]

λ

(≤

3 sups≤t E[|Xs|]λ

). (5.3)

L’inegalite de Doob affirme que si (Yn)n∈N est une martingale en temps discret telle queYn ∈ Lp pour p > 1 alors pour tout n ≥ 0 on a, pour q conjugue de p (ie. 1

p+ 1

q= 1) :∥∥∥ sup

k≤n|Yk|∥∥∥p≤ q‖Yn‖p.

On en deduit comme precedemment, avec le theoreme de convergence monotone, que si(Xt)t≥0 est une martingale en temps continu bornee dans Lp∥∥∥ sup

s∈[0,t]∩D|Xs|

∥∥∥p≤ q‖Xt‖p. (5.4)

A nouveau, si X a des trajectoires continues a droite, on peut remplacer sups∈[0,t]∩D parsups∈[0,t] dans (5.4) et obtenir :

Page 96: Processus stochastique

76 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

Proposition 5.8 (Inegalite de Doob) Soit (Xt)t≥0 une martingale dont les trajectoiressont continues a droite avec Xt ∈ Lp pour tout t ≥ 0 alors, avec 1

p+ 1

q= 1,∥∥∥ sup

s∈[0,t]

|Xs|∥∥∥p≤ q‖Xt‖p. (5.5)

Si f est une fonction definie sur une partie T de R+ et si a < b, le nombre de montees def le long de [a, b], note M f

a,b(T ), est le supremum des entiers k tels que l’on puisse trouverune suite croissante de T , s1 < t1 < s2 < t2 · · · < sk < tk, avec f(si) < a, f(ti) > b.[Dessin typique des montees]Pour une surmartingale discrete (Yn)n≥0, on a :

E[MY

a,b([0, n])]≤ 1

b− aE[(Yn − a)−]. (5.6)

On en deduit comme precedemment le resultat suivant dans le cas continu :

Proposition 5.9 (Nombre de montees) Soit (Xt)t≥0 une surmartingale. Si D est unsous-ensemble denombrable de R+, on a :

E[MXa,b([0, t] ∩D)] ≤ 1

b− aE[(Xt − a)−]. (5.7)

Demonstration : Considerer d’abord D fini puis passer a la limite par convergence mo-notone. Attention : le resultat ne se prolonge pas par continuite puisque MX

a,b([0, t]) est avaleurs entieres et donc non continue.

5.3.3 Regularisation de trajectoires

Avant de donner des theoremes de convergence pour les martingales en temps continu dansla section 5.3.4, on rappelle les resultats du cas en temps discret. Ils permettent d’abordde donner dans cette section des conditions de regularisation des martingales (existence demodifications a trajectoires continues ou cadlag).

Proposition 5.10 (Convergence des martingales discretes)

1. Si (Yn)n∈N est une surmartingale bornee dans L1 (en particulier si elle est positive)alors Yn → Y∞ ps et Y∞ ∈ L1.

2. Si (Yn)n∈−N est une surmartingale indexee par −N (ie. Fn ⊂ Fn+1 et Yn ≥ E[Yn+1|Fn]pour n ≤ 0) et telle que supn≤0 E[Yn] < +∞ alors la suite (Yn)n≤0 est uniformementintegrable et converge ps et dans L1 quand n → −∞ vers une variable Z telle queZ ≥ E[Yn|F−∞] (ou par definition F−∞ =

⋂n≤0Fn).

Page 97: Processus stochastique

5.3. Martingales en temps continu 77

En appliquant ces resultats en temps discret a des (sur)martingales en temps continu, on a :

Theoreme 5.1 (Limites a droite et a gauche) Soit (Xt)t≥0 une surmartingale et Dun sous-ensemble denombrable dense dans R+.

1. Pour presque tout ω ∈ Ω, l’application s ∈ D 7→ Xs(ω) ∈ R admet en tout t ∈ R+

une limite a droite Xt+(ω) finie et en tout point t ∈ R∗+, une limite a gauche Xt−(ω).

2. De plus, pour tout t ∈ R+, on a Xt+ ∈ L1 et Xt ≥ E[Xt+|Ft] avec egalite si la fonctiont 7→ E[Xt] est continue a droite (par exemple, si (Xt)t≥0 est une martingale).

3. De plus, le processus (Xt+)t≥0 est alors une surmartingale par rapport a la filtration(Ft+)t≥0 et une martingale si X en est une.

Demonstration : 1) C’est une consequence de l’inegalite sur le nombre de montee et decelle de Doob. En effet, pour T > 0 fixe, on a d’abord, sups∈[0,T ]∩D |Xs| < +∞ ps carl’inegalite maximale de Doob :

limλ→+∞

P(

sups∈[0,T ]∩D

|Xs| ≥ λ)

= 0.

Ensuite, l’inegalite sur le nombre de montees montre que pour tous a < b rationnels, on aps MX

a,b([0, T ]∩D) < +∞. On a donc aussi ps pour tous a < b rationnels, MXa,b([0, T ]∩D) <

+∞. Finalement, s 7→ Xs(ω) est bornee sur [0, T ] ∩ D et pour tous a < b rationnels, nefait qu’un nombre fini de montees le long de [a, b]. La partie 1) s’en deduit puisque si, parexemple une fonction f : [0, T ] ∩ D → R n’a pas de limite a gauche finie en t ∈]0, T ], onpeut choisir a < b rationnels de sorte que

lim infs∈D→t

f(s) < a < b < lim sups∈D→t

f(s)

2) Pour que Xt+(ω) soit defini pour tout ω et pas seulement sur l’ensemble de probabilite

1 ou la limite existe, on prend Xt+(ω) = 0 sur l’ensemble Ft+-mesurable et de probabilitenulle ou la limite en t le long de D n’existe pas. De cette facon, Xt+(ω) est bien defini pourtout ω et reste (Ft+)t≥0-mesurable (car la filtration est complete).On fixe t ≥ 0 et on choisit une suite tn ∈ D qui decroit vers t. Par construction, on aXt+ = limn→+∞Xtn ps. En posant Yk = Xt−k

pour k ≤ 0, comme la suite (tn)n≥0 decroit,on a

E[Yk+1|Gk] = E[Xt−k+1|Ft−k

] ≤ Xt−k= Yk.

La suite (Yk)k∈−N est donc une surmartingale indexee par −N par rapport a la filtrationGk = Ft−k

, k ≤ 0. Comme on a

supk≤0

E[|Yk|] ≤ sups∈[0,t1]∩D

E[|Xs|] < +∞,

le resultat discret (cf. 2) de la Prop. 5.10) assure que la suite Xtn converge dans L1 neces-sairement vers Xt+ . En particulier, Xt+ ∈ L1.

Page 98: Processus stochastique

78 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

Grace a la convergence L1, on peut passer a la limite dans l’inegalite Xt ≥ E[Xtn|Ft] pourobtenir Xt ≥ E[Xt+ |Ft].Toujours grace a la convergence dans L1, on a E[Xt+ ] = limn→+∞ E[Xtn ] et donc si la fonc-tion s 7→ E[Xs] est continue a droite, on doit avoir E[Xt+ ] = E[Xt]. L’inegalite precedenten’est alors possible que si Xt = E[Xt+ |Ft].

3) Ensuite, on remarque d’abord que Xt+ est Ft+-mesurable : en effet, Xt+ = limstXs etXs est Fu-mesurable pour tout u ≥ s mais alors on a aussi Xt+ Fu-mesurable pour toutu > t ; finalement, Xt+ est

⋂u>tFu = Ft+-mesurable.

Soit maintenant s < t et (sn)n≥0 une suite de D qui decroit vers s. On peut supposersn ≤ tn. Alors Xsn converge vers Xs+ dans L1, et donc, si A ∈ Fs+ ,

E[Xs+1A] = limn→+∞

E[Xsn1A] ≥ limn→+∞

E[Xtn1A] = E[Xt+1A] = E[E[Xt+|Fs+ ]1A]

ce qui entraıne Xs+ ≥ E[Xt+|Fs+ ]. Enfin, si X est une martingale, on peut remplacer dansle calcul precedent l’inegalite ≥ par une egalite =.

Theoreme 5.2 (Regularisation) On suppose que la filtration (Ft)t≥0 satisfait les condi-tions habituelles. Si X = (Xt)t≥0 est une surmartingale et si la fonction t 7→ E[Xt] estcontinue a droite alors X admet une modification qui est aussi une (Ft)t≥0-surmartingaleet dont les trajectoires sont continues a droite avec des limites a gauche en tout point(cadlag).

Demonstration : On fixe D un ensemble denombrable dense dans R+. Soit, d’apres leTheoreme 5.1, N l’ensemble negligeable tel que si ω 6∈ N , l’application s 7→ Xs(ω) admetdes limites le long de D a droite en tout t ≥ 0 et a gauche en tout t > 0. On pose

Yt =

Xt+(ω) si ω 6∈ N0 si ω ∈ N.

Les trajectoires de Y sont continues a droite : en effet si ω 6∈ N alors pour t ≥ 0 et ε > 0,on a

Yt+ = limh0

Yt+h = limh0

X(t+h)+ = limh0

limδ0

Xt+h+δ = limh0

Xt+h = Xt+ = Yt.

et

Yt− = limh0

Yt−h = limh0

X(t−h)+ = limh0

limδ0

Xt−h+δ = limu0

Xt−u existe

car la limite iteree limh0 limδ0 revient a prendre limu0 avec u = h − δ 0 car δ → 0avant h. Ou alors

sups∈[t,t+ε[

Ys(ω) ≤ sups∈]t,t+ε[∩D

Xs(ω)

infs∈[t,t+ε[

Ys(ω) ≥ infs∈]t,t+ε[∩D

Xs(ω)

Page 99: Processus stochastique

5.3. Martingales en temps continu 79

et avec des limites a gauche

limε→0

(sup

s∈]t,t+ε[∩DXs(ω)

)= lim

ε→0

(inf

s∈]t,t+ε[∩DXs(ω)

)= Xt+(ω) = Yt(ω).

De la meme facon, on montre que les trajectoires de Y ont des limites a gauche.Enfin, comme Ft+ = Ft (conditions habituelles verifiees par (Ft)t≥0), on a d’apres le 2) dutheoreme precedent

Xt = E[Xt+|Ft] = E[Xt+|Ft+ ] = Xt+ = Yt ps

puisque Xt+ est Ft+-mesurable. On voit ainsi que Y est une modification de X. Puisque lafiltration (Ft)t≥0 est complete, il est clair que Yt est Ft-mesurable et il est immediat aussique Y est une (Ft)t≥0-surmartingale (cf. 3) dans le Th. 5.1).

5.3.4 Theoremes de convergence

Dans cette section, la notion d’uniforme integrabilite est importante. On renvoie a un coursde probabilite de base pour la definition de cette notion.

Theoreme 5.3 (Convergence ps) Soit X = (Xt)t≥0 une surmartingale continue a droiteet bornee dans L1. Alors il existe une variable aleatoire X∞− ∈ L1 telle que

limt→+∞

Xt = X∞− ps.

Remarque 5.4 — Un enonce adapte donne la convergence des sous-martingalescontinues a droite.

— Une surmartingale (Xt)t≥0 est bornee dans L1 ssi supt≥0 E[X−t ] < +∞. En effet,comme E[Xt] ≤ E[X0], on a E[X+

t ] ≤ E[X−t ] + E[X0]. Il vient

E[X−t ] ≤ E[|Xt|] = E[X+t ] + E[X−t ] ≤ 2E[X−t ] + E[X0]

et doncsupt≥0

E[|Xt|] ≤ E[X0] + 2 supt≥0

E[X−t ].

L’autre sens est evident puisque X−t ≤ |Xt|.— En particulier, une surmartingale positive est bornee dans L1 et d’apres le Theo-reme 5.3 ci-dessus elle converge ps.

Demonstration : Soit D un sous-ensemble denombrable dense de R+. On deduit de laProposition 5.9 (inegalite du nombre de montees) que pour tous a < b, on a

E[MXa,b(D)] = lim

t→+∞E[MX

a,b([[0, t]∩D)] ≤ limt→+∞

E[(Xt − a)−]

b− a≤

supt≥0 E[(Xt − a)−]

b− a< +∞.

Page 100: Processus stochastique

80 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

On a donc MXa,b(D) < +∞ ps, pour tout rationnels a < b et aussi pour tout ration-

nels a < b ps. En raisonnant comme dans le Theoreme 5.1, on en deduit que X∞− :=limt∈D→+∞Xt existe ps (sinon, il existe a < b rationnels tels que lim inft∈D→+∞Xt < a <b < lim supt∈D→+∞Xt, ce qui exige un nombre infini de montees de a vers b le long de D).De plus, le lemme de Fatou permet de voir que cette limite est dans L1 : d’abord, on a

E[|X∞−|] = E[ lims→+∞

|Xs|] = E[lim infs→+∞

|Xs|] ≤ lim infs→+∞

E[|Xs|] ≤ sups≥0

E[|Xs|] < +∞.

Pour finir, la continuite a droite des trajectoires de X permet de lever la restriction t ∈ Ddans la limite precedente.

Definition 5.6 (Martingale fermee) Une surmartingale (Xt)t≥0 est dite fermee par unevariable aleatoire X∞ ∈ L1 si pour tout t ≥ 0, on a Xt ≥ E[X∞|Ft].Une martingale (Xt)t≥0 est dite fermee (comme martingale) par une variable aleatoireX∞ ∈ L1 si pour tout t ≥ 0, on a Xt = E[X∞|Ft].

Attention : une martingale peut etre fermee en tant que surmartingale mais pas en tantque martingale : considerer par exemple une martingale positive (non nulle), elle est fermeepar 0 en tant que surmartingale pourtant elle n’est pas nulle.Dans le cas discret une martingale (Yn)n≥0 est fermee (ie. il existe Y∞ tel que Yn =E[Y∞|Fn]) ssi elle est uniformement integrable ou ssi Yn converge ps et dans L1. On al’analogue dans le cas continu :

Proposition 5.11 Soit X = (Xt)t≥0 une martingale continue a droite. Alors il y a equi-valence entre les assertions suivantes :

1. X est fermee (par X∞) ;

2. la famille (Xt)t≥0 est uniformement integrable.

3. Xt converge ps et dans L1 vers X∞− ;

De plus X∞− = X∞ si F∞ =∨t≥0Ft.

Demonstration : L’implication 1) ⇒ 2) est facile puisque si Z ∈ L1 alors la famille devariables aleatoires E[Z|G] : G sous-tribu de F est uniformement integrable.Si 2) est vrai, le Theoreme 5.3 entraıne que Xt converge ps vers X∞− ∈ L1 donc aussi dansL1 par uniforme integrabilite, ce qui donne 3).Enfin, si 3) est verifie, on peut passer a la limite t → +∞ dans L1 dans l’egalite Xs =E[Xt|Fs] et on trouve Xs = E[X∞− |Fs], ie. X est fermee, c’est a dire 1).

Pour la derniere partie, en notant Z = X∞ − X∞− , on deduit de Xt = E[X∞|Ft] =E[X∞−|Ft] que

E[Z1A] = 0 pour tout A ∈⋃t≥0

Ft.

Mais M = A ∈ F∞ : E[Z1A] = 0 est une classe monotone et⋃t≥0Ft est stable par in-

tersection finie (π-systeme). D’apres le theoreme des classes monotones, F∞ = σ(⋃

t≥0Ft)

Page 101: Processus stochastique

5.3. Martingales en temps continu 81

est inclus dans M. On a donc E[Z1A] = 0 pour tout A ∈ F∞. Mais, comme Z est F∞-mesurable, on a donc Z = 0 ps, ie. X∞ = X∞− .

Pour une surmartingale fermee, on a la convergence ps :

Proposition 5.12 Une surmartingale continue a droite X = (Xt)t≥0 est fermee (par X∞)ssi Xt converge ps vers X∞−.

Demonstration : Soit (Xt)t≥0 une surmartingale continue a droite fermee par X∞. Par unargument de convexite (Jensen applique a la sous-martingale−X et a x+) donne E[(Xt)

−] ≤E[(X∞)−]. Le Theoreme 5.3 assure alors que Xt converge ps vers une limite X∞− (lareciproque va garantir que X∞− = X∞ quand F∞ =

∨t≥0Ft).

Reciproquement si Xt converge ps vers X∞− . On a pour s ≤ t

Xs − E[X∞−|Fs] ≥ E[Xt|Fs]− E[E[X∞−|Ft]Fs]≥ E[Xt − E[X∞− |Ft]|Fs].

En passant a la limite t→ +∞ par le lemme de Fatou, on a

Xs − E[X∞−|Fs] ≥ E[lim inft→+∞

(Xt − E[X∞− |Ft])|Fs]. (5.8)

Mais lim inft→+∞Xt = limt→+∞Xt = X∞− ps et comme (E[X∞−|Ft])t≥0 est une martingalefermee donc convergente, on a aussi, d’apres la Prop 5.11, lim supt→+∞ E[X∞−|Ft] = X∞−(ici il est immediat que F∞− = σ(∪t≥0Ft)). Finalement, la minoration dans (5.8) est nulleet elle donne Xs ≥ E[X∞− |Fs] : la surmartingale (Xt)t≥0 est fermee.

5.3.5 Theoreme d’arret

Le theoreme d’arret pour une surmartingale discrete (Yk)k∈N par rapport a une filtration(Gk)k≥0, fermee par Y∞, enonce que si S et T sont deux temps d’arret tels que S ≤ T ona YS, YT ∈ L1 et YS ≥ E[YT |GS] (avec la convention YT = Y∞ sur T = +∞). Le resultats’applique encore a une surmartingale quelconque si S, T sont (deterministiquement) bor-nes. L’analogue continu de ce theoreme est un resultat essentiel pour la suite.Rappelons qu’une martingale X a trajectoires continues a droite est progressivement me-surable, cf. Prop. 5.1. En particulier, la Prop. 5.4 s’appliquera a XT1T<+∞ et la remarque5.3 a XT si elle est fermee (qui sont FT -mesurables).

Theoreme 5.4 (Arret)

1. Soit X = (Xt)t≥0 une surmartingale continue a droite et fermee par X∞, variablealeatoire F∞-mesurable. Soient S et T deux temps d’arret avec S ≤ T . Alors XS etXT sont dans L1 et

XS ≥ E[XT |FS]

avec la convention XT = X∞ sur T = +∞.

Page 102: Processus stochastique

82 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

2. Soit X une martingale continue a droite fermee par X∞, variable aleatoire F∞-mesurable. Alors, si S et T sont deux temps d’arret avec S ≤ T on a

XS = E[XT |FS]

avec la meme convention que ci-dessus. En particulier, XS = E[X∞|FS].

Demonstration : 1) Pour tout n ≥ 1, posons Dn = k2n

: k ∈ N ∪ +∞ et comme en(5.1)

Tn = inft ∈ Dn : t > T

=+∞∑k=0

k + 1

2n1k2−n<T≤(k+1)2−n + (+∞)1T=+∞

D’apres la Prop. 5.3, les Tn forment une suite de temps d’arret qui decroıt vers T .Considerons pour n fixe les deux variables Tn et Tn+1. Ce sont deux temps d’arret pour lafiltration discrete (Ft)t∈Dn+1 car

k2−n−1 < T ≤ (k + 1)2−n−1 = T ≤ k2−n−1c ∩ T ≤ (k + 1)2−n−1 ∈ Fk2−n−1 .

Puisque Tn+1 ≤ Tn, le theoreme d’arret (discret) applique a la surmartingale discrete(Xt)t∈Dn+1 (qui est fermee par X∞) pour la filtration discrete (Ft)t∈Dn+1 entraıne que

XTn+1 ≥ E[XTn|FTn+1 ].

Notons, pour k ≤ 0, Yk = XT−k. On a alors

Yk−1 = XT−k+1≥ E[XT−k

|FT−k+1] = E[Yk|FT−k

],

La suite (Yk)k∈−N est donc une surmartingale indexee par −N pour la filtration (FT−k)k∈−N.

De plus, on a aussi supk≤0 E[Yk] = supn≥0 E[XTn ] ≤ E[X0] (on utilise ici encore le theoremed’arret discret). D’apres le resultat discret de convergence (Prop. 5.10), on conclut queXTn converge ps et dans L1. Comme Tn T , par continuite a droite, la limite ps estnecessairement XT , ce qui donne en particulier XT ∈ L1 car il y a aussi convegence L1.

Au temps d’arret S, on associe de meme la suite Sn S verifiant aussi (quitte a reindexerSn) Sn ≤ Tn, et XSn converge vers XS ps et dans L1. Puisque Sn ≤ Tn le theoreme d’arretdiscret donne XSn ≥ E[XTn|FSn ] ainsi, pour A ∈ FS ⊂ FSn ,

E[XSn1A] ≥ E[XTn1A].

En passant a la limite L1 quand n→ +∞, il vient

E[XS1A] ≥ E[XT1A]

pour tout A ∈ FS. Comme d’apres la Prop. 5.4 et la Rem. 5.3, XS est FS-mesurable, cetteinegalite assure alors que XS ≥ E[XT |FS], ce qui conclue le 1).

2) Il suffit d’appliquer la partie 1) a X et a −X.

Page 103: Processus stochastique

5.3. Martingales en temps continu 83

Corollaire 5.1 Soit X une surmartingale (resp. une martingale) continue a droite etsoient S ≤ T deux temps d’arret (deterministiquement) bornes. Alors

XS ≥ E[XT |FS] (resp. XS = E[XT |FS]).

Demonstration : Soit a ≥ 0 tel que T ≤ a. On applique le theoreme precedent a lamartingale (Xt∧a)t≥0 qui est fermee par Xa. Puis on remarque que Xa

T = XT et XaS = XS.

Remarque 5.5 Le theoreme d’arret ne s’applique que pour des (sur)martingales unifor-mement integrables (fermees) ou pour des temps d’arret bornes. Par exemple si B est unmouvement brownien, c’est bien une martingale (mais non uniformement integrable sinonle theoreme 5.3 (de convergence ps) exigerait la convergence ps Bt → B∞ ce qui est faux).Si pour a > 0, on pose Ta = inf(t ≥ 0 : Bt = a) alors on a bien un temps d’arret mais ilest non (deterministiquement) borne. Le theoreme d’arret ne s’applique effectivement pasdans ce cas puisque E[B0] = 0 6= E[BTa ] = a malgre 0 ≤ Ta.

Etant donne un temps d’arret T , on definit le processus arrete XT = (XTt )t≥0 par XT

t =Xt∧T , c’est le processus qui vaut Xt tant que t ≤ T puis qu’on arrete a sa valeur en T , XT ,pour les dates ulterieures a T .

Corollaire 5.2 Soit X une martingale continue a droite uniformement integrable et soitT un temps d’arret. Alors le processus (XT

t )t≥0 est aussi une martingale uniformementintegrable, et

XTt = E[XT |Ft] (5.9)

avec la convention XT = X∞− sur T = +∞.

Demonstration : Il suffit d’etablir (5.9) : on aura alors une martingale fermee doncuniforement integrable Rappelons que XT ∈ L1 d’apres le Theoreme 5.4 (arret). D’apresce theoreme avec S = t ∧ T ≤ T , on a aussi

XTt = XS = E[XT |FS] = E[XT |Ft∧T ].

Il reste a voir que E[XT |Ft∧T ] = E[XT |Ft].PuisqueXT1T<+∞ est FT -mesurable (cf. Prop. 5.4), on sait queXT1T≤t est Ft-mesurableet aussi FT -mesurable, donc Ft∧T -mesurable. Il en decoule que

E[XT1T≤t|Ft∧T ] = XT1T≤t = E[XT1T≤t|Ft].

Pour completer la preuve, il reste a voir que

E[XT1T>t|Ft∧T ] = E[XT1T>t|Ft]. (5.10)

Or si A ∈ Ft, on a

Page 104: Processus stochastique

84 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

— A ∩ T > t ∈ Ft car A, T > t = T ≤ tc ∈ Ft ;— puis A ∩ T > t ∈ FT car A ∩ T > t ∩ T ≤ s = ∅ ∈ Fs si s ≤ t et

A ∩ T > t ∩ T ≤ s ∈ Fs si t ≤ s car A, T > t = T ≤ tc ∈ Ft ⊂ Fs etT ≤ s ∈ Fs.

Finalement, A ∩ T > t ∈ FT ∩ Ft = Ft∧T et donc pour tout A ∈ Ft :

E[1A1T>tXT ] = E[E[1A1T>tXT |Ft∧T ]] = E[1A1T>tE[XT |Ft∧T ]] = E[1AE[XT1T>t|Ft∧T ]]

car T > t ∈ FT (T > t = T ≤ tc et T ≤ t ∩ T ≤ s = T ≤ t∧ s ∈ Ft∧s ⊂ Fs).Rappelons que Y = E[Z|G] est caracterisee par E[1AZ] = E[1AY ] pour tout A ∈ G.Par ailleurs

E[1A1T>tXT ] = E[E[1A1T>tXT |Ft]] = E[1AE[1T>tXT |Ft]]

On a donc

E[1AE[1T>tXT |Ft]] = E[1AE[XT1T>t|Ft∧T ]]

avec E[XT1T>t|Ft∧T ] qui est Ft-mesurable.Mais rappelons que Y = E[Z|G] ssi Y est G-mesurable et E[1AZ] = E[1AY ] pour toutA ∈ G.Finalement

E[XT1T>t|Ft∧T ] = E[1T>tXT |Ft],

ie. (5.10) est obtenue, ce qui termine la preuve du Corollaire 5.2.

Remarque 5.6 Si on suppose seulement que X est une martingale continue a droite, alorson peut appliquer le corollaire ci-dessus a la martingale uniformement integrable (Xt∧a)t≥0.On trouve que pour tout temps d’arret T , (Xt∧T∧a)t≥0 est une martingale. Comme on peutprendre a aussi grand qu’on le desire, cela signifie que (Xt∧T )t≥0 est une martingale : aveca ≥ t ≥ s, la propriete de martingale pour (Xt∧T∧a)t≥0, E[Xt∧T∧a|Fs] = Xs∧T∧a, s’ecritE[Xt∧T |Fs] = Xs∧T ie. (Xt∧T )t≥0 est bien une martingale.Conclusion. SiX est une martingale et T un temps d’arret,XT definie bien une martingaleappelee martingale arretee. Elle est uniformement integrable si X l’est ou si T est(deterministiquement) borne.

5.4 Processus de Poisson

Si le mouvement brownien est le processus a trajectoires continues typique, le processusa saut typique est le processus de Poisson qu’on decrit (tres) sommairement dans cettesection. Ce type de processus est utilise par exemple pour modeliser les files d’attentecomme les arrivees des appels telephoniques a un central.

Page 105: Processus stochastique

5.4. Processus de Poisson 85

Definition 5.7 (Processus de Poisson) Soit λ > 0 et (Sn)n≥1 une suite de variablesaleatoires indepdendantes de meme loi exponentielle E(λ). On pose Tn = S1 + · · ·+Sn. Ondefinit alors le processus de comptage N = (Nt)t≥0 a valeurs dans N ∪ +∞ par

Nt =∑n≥1

1Tn≤t.

Ce processus s’appelle le processus de Poisson d’intensite λ.

Definition 5.8 On definit (FNt )t≥0 la filtration naturelle completee du processus de Pois-son.

Remarque 5.7 Le processus se reecrit aussi sous la forme Nt = sup(n ≥ 0 : Tn ≤ t).Reciproquement, on remarque que Tn = inf(t ≥ 0 : Nt = n) est un (FNt )t≥0 temps d’arret.

Comme pour t > s, on a Nt −Ns =∑

n≥1 1s<Tn≤t, N est un processus a accroisssementsindependants et stationnaires (PAIS) et a trajectoires cadlag. On montre qu’il verifie alorsla propriete de Markov forte : soit T un (FNt )t≥0-temps d’arret fini ps. On note N ′ leprocessus defini pour s ≥ 0 par N ′s = NT+s − NT . Alors le processus N ′ est independantde FNT et a meme loi que N .

Definition 5.9 (equivalente du processus de Poisson) Un processus de Poisson N =(Nt)t≥0 d’intensite λ est un processus de comptage a trajectoires continues a droite tel que

— N(0) = 0 ;— N est un processus a accroissements independants et stationnaires ;— pour tout t ≥ 0, Nt suit la loi de Poisson P(λt).

Demonstration : Fastidieux. . . , cf. [BC].

Theoreme 5.5 Soit N un processus de Poisson d’intensite λ. Alors les processus suivantssont des martingales :

1. le processus de Poisson compense : N = (Nt − λt, t ≥ 0) ;

2. ((Nt − λt)2 − λt, t ≥ 0).

Remarque 5.8 — On peut voir le processus de Poisson comme une mesure aleatoiresur (R,B(R)) : la mesure de l’intervalle ]s, t] est N(]s, t]) = Nt −Ns.

— Le mouvement brownien et le processus de Poisson sont deux representant d’uneclasse plus vaste de processus dit de Levy (processus cadlag a accroissementsindependants et stationnaires).

Page 106: Processus stochastique

86 Chapitre 5. c©JCB – M2 Math. – Universite de Rennes 1

Page 107: Processus stochastique

Chapitre 6

Semimartingales continues

Les semimartingales continues forment la classe generale de processus a trajectoirescontinues pour laquelle on peut developper une theorie de l’integration stochastique quisera l’objet du chapitre suivant. Par definition, une semimartingale est la somme d’unemartingale (locale) et d’un processus a variation finie. Dans ce chapitre nous etudionsseparement ces deux classes de processus. En particulier, nous introduisons la notion devariation quadratique d’une martingale qui jouera un role fondamental pour l’integrationstochastique.Dans ce chapitre, on considere un espace de probabilite filtre (Ω,F , (Ft)t≥0,P) satisfaisantles conditions habituelles. On considere d’abord des processus a variation finie en Section 6.1puis des martingales locales en Section 6.2 dont on etudie la variation quadratique enSection 6.3. On resume les resultats obtenus pour les semimartingales en Section 6.4.

6.1 Processus a variation bornee

6.1.1 Fonctions a variation finie

Soit T > 0 fixe. On rappelle qu’il y a une bijection entre les fonctions croissantes continuesae droite g : [0, T ] → R+ et les mesures ν positives finies sur [0, T ]. Elle est donnee parg(t) = ν([0, t]) ou ν(]s, t]) = g(t)−g(s). La donnee de ν sur les intervalles ]s, t] determinentuniquement la mesure ν sur B([0, T ]) (par un argument de classe monotone). Si g est enplus supposee continue alors ν est sans atome (ie. ν(t) = 0 pour tout t ∈ [0, T ]).

Exemples : si g(x) = x alors ν est la mesure de Lebesgue λ ; si g(x) = 1[a,+∞[(x) alors νest la mesure de Dirac δa.

Definition 6.1 (Mesure signee) Une mesure finie est dite signee si elle est differencede deux mesures positives finies.

L’ecriture d’une mesure µ signee sous la forme d’une difference de deux mesures positivesfinies n’est pas unique, cependant il existe une seule decomposition canonique :

87

Page 108: Processus stochastique

88 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

Proposition 6.1 (Decomposition canonique d’une mesure signee) Il existe une seu-le decomposition µ = µ+ − µ− minimale dans le sens ou µ+ et µ− sont deux mesurespositives finies portees par des boreliens disjoints. Il s’agit de la decomposition canoniquede µ.

Dans la suite, pour une fonction h a valeurs reelles, on note h+ = h ∨ 0 et h− = h ∧ 0.

Demonstration : Pour obtenir l’existence d’une telle decomposition, on considere unedecomposition quelconque µ = µ1 − µ2 de µ, on pose ν = µ1 + µ2. Comme µ1 ν etµ2 ν, on ecrit par le theoreme de Radon-Nikodym :

µ1(dt) = h1(t)ν(dt), µ2(dt) = h2(t)ν(dt).

Avec h(t) = h1(t)− h2(t) on a

µ(dt) = h(t)ν(dt) = h(t)+ν(dt)− h(t)−ν(dt)

ce qui donne la decomposition µ = µ+−µ− avec µ+(dt) = h(t)+ν(dt), µ−(dt) = h(t)−ν(dt).Notons que les mesures µ+ et µ− sont bien a supports disjoints puisqu’elles sont porteesrespectivement par D+ = t ∈ [0, T ] : h(t) > 0 et D− = t ∈ [0, T ] : h(t) < 0. L’unicitede la decomposition µ = µ+ − µ− vient du fait que l’on a necessairement

µ+(A) = supµ(C) : C ⊂ A,C borelien.

En effet µ(C) ≤ µ+(C) ≤ µ+(A) quand C ⊂ A et

µ+(A) = µ+(A ∩D+) = µ(A ∩D+) ≤ supµ(C) : C ⊂ A,C borelien.

On note |µ| la mesure positive |µ| = µ+ + µ−. Il s’agit de la variation totale de µ.Remarquons que la derivee de Radon-Nikodym de µ par rapport a |µ| est

d|µ|= 1D+ − 1D−

ou D+ ∪D− est une partition de l’espace.

Definition 6.2 Soit T > 0. Une fonction continue F : [0, T ] → R telle que F (0) = 0 estdite a variation finie s’il existe une mesure signee (ie. difference de deux mesures positivesfinies) µ telle que F (t) = µ([0, t]) pour tout t ∈ [0, T ].

La mesure µ est alors determinee de facon unique : l’expression µ(]s, t]) = F (t) − F (s) ladetermine uniquement sur la famille des intervalles ]s, t] puis, par un argument de classemonotone, sur B([0, T ]). De plus, F etant continue, µ est sans atome.

Page 109: Processus stochastique

6.1. Processus a variation bornee 89

Proposition 6.2 Une fonction F est a variation finie ssi F est difference de deux fonc-tions croissantes continues nulles en 0.

Demonstration : Si F est a variation finie, F (t) = µ([0, t]) et avec la decomposition ca-nonique de µ de la Proposition 6.1, F est difference de deux fonctions croissantes continueset nulles en 0 : F (t) = µ+([0, t])− µ−([0, t]) (si µ+ et µ− ont des atomes, ils doivent neces-sairement coıncider pour s’annuler (µ n’en ayant pas). Mais comme µ+ et µ− sont censesavoir des supports disjoints, c’est que de tels atomes n’existent pas : µ+ et µ− sont biensans atome. Reciproquement, si F = F1−F2 avec F1, F2 fonctions croissantes continues etnulles en 0 alors on associe µ1 et µ2 des mesures positives finies a F1, F2 et F s’ecrit alorsF (t) = µ([0, t]) pour la mesure signee µ = µ1 − µ2.

Dans la suite, on note µ la mesure associee a F et µ+ − µ− la decomposition canoniquede µ. La fonction definie par µ+([0, t]) + µ−([0, t]) s’appelle la variation totale de F .D’habitude, les fonctions a variation finie sont plutot definies par la propriete suivante :

Proposition 6.3 (Variation finie – ou bornee) Pour tout t ∈ [0, T ], on a

|µ|([0, t]) = suptii=1,...,p

p∑i=1

|F (ti)− F (ti−1)|

ou le supremum porte sur toutes les subdivisions 0 = t0 < t1 < · · · < tp = t de [0, t].

Demonstration : Il suffit clairement de traiter le cas t = T . L’inegalite ≥ s’obtientfacilement puisque

|F (ti)− F (ti−1)| = |µ(]ti−1, ti])| ≤ |µ|(]ti−1, ti])

et donc∑p

i=1 |F (ti)−F (ti−1)| ≤∑p

i=1 |µ|(]ti−1, ti]) = |µ|(]0, T ]) = |µ|([0, T ]) par additivite.Pour l’autre inegalite, on montre le resultat plus fort suivant : pour toute suite 0 = tn0 <tn1 < · · · < tnpn de subdivisions emboitees de [0, T ] de pas tendant vers 0, on a

limn→+∞

pn∑i=1

|F (tni )− F (tni−1)| = |µ|([0, T ]).

Pour simplifier, on considere les subdivisions dyadiques tni = i2−nT , 0 ≤ i ≤ 2n, de [0, T ].On utilise un argument de martingales en introduisant l’espace de probabilite Ω = [0, T ]muni de la tribu borelienne B([0, T ]) et de la probabilite P(ds) = (|µ|([0, T ])−1)|µ|(ds). Surcet espace, on considere la filtration discrete (Bn)n≥n ou Bn est la tribu engendree par lesintervalles ](i− 1)2−nT, i2−nT ], avec 1 ≤ i ≤ 2n. On pose alors

X(s) =dµ

d|µ|(s) = 1D+(s)− 1D−(s)

Page 110: Processus stochastique

90 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

ou D+ ∪D− est une partition de l’espace et on considere pour chaque n ≥ 0

Xn = E[X|Bn].

Il s’agit d’une (Bn)n≥0-martingale. Comme Xn est Bn-mesurable, Xn est constante surchaque intervalle ](i− 1)2−nT, i2−nT ]. D’apres les proprietes de l’esperance conditionnelle,sa valeur αi sur ](i− 1)2−nT, i2−nT ] verifie

αi|µ|(](i− 1)2−nT, i2−nT ])

|µ|([0, T ])= E

[E[X|Bn]1](i−1)2−nT,i2−nT ]

]= E

[dµ

d|µ|1](i−1)2−nT,i2−nT ]

]=

∫](i−1)2−nT,i2−nT ]

d|µ|d|µ|

|µ|([0, T ])=µ(](i− 1)2−nT, i2−nT ])

|µ|([0, T )].

On a donc

αi =µ(](i− 1)2−nT, i2−nT ])

|µ|(](i− 1)2−nT, i2−nT ])=F (i2−nT )− F ((i− 1)2−nT )

|µ|(](i− 1)2−nT, i2−nT ]).

Puis comme, par definition, la martingale discrete (Xn)n≥0 est fermee et comme X estmesurable par rapport a B([0, T ]) =

∨n≥0 Bn cette martingale converge ps et dans L1

vers X. En particulier,lim

n→+∞E[|Xn|] = E[|X|] = 1,

ou on utilise |X(s)| = 1, µ-pp. Le resultat suit facilement puisque

E[|Xn|] = (|µ|([0, T ])−1)2n∑i=1

|F (i2−nT )− F ((i− 1)2−nT )|.

6.1.2 Integrale de Stieltjes

Soit f : [0, T ]→ R une fonction mesurable telle que∫

[0,T ]|f(s)||µ|(ds) < +∞. On note∫ t

0

f(s) dF (s) =

∫[0,t]

f(s) µ(ds),

∫ t

0

f(s) |dF (s)| =∫

[0,t]

f(s) |µ|(ds).

On verifie facilement l’inegalite∣∣∣∣∫ t

0

f(s) dF (s)

∣∣∣∣ ≤ ∫ t

0

|f(s)| |dF (s)|.

Remarquons de plus que la fonction t 7→∫ t

0f(s) dF (s) est aussi a variation finie. La mesure

associee est alors simplement µ′(ds) = f(s)µ(ds) et sa decomposition canonique est(∫ t

0

f+(s) dF+(s) +

∫ t

0

f−(s) dF−(s)

)−(∫ t

0

f−(s) dF+(s) +

∫ t

0

f+(s) dF−(s)

).

Page 111: Processus stochastique

6.1. Processus a variation bornee 91

On a aussi une ecriture en terme d’integrales par rapport a des mesures positives∫ t

0

f(s) dF (s) =

∫ t

0

f(s) dF+(s)−∫ t

0

f(s) dF−(s).

On a encore l’associativite de l’integrale : si F est une fonction a variation bornee et si h, gsont des fonctions mesurables bornees alors en notant F (t) =

∫ t0h(s) dF (s), on a∫ t

0

g(s)dF (s) =

∫ t

0

g(s)h(s) dF (s).

Le resultat suivant generalise les sommes de Riemann a l’integrale de Stieltjes et donnedonc un moyen d’approcher les integrales de Stieltjes par des sommes.

Proposition 6.4 Si f : [0, T ] → R est une fonction continue et si 0 = tn0 < tn1 < · · · <tnpn = T est une suite de subdivisions (emboitees) de [0, T ] de pas tendant vers 0 on a∫ T

0

f(s)dF (s) = limn→+∞

pn∑i=1

f(tni−1)(F (tni )− F (tni−1)).

Demonstration : Soit fn la fonction constante par morceaux definie par fn(s) = f(tni−1)si s ∈]tni−1, t

ni ]. Alors,

pn∑i=1

f(tni−1)(F (tni )− F (tni−1)) =

∫[0,T ]

fn(s)µ(ds)

et le resultat suit par convergence dominee (f continue sur [0, T ] est bornee).

6.1.3 Extension de l’integration de Stieltjes a R+

Definition 6.3 (Variation finie sur R+) Une fonction continue F : R+ → R est dite avariation finie sur R+ si, pour tout T > 0, la restriction de F a [0, T ] est a variation finie.

Il est alors facile d’etendre les definitions precedentes des integrales a R+ en supposant fdF -integrable. En particulier, on peut definir

∫ +∞0

f(s) dF (s) pour toute fonction f telle

que∫ +∞

0|f(s)| |dF (s)| = supT>0

∫ T0|f(s)| |dF (s)| < +∞.

6.1.4 Processus a variation finie

On rappelle qu’on considere un espace de probabilite filtre (Ω,F , (Ft)t≥0,P) satisfaisantles conditions habituelles.

Definition 6.4 (Processus a variation finie et processus croissant)

Page 112: Processus stochastique

92 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

— Un processus a variation finie A = (At)≥0 est un processus adapte dont toutes lestrajectoires sont a variation finie au sens de la Definition 6.2.

— Le processus A est appele processus croissant si de plus les trajectoires de A sontcroissantes.

Remarque 6.1 — En particulier, d’apres la Definition 6.2 d’une fonction a varia-tion finie, on a A0 = 0 et les trajectoires de A sont continues.

— Le mouvement brownien n’est pas a variation bornee, cf. Prop. 4.8 : on ne pourradonc pas utiliser cette section pour construire l’integrale contre un mouvement brow-nien.

Proposition 6.5 Soient A un processus a variation finie et H un processus progressif telque

∀t ≥ 0,∀ω ∈ Ω,

∫ t

0

|Hs(ω)| |dAs(ω)| < +∞.

Alors le processus H · A defini par

(H · A)t =

∫ t

0

Hs(ω) dAs(ω)

est aussi un processus a variation finie.

Remarque 6.2 Quand on integre contre un processus a variation finie, on definit uneintegrale trajectorielle : l’integrale se definit ω par ω (ie. trajectoire par trajectoire).

Demonstration : D’apres les observations de la section precedente, les trajectoires deH ·A sont a variation finie. Il ne reste donc qu’a justifier que H ·A est adapte. Pour cela, ilsuffit de voir que, si h : [0, t]×Ω→ R est mesurable pour la tribu produit B([0, t])⊗Ft et si∫ t

0|h(s, ω)||dAs(ω)| est fini pour tout ω, alors la variable

∫ t0h(s, ω)dAs(ω) est Ft-mesurable.

D’abord, pour h(s, ω) = 1]u,v](s)1Γ(ω) avec ]u, v] ⊂ [0, t] et Γ ∈ Ft, on a∫ t

0

h(s, ω)dAs(ω) = (Av(ω)− Au(ω))1Γ(ω)

qui est clairement Ft-mesurable puisque (At)t≥0 est adapte et Γ ∈ Ft.Par un argument de classe monotone, comme ]u, v]×Γ, ]u, v] ⊂ [0, t] : Γ ∈ Ft engendreB([0, t]) ⊗ Ft, on justifie alors que pour h = 1G, G ∈ B([0, t]) ⊗ Ft,

∫ t0h(s, ω)dAs(ω) est

encore Ft-mesurable.Enfin, on passe au cas general en ecrivant h fonction B([0, t]) ⊗ Ft-mesurable, dAs(ω)-integrable, comme limite simple d’une suite de fonctions etagees hn telles que pour toutn on ait |hn| ≤ |h|. Par convergence dominee, on a

∫ t0hn(s, ω)dAs(ω)→

∫ t0h(s, ω)dAs(ω).

Comme∫ t

0hn(s, ω)dAs(ω) est Ft-mesurable et que la Ft-mesurabilite se conserve en passant

a la limite, on obtient le resultat.

Page 113: Processus stochastique

6.2. Martingales locales 93

Remarque 6.3 — Souvent, on sera dans la situation ou l’hypothese plus faible estsatisfaite

ps ∀t ≥ 0,

∫ t

0

|Hs||dAs| < +∞.

Dans ce cas, on peut encore definir H · A en convenant que, sur l’ensemble deprobabilite nulle ou

∫ t0|Hs||dAs| devient infini, on prend (H · A)t(ω) = 0 pour

tout t. Le processus (H ·A) ainsi defini reste adapte lorsque la filtration est supposeecomplete.

— Sous des hypotheses convenables d’integrabilite de H et de K, on a la proprieted’associativite :

K · (H · A) = (KH) · A.

Un cas particulier important est celui ou At = t : si H = (Ht)t≥0 est un processus progressiftel que

ps ∀t ≥ 0

∫ t

0

|Hs| ds < +∞,

le processus∫ t

0Hs ds est un processus a variation finie.

6.2 Martingales locales

Si T est un temps d’arret et X = (Xt)t≥0 un processus on rappelle que XT designe leprocessus arrete : pour tout t ≥ 0, XT

t = Xt∧T . On a vu que si X est une martingale alorsXT l’est aussi (il s’agit de la martingale arretee), cf. Remarque 5.6.

Definition 6.5 (Martingale locale) Un processus M = (Mt)t≥0 est appele une mar-tingale locale (continue) s’il s’ecrit Mt = M0 + Nt ou M0 est une variable aleatoire F0-mesurable et ou (Nt)t≥0 est un processus adapte a trajectoires continues tel qu’il existe unesuite croissante (Tn)n≥0 de temps d’arret avec Tn +∞ et pour tout n le processus arreteNTn est une martingale uniformement integrable.On dit que la suite de temps d’arret Tn +∞ reduit M si pour tout n le processus arreteNTn est une martingale uniformement integrable.Lorsque M0 = 0, on parle de martingale locale issue de 0.

Remarque 6.4 On n’impose pas dans la definition d’une martingale locale que les va-riables Mt soient dans L1 (c’est une difference essentielle avec les martingales). En par-ticulier, d’apres la definition precedente, M0 peut etre n’importe quelle variable aleatoireF0-mesurable.

Dans les proprietes qui suivent, la plupart des justifications viennent des proprietes desmartingales arretees enoncees dans le Corollaire 5.2.

Exemple : Une martingale a trajectoires continues est une martingale locale (et la suiteTn = n reduit M).

Page 114: Processus stochastique

94 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

En effet, cela suit par exemple du Corollaire 5.2 et de ses consequences avec les tempsd’arret Tn = n +∞, plus simplement, il est immediat que pour s < t :

Ms∧n = E[Mt∧n|Fs

]et (Mt∧n)t≥0 est fermee par Mn donc uniformement integrable.

Proposition 6.6 Dans la definition d’une martingale locale (issue de 0) on peut remplacer′′martingale uniformement integrable′′ par ′′martingale′′ (en effet, on peut ensuite remplacerTn par Tn ∧ n pour recuperer l’uniforme integrabilite).

Demonstration : Si MTn est une martingale alors (MTn)n = MTn∧n l’est aussi et elle estfermee par Mn donc uniformement integrable. De plus, il est evident que (Tn ∧ n) +∞si Tn +∞.

Proposition 6.7 Si M est une martingale locale, pour tout temps d’arret T , MT est unemartingale locale.

Demonstration : Si Tn reduit M alors MTn est une martingale et (MT )Tn = MT∧Tn =(MTn)T l’est aussi d’apres le Corollaire 5.2.

Proposition 6.8 Si (Tn)n≥0 reduit M et si (Sn)n≥0 est une suite de temps d’arret telleque Sn → +∞, alors la suite (Tn ∧ Sn)n≥0 reduit aussi M .

Demonstration : On a (Tn∧Sn) +∞ et MTn∧Sn = (MTn)Sn est une martingale unifor-mement integrable en tant que martingale uniformement integrable MTn arretee (corollaire5.2).

Proposition 6.9 L’espace des martingales locales est un espace vectoriel.

Demonstration : SiM,N sont des martingales locales reduites respectivement par (Tn)n≥0

et (Sn)n≥0 alors d’apres la Prop. 6.8, elles le sont encore toutes les deux par (Tn ∧ Sn)n≥0.Mais alors (M +N)Tn∧Sn = NTn∧Sn +NTn∧Sn est une martingale, comme somme de mar-tingales.

Proposition 6.10 Une martingale locale positive M telle que M0 ∈ L1 est une surmar-tingale.

D’apres le Theoreme 5.3 (convergence ps des surmartingales) et la remarque qui le suit,une martingale locale positive converge donc ps.

Demonstration : Ecrivons Mt = M0 + Nt et soit (Tn)n≥0 une suite de temps d’arret quireduit N . Alors, si s ≤ t, on a pour tout n,

Ns∧Tn = E[Nt∧Tn|Fs

].

Page 115: Processus stochastique

6.2. Martingales locales 95

En ajoutant des deux cotes la variable M0 (qui est F0-mesurable et dans L1), on trouve

Ms∧Tn = E[Mt∧Tn|Fs

]. (6.1)

Puisque M est positive, on peut appliquer le lemme de Fatou pour les esperances condi-tionnelles en faisant n→ +∞. Comme Tn +∞, on a alors

Ms = limn→+∞

Ms∧Tn = lim infn→+∞

Ms∧Tn = lim infn→+∞

E[Mt∧Tn|Fs

]≥ E

[lim infn→+∞

Mt∧Tn|Fs]

= E[Mt|Fs

].

En particulier, en prenant s = 0 et l’esperance, on a E[Mt] ≤ E[M0] < +∞, donc Mt ∈ L1

pour tout t ≥ 0. L’inegalite precedente assure alors que M est bien une surmartingale.

Proposition 6.11 Soit M une martingale locale. S’il existe une variable Z ∈ L1 telle que,pour tout t ≥ 0, |Mt| ≤ Z, alors M est une martingale. En particulier, une martingalelocale bornee est une martingale.

Demonstration : Si M est dominee par une variable aleatoire Z integrable, on obtientcomme au 1) pour s ≤ t :

Ms∧Tn = E[Mt∧Tn|Fs

].

Puis, par convergence dominee la suite Mt∧Tn converge dans L1 vers Mt. On peut doncpasser a la limite n→ +∞ pour trouver

Ms = limn→+∞

Ms∧Tn = limn→+∞

E[Mt∧Tn|Fs

]= E

[lim

n→+∞Mt∧Tn|Fs

]= E

[Mt|Fs

].

Remarque 6.5 Attention, il n’est donc pas facile d’affaiblir les conditions de le Prop.6.11 : si M est une martingale locale uniformement integrable, en general M n’est pasune martingale (cf. le contre-exemple 2.13 p. 182 dans [RY], cf. aussi le contre-exemplepage ?? pour le processul de Bessel Rt en dimension 3 : la martingale locale 1/Rt estuniformement integrable car bornee dans L2 mais n’est pas une martingale). Par contre sion a une condition d’uniforme integrabilite pour tous les temps d’arret, on a un resultatpositif :

Proposition 6.12 Si M est une martingale locale avec M0 = 0, alors M est reduite parla suite de temps d’arret

Tn = inf(t ≥ 0 : |Mt| = n

).

Page 116: Processus stochastique

96 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration : Comme MTn est une martingale locale bornee, c’est aussi une martin-gale par la Prop. 6.11. De plus M est a trajectoires continues, on a bien Tn +∞. Eneffet, soit A > 0, comme M est a trajectoires continues, Mt : t ∈ [0, A] est compact doncborne par R(A) < +∞. On a alors pour tout n ≥ R(A), Tn ≥ A, ie. Tn +∞.

Le resultat suivant montre qu’une martingale locale continue qui n’est pas triviale est avariations non bornees. L’ensemble des martingales locales est donc un ensemble vraimentdifferent de celui des processus a variation finie.

Theoreme 6.1 Soit M une martingale locale (continue) issue de 0. Alors si M est unprocessus a variation finie, M est indistinguable de 0.

Demonstration : Supposons que M est un processus a variation finie et posons pour toutn ∈ N :

τn = inf(t ≥ 0 :

∫ t

0

|dMs| ≥ n).

Les temps τn sont des temps d’arret d’apres l’Exemple 4.1 (pour cela, il faut remarquerque le processus

∫ t0|dMs| est continu et adapte, ce qui se voit par l’approximation donnee

par la Prop. 6.4). Fixons n ≥ 1 et posons N = M τn . Alors N est une martingale localetelle que

∫ +∞0|dNs| ≤ n, en particulier |Nt| = |

∫ t∧τn0

dMs| ≤∫ t∧τn

0|dMs| ≤ n. D’apres la

Proposition 6.11, N est alors une vraie martingale bornee.Ensuite, soit t > 0 et soit 0 = t0 < t1 < · · · < tp = t une subdivision de [0, t]. Alors,

E[N2t ] =

p∑i=1

E[N2ti−N2

ti−1] =

p∑i=1

E[N2ti

] + E[N2ti−1

]− 2E[N2ti−1

]

=

p∑i=1

E[N2ti

] + E[N2ti−1

]− 2E[Nti−1E[Nti |Fti−1

]] (propriete de martingale)

=

p∑i=1

E[N2ti

] + E[N2ti−1

]− 2E[Nti−1Nti ] =

p∑i=1

E[(Nti −Nti−1)2]

≤ E

[(sup

1≤i≤p|Nti −Nti−1

|) p∑

i=1

|Nti −Nti−1|

]

≤ nE[(

sup1≤i≤p

|Nti −Nti−1|)]

en utilisant la Proposition 6.3. On applique l’inegalite precedente a une suite 0 = tk0 < tk1 <· · · < tkpk = t de subdivisions de [0, t] de pas tendant vers 0. En utilisant la continuite destrajectoires, et le fait que N est bornee par n (fixe dans cette partie de l’argument), on apar convergence dominee :

limk→+∞

E[

sup1≤i≤pk

|Ntki−Ntki−1

|]

= 0.

Page 117: Processus stochastique

6.3. Variation quadratique d’une martingale locale 97

On conclut alors que E[N2t ] = 0 c’est a dire E[M2

t∧τn ] = 0. En faisant ensuite tendren→ +∞, comme τn → +∞, on obtient par le lemme de Fatou :

E[M2t ] = E

[lim

n→+∞M2

t∧τn

]= E

[lim infn→+∞

M2t∧τn

]≤ lim inf

n→+∞E[M2

t∧τn ] = 0.

Finalement pour tout t ≥ 0, Mt = 0 ps. La martingale locale M admet 0 comme version.Pour conclure, comme 0 et M sont a trajectoires continues, le processus M est en faitindistinguable de 0.

6.3 Variation quadratique d’une martingale locale

Le theoreme ci-dessous definit le crochet (ou variation quadratique) d’une martingale locale.Cette notion est clef dans le calcul stochastique qui va etre developpe dans la suite.

Theoreme 6.2 (Crochet d’une martingale locale) Soit M = (Mt)t≥0 une martingalelocale (continue). Il existe un processus croissant, note (〈M,M〉t)t≥0 unique a indistingua-bilite pres, tel que

M2t − 〈M,M〉t (6.2)

est une martingale locale continue. De plus, pour tout t > 0, si 0 = tn0 < tn1 < · · · < tnpn = test une suite de subdivisions emboitees de [0, t] de pas tendant vers 0, on a, au sens de laconvergence en probabilite,

〈M,M〉t = P- limn→+∞

pn∑i=1

(Mtni−Mtni−1

)2. (6.3)

Le processus 〈M,M〉 est appele la variation quadratique ou crochet de M .

Remarque 6.6— Pour les martingales, on a mieux : si M est une martingale de carre integrablealors M2

t − 〈M,M〉t est une martingale aussi, cf. plus bas Theoreme 6.3.— Si M = B est un mouvement brownien, on a vu que 〈B,B〉t = t, cf. Prop. 4.7.— Pour la derniere assertion, il n’est pas necessaire de supposer que les subdivisionssont emboitees.

Demonstration : L’unicite decoule du Theoreme 6.1. En effet, si A et A′ sont deuxprocessus croissants satisfaisant la condition (6.2), le processus At − A′t = (M2

t − A′t) −(M2

t − At) doit etre a la fois une martingale locale (car difference de martingales locales)et un processus a variation finie (car difference de tels processus), ce qui exige sa nullite(cf. Th. 6.1).

Pour l’existence, on considere d’abord le cas ou M0 = 0 et M est bornee. D’apres la Prop.6.11, M est alors une vraie martingale. On se fixe t > 0 et 0 = tn0 < tn1 < · · · < tnpn = t une

Page 118: Processus stochastique

98 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

suite de subdivisions emboitees de [0, t] de pas tendant vers 0. Pour chaque n, on considerele processus Xn defini par

Xns =

pn∑i=1

Mtni−1(Mtni ∧s −Mtni−1∧s).

Lemme 6.1 Le processus Xn est une martingale continue.

Demonstration : La continuite est claire car M l’est. Puis si s ≤ r, on a

E[Xnr |Fs]

=

pn∑i=1

E[Mtni−1

(Mtni ∧r −Mtni−1∧r)|Fs]

=∑

i:tni−1≤r

E[Mtni−1

(Mtni ∧r −Mtni−1∧r)|Fs]

=∑

i:s≤tni−1≤r

E[Mtni−1

(Mtni ∧r −Mtni−1∧r)|Fs]

+∑

i:tni−1≤s≤r

E[Mtni−1

(Mtni ∧r −Mtni−1∧r)|Fs]

=∑

i:s≤tni−1≤r

E[Mtni−1

E[(Mtni ∧r −Mtni−1∧r)|Fti−1

]|Fs]

+∑

i:tni−1≤s≤r

Mtni−1E[(Mtni ∧r −Mtni−1∧r)|Fs

]=

∑i:s≤tni−1≤r

E[Mtni−1

(Mti−1−Mti−1

)︸ ︷︷ ︸=0

|Fs]

+∑

i:tni−1≤s≤r

Mtni−1(Mtni ∧s −Mtni−1∧s)

=∑

i:tni−1≤s

Mtni−1(Mtni ∧s −Mtni−1∧s) = Xn

s .

On a ensuite

Lemme 6.2 Le processus Xn verifie une propriete de Cauchy dans L2 :

limn,m→+∞

E[(Xnt −Xm

t )2] = 0.

Demonstration : Notons que comme les subdivisions sont emboitees, on peut ecrire

pn∑i=1

Mtni−1(Mtni

−Mtni−1) =

pn∑i=1

∑tmj ∈]tni−1,t

mj ]

Mtni−1(Mtmj

−Mtmj−1).

Avec des calculs (fastidieux. . . ) qui utilisent la propriete de martingale pour n ≤ m :

E[(Xn

t −Xmt )2]

Page 119: Processus stochastique

6.3. Variation quadratique d’une martingale locale 99

= E

( pn∑i=1

Mtni−1(Mtni

−Mtni−1)−

pm∑j=1

Mtmj−1(Mtmj

−Mtmj−1)

)2

= E

pn∑i=1

∑tmj ∈]tni−1,t

ni ]

(Mtni−1−Mtmj−1

)(Mtmj−Mtmj−1

)

2 (les partitions sont emboitees)

=

pn∑i=1

E

∑tmj ∈]tni−1,t

ni ]

(Mtni−1−Mtmj−1

)(Mtmj−Mtmj−1

)

2 (prop. de martingale)

(la propriete de martingale annule les termes croises du carre de la somme)

=

pn∑i=1

∑tmj ∈]tni−1,t

ni ]

E[(Mtni−1

−Mtmj−1)2(Mtmj

−Mtmj−1)2]

(prop. de martingale)

(a nouveau, la propriete de martingale annule les termes croises du carre de la somme)

=

pn∑i=1

∑tmj ∈]tni−1,t

ni ]

E[(Mtni−1

−Mtmj−1)2E[(Mtmj

−Mtmj−1)2|Ftmj−1

]]

(car Mtni−1, Mtmj−1

sont Ftmj−1-mesurables avec tni−1 < tmj )

=

pn∑i=1

∑tmj ∈]tni−1,t

ni ]

E[(Mtni−1

−Mtmj−1)2(M2

tmj−M2

tmj−1)]

(prop. de martingale)

≤pn∑i=1

∑tmj ∈]tni−1,t

ni ]

E[supi,j(Mtni−1

−Mtmj−1)2 (M2

tmj−M2

tmj−1)

]

= E

[supi,j(Mtni−1

−Mtmj−1)2

pm∑j=1

(M2tmj−M2

tmj−1)

]

= E[supi,j(Mtni−1

−Mtmj−1)2 M2

t

]−→n,m→+∞ 0

ou la derniere convergence vient par convergence dominee en utilisant queM est bornee (parhypothese) et limn,m→+∞ sup1≤i≤p,1≤j≤pm(Mtni−1

−Mtmj−1) = 0 par continuite des trajectoires

de M . On a donc etabli

limn,m→+∞

E[(Xn

t −Xmt )2]

= 0.

L’inegalite de Doob (Proposition 5.8) donne alors

limn,m→+∞

E[

sups≤t

(Xns −Xm

s )2]

= 0. (6.4)

Page 120: Processus stochastique

100 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

On peut alors extraire une sous-suite (nk)k≥0 telle que

E[

sups≤t

(Xnks −Xnk+1

s )2]1/2

≤ 1

2k.

Avec l’inegalite de Cauchy-Schwarz, il vient alors

E

[+∞∑k=1

sups≤t|Xnk

s −Xnk+1s |

]≤

+∞∑k=1

E[sups≤t

(Xnks −Xnk+1

s )2

]1/2

≤+∞∑k=0

1

2k< +∞.

On en deduit que ps+∞∑k=1

sups≤t|Xnk

s −Xnk+1s | < +∞.

Presque surement, la suite (Xnks )s∈[0,t] converge donc uniformement sur [0, t] vers une limite

qu’on note (Ys)s∈[0,t]. Sur l’ensemble negligeable ou il n’y a pas convergence, on imposeYs ≡ 0. Le processus limite (Ys)s∈[0,t] a alors des trajectoires continues.

Comme d’apres (6.4) (Xns )s∈[0,t] est une suite de Cauchy dans L2, on a aussi la convergence

Xns → Ys dans L2 quand n→ +∞. En passant a la limite L2 dans l’egalite de martingale

pour Xn aux dates s et r,Xns = E

[Xnr |Fs

], s ≤ r,

on voit alors que Y est une martingale sur [0, t] :

Ys = E[Yr|Fs], s ≤ r.

Finalement, Xnk converge ps uniformement sur [0, t] vers un Y = (Ys)0≤s≤t qui est atrajectoires continues. Le processus Y est donc une martingale continue.

Puis par un calcul simple, pour tout n ≥ 1 et j ∈ 1, . . . , pn,

M2tnj− 2Xn

tnj=

j∑i=1

(Mtni−Mtni−1

)2. (6.5)

En effet Xntnj

=∑j

i=1Mtni−1(Mtni

−Mtni−1) =

∑ji=1Mtni−1

Mtni−M2

tni−1et donc

M2tnj− 2Xn

tnj= M2

tnj+ 2

j∑i=1

M2tni−1− 2

j∑i=1

Mtni−1Mtni

=

j∑i=1

M2tni

+

j∑i=1

M2tni−1− 2

j∑i=1

Mtni−1Mtni

=

j∑i=1

(M2

tni+M2

tni−1− 2Mtni−1

Mtni

)

Page 121: Processus stochastique

6.3. Variation quadratique d’une martingale locale 101

=

j∑i=1

(Mtni−Mtni−1

)2.

Donc le processus M2 − 2Xn est croissant le long de la subdivision tni : 0 ≤ i ≤ pn. Enpassant a la limite avec la sous-suite nk → +∞ trouvee precedemment, par continuite, lafonction s ∈ [0, t] 7→M2

s − 2Ys est ps croissante sur [0, t].On pose alors, pour s ∈ [0, t], 〈M,M〉s = M2

s − 2Ys (avec, par convention, 〈M,M〉s ≡ 0sur l’ensemble de probabilite nulle ou la fonction t 7→ M2

t − 2Yt n’est pas croissante).Ainsi, 〈M,M〉 est un processus croissant et M2

s − 〈M,M〉s = 2Ys est une martingale, surl’intervalle de temps [0, t].

Rappelons que t est fixe depuis le debut de l’argument. Pour etendre la definition de〈M,M〉s a tout s ∈ R+, on applique ce qui precede avec t = k pour tout entier k ≥ 1, enremarquant que, par unicite, le processus obtenu avec t = k doit etre la restriction a [0, k]de celui obtenu avec t = k+ 1. On a ainsi construit un processus 〈M,M〉t, t ≥ 0, croissantverifiant (6.2) (c’est meme une martingale L2 sur R+).

La partie unicite montre aussi que le processus 〈M,M〉t ne depend pas de la suite desubdivisions choisies pour le construire. On deduit alors de (6.5) (avec j = pn) que pourtout t > 0, pour n’importe quelle suite de subdivisions emboitees de [0, t] de pas tendantvers 0, on a

L2- limn→+∞

pn∑j=1

(Mtnj−Mtnj−1

)2 = 〈M,M〉t

dans L2. Cela acheve la preuve du theoreme dans le cas borne.

Considerons maintenant une martingale locale generale qu’on ecrit sous la forme Mt =M0 + Nt. On a donc M2

t = M20 + 2M0Nt + N2

t et en remarquant que M0Nt est unemartingale locale (car N en est une et M0 est F0-mesurable), on ne perd pas en generaliteen supposant (ce qu’on fait) M0 = 0. On pose alors

Tn = inf(t ≥ 0 : |Mt| ≥ n

),

et on applique le resultat vu dans le cas borne aux martingales bornees MTn . NotonsA(n) = 〈MTn ,MTn〉 le processus associe a MTn . D’apres l’unicite, les processus A

(n+1)t∧Tn et

A(n)t sont indistinguables. On en deduit qu’il existe un processus croissant A tel que, pour

tout n, At∧Tn et A(n)t sont indistinguables. Par construction du cas borne, M2

t∧Tn −At∧Tn =(M2

t − At)Tn est une martingale, c’est a dire M2t − At est une martingale locale.

On prend alors 〈M,M〉t = At et cela termine la preuve de la partie existence.

Enfin, la deuxieme partie du theoreme reste vraie dans le cas d’une martingale locale :en effet, si on remplace M et 〈M,M〉t par MTn et 〈MTn ,MTn〉t = 〈M,M〉Tnt (en anticipantla proposition suivante), alors le cas borne assure :

〈M,M〉t∧Tn = P- limn→+∞

pn∑i=1

(MTn

tni−MTn

tni−1

)2

Page 122: Processus stochastique

102 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

(meme avec convergence dans L2). On conclut en observant que, pour tout t > 0, on aP(t ≤ Tn) → 1, quand n → +∞, ce qui affaiblit la convergence L2 en une convergence enprobabilite : soit ε > 0, posons

An(ε) =

∣∣∣∣∣〈M,M〉t −pn∑i=1

(Mtni−Mtni−1

)2

∣∣∣∣∣ ≥ ε

alors P(An(ε)) = P(An(ε), t ≤ Tn)+P(An(ε), Tn < t) avec P(An(ε), Tn < t) ≤ P(Tn < t)→0 et

An(ε) ∩ t ≤ Tn =

∣∣∣∣∣〈M,M〉t∧Tn −pn∑i=1

(MTntni−MTn

tni−1)2

∣∣∣∣∣ ≥ ε

∩ t ≤ Tn.

Il vient

limn→+∞

P(An(ε)) ≤ limn→+∞

P(Tn < t)+ limn→+∞

P

(∣∣∣∣∣〈M,M〉t∧Tn −pn∑i=1

(MTntni−MTn

tni−1)2

∣∣∣∣∣ ≥ ε

)= 0

ie. P- limn→+∞∑pn

i=1(Mtni−Mtni−1

)2 = 〈M,M〉t.

Proposition 6.13 (Crochet et arret) Si T est un temps d’arret, alors on a

〈MT ,MT 〉t = 〈M,M〉Tt .

Demonstration : Cela vient de ce que

(MTt )2 − 〈M,M〉Tt = M2

t∧T − 〈M,M〉t∧T = (M2 − 〈M,M〉)Tt

est une martingale locale comme martingale locale arretee. Par consequent le crochet arrete〈M,M〉T verifie la propriete/definition de 〈MT ,MT 〉. Par unicite du crochet, on doit avoir〈MT ,MT 〉 = 〈M,M〉T .

Le theoreme suivant montre comment les proprietes d’une martingale locale M sont liees acelles de sa variation quadratique 〈M,M〉. Ainsi, les intervalles sur lesquels M est constantesont exactement ceux sur lesquels 〈M,M〉 est constant. Si A est un processus croissant, onnote A∞ la limite croissante de At quand t→ +∞.

Theoreme 6.3 Soit M une martingale locale (continue) avec M0 = 0.

1. Si M est une (vraie) martingale bornee dans L2, alors E[〈M,M〉∞

]< +∞, et M2

t −〈M,M〉t est une martingale uniformement integrable.

2. Reciproquement, si E[〈M,M〉∞

]< +∞, alors M est une (vraie) martingale bornee

dans L2 (donc uniformement integrable).

3. Il y a equivalence entre :

Page 123: Processus stochastique

6.3. Variation quadratique d’une martingale locale 103

(a) M est une (vraie) martingale de carre integrable (ie. E[M2

t

]< +∞ pour tout

t ≥ 0).

(b) E[〈M,M〉t

]< +∞ pour tout t ≥ 0.

De plus si ces conditions sont satisfaites, M2t − 〈M,M〉t est une martingale.

Remarque 6.7 Dans la partie 1) de l’enonce, il est essentiel de supposer que M est unemartingale, et pas seulement une martingale locale car on utilise l’inegalite de Doob et ellen’est pas valable pour une martingale locale.

Demonstration : 1) Si M est une martingale (continue) bornee dans L2, l’inegalite deDoob avec p = q = 2 donne

E[

supt≥0

M2t

]≤ 4 sup

t≥0E[M2

t

]< +∞.

En particulier, M est une martingale uniformement integrable qui converge (ps et, parconvergence dominee, dans L2) vers une limite M∞ ∈ L2 quand t→ +∞. Pour tout entiern ≥ 1, on pose

Sn = inf(t ≥ 0 : 〈M,M〉t ≥ n

).

Alors Sn est un temps d’arret et 〈M,M〉t∧Sn ≤ n. On en deduit que la martingale localeM2

t∧Sn− 〈M,M〉t∧Sn est dominee par la variable integrable n+ supt≥0M

2t . D’apres la Pro-

position 6.11, cette martingale locale est donc une vraie martingale. Par la propriete demartingale, comme elle est nulle en 0, on a

E[M2

t∧Sn− 〈M,M〉t∧Sn

]= E

[M2

0∧Sn− 〈M,M〉0∧Sn

]= 0,

soitE[〈M,M〉t∧Sn

]= E

[M2

t∧Sn

].

En faisant tendre t → +∞ (avec le theoreme de convergence monotone pour le terme degauche, le theoreme de convergence dominee pour celui de droite), on trouve

E[〈M,M〉Sn

]= E

[M2

Sn

].

Puis comme Sn +∞, en faisant tendre n→ +∞, on trouve de la meme facon (conver-gences monotone et dominee)

E[〈M,M〉∞

]= E

[M2∞]< +∞.

De plus comme la martingale locale M2t − 〈M,M〉t est dominee par la variable integrable

supt≥0M2t +〈M,M〉∞, c’est donc une (vraie) martingale uniformement integrable (toujours

par la Prop. 6.11)).

2) On suppose maintenant E[〈M,M〉∞

]< +∞. Avec Tn = inf

(t ≥ 0 : |Mt| ≥ n

),

MTn est bornee donc c’est une vraie martingale bornee. De plus, la martingale localeM2

t∧Tn − 〈M,M〉Tnt est aussi une vraie martingale uniformement integrable, car elle est

Page 124: Processus stochastique

104 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

dominee par la variable aleatoire integrable n2 + 〈M,M〉∞ (cf. encore Prop. 6.11)).Soit S un temps d’arret fini ps. D’apres le Theoreme 5.4 (theoreme d’arret), applique a lamartingale uniformement integrable M2

t∧Tn − 〈M,M〉Tnt avec S ≥ 0, on a

E[M2

S∧Tn

]= E

[〈M,M〉S∧Tn

].

Par le lemme de Fatou, on a alors (en utilisant S fini ps) :

E[M2

S

]= E

[lim inf

nM2

S∧Tn

]≤ lim inf

nE[M2

S∧Tn

]= lim inf

nE[〈M,M〉S∧Tn

]≤ E

[〈M,M〉∞

].

La famille MS : S temps d’arret fini est donc bornee dans L2 et par consequent unifor-mement integrable. En particulier avec la suite des temps d’arret bornes Tn, en passant ala limite L1 quand n→ +∞ dans l’egalite E

[Mt∧Tn|Fs

]= MTn

s (pour s ≤ t) on en deduitque M est une vraie martingale. De plus, M est bornee dans L2 car Ms, s ≥ 0 est unesous-famille de MS : S temps d’arret fini qui est bornee dans L2.

3) Soit a > 0. D’apres 1) et 2), on a E[〈M,M〉a

]< +∞ si et seulement si Ma

t est une vraiemartingale de carre integrable. L’equivalence de (a) et (b) suit alors facilement. Enfin, sices conditions sont remplies, 1) montre que M2

t∧a− 〈M,M〉t∧a est une vraie martingale, cequi prouve le 3) car a est quelconque et peut etre choisi arbitrairement grand.

Corollaire 6.1 Soit M une martingale locale continue telle que M0 = 0. Alors on a〈M,M〉t = 0 ps pour tout t ≥ 0 si et seulement si M est indistinguable de 0.

Demonstration : Supposons 〈M,M〉t = 0 ps pour tout t ≥ 0. D’apres les parties1) et 2) du theoreme ci-dessus, M2

t est une martingale uniformement integrable, d’ouE[M2

t ] = E[M20 ] = 0. Le processus nul est une modification de M . Commes les deux

sont a trajectoires continues, ils sont indistingables.

Crochet de deux martingales locales

Si M et N sont deux martingales locales, on definit leur crochet par polarisation en posant :

〈M,N〉t =1

2

(〈M +N,M +N〉t − 〈M,M〉t − 〈N,N〉t

).

Proposition 6.14

1. 〈M,N〉 est l’unique (a indistinguabilite pres) processus a variation finie tel que MtNt−〈M,N〉t soit une martingale locale.

2. Si 0 = tn0 < tn1 < · · · < tnpn = t est une suite de subdivisions emboitees de [0, t] de pastendant vers 0, on a, au sens de la convergence en probabilite,

P- limn→+∞

pn∑i=1

(Mtni−Mtni−1

)(Ntni−Ntni−1

) = 〈M,N〉t.

Page 125: Processus stochastique

6.3. Variation quadratique d’une martingale locale 105

3. L’application (M,N) 7→ 〈M,N〉 est bilineaire symetrique.

4. (arret) Pour tout temps d’arret T ,

〈MT , NT 〉t = 〈MT , N〉t = 〈M,N〉t∧T . (6.6)

Demonstration : 1) decoule de la caracterisation analogue dans le Theoreme 6.2 avec lapolarisation du produit reel (et l’unicite decoule du Theoreme 6.1).2) est de meme une consequence de l’affirmation analogue dans le Theoreme 6.2 par pola-risation.3) decoule, par exemple, de l’expression 2).Enfin, on peut voir 4) comme une consequence de la propriete 2), en observant que cettepropriete entraıne ps

〈MT , NT 〉t = 〈MT , N〉t = 〈M,N〉t sur T ≥ t,〈MT , NT 〉t − 〈MT , NT 〉s = 〈MT , N〉t − 〈MT , N〉s = 0 sur T ≤ s < t.

Proposition 6.15 Soient M1, M2 deux martingales locales issues de 0. On a M1 = M2

ssi pour toute martingale locale N , on a 〈M1, N〉 = 〈M2, N〉.

Demonstration : Il suffit de choisir N = M1 −M2 pour avoir 〈M1 −M2,M1 −M2〉 = 0,c’est a dire M1 −M2 est constante donc nulle.

Le resultat suivant est une sorte de generalisation de l’inegalite de Cauchy-Schwarz auxintegrales par rapport a un crochet de martingales locales.

Proposition 6.16 (Inegalite de Kunita-Watanabe) Soient M et N deux martingaleslocales et H et K deux processus progressivement mesurables. Alors pour tout t ≥ 0 :∫ t

0

|Hs| |Ks| |d〈M,N〉s| ≤(∫ t

0

H2s d〈M,M〉s

)1/2(∫ t

0

K2s d〈N,N〉s

)1/2

. (6.7)

Consequence : Avec H = K = 1, on a |〈M,N〉|2 ≤ 〈M,M〉〈N,N〉.Demonstration : Par le theoreme de convergence monotone, il suffit de voir le resultatpour H,K processus mesurables bornes. Quitte a remplacer K par gKsgn(HK), ou g =d(〈M,N〉)/d|〈M,N〉| est la densite de Radon-Nikodym a valeurs dans −1,+1, on peutremplacer

∫ +∞0|Hs| |Ks| |d〈M,N〉s| a gauche dans (6.7) par

∣∣ ∫ +∞0

Hs Ks d〈M,N〉s∣∣.

Notons 〈M,N〉s,t = 〈M,N〉t − 〈M,N〉s. On commence par remarquer que ps pour touss < t rationnels (donc aussi par continuite pour tous s < t) on a

|〈M,N〉s,t| ≤√〈M,M〉s,t

√〈N,N〉s,t. (6.8)

Page 126: Processus stochastique

106 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

En effet, cela decoule des approximations en probabilite de 〈M,M〉 et 〈M,N〉 donneesrespectivement dans le Theoreme 6.2 et la Proposition 6.14, ainsi que de l’inegalite deCauchy-Schwarz (classique pour les sommes) :(

pn∑i=1

(Mtni−Mtni−1

)(Ntni−Ntni−1

)

)2

≤pn∑i=1

(Mtni−Mtni−1

)2

pn∑i=1

(Ntni−Ntni−1

)2

ou (tni )i=1,...,n est une partition de [t, s]. A la limite n→ +∞, on obtient bien (6.8).

Dans la suite on fixe un ω ∈ Ω pour lequel (6.8) est vraie pour tout s < t et on raisonnepour ce ω presque sur. L’interpretation de

∫ ts|d〈M,N〉u| comme variation finie par la

Proposition 6.3 donne aussi∫ t

s

|d〈M,N〉u| ≤√〈M,M〉s,t

√〈N,N〉s,t. (6.9)

En effet, pour une subdivision s = t0 < t1 < · · · < tp = t, on a

p∑i=1

|〈M,N〉ti−1,ti | ≤p∑i=1

√〈M,M〉ti−1,ti

√〈N,N〉ti−1,ti

(p∑i=1

〈M,M〉ti−1,ti

)1/2 ( p∑i=1

〈N,N〉ti−1,ti

)1/2

≤√〈M,M〉s,t

√〈N,N〉s,t.

Soient maintenant H,K des processus progressifs simples. Quitte a raffiner les partitionsdefinissant H et K, on peut trouver 0 = t0 < t1 < · · · < tn < +∞ et h0, . . . , hn, k0, . . . , kntelles que hi, ki ∈ L∞(Fti), et pour lesquels

H = h010 +n−1∑i=0

hi1]ti,ti+1], K = k010 +n−1∑i=0

ki1]ti,ti+1].

On a alors∣∣∣∣∫ t

0

HsKs d〈M,N〉s∣∣∣∣ =

∣∣∣∣∣n−1∑i=0

hiki

∫ ti+1

ti

d〈M,N〉s

∣∣∣∣∣ ≤n−1∑i=0

|hi| |ki|∣∣∣∣∫ ti+1

ti

d〈M,N〉s∣∣∣∣

≤n−1∑i=0

|hi| |ki|(∫ ti+1

ti

d〈M,M〉s)1/2(∫ ti+1

ti

d〈N,N〉s)1/2

=n−1∑i=0

(∫ ti+1

ti

h2i d〈M,M〉s

)1/2(∫ ti+1

ti

k2i d〈N,N〉s

)1/2

(n−1∑i=0

∫ ti+1

ti

h2i d〈M,M〉s

)1/2(n−1∑i=0

∫ ti+1

ti

k2i d〈N,N〉s

)1/2

Page 127: Processus stochastique

6.4. Semimartingales continues 107

=

(∫ t

0

Hs d〈M,M〉s)1/2(∫ t

0

Ks d〈N,N〉s)1/2

.

Quand H et K sont des processus progressifs bornes, on peut les approximer par deuxsuites de processus simples (Hn)n≥1 et (Kn)n≥1 qui convergent vers H et K en restantbornees. On conclut alors par le theoreme de convergence dominee.

6.4 Semimartingales continues

Les semimartingales forment la classe la plus generale de processus consideres pour construireune integrale stochastique.

Definition 6.6 (Semimartingale) Un processus X = (Xt)t≥0 est une semimartingalecontinue s’il s’ecrit sous la forme Xt = X0 +Mt+At ou M est une martingale locale (issuede 0) et A est un processus a variation finie.

Toujours grace au Theoreme 6.1, la decomposition ci-dessus est unique a indistinguabilitepres. Si Yt = Y0 +M ′

t + A′t est une autre semimartingale continue, on pose par definition

〈X, Y 〉t := 〈M,M ′〉t.

En particulier, 〈X,X〉t = 〈M,M〉t.

Proposition 6.17 Soient X, Y deux semimartingales et 0 = tn0 < tn1 < · · · < tnpn = tune suite de subdivisions emboitees de [0, t] de pas tendant vers 0. Alors, au sens de laconvergence en probabilite :

P- limn→+∞

pn∑i=1

(Xtni−Xtni−1

)(Ytni − Ytni−1

)= 〈X, Y 〉t.

Remarque 6.8 En particulier, si X ou Y est a variation bornee, alors 〈X, Y 〉 ≡ 0. Eneffet, si par exemple X est a variation bornee, on a∣∣∣∣∣

pn∑i=1

(Xtni−Xtni−1

)(Ytni − Ytni−1)

∣∣∣∣∣ ≤pn∑i=1

|Xtni−Xtni−1

| supi=1,...,pn

|Ytni − Ytni−1|

≤(

supi=1,...,pn

|Ytni − Ytni−1|)∫ t

0

|dXs| → 0

car∫ t

0|dXs| est bornee (processus a variation bornee) et supi=1,...,pn |Ytni − Ytni−1

| → 0 parcontinuite des trajectoires de Y .

Page 128: Processus stochastique

108 Chapitre 6. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration : Pour simplifier, on suppose X = Y . Le cas general s’obtient ensuitefacilement par polarisation. Alors,

pn∑i=1

(Xtni−Xtni−1

)2=

pn∑i=1

(Mtni−Mtni−1

)2+

pn∑i=1

(Atni − Atni−1

)2

+2

pn∑i=1

(Mtni−Mtni−1

)(Atni − Atni−1

).

Le Theoreme 6.2 donne deja pour la martingale locale M :

limn→+∞

pn∑i=1

(Mtni−Mtni−1

)2= 〈M,M〉t = 〈X,X〉t.

Puis comme A est a variation finie (et M est continue), la Remarque 6.8 s’applique pourdonner

limn→+∞

pn∑i=1

(Mtni−Mtni−1

)(Atni − Atni−1

)= 〈M,A〉t = 0,

limn→+∞

pn∑i=1

(Atni − Atni−1

)2= 〈A,A〉t = 0.

Les principaux resultats d’integration contre un crochet de martingales locales restent vraiscontre un crochet de semimartingales, en particulier :

Proposition 6.18 (Inegalite de Kunita-Watanabe) Soient X, Y deux semimartingaleset H,K deux processus localement bornes (pour tout t, sups≤t |Hs| < +∞, idem pour K).Alors ps pour t ≥ 0 :∫ +∞

0

|Hs| |Ks| |d〈X, Y 〉s| ≤(∫ +∞

0

H2s d〈X,X〉s

)1/2(∫ +∞

0

K2s d〈Y, Y 〉s

)1/2

.

Page 129: Processus stochastique

Troisieme partie

Integration stochastique

109

Page 130: Processus stochastique
Page 131: Processus stochastique

Chapitre 7

Integrale d’Ito

On introduit dans ce chapitre le calcul stochastique d’Ito. Il s’agit d’un calcul differentieltrajectoriel (c’est a dire sur les trajectoires des processus) et pas en loi. Dans ce chapitre,le but est de definir des integrales par rapport a une trajectoire du mouvement brownienB = (Bt)t≥0. On generalisera encore au Chapitre 8.

7.1 Un premier pas vers la formule d’Ito

Pour commencer, rappelons la regle de derivation des composees lorsque F et g sontdes fonctions de R dans R de classe C1 (derivable suffit) :

(F g)′(t) = F ′(g(t)

)g′(t)

dont en deduit immediatement

F(g(t)

)= F

(g(0)

)+

∫ t

0

F ′(g(s)

)g′(s)ds. (7.1)

En fait, en utilisant l’integrale de Stieltjes, (7.1) est encore valable lorsque g est seulementa variation finie et se reecrit :

F(g(t)

)= F

(g(0)

)+

∫ t

0

F ′(g(s)

)dg(s). (7.2)

Malheureusement, la formule (7.2) n’est pas valable pour g(t) = Bt puisque la trajectoirebrownienne t 7→ Bt n’est ps pas a variation finie (voir Prop. 4.8).

Cependant le calcul d’Ito va permettre de donner un sens a une integrale par rapport a Bet on va donner un sens a (7.2) lorsque f est C2 en rajoutant un terme (du au fait que Best a variation quadratique finie, cf. Prop. 4.7), voir la formule d’Ito (Th. 9.1).

Cas jouet de la fonction F (x) = x2. Lorsque F (x) = x2, une version Ito de (7.2) estdonnee par la formule suivante :

111

Page 132: Processus stochastique

112 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

Proposition 7.1 Soit B un mouvement brownien standard. On a ps, pour tout t :

B2t = 2

∫ t

0

BsdBs + t

ou on a pose par definition l’integrale stochastique∫ t

0BsdBs comme la limite ps de

∑nj=1Btni−1

(Btni−

Btni−1). La convergence a lieu aussi dans L2.

Ce resultat est a comparer avec les analogues (7.1) pour une fronctin g de classe C1 ou(7.2) pour une fonction g a variation finie (nulle en 0) :

g(t)2 = 2

∫ t

0

g(s)g′(s)ds = 2

∫ t

0

g(s)dg(s).

Dans ces cas, il n’y a pas de terme d’ordre 2 car la variation quadratique de g ∈ C1 ou avariation finie est nulle.

Demonstration : On considere la partition tni ; i = 0, . . . , n de [0, t] (uniforme avectni = it/n pour avoir la convergence uniforme ps, cf. Prop. 4.7). Par une transformationd’Abel, on a :

B2t =

n∑j=1

(B2tni−B2

tni−1

)= 2

n∑j=1

Btni−1(Btni

−Btni−1) +

n∑j=1

(Btni−Btni−1

)2.

Le deuxieme terme converge (ps et dans L2) vers la variation quadratique de B sur [0, t],soit t.Par suite, le premier terme converge ps et dans L2. Sa limite est par definition l’integralestochastique

∫ t0BsdBs.

Remarque 7.1 (Lien avec l’equation de la Chaleur) A partir de l’equation de la cha-leur (Section 4.7), on a vu que pour toute fonction reguliere f , on a l’egalite suivante enmoyenne :

E[f(t, x+Bt)] = f(0, x) +

∫ t

0

E[

1

2f ′′xx(s, x+Bs) + f ′t(s, x+Bs)

]ds.

Comme dans le cas des fonctions a variations finies, nous pouvons obtenir une representa-tion verifiee trajectoriellement, pour presque toute les realisations possibles des trajectoires.Nous nous interessons donc a la description de la fonction aleatoire continue

T (f) = f(t, x+Bt)− f(0, x)−∫ t

0

1

2f ′′xx(s, x+Bs) + f ′t(s, x+Bs)ds.

Page 133: Processus stochastique

7.1. Un premier pas vers la formule d’Ito 113

Lorsque f est une fonction lineaire par rapport a x, nous avons deja vu que cette differences’interprete comme un objet qu’on a defini comme etant une integrale stochastique. Dans lecas general, que nous considerons maintenant, cette difference s’interprete comme l’integralestochastique d’un processus lui meme stochastique.

Le calcul differentiel s’etend a d’autres fonctions que la fonction f(x) = x2 pour laquelle laProp. 7.1 donne une formule d’Ito (noter bien qu’avec f(x) = x2, f(Bt) = B2

t ). Ce calculest necessaire pour representer trajectoriellement les variations infinitesimales de f(x+Bt).Mais a la formule classique du cas deterministe, il faut ajouter un terme supplementaire,du au fait que la variation quadratique limite n’est pas nulle.

Theoreme 7.1 (Formule d’Ito) Soit f ∈ C2b (R) une fonction bornee a derivees pre-

mieres et secondes continues et bornees. Alors ps pour tout t ∈ R+, on a

f(x+Bt) = f(x) +

∫ t

0

f ′(x+Bs) dBs +1

2

∫ t

0

f ′′(x+Bs) ds.

Le terme∫ t

0f ′(x + Bs)dBs s’appelle l’integrale stochastique de f ′(x + Bs) par rapport au

mouvement brownien B. C’est un processus stochastique a trajectoires continues. Il estdefini comme la limite dans L2 des sommes de type sommes de Riemann

Sτ (f,W ) =

pn∑i=1

f ′(x+Btni−1)(Btni

−Btni−1)

lorsque le pas de la subdivision τn = 0 = tn0 < · · · < tnpn = t tend vers 0.

Demonstration :a) On considere un temps t > 0 fixe et une partition τn = tnk : 0 ≤ k ≤ pn de [0, t].D’apres la formule de Taylor-Lagrange a l’ordre 2, on peut ecrire

f(x+Bt) = f(x) +

pn∑i=1

f ′(x+Btni−1)(Btni

−Btni−1) +

1

2

pn∑i=1

f ′′(ζni )(Btni−Btni−1

)2 (7.3)

ou ζni ∈]x+Btni, x+Btni−1

[ est un point aleatoire de l’intervalle aleatoire ]x+Btni, x+Btni−1

[.

On etudie d’abord la limite du 3eme terme∣∣∣∣∣pn∑i=1

f ′′(ζni )(Btni−Btni−1

)2 −n∑i=1

f ′′(x+Btni−1)(Btni

−Btni−1)2

∣∣∣∣∣=

∣∣∣∣∣pn∑i=1

(f ′′(ζni )− f ′′(x+Btni−1))(Btni

−Btni−1)2

∣∣∣∣∣

Page 134: Processus stochastique

114 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

≤ sup1≤i≤pn

|f ′′(ζni )− f ′′(x+Btni−1)|

pn∑i=1

(Btni−Btni−1

)2.

Mais par uniforme continuite de f ′′

limn→+∞

sup1≤i≤pn

|f ′′(ζni )− f ′′(x+Btni−1)| = 0

et comme la variation quadratique de B (converge vers t), cette majoration tend vers 0 ps.La convergence a lieu aussi dans L2 car la variation quadratique converge aussi dans L2

donc est bornee et le theoreme de convergence dominee s’applique.

b) D’apres a), on se ramene a etudier

An =

pn∑i=1

f ′′(x+Btni−1)(Btni

−Btni−1)2.

Pour cela, on compare An a

An =

pn∑i=1

f ′′(x+Btni−1)(tni − tni−1).

Notons M = sups∈[0,t] |f ′′(s)| la borne de la derivee de f . Noter que

An = An−1 + f ′′(x+Btnpn−1)(Btnpn

−Btnpn−1)2

An = An−1 + f ′′(x+Btnpn−1)(tnpn − t

npn−1)

An − An = An−1 − An−1 + f ′′(x+Btnpn−1)((Btnpn

−Btnpn−1)2 − (tnpn − t

npn−1)

).

Noter que (Btnpn− Btnpn−1

)2 − (tnpn − tnpn−1) est une variable aleatoire centree, de variance

2(tnpn − tnpn−1)2. De plus, par independance des accroissements de B, elle est independante

de f ′′(x+Btnpn−1) et de (An−1 − An−1). On a alors

E[(An − An)2

]= E

[(An−1 − An−1)2

]+ E

[f ′′xx(x+Btnpn−1

)2((Btnpn

−Btnpn−1)2 − (tnpn − t

nn−1)

)2]

+ 2E[f ′′(x+Btnpn−1

)[(Btnpn−Btnpn−1

)2 − (tnpn − tnpn−1)](An−1 − An−1)

]≤ E[(An−1 − An−1)2] + 2M2(tnpn − t

npn−1)2

ou l’esperance du double produit est nulle par independance des variables aleatoires etcentrage de (Btnpn

−Btnpn−1)2 − (tnpn − t

npn−1).

Par recurrence sur n, il vient

E[(An − An)2

]≤ 2M2

pn∑i=1

(tni − tni−1)2 ≤ 2M2δn

pn∑i=1

(tni − tni−1) = 2M2tδn → 0

Page 135: Processus stochastique

7.2. Integrales d’Ito 115

qui converge vers 0.

c) La convergence de An vers∫ t

0f ′′(x+Bs)ds est une simple consequence de la convergence

des sommes de Riemann-Darboux vers l’integrale de Riemann classique. Cette convergenceest ps d’apres les proprietes de l’integrale de Riemann.

Finalement, le 3eme terme de (7.3) converge vers∫ t

0f ′′(x+Bs)ds.

d) Pour montrer que la convergence a lieu aussi dans L2, il suffit de noter que les sommes

partielles An et∫ t

0f ′′(x+Bs)ds sont majorees en valeurs absolues par Mt pour appliquer

le theoreme de convergence dominee et conclure a la convergence dans L2.

e) Comme le 3eme terme de (7.3) converge ps et dans L2, le 2eme terme converge aussi.On note

∫ t0f ′(x+Bs)dBs ce terme. Il s’agit d’une integrale stochastique.

Remarque. Cette formule s’etend sans probleme (autre que technique) a des fonctionsf(t, x) dependant du temps de facon reguliere. La formule d’Ito devient

f(t, x+Bt) = f(0, x)+

∫ t

0

f ′x(s, x+Bs)dBs+

∫ t

0

f ′t(s, x+Bs)ds+1

2

∫ t

0

f ′′xx(s, x+Bs)ds. (7.4)

Remarque 7.2 Les fonctions u(t, x, f) = E[f(x + Bt)] introduites dans le Chapitre 4 enrelation avec l’equation de la chaleur jouent un role tres important.

7.2 Integrales d’Ito

Le but de cette section est d’etendre la notion d’integrale stochastique par rapport a unmouvement brownien a une classe plus generale que les fonctions deterministes f de carreintegrable vue au Chapitre 3 ou de la forme f ′x(s, x+Bs) (cf. Th. 9.1).

Processus simples

Definition 7.1 Une fonction aleatoire adaptee ϕ est dite en escalier si elle est constantepar intervalles c’est a dire qu’elle s’ecrit

ϕ(t, ω) =n−1∑i=0

Xi(ω)1]ti,ti+1](t) (7.5)

ou Xi est une variable aleatoire Fti-mesurable.Si en plus pour chaque 0 ≤ i ≤ n− 1, E[X2

i ] < +∞, ϕ est dite de carre integrable.L’ensemble des fonctions aleatoires adaptees, en escalier et carre integrable est notee S.

On notera L2(Ω× R+) l’ensemble des processus stochastiques adaptes de carre integrableau sens de

E[∫

R+

ϕ2(t, ω)dt

]< +∞. (7.6)

Page 136: Processus stochastique

116 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

L’ensemble L2(Ω × R+) contient S et c’est un espace de Hilbert pour le produit scalaireassocie a la norme (7.6) :

〈φ, ϕ〉L2(Ω×R+) = E[∫

R+

φ(t, ω)ϕ(t, ω)dt

].

Comme dans le cas deterministe les fonctions en escalier jouent un role important car ellessont denses dans L2(Ω×R+). Les preuves se font donc d’abord pour les fonctions en escalierpuis par passage a la limite pour toutes les fonctions de L2(Ω×R+). Pour ϕ ∈ L2(Ω×R+),on note

Pnϕ(ω, t) = limn→+∞

pn∑i=1

ϕtni (ω)1]tni ,tni−1](t).

On a Pnϕ ∈ S et Pnϕ→ ϕ dans L2(Ω× R).

Proposition 7.2 (Densite) L’ensemble S forme un sous-ensemble dense dans l’espacehilbertien L2(Ω× R+).

Demonstration : Il suffit de montrer que si K ∈ L2(Ω × R+) est orthogonal a S alorsK = 0. Supposons donc K orthogonal a S. Soient 0 ≤ s < t et soit F une variable aleatoireFs-mesurable bornee. Avec H = F1]s,t] ∈ S, on a

E[F

∫ t

s

Ku du

]= 〈H,K〉L2(Ω×R+) = 0. (7.7)

En posant

Xt =

∫ t

0

Ku du, t ≥ 0.

l’egalite (7.7) se reecrit E[F (Xt − Xs)] = 0 pour tous s < t et toute variable aleatoireFs-mesurable F bornee, ie. X = (Xt)t≥0 est en fait une martingale car en plus Xt ∈ L1

pour tout t ≥ 0, l’integrale definissant Xt etant ps absolument convergente lorsque K ∈L2(Ω× R+) (appliquer par exemple l’inegalite de Cauchy-Schwarz).

D’autre part, X etant une integrale contre un processus croissant est aussi un processus avariation finie avec X0 = 0, le Theoreme 6.1 exige alors d’avoir X = 0, ie.∫ t

0

Ku du = 0 ∀t ≥ 0 ps.

Comme 0 =∫ t

0Ku du =

∫RKu1[0,t](u) du, on en deduit que la mesure Kudu coıncide avec

avec la mesure nulle sur les intervalles [0, t]. Par un argument de classe monotone, les deuxmesures sont egales et donc K = 0, ce qui etablit la densite de S dans L2(Ω× R+).

Page 137: Processus stochastique

7.2. Integrales d’Ito 117

Integrale d’Ito

Etant donnee une filtration F = (Ft)t≥0, on considere un F -mouvement brownien B. Enparticulier, B est adapte a la filtration : pour chaque t, Bt est Ft-mesurable. Le mouvementbrownien est independant de la tribu initiale F0. Plus generalement, si la filtration F estengendree par un mouvement brownien et un autre processus independant, le mouvementbrownien reste un mouvement brownien pour cette grosse filtration.Nous commencons par introduire l’integrale de processus en escalier ϕ ∈ S, definie par∫

ϕ(t)dBt :=n∑i=1

Xi(Bti −Bti−1) (7.8)

lorsque ϕ =∑n

i=1Xi1]ti−1,ti]. La variable aleatoire ainsi definie est une combinaison lineairea coefficients aleatoires de variables aleatoires gaussiennes independantes. Elle n’est pasgaussienne a priori mais ses moments d’ordre 1 et 2 ont des proprietes remarquables.

Proposition 7.3 Soit ϕ ∈ S une fonction en escalier et de carre integrable. Alors

E[ ∫

ϕ(t)dBt

]= 0,

E[( ∫

ϕ(t)dBt

)2]= E

[ ∫ϕ(t)2dt

]. (7.9)

Demonstration : 1) La variable aleatoire Xi(Bti+1− Bti) est de carre integrable comme

produit de deux variables aleatoires de carre integrable et independantes. Elles sont d’es-perances nulles car un des termes du produit l’est. Sa variance est donc

Var(Xi(Bti+1

−Bti))

= E[(Xi(Bti+1

−Bti))2]

= E[X2i ]E[(Bti+1

−Bti

)2]

= E[X2i ](ti+1−ti).

2) On deduit de suite, par linearite, que

E[ n∑i=1

Xi(Bti+1−Bti)

]=

n∑i=1

E[Xi(Bti+1

−Bti)]

= 0.

3) Ensuite, pour calculer la variance de∑n−1

i=0 Xi(Bti+1−Bti), on a

Var( n∑i=1

Xi(Bti+1−Bti)

)=

n∑i=1

E[(Xi(Bti+1

−Bti))2]

+ 2∑

1≤i≤j≤n

E[(Xi(Bti+1

−Bti))(Xj(Btj+1

−Btj))].

Page 138: Processus stochastique

118 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

Il faut donc calculer pour i < j les doubles produits E[(Xi(Bti+1

−Bti))(Xj(Btj+1−Btj))

]qui sont nuls car (Btj+1

−Btj) est independant (independance des accroissements de B) deFtj tribu par rapport a laquelle XiXj(Bti+1

−Bti) est mesurable pour i < j. Ainsi

E[(Xi(Bti+1

−Bti))(Xj(Btj+1

−Btj))]

= E[E[(Xi(Bti+1

−Bti))(Xj(Btj+1

−Btj))|Ftj

]]= E

[Xi(Bti+1

−Bti)XjE[Btj+1

−Btj |Ftj]]

= E[Xi(Bti+1

−Bti)XjE[Btj+1

−Btj

]]= 0.

Finalement, on a

E[( ∫

ϕ(t)dBt

)2]= Var

( n∑i=1

Xi(Bti+1−Bti)

)=

n∑i=1

E[(Xi(Bti+1

−Bti))2]

=n∑i=1

E[X2i ](ti+1 − ti)

=n∑i=1

∫ ti

ti−1

E[X2i ]dt =

n∑i=1

∫ ti

ti−1

E[ϕ(t)2]dt

=

∫E[ϕ(t)2]dt = E

[ ∫ϕ(t)2dt

].

On peut maintenant definir l’integrale des fonctions ϕ ∈ L2(Ω×R+). C’est la construction(a proprement parler) de l’integrale d’Ito.

Theoreme 7.2 (Integrale d’Ito)

1. Soit B un mouvement brownien reel par rapport a une filtration (Ft)t∈R+. A toutprocessus adapte ϕ ∈ L2(Ω×R+), on associe de maniere unique une variable aleatoireintegrable notee

∫ϕ(t)dBt telle que

E[ ∫

ϕ(t)dBt

]= 0,

E[( ∫

ϕ(t)dBt

)2]= E

[ ∫ϕ(t)2dt

]. (7.10)

Pour les processus aleatoires en escalier∑n

i=1 Xi1]ti−1,ti], on retrouve∫ϕ(t)dBt =

n−1∑i=0

Xi(Bti+1−Bti).

Page 139: Processus stochastique

7.2. Integrales d’Ito 119

2. Soit B = (B1, . . . , Bd) un mouvement brownien standard dans Rd par rapport a unefiltration (Ft)t≥0. A tout processus aleatoire vectoriel adapte ϕ = (ϕ(1), . . . , ϕ(d)) avecϕ(i) ∈ L2(Ω × R+), on associe de maniere unique une variable aleatoire integrablenotee

∫ϕ(t)dBt =

∑di=1

∫ϕi(t)dB

it telle que

E[ ∫

ϕ(t)dBt

]= 0, E

[( ∫ϕ(t)dBt

)2]= E

[ ∫‖ϕ(t)‖2dt

].

Remarque 7.3 Noter que cette construction generalise celle de la Section 3.3 au Cha-pitre 3 par rapport a un bruit blanc (BB). Desormais, on sait integrer des fonctions alea-toires ϕ ∈ L2(Ω×R+) plutot que seulement des fonctions f ∈ L2(R+) (deterministes). Onfera encore mieux au Chapitre ?? en integrant contre une semi-martingale.

Demonstration : 1) Par la Prop. 7.2, il existe ϕn ∈ S qui converge vers ϕ dans L2(Ω×R+).Par l’isometrie (7.9) du cas en escalier, on a :

E[( ∫

ϕn(t)dBt −∫ϕm(t)dBt

)2]= E

[( ∫(ϕn(t)− ϕm(t))dBt

)2]= E

[ ∫ (ϕn(t)− ϕm(t)

)2dt]−→ 0, n,m→ +∞

car ϕn converge vers ϕ dans L2(Ω× R+). Ainsi,∫ϕn(t)dBt est une suite de Cauchy dans

L2(Ω). Sa limite existe donc et on la note par definition∫ϕ(t)dBt.

La convergence dans L2(Ω) entraıne aussi la convergence des esperances donc∫ϕ(t)dBt

est centree :

E[ ∫

ϕ(t)dBt

]= lim

n→+∞E[ ∫

ϕn(t)dBt

]= 0.

La convergence dans L2(Ω) entraıne egalement la convergence des moments d’ordre 2 donc

limn→+∞

E[( ∫

ϕn(t)dBt

)2]= E

[( ∫ϕ(t)dBt)

)2].

Mais

E[( ∫

ϕn(t)dBt

)2]= E

[ ∫ϕn(t)2dt

]→ E

[ ∫ϕ(t)2dt

].

Il suit

E[( ∫

ϕ(t)dBt

)2]= E

[ ∫ϕ(t)2dt

].

Pour conclure, il reste a noter que la variable aleatoire∫ϕ(t)dBt ne depend pas du procede

de construction utilise mais seulement de ϕ. Pour cela, on procede comme d’habitude siϕn → ϕ et ϕn → ϕ menent aux limites X et X, alors on forme la suite ϕn avec ϕ2n = ϕnet ϕ2n+1 = ϕn. D’apres le raisonnement precedent, il y a une limite X associee a la suite

Page 140: Processus stochastique

120 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

(ϕn)n≥1. Mais en considerant la suite des indices pairs (ϕ2n)n≥1, on doit avoir X = X ps,

puis celle des indices impairs (ϕ2n+1)n≥0, on doit avoir X = X ps. Finalement, X = X pset il y a bien unicite (ps) de la limite.

2) L’extension au cas vectoriel est immediate, compte tenu de l’independance des accrois-sements des differentes composantes pour les processus aleatoires simples.On note que pour des B, B des mouvements browniens independants et des fonctions ϕ etφ adaptees :

E[( ∫

ϕ(t)dBt

) (∫φ(t)dBt

)]= 0. (7.11)

En effet, d’abord dans le cas simple, on a (quitte a raffiner les subdivisions on peut supposerque les deux integrales simples s’expriment sur la meme) :

E[( n∑

i=1

Xti(Bti −Bti−1)) ( n∑

j=1

Ytj(Btj − Btj−1))]

=n∑

i,j=1

E[Xti(Bti −Bti−1

)Ytj(Btj − Btj−1)]

=n∑i=1

E[(Xti(Bti −Bti−1

)) (

Yti(Bti − Bti−1))]

+2∑i<j

E[(Xti(Bti −Bti−1

)) (

Ytj(Btj − Btj−1))].

La premiere somme est nulle car Xti , Yti sont Fti−1-mesurables donc independants de (Bti−

Bti−1)(Bti − Bti−1

)

E[Xti(Bti −Bti−1

)Yti(Bti − Bti−1)]

= E[XtiYti

]E[(Bti −Bti−1

)(Bti − Bti−1)]

= E[XtiYti

]E[(Bti −Bti−1

)]E[(Bti − Bti−1

)]

= 0.

Puis la deuxieme est nulle car

E[(Xti(Bti −Bti−1

)) (

Ytj(Btj − Btj−1))]

= E[E[(Xti(Bti −Bti−1

)) (

Ytj(Btj − Btj−1))|Ftj

]]= E

[XtiYtj(Bti −Bti−1

))E[Btj − Btj−1

|Ftj]]

= E[XtiYtj(Bti −Bti−1

)E[Btj − Btj−1

]]= 0

Page 141: Processus stochastique

7.3. Proprietes de l’integrale d’Ito 121

car E[Btj − Btj−1

]= 0. On a donc (7.11) dans le cas simple. La convergence dans L2

d’integrales simples vers∫ϕ(t)dBt et

∫φ(t)dBt assure ensuite (7.11) en general.

Ainsi (pour d = 2) :

E[( ∫

ϕ1dB(1)t +

∫ϕ2dB

(2)t

)2]= E

[( ∫ϕ1dB

(1)t

)2

+(∫

ϕ2dB(2)t

)2

+ 2(∫

ϕ1dB(1)t

)(∫ϕ2dB

(2)t

)]= E

[( ∫ϕ1dB

(1)t

)2]+ E

(∫ϕ2dB

(2)t

)2]+ 2E

[( ∫ϕ1dB

(1)t

)(∫ϕ2dB

(2)t

)]= E

[ ∫ϕ2

1dt]

+ E[ ∫

ϕ22dt]

+ 0

= E[ ∫‖ϕ‖2dt

].

7.3 Proprietes de l’integrale d’Ito

D’abord notons que comme dans le cas deterministe ou on associe une fonction (laprimitive) a l’objet integrale, on peut associer un processus a l’integrale stochastique d’unefonction ϕ. Il suffit de considerer l’integrale de ϕt = ϕ× 1[0,t] et donc l’integrale

Bt(ϕ) := B(ϕt) =

∫ t

0

ϕ(s)dBs.

On cherche maintenant quelles sont les proprietes du processus( ∫ t

0ϕ(s)dBs

)t≥0

. L’idee

systematique est de voir ces proprietes dans le cas de fonction ϕ en escalier (7.5) et depasser a la limite en se servant de l’isometrie L2 donnee par (7.10).

Proposition 7.4 Soit ϕ ∈ L2(Ω × [0, T ]) alors( ∫ t

0ϕ(s)dBs; t ∈ [0, T ]

)est un processus

a trajectoires continues, adapte et tel que pour toute fonction hA(s) = 1A1]u,v](s) avecA ∈ Fu, on a ∫ t

0

1A1]u,v](s)ϕ(s)dBs = 1A

∫ t∧v

t∧uϕ(s)dBs. (7.12)

Demonstration : 1) Si ϕ =∑n−1

i=0 Xi1]ti,ti+1] ∈ S est simple de carre integrable alors∫ t

0

1A1]u,v](s)ϕ(s)dBs =n−1∑i=0

∫ t

0

(1AXi)1]u,v](s)1]ti,ti+1](s)dBs

=n−1∑i=0

∫ t

0

(1AXi)1]u∨ti,v∧ti+1](s)dBs

Page 142: Processus stochastique

122 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

=n−1∑i=0

1AXi

(B(t ∧ (v ∧ ti+1)

)−B

(t ∧ (u ∨ ti)

))car si t ≤ u∧ti tout est nul et comme A ∈ Fu, on a 1AXi variable aleatoire Fu∨ti-mesurableet la definition (7.8) s’applique. On a alors∫ t

0

1A1]u,v](s)ϕ(s)dBs = 1A

n−1∑i=0

Xi

(B((t ∧ v) ∧ ti+1)

)−B

((t ∧ u) ∨ ti)

))= 1A

∫ t∧v

t∧u

n−1∑i=0

Xi1]ti,ti+1](s)dBs = 1A

∫ t∧v

t∧uϕ(s)dBs.

2) Si ϕ ∈ L2(Ω×R+) alors on applique ce qui precede a ϕn ∈ S qui converge vers ϕ dansL2(Ω× R+), comme

limn→+∞

‖ϕn − ϕ‖L2(Ω×R+) = 0

on a aussilim

n→+∞

∥∥1A1]u,v](s)ϕn − 1A1]u,v](s)ϕ∥∥L2(Ω×R+)

= 0

et donc par l’isometrie d’Ito (7.10), dans L2,∫ t

0

1A1]u,v](s)ϕn(s)dBs →∫ t

0

1A1]u,v](s)ϕ(s)dBs et

∫ t∧v

t∧uϕ(s)dBs →

∫ t∧v

t∧uϕ(s)dBs.

On a donc (7.12) en passant a la limite dans (7.12) pour ϕn ∈ S.

3) De plus, dans le cas simple, il est clair que∫ t

0ϕ(s)dBs est adapte et cela se conserve a

la limite. Puis si ϕ ∈ L2(Ω× R+) alors

limh→0

1[t,t+h]ϕ = 0

et par l’isometrie (7.10)

L2 − limh→0

∫ t+h

0

ϕ(s)dBs =

∫ t

0

ϕ(s)dBs.

Puis comme

E[( ∫ t+h

0

ϕ(s)dBs

)2]= E

[ ∫ t+h

0

ϕ(s)2ds]≤ ‖ϕ‖L2(Ω×R+) < +∞

alors∫ t+h

0ϕ(s)dBs est UI et il y a aussi convergence en probabilite :

P− limh→0

∫ t+h

0

ϕ(s)dBs =

∫ t

0

ϕ(s)dBs,

d’ou la continuite en probabilite des trajectoires.4) Pour la continuite presque sure, on commence par prouver uneinegalite maximale.

Page 143: Processus stochastique

7.3. Proprietes de l’integrale d’Ito 123

Proposition 7.5 (Proprietes maximales) Soit ϕ ∈ L2(Ω× R+). On a

E[(

sup0≤u≤t

∫ u

0

ϕ(s)dBs

)2]≤ 4E

[( ∫ t

0

ϕ(s)dBs

)2]= 4E

[( ∫ t

0

ϕ(s)2ds)2]

. (7.13)

Demonstration : Notons St = sups≤tBs(ϕ) et St = sups≤t(−Bs(ϕ)).

On commence par considerer ϕ ∈ S. Les processus S et S sont continus adaptes et positifs.On a B0(ϕ) = 0 et S0 = 0. De plus, S ne croıt que sur l’ensemble ou St = Bt(ϕ). Ainsipour tout ω ∈ Ω

St(ω)2 = 2

∫ t

0

Su(ω) dSu(ω) = 2

∫ t

0

Bu(ϕ)(ω) dSu(ω).

En utilisant l’approximation de Riemann de ces integrales de Stieltjes, on a pour unesubdivision 0 ≤ tn1 ≤ · · · ≤ tpnn = t de [0, t] :

St(ω)2 = 2 limn→+∞

pn∑i=1

Btni(ϕ)(ω)

(Stni+1

(ω)− Stni (ω))

= 2Bt(ϕ)(ω)St(ω)− 2 limn→+∞

n∑i=1

Sti(ω)(Btni+1

(ϕ)(ω)−Btni(ϕ)(ω)

)et la somme est majoree par 2

(St(ω) + St(ω)

)St(ω).

a) Si S2t et S2

t sont integrables alors le theoreme de convergence dominee assure la conver-gence en esperance. Mais

E[Sti(ω)

(Btni+1

(ϕ)(ω)−Btni(ϕ)(ω)

)]= E

[B(ϕStni 1]tni ,t

ni+1])

]= 0.

On a alors

E[S2t

]= 2E

[Bt(ϕ)St

]et l’inegalite de Cauchy-Schwarz conduit a

E[S2t

]≤ 2√E[Bt(ϕ)2

]√E[S2t

]ce qui donne (7.13) apres simplification.

b) Si S2t et S2

t ne sont pas integrables on peut faire le meme calcul avec les processus

St ∧K et St ∧K de sorte que les sommes precedentes sont majorees par K et a la fin onfait K +∞.

On acheve la preuve dans un instant apres avoir montrer la continuite.

Page 144: Processus stochastique

124 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration :[Continuite dans la Prop. 7.4] Soit ϕn ∈ S qui converge vers ϕ dansL2(Ω× R+). On a par l’isometrie d’Ito (7.10) :

limn,m→+∞

E[Bt(ϕ

n − ϕm)2]

= 0

et par (7.13) (dans le cas prouve : pour ϕn, ϕm ∈ S) :

limn,m→+∞

E[

sups≤t|Bs(ϕ

n − ϕm)|2]

= 0.

Ainsi, on peut extraire une sous-suite nk telle que∑k≥1

sups≤t|Bs(ϕ

nk − ϕnk)|2

et on en deduit la convergence uniforme de B(ϕnk) sur [0, t] vers une limite B(ϕ) qui estdonc continue.

Demonstration : [fin de la preuve de la Prop. 7.5] Pour terminer la preuve, on reap-plique le raisonnement precedent pour obtenir maintenant (7.13) pour les integrales deϕ ∈ L2(Ω× R+).

Propriete de martingale

La propriete de martingale valable pour le mouvement brownien B reste valable pourl’integrale d’Ito :

Theoreme 7.3 Soit ϕ ∈ L2(Ω×R+). Le processus continu, adapte et integrable∫ ·

0ϕ(s)dBs

est une martingale. De plus si φ et ϕ sont des elements de L2(Ω× R+) alors(∫ t

0

ϕ(s)dBs

)(∫ t

0

φ(s)dBs

)−∫ t

0

ϕ(s)φ(s)ds (7.14)

est une martingale. En particulier(∫ t

0

ϕ(s)dBs

)2

−∫ t

0

ϕ(s)2ds (7.15)

est une martingale de crochet∫ t

0ϕ(s)φ(s)ds.

Demonstration : Nous avons vu que pour hA = 1A1]t,u] ∈ S, A ∈ Ft on a

B(ϕhA) = 1A[Bu(ϕ)−Bt(ϕ)] c’est a dire E[1A(Bu(ϕ)−Bt(ϕ))

]= 0

ce qui est equivalent a E[Bu(ϕ)|Ft] = Bt(ϕ), ie. il s’agit de la propriete de martingale pourB(ϕ).

Page 145: Processus stochastique

7.3. Proprietes de l’integrale d’Ito 125

De la meme facon, la propriete d’isometrie (7.10) de l’integrale stochastique assure

E[1A

∫ u

t

ϕ(s)dBs

∫ u

t

φ(s)dBs

]= E

[ ∫1A1]t,u]ϕ(s)dBs

∫1A1]t,u]ϕ(s)φ(s)dBs

]= E

[B(ϕhA)B(φhA)

]= E

[ ∫(ϕhA)(s)(φhA)(s)ds

]= E

[1A

∫ u

t

ϕ(s)φ(s)ds].

Comme cela est vraie pour tout A ∈ Ft, on a

E[(Bu(ϕ)−Bt(ϕ))(Bu(φ)−Bt(φ)) | Ft

]= E

[ ∫ u

t

ϕ(s)φ(s)ds|Ft]

= E[ ∫ u

0

ϕ(s)φ(s)ds|Ft]−∫ t

0

ϕ(s)φ(s)ds (7.16)

On a aussi pour u ≥ t,

E[(Bu(ϕ)−Bt(ϕ))(Bu(φ)−Bt(φ)) | Ft

]= E

[(Bu(ϕ)Bu(φ))|Ft

]− E

[(Bt(ϕ)Bu(φ))|Ft

]−E[(Bt(φ)Bu(ϕ))|Ft

]+ E

[E[(Bt(ϕ)Buφ))|Ft

]= E

[(Bu(ϕ)Bu(φ))|Ft

]−Bt(ϕ)Bt(φ) (7.17)

car E[(Bt(ϕ)Bu(φ))|Ft

]= Bt(ϕ)E

[Bu(φ))|Ft

]Bt(ϕ)Bt(φ) (propriete de martingale) et de

meme que pour l’autre terme E[(Bt(φ)Bu(ϕ))|Ft

]. En combinant (7.16) et (7.17), il vient

(7.14) dont (7.15) est un as particulier.

Theoreme 7.4 (Arret) Pour tout temps d’arret T , le processus Bt∧T (ϕ) qui est indis-tinguable du processus Bt(ϕ1]0,T ]) est aussi une martingale.

Consequence : Si T est un temps d’arret, on a donc∫ t

0

1]0,T ](s)ϕ(s)dBs =

∫ t∧T

0

ϕ(s)dBs.

Pour tout processus( ∫ t

0ϕ(s)dBs; t ∈ [0, T ]

)avec ϕ ∈ L2(Ω×R+), on a aussi par l’inegalite

de Doob pour la martingale∫ ·

0ϕ(s)dBs :

E[(

supu≤t

∫ u

0

ϕ(s)dBs

)2]≤ 4E

[( ∫ T

0

ϕ(s)dBs

)2]= 4E

[ ∫ T

0

ϕ(s)2ds].

Page 146: Processus stochastique

126 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

Variation quadratique

Definition 7.2 (Variation quadratique) 1. Si M = (Mt)t≥0 est une martingale atrajectoires continues de carre integrable, on appelle variation quadratique de M (oucrochet de M) le processus croissant 〈M,M〉 tel que M2

t − 〈M,M〉t definit une mar-tingale.

2. Si M = (Mt)t≥0 et N = (Nt)t≥0 sont deux martingales a trajectoires continues decarres integrables, on appelle covariation quadratique de M et N (ou crochet deM,N), le processus a variation finie 〈M,N〉 tel que MtNt − 〈M,N〉t definit unemartingale.

Exemple 7.1 1. Le mouvement brownien B est une martingale de variation quadra-tique 〈B,B〉t = t.

2. Une autre interpretation de cette quantite qui justifie davantage le vocabulaire estdonnee par la Prop. 4.7.

3. Si B et B sont deux (Ft)t-mouvements browniens standard independants, la covaria-

tion de B et B est 〈B, B〉t = 0 car BtBt est une martingale (independance).

On montre que la propriete de martingale (7.15), resp. (7.14) caracterise la variation(resp. covariation) quadratique. Ainsi

∫ ·0ϕ(s)2ds est la variation quadratique du proces-

sus∫ ·

0ϕ(s)dBs. Traditionnellement pour un processus X, on note la variation quadratique

t 7→ 〈X,X〉t, on a donc par (7.15)⟨∫ ·0

ϕ(s)dBs,

∫ ·0

ϕ(s)dBs

⟩t

=

∫ t

0

ϕ(s)2ds. (7.18)

De plus si B, B sont des mouvements browniens independants, on a par (7.11) :⟨∫ ·0

ϕ(s)dBs,

∫ ·0

ϕ(s)dBs

⟩t

= 0. (7.19)

Noter que si ϕ est integrable alors∫ ·

0ϕ(s)ds est a variation finie et sa variation quadratique

est nulle, on a ⟨∫ ·0

ϕ(s)ds,

∫ ·0

ϕ(s)ds⟩t

= 0. (7.20)

En general, on manipule (7.18), (7.19) et (7.20) sous forme differentielle et on ecrit

d⟨∫ ·

0

ϕ(s)dBs,

∫ ·0

φ(s)dBs

⟩t

= ϕ(t)φ(t)dt, (7.21)

d⟨∫ ·

0

ϕ(s)dBs,

∫ ·0

ϕ(s)dBs

⟩t

= 0, (7.22)

d⟨∫ ·

0

ϕ(s)ds,

∫ ·0

ϕ(s)ds⟩t

= 0. (7.23)

Page 147: Processus stochastique

7.4. Generalisation de l’integrale stochastique 127

Notation symbolique. En pratique, les regles de calcul differentiel formule ci-dessoussont bien utiles. Elles reposent sur(7.21), (7.22), (7.23) et s’interpretent comme suit : vu det, l’esperance et la variance conditionnelles de l’accroissement infinitesimal du mouvementbrownien dBt = Bt+dt − Bt sont respectivement de l’ordre de 0 et de dt. On resume celapar la regle symbolique de calcul multiplicatif des accroissements infinitesimaux dt, dBt,dBt :

〈·, ·〉 dt dBt dBt

dt 0 0 0dBt 0 dt 0

dBt 0 0 dt

ou B est un mouvement brownien independant de B.

7.4 Generalisation de l’integrale stochastique

Soit φ ∈ L2(Ω× R+), on considere le processus defini par

Xt =

∫ t

0

φ(s)dBs, t ≥ 0.

D’apres ce qui precede, X est un processus a trajectoires continues et de variation quadra-tique

〈X,X〉t =

∫ t

0

φ(s)2ds.

En particulier sous forme differentielle, on a d〈X,X〉t = φ(t)2dt. De meme qu’on a construitl’integrale contre un mouvement brownien B (de variation quadratique t sur [0, t]), on peutconstruire l’integrale

∫ t0ϕ(s)dXs contre X des lors que

E[ ∫ t

0

ϕ(s)2d〈X,X〉s]

= E[ ∫ t

0

ϕ(s)2φ(s)2ds]< +∞

et on montre qu’il s’agit de integrale de ϕφ contre B :∫ t

0

ϕ(s)dXs =

∫ t

0

ϕ(s)φ(s)dBs.

Cela est resume dans le resultat suivant :

Theoreme 7.5 Soit φ ∈ L2(Ω×R+) et ϕ un processus adapte tel que E[ ∫ T

0ϕ(s)2φ(s)2ds

]<

+∞. Le processus( ∫ t

0ϕ(s)φ(s)dBs

)t≥0

peut etre interprete comme l’integrale stochastique

de ϕ par rapport a la martingale X· =∫ ·

0φ(s)dBs. On a donc∫ t

0

ϕ(s)dXs =

∫ t

0

ϕ(s)(φ(s)dBs

)=

∫ t

0

(ϕ(s)φ(s)

)dBs,

Page 148: Processus stochastique

128 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

ou sous forme differentielle,

ϕ(s)dBs(φ) = ϕ(s)(φ(s)dBs

)= ϕ(s)φ(s)dBs.

Demonstration : Pour construire une integrale stochastique, il suffit d’abord de travaillera partir des processus en escalier et de passer a la limite. Mais l’egalite de l’integrale entre0 et T de h1 par rapport a B·(φ) avec BT (h1ϕ) est une propriete de base de l’integralede Ito. Il suffit ensuite de remarquer que l’hypothese d’integrabilite faite assure que cetteidentite passe a la limite par rapport aux processus verifiant l’hypothese.

Nous avons vu dans la Section 7.1 sur la formule d’Ito que les variables aleatoires de laforme f(BT ) se repesentent a l’aide d’integrale stochastique d’une fonction de Bt. Lorsqu’onetend la classe des integrands a des fonctions adaptees et de carre integrable, on atteintainsi comme ca toutes les variables aleatoires de carre integrable et mesurables par rapporta la tribu du mouvement brownien.

7.5 Processus d’Ito

Definition 7.3 Un processus d’Ito est un processus de la forme

Xt = X0 +

∫ t

0

α(s)ds+d∑i=0

∫ t

0

ϕi(s)dB(i)s (7.24)

ou— X0 est une variable aleatoire F0-mesurable, de carre integrable : E[X2

0 ] < +∞,

— α est un processus adapte integrable sur tout [0, T ] :∫ T

0|α(s)|ds < +∞,

— B = (B(1), . . . , B(d)) est un mouvement brownien standard dans Rd a composantesindependantes,

— ϕ = (ϕ1, . . . , ϕd) est un vecteur de processus adaptes verifiant∫ T

0‖ϕ(s)‖2ds <

+∞.Le terme

( ∫ t0α(s)ds

)t≥0

s’appelle la partie a variation finie du processus X.

Le terme( ∫ t

0ϕ(s)dBs

)t≥0

s’appelle la partie martingale locale du processus X.

On reecrit parfois la definition (7.24) du processus de Ito sous la forme symbolique suivante,typique des notations usuelles pour les EDS :

dXt = α(t)dt+d∑i=0

ϕi(t)dBit. (7.25)

Cette formulation differentielle est souvent utilisee mais elle n’est que symbolique. Seule laformulation (7.24) a un vrai sens mathematique.

Un exemple fameux de processus de Ito est le processus d’OU pour lequel d = 1, α(t) =−αXt et ϕ(t) = σ. D’apres (7.21) (7.22), on a pour un processus d’Ito comme en (7.24)

Page 149: Processus stochastique

7.5. Processus d’Ito 129

Proposition 7.6 La variation quadratique d’un processus d’Ito est donnee par

d〈X,X〉t =d∑i=1

ϕi(t)2dt.

En general pour des processus d’Ito X, Y , on calcule la variation quadratique 〈X, Y 〉, parbilinearite avec la regle de calcul formel suivante :

〈dt, dt〉 = 0, 〈dBt, dBt〉 = dt,

〈dBt, dBt〉 = 0, 〈dBt, dBt〉 = dt.

Ainsi

d〈X, Y 〉t =d∑i=1

ϕi(t)φi(t)dt.

La formule d’Ito appliquee au mouvement brownien B et a une fonction f reguliere (C2)montre que le processus

(f(Bt)

)t≥0

est encore un processus d’Ito. C’est encore vraie pour

f(t, Bt) si f ∈ C1,2. Il en est de meme si B est remplace par un processus d’Ito (7.24).

Theoreme 7.6 (Formule d’Ito) Soit (Xt)t≥0 un processus d’Ito et f une fonction declasse C1,2(R). Le processus f(t,Xt) est un processus d’Ito de decomposition

f(t,Xt) = f(0, X0) +

∫ t

0

f ′x(s,Xs)α(s)ds+

∫ t

0

f ′t(s,Xs)ds (7.26)

+

∫ t

0

f ′x(s,Xs)ϕ(s)dBs +1

2

∫ t

0

f ′′xx(s,Xs)ϕ(s)2ds.

On peut reecrire sous forme differentielle

df(t,Xt) = f ′x(t,Xt)dXt + f ′t(t,Xt)dt+1

2f ′′xx(t,Xt)d〈X,X〉t (7.27)

en identifiant

dXt = α(t)dt+d∑i=0

ϕi(t)dBit,

d〈X,X〉t = ϕ(t)2dt.

Demonstration : On considere un temps t > 0 fixe. Par localisation (c’est a dire enarretant tous les processus qui nous interessent le long d’une suite croissante de tempsd’arret bornes qui tend vers +∞) nous pouvons toujours supposer que le processus X esta valeurs dans un compact et que les processus α et ϕ appartiennent L2(Ω× [0, T ]). Il est

Page 150: Processus stochastique

130 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

donc suffisant de montrer le resultat dans le cas d’une fonction f a support compact et aderivees bornees, ce que nous ferons dans la suite.

De plus d’apres la Prop. 7.2, il est toujours possible de considerer une suite de processusen escalier ϕp bornees qui approximent ϕ dans L2(Ω× [0, T ]) et en probabilite, ainsi qu’unesuite de processus en escalier αp qui approximent α dans H1 et en probabilite.

Si la formule (7.26) est vraie pour les approximations etagees ϕp, elle sera vraie a lalimite car tous les termes qui apparaissent dans la formule d’Ito convergent en probabilite.

La formule d’Ito que nous avons etablie pour le mouvement brownien s’etend sansdifficulte a des processus aleatoires de la forme Ys,t = Hs +Ks(t− s) + Us(Bt −Bs) ou lesvariable aleatoire Hs, Ks et Us sont Fs-mesurables. La formule d’Ito devient

f(Ys,t) = f(Hs) +

∫ t

s

f ′x(Ys,u)Ksdu+

∫ t

s

f ′x(Ys,u)UsdBu +1

2

∫ t

s

f ′′xx(Ys,u)U2s du.

Tout processus d’Ito associe a des fonctions en escalier se decompose en une somme finied’expressions de cette forme Xt =

∑ni=1 Y

iti−1∧t,ti∧t ou

Y iti−1,ti

= α(ti−1)(ti − ti−1) + ϕ(ti−1)(Bti −Bti−1).

Par recurrence retrograde, on voit de proche en proche que la formule d’Ito est valablepour de tels processus. Cette remarque suffit a conclure. s

Proposition 7.7 La decomposition d’un processus d’Ito sous la forme (7.24) (en partiemartingale locale et partie a variation finie) est unique.

Demonstration : Par linearite de la decomposition, il suffit de montrer que si X est unprocessus d’Ito identiquement nul, sa partie a variation finie et sa partie martingale sontnulles. En utilisant les notations de la definition et la formule d’Ito, on a avec la fonctionexp(−x2)

e−X2t = e−X

20 − 2

∫ t

0

e−X2sXsdXs +

∫ t

0

e−X2s (2X2

s − 1)|ϕ(s)|2ds.

Si le processus X est identiquement nul, nous avons∫ T

0

|ϕ(s)|2ds = 0 ps

soit ϕ(s) = 0 ds× dP ps.Puis comme Xt ≡ 0, ceci implique que

∫ t0α(s)ds = 0 ps, ce qui entraıne que les deux

mesures positives α(s)+ds et α(s)−ds sont egales ps. Le processus aleatoire α(s) est aussips nul.

Page 151: Processus stochastique

7.5. Processus d’Ito 131

Theoreme 7.7 (Formule d’Ito vectorielle) Soit f ∈ C1,2(R2× [0, T ] et (X, Y ) un pro-cessus d’Ito vectoriel, on a

df(t,Xt, Yt) = f ′t(t,Xt, Yt)dt (7.28)

+f ′x(t,Xt, Yt)(α1(t)dt+ ϕ1(t)dBt

)+ f ′y(t,Xt, Yt)

(α2(t)dt+ ϕ2(t)dBt

)+

1

2f ′′xx(t,Xt, Yt)ϕ1(t)2dt+ f ′′xy(t,Xt, Yt)ϕ1(t)ϕ2(t)dt+

1

2f ′′yy(t,Xt, Yt)ϕ2(t)2dt

ce qui s’ecrit encore

df(t,Xt, Yt) = f ′t(t,Xt, Yt) + f ′x(t,Xt, Yt)dXt + f ′y(t,Xt, Yt)dYt

+1

2f ′′xx(t,Xt, Yt)ϕ1(t)2dt+ f ′′xy(t,Xt, Yt)ϕ1(t)ϕ2(t)dt+

1

2f ′′yy(t,Xt, Yt)ϕ2(t)2dt.

Avec la fonction f(t, x, y) = xy, on a facilement la formule d’IPP suivante :

Corollaire 7.1 (IPP) Soit X et Y deux processus d’Ito avec les notations evidentes de(7.24). Alors, on a la formule d’integration par parties∫ t

0

XsdYs = XtYt −X0Y0 −∫ t

0

YsdXs −∫ t

0

ϕ1(s)ϕ2(s)ds.

soitXtdYt = d(XtYt)− YtdXt − d〈X, Y 〉t.

Demonstration : Il suffit d’appliquer le Th. 7.7 avec F (x, y) = xy pour laquelle

∂xF (x, y) = y, ∂yF (x, y) = x, ∂2x,yF (x, y) = 1.

Page 152: Processus stochastique

132 Chapitre 7. c©JCB – M2 Math. – Universite de Rennes 1

Page 153: Processus stochastique

Chapitre 8

Integration stochastique

On considere a nouveau dans ce chapitre un espace de probabilite filtre (Ω,F , (Ft)t≥0,P)muni d’une filtration (Ft)t≥0 satisfaisant les conditions habituelles. Le but est de construireune theorie de l’integration contre les processus stochastiques. La bonne classe de processusa considerer est celle des semimartingales introduites dans le Chapitre 6.On commence par integrer par rapport a des martingales bornees dans L2 en Section 8.1,cette construction est fondee sur une theorie L2. On s’interesse ensuite en Section 8.2 al’integration contre des martingales locales puis en Section 8.3 contre des semimartingales.On conclut le chapitre par quelques commentaires sur le cas des semimartingales noncontinues en Section 8.4.

8.1 Par rapport a une martingale bornee dans L2

Definition 8.1 (Espace H2c ) On note H2

c l’espace des martingales M continues borneesdans L2(Ω) et telles que M0 = 0.

Le Theoreme 6.3 montre qu’on a E[〈M,M〉∞] < +∞ pour M ∈ H2c . D’apres la Proposi-

tion 6.16 (inegalite de Kunita-Watanabe), si M,N ∈ H2c on a E[|〈M,N〉∞|] < +∞. En

effet :

E[|〈M,N〉∞|] ≤ E[∫ +∞

0

|d〈M,N〉s|]≤ E[〈M,M〉∞]1/2E[〈N,N〉∞]1/2 < +∞.

On definit alors un produit scalaire sur H2c par (M,N)H2

c:= E[〈M,N〉∞] et on note ‖ · ‖H2

c

la norme sur H2c associee a ce produit scalaire :

‖M‖H2c

= (M,M)1/2

H2c

= E[〈M,M〉∞

]1/2.

D’apres le Corollaire 6.1, en identifiant les processus indistinguables, on a bien une normecar (M,M)H2

c= 0 si et seulement si M = 0 (ie. le produit scalaire considere est bien defini

positif).

133

Page 154: Processus stochastique

134 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Proposition 8.1 L’espace H2c muni du produit scalaire (M,N)H2

cest un espace de Hilbert.

Demonstration : Il s’agit de verifier que H2c est complet pour la norme ‖ · ‖H2

c. Pour cela,

on considere une suite de Cauchy (Mn)n≥0 pour cette norme : d’apres le Theoreme 6.3,(Mn−Mm)2−〈Mn−Mm,Mn−Mm〉 est une martingale uniformement integrable. L’egalitede martingale assure

E[(Mn −Mm)2

t − 〈Mn −Mm,Mn −Mm〉t]

= E[(Mn −Mm)2

0 − 〈Mn −Mm,Mn −Mm〉0]

= 0

c’est a dire

E[(Mn −Mm)2

t

]= E

[〈Mn −Mm,Mn −Mm〉t

]≤ E

[〈Mn −Mm,Mn −Mm〉∞

].

Par la propriete de Cauchy de la suite (Mn)n≥0 pour H2c , on a donc

limm,n→+∞

supt≥0

E[(Mn

t −Mmt )2]

= limm,n→+∞

E[〈Mn −Mm,Mn −Mm〉∞

]= 0.

L’inegalite de Doob (Prop. 5.8) donne alors

limm,n→+∞

E[supt≥0

(Mnt −Mm

t )2

]≤ lim

m,n→+∞supt≥0

E[(Mn

t −Mmt )2]

= 0.

On peut alors extraire une sous-suite (nk)k≥0 telle que pour tout k ≥ 0

E[supt≥0

(Mnkt −M

nk+1

t )2

]1/2

≤ 1

2k.

Avec l’inegalite de Cauchy-Schwarz, on a alors

E

[+∞∑k=0

supt≥0

∣∣Mnkt −M

nk+1

t

∣∣] ≤ +∞∑k=0

E[supt≥0

(Mnkt −M

nk+1

t )2

]1/2

≤+∞∑k=0

1

2k< +∞.

On en deduit que ps+∞∑k=0

supt≥0

∣∣Mnkt −M

nk+1

t

∣∣ < +∞.

Presque surement, la suite (Mnkt )t≥0 est de Cauchy dans C0(R+,R) muni de ‖ · ‖∞ et donc

elle converge uniformement sur R+ vers une limite qu’on note (Mt)t≥0. Sur l’ensemble ne-gligeable ou il n’y a pas convergence, on impose Mt ≡ 0. Le processus limite (Mt)t≥0 a alorsdes trajectoires continues. Comme, pour chaque t ≥ 0, la suite (Mnk

t )k≥0 est evidemmentde Cauchy dans L2(Ω), (Mnk

t )k≥0 converge aussi dans L2(Ω) vers Mt pour tout t ≥ 0. Onpeut donc passer a la limite (dans L1(Ω)) dans la propriete de martingale de (Mnk

t )t≥0 et

Page 155: Processus stochastique

8.1. Par rapport a une martingale bornee dans L2 135

on obtient celle de (Mt)t≥0 qui est donc aussi une martingale. La suite Mn etant de Cauchydans H2

c , elle est bornee dans H2c pour ‖ · ‖H2

c, on a alors pour tout n ≥ 1, t ≥ 0

E[(Mn

t )2]

= E[〈Mn,Mn〉t

]≤ E

[〈Mn,Mn〉∞

]= ‖Mn‖H2

c≤ sup

n≥0‖Mn‖H2

c

soit supn supt≥0 E[(Mn

t )2]< +∞. Les variables aleatoires Mn

t , n ≥ 1, t ≥ 0, sont doncuniformement bornees dans L2(Ω). Par consequent, la martingale M est aussi bornee dansL2(Ω), ce qui assure M ∈ H2

c . Enfin, comme (M −Mnk)2− 〈M −Mnk ,M −Mnk〉 est unemartingale convergente (lorsque k → +∞), on a

limk→+∞

E[〈Mnk −M,Mnk −M〉∞

]= lim

k→+∞E[(Mnk∞ −M∞)2

]= 0,

ce qui montre que la sous-suite (Mnk)k≥0 converge vers M dans H2c . Finalement, comme la

suite de Cauchy (Mn)n≥0 a une sous-suite convergeant vers M , elle converge entierementvers M dans H2

c .

Rappelons que Prog designe la tribu progressive sur R+×Ω (Def. 5.3) et que les processus,vus comme fonctions sur (R+ × Ω,Prog) sont appeles progressifs.

Definition 8.2 (Espace L2(M)) Pour M ∈ H2c , on note

L2(M) = L2(R+ × Ω,Prog, dP⊗ d〈M,M〉

)l’espace des processus progressifs H = (Hs)s≥0 tels que

E[∫ +∞

0

H2s d〈M,M〉s

]< +∞.

L’espace L2(M) est un espace de Hilbert pour le produit scalaire

(H,K)L2(M) = E[∫ +∞

0

HsKs d〈M,M〉s].

Definition 8.3 (Processus simple) On note S le sous-espace vectoriel de L2(M) formedes processus H (dits simples) de la forme

Hs(ω) =

p−1∑i=0

H(i)(ω)1]ti,ti+1](s) (8.1)

ou 0 < t0 < t1 < t2 < · · · < tp et pour chaque 0 ≤ i ≤ p, H(i) est une variable aleatoireFti-mesurable et bornee.

Proposition 8.2 Pour tout M ∈ H2c , l’espace S est dense dans L2(M).

Page 156: Processus stochastique

136 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Demonstration : Il suffit de montrer que si K ∈ L2(M) est orthogonal a S alors K = 0.Supposons donc K orthogonal a S. Soient 0 ≤ s < t et soit F une variable aleatoireFs-mesurable bornee. Avec H = F1]s,t] ∈ S, on a

E[F

∫ t

s

Ku d〈M,M〉u]

= (H,K)L2(M) = 0. (8.2)

En posant

Xt =

∫ t

0

Ku d〈M,M〉u, t ≥ 0,

l’egalite (8.2) se reecrit E[F (Xt − Xs)

]= 0 pour tous s < t et toute variable aleatoire

Fs-mesurable F bornee, ie. X = (Xt)t≥0 est en fait une martingale car en plus Xt ∈ L1(Ω)pour tout t ≥ 0, l’integrale definissant Xt etant ps absolument convergente lorsque M ∈ H2

c

et K ∈ L2(M) (appliquer par exemple l’inegalite de Cauchy-Schwarz).

D’autre part, par la Proposition 6.5, X etant une integrale contre un processus croissantest aussi un processus a variation finie avec X0 = 0. Le Theoreme 6.1 exige alors d’avoirX = 0, ie. ∫ t

0

Ku d〈M,M〉u = 0 ∀t ≥ 0 ps.

Comme 0 =∫ t

0Ku d〈M,M〉u =

∫RKu1[0,t](u) d〈M,M〉u, Kud〈M,M〉u coıncide avec la

mesure nulle sur la famille des intervalles [0, t], donc par un argument de classe monotonesur tout B(R+), c’est a dire K est ps orthogonal a L2(〈M,M〉) ou encore K = 0 dansL2(M). Cela etablit la densite de E dans L2(M).

Definition 8.4 Soient M ∈ H2c et H ∈ S de la forme (8.1). On definit H ·M par

(H ·M)t =

p−1∑i=0

H(i)(Mti+1∧t −Mti∧t).

Proposition 8.3 Soient M ∈ H2c et H ∈ S. On a H ·M ∈ H2

c et pour tout N ∈ H2c :

〈H ·M,N〉t =

∫ t

0

Hs d〈M,N〉s = H · 〈M,N〉t. (8.3)

Remarque 8.1 — En general, on utilise la notation integrale :

(H ·M)t =

∫ t

0

Hs dMs.

— L’integrale H · 〈M,N〉 qui figure dans le terme de droite de (8.3) est une integralede Stieltjes par rapport a un processus a variation finie 〈M,N〉, comme defini dansla Section 6.1.4.

Page 157: Processus stochastique

8.1. Par rapport a une martingale bornee dans L2 137

Demonstration : On ecritH ·M =∑p

i=0Mit ouM i

t := H(i)(Mti+1∧t−Mti∧t). On commencepar observer que, pour chaque 1 ≤ i ≤ p (M i

t )t≥0 est une martingale, en effet : pour s ≤ t,— si s ≥ ti :

E[H(i)(Mti+1∧t −Mti∧t)|Fs

]= H(i)E

[(Mti+1∧t −Mti∧t)|Fs

]= H(i)(Mti+1∧s −Mti∧s) = M i

s;

— puis si s < ti :

E[H(i)(Mti+1∧t −Mti∧t)

∣∣Fs] = E[E[H(i)(Mti+1∧t −Mti∧t)|Fti ]|Fs

]= E

[H(i)E

[(Mti∧t −Mti∧t)|Fti

]∣∣Fs] = 0 = M is.

On a donc E[M it |Fs] = M i

s pour tout t ≥ s et H ·M =∑p−1

i=0 Mi est bien une martingale.

De plus, comme H est bornee et M ∈ H2c , on a aussi H ·M ∈ H2

c .

Pour la deuxieme partie, d’abord, si H = H(i)1]ti,ti+1], comme MN − 〈M,N〉 est unemartingale (car martingale locale bornee dans L2 d’apres la Prop. 6.14), alors

M ti+1N − 〈M,N〉ti+1 et M tiN − 〈M,N〉ti

sont des martingales. Par consequent la difference

(M ti+1 −M ti)N − (〈M,N〉ti+1 − 〈M,N〉ti)

est aussi une martingale. Comme cette martingale est nulle en t ≤ ti et comme H(i) ∈ Fti

H(i)

(M ti+1 −M ti

)N −H(i)

(〈M,N〉ti+1 − 〈M,N〉ti

)est encore une martingale puis en sommant sur 1 ≤ i ≤ p, (H ·M)N −

∫ ·0Hs d〈M,N〉s

reste aussi une martingale. D’apres la Prop. 6.14, on identifie le crochet de (H ·M) et deN :

〈(H ·M), N〉 = H · 〈M,N〉.

Noter en particulier que 〈H ·M,H ·M〉 = H2 · 〈M,M〉.

Theoreme 8.1 (Existence de l’integrale stochastique L2) Soit M ∈ H2c . L’applica-

tion H ∈ S 7→ H ·M s’etend en une isometrie de L2(M) dans H2c . De plus,

1. la martingale H ·M est caracterisee par la relation

〈H ·M,N〉 = H · 〈M,N〉, ∀N ∈ H2c ; (8.4)

2. puis, si T est un temps d’arret, on a une propriete d’arret :

(1[0,T ]H) ·M = (H ·M)T = H ·MT . (8.5)

Page 158: Processus stochastique

138 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Avec des notations integrales, cette derniere propriete s’ecrit de facon naturelle :∫ t

0

1[0,T ]H dM =

∫ t∧T

0

H dM =

∫ t

0

H dMT .

Demonstration : L’application H 7→ H ·M est evidemment lineaire. Puis pour H ∈ S,avec les notations precedentes H ·M est la somme des martingales M i

t := H(i)(Mti+1∧t −Mti∧t), t ≥ 0. On a

‖H ·M‖2H2

c= E[〈H ·M,H ·M〉∞]

= E[H2 · 〈M,M〉∞] (par (8.3))

= E[∫ +∞

0

H2s d〈M,M〉s

]= ‖H‖2

L2(M).

L’application H 7→ H ·M est donc une isometrie de S dans H2c .

Comme H2c est un espace de Hilbert (Proposition 8.1) et comme S est dense dans L2(M)

(Proposition 8.2), on peut alors prolonger de maniere unique cette application en uneisometrie de L2(M) dans H2

c .

1) On verifie maintenant la propriete caracteristique (8.4). On sait deja par (8.3) qu’elle estvraie si H ∈ S. Pour la generaliser, notons que pour N ∈ H2

c , l’application X 7→ 〈X,N〉∞est continue de H2

c dans L1(Ω) : en effet, par les inegalites de Kunita-Watanabe et Cauchy-Schwarz,

E[|〈X,N〉∞|

]≤ E

[〈X,X〉1/2∞ 〈N,N〉1/2∞

](Kunita-Watanabe)

= E[〈X,X〉∞

]1/2E[〈N,N〉∞]1/2 (Cauchy-Schwarz)

= E[〈N,N〉∞

]1/2‖X‖H2c.

Soit alors H ∈ L2(M) et (Hn)n≥0 suite de S qui converge vers H dans L2(M) (densite cf.Prop. 8.2). Par l’isometrie, on a alors Hn ·M → H ·M dans H2

c . Puis par la continuite deX ∈ H2

c 7→ 〈X,N〉∞ ∈ L1(Ω) :

〈H ·M,N〉∞ = limn→+∞

〈Hn ·M,N〉∞ = limn→+∞

(Hn · 〈M,N〉)∞ = (H · 〈M,N〉)∞,

ou les convergences ont lieu dans L1(Ω) avec pour la derniere egalite l’utilisation, encore,de l’inegalite de Kunita-Watanabe :

E[∣∣∣∣∫ +∞

0

(Hns −Hs) d〈M,N〉s

∣∣∣∣] ≤ E[〈N,N〉∞]1/2‖Hn −H‖L2(M).

(On justifie de la meme facon que (H ·〈M,N〉)∞ est bien defini.) On a donc etabli (8.4) pourt = +∞. Pour conclure, il faut l’obtenir pour tout t ≥ 0. Pour cela, il suffit de remplacer

Page 159: Processus stochastique

8.1. Par rapport a une martingale bornee dans L2 139

N par N t, la martingale arretee en t ≥ 0, dans l’egalite 〈H ·M,N〉∞ = (H · 〈M,N〉)∞ eton trouve 〈H ·M,N〉t = (H · 〈M,N〉)t, ce qui acheve de prouver (8.4).

Il faut encore justifier que (8.4) caracterise effectivement H ·M . Pour cela, soit X une autremartingale de H2

c qui satisfait la meme propriete (8.4), on a pour tout N ∈ H2c ,

〈H ·M −X,N〉 = 0.

Le choix particulier N = H · M − X donne alors 〈H · M − X,H · M − X〉 = 0 donc‖H ·M −X‖H2

c= 0, ie. X = H ·M . Cela termine la preuve de 1).

2) Pour terminer, on utilise les proprietes du crochet de deux martingales (Prop. 6.14)pour prouver la derniere propriete. Si N ∈ H2

c , on a

〈(H ·M)T , N〉t = 〈H ·M,N〉t∧T = (H · 〈M,N〉)t∧T = (H1[0,T ] · 〈M,N〉)t

ou la derniere egalite est evidente puisqu’il s’agit de l’integrale de Stieltjes. La martingalearretee (H ·M)T verifie donc la propriete caracteristique de l’integrale (1[0,T ]H) ·M . Celajustifie la premiere partie de (8.5). On obtient la seconde partie en procedant de meme :

〈H ·MT , N〉 = H · 〈MT , N〉 = H · 〈M,N〉T = (H1[0,T ]) · 〈M,N〉

ou a nouveau la derniere egalite est due au fait qu’il s’agit de l’integrale de Stieltjes.

Le resultat suivant est une propriete d’associativite de l’integrale stochastique sousreserve de conditions convenables d’integrabilite des processus a integrer.

Proposition 8.4 (Associativite de l’integrale stochastique L2) Soit M ∈ H2c . Si K ∈

L2(M) et H ∈ L2(K ·M) alors HK ∈ L2(M) et

(HK) ·M = H · (K ·M). (8.6)

Demonstration : D’apres le Theoreme 8.1, on a

〈K ·M,K ·M〉 = K · 〈M,K ·M〉 = K2 · 〈M,M〉,

et donc

E[∫ +∞

0

H2sK

2s d〈M,M〉s

]= E

[∫ +∞

0

H2s d〈K ·M,K ·M〉s

]< +∞

ce qui garantit HK ∈ L2(M). Pour (8.6), on montre la propriete caracteristique (8.4) : siN ∈ H2

c , on a :

〈(HK) ·M,N〉 = HK · 〈M,N〉 = H · (K · 〈M,N〉) = H · 〈K ·M,N〉 = 〈H · (K ·M), N〉

ou la deuxieme egalite utilise l’associativite de l’integrale de Stieltjes. Comme l’egalite estvraie pour toute N ∈ H2

c , elle exige (HK) ·M = H · (K ·M).

Page 160: Processus stochastique

140 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Remarque 8.2 La proposition precedente legitime les ecritures informelles suivantes∫ t

0

Hs(Ks dMs) =

∫ t

0

HsKs dMs.

De meme (8.4) s’ecrit ⟨∫ ·0

Hs dMs, N

⟩t

=

∫ t

0

Hs d〈M,N〉s.

En appliquant deux fois cette relation, on obtient aussi :⟨∫ ·0

Hs dMs,

∫ ·0

Ks dNs

⟩t

=

∫ t

0

HsKs d〈M,N〉s. (8.7)

En particulier, on a ⟨∫ ·0

Hs dMs,

∫ ·0

Hs dMs

⟩t

=

∫ t

0

H2s d〈M,M〉s.

Soient M ∈ H2c , N ∈ H2

c et H ∈ L2(M), K ∈ L2(N), comme H ·M et (H ·M)(K ·N)−〈(H · M), (K · N)〉 sont des martingales (en utilisant (8.7)), on a pour tout t ∈ R+ lesmoments suivants :

E[∫ t

0

HsdMs

]= 0 (8.8)

E[(∫ t

0

HsdMs

)(∫ t

0

KsdNs

)]= E

[∫ t

0

HsKs d〈M,N〉s]. (8.9)

Attention : ces relations (8.8), (8.9) ne seront plus forcement vraies pour les extensionsde l’integrale stochastique qu’on decrit ci-dessous pour les martingales locales.

Le mouvement brownien est bien une martingale continue mais n’est pas borne dans L2

(par exemple avec le Theoreme 6.3 parce que son crochet 〈B,B〉t = t→ +∞). Cette sectionne permet donc toujours pas de construire une integrale contre le mouvement brownien.Les derniers obstacles sont leves dans la section suivante.

8.2 Par rapport a une martingale locale

En utilisant la propriete d’arret (8.5), on etend maintenant dans cette section la definitionde H ·M au cas ou M est une martingale locale continue. Dans cette section, on considereM une martingale locale issue de 0.

Definition 8.5 (Espaces L2loc(M)) On note L2

loc(M) l’espace des processus progressifs Htels que pour tout t ≥ 0, ∫ t

0

H2s d〈M,M〉s < +∞ ps.

Page 161: Processus stochastique

8.2. Par rapport a une martingale locale 141

On rappelle que, pour M une martingale locale, on note toujours L2(M) l’espace desprocessus progressifs H tels que

E[∫ +∞

0

H2s d〈M,M〉s

]< +∞.

Theoreme 8.2 (Existence de l’integrale stochastique generale) Soit M une mar-tingale locale issue de 0. Pour tout H ∈ L2

loc(M), il existe une unique martingale localeissue de 0, notee H ·M , telle que pour toute martingale locale N ,

〈H ·M,N〉 = H · 〈M,N〉. (8.10)

De plus, la propriete d’arret (8.5) reste vraie : si T est un temps d’arret, on a

(1[0,T ]H) ·M = (H ·M)T = H ·MT . (8.11)

Remarque 8.3 — On note habituellement (H ·M)t =∫ t

0HsdMs.

— Cette definition etend celle du Theoreme 8.1 : si M ∈ H2c et H ∈ L2(M), alors

les definitions de ce theoreme et du Theoreme 8.1 coıncident.En effet, si M ∈ H2

c et H ∈ L2(M), l’egalite 〈H ·M,H ·M〉 = H2 · 〈M,M〉 entraıned’abord que H ·M ∈ H2

c , et ensuite les proprietes caracteristiques (8.4) et (8.10)montrent que les definitions des Theoremes 8.1 et 8.2 coıncident.

— La propriete d’associativite de la Proposition 8.4 reste vraie aussi sous des hypo-theses convenables d’integrabilite.

— Le mouvement brownien B est une martingale locale pour laquelle le Theoreme 8.2definit donc l’integrale (H · B)t =

∫ t0HsdBs pour H ∈ L2

loc(B). Les integrales sto-chastiques par rapport au mouvement brownien B s’appellent les integrales d’Ito.Le calcul stochastique lie a ces integrales est le calcul d’Ito.

Demonstration : On definit

Tn = inf

(t ≥ 0 :

∫ t

0

(1 +H2s ) d〈M,M〉s ≥ n

).

Comme pour la Prop. 6.12, il s’agit d’une suite de temps d’arret, croissante vers +∞.Comme on a

〈MTn ,MTn〉t = 〈M,M〉t∧Tn ≤∫ Tn

0

d〈M,M〉s ≤ n,

le Theoreme 6.3 s’applique et assure que la martingale arretee MTn est dans H2c . De plus,

H ∈ L2(MTn), car par definition de Tn, on a aussi∫ +∞

0

H2s d〈MTn ,MTn〉s =

∫ Tn

0

H2s d〈M,M〉s ≤ n.

Page 162: Processus stochastique

142 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Pour chaque n ≥ 1, on peut donc definir l’integrale stochastique H ·MTn par le Theo-reme 8.1 (cas L2 borne). Par la propriete caracteristique (8.4), on verifie facilement quenecessairement si m > n alors Tm ≥ Tn et on a

H ·MTn = (H ·MTm)Tn

en effet(H ·MTm)Tn =

((H ·M)Tm

)Tn= (H ·M)Tm∧Tn = (H ·M)Tn

〈(H ·MTm)Tn , N〉t = 〈(H ·MTm), N〉t∧Tn =

∫ t∧Tn

0

Hsd〈MTm , N〉s

=

∫ t∧Tn

0

Hsd〈M,N〉Tms =

∫ t∧Tn∧Tm

0

Hsd〈M,N〉s

=

∫ t∧Tn

0

Hsd〈M,N〉s = 〈(H ·M,N〉Tnt

= 〈(H ·M)Tn , N〉t.

Il existe donc un (unique) processus note H ·M qui etend tous les H ·MTn , ie. pour tout n,

(H ·M)Tn = H ·MTn .

D’apres le Theoreme 8.1, les processus (H ·M)Tn sont des martingales de H2c , si bien que

H ·M est en fait une martingale locale.

Il reste a voir la propriete caracteristique (8.10). Pour cela, soit N une martingale localeissue de 0 et soient T ′n = inf(t ≥ 0 : |Nt| ≥ n) qui reduit N . On pose alors Sn = Tn ∧ T ′n eton a

〈H ·M,N〉Sn = 〈(H ·M)Sn , NSn〉= 〈(H ·MTn)Sn , NSn〉 (car Sn ≤ Tn)

= 〈H ·MTn , NSn〉 (propriete (6.6) du crochet)

= H · 〈MTn , NSn〉 (d’apres (8.4) du cas L2 borne)

= H · 〈MTn , N〉Sn

= H · 〈M,N〉Sn∧Tn = H · 〈M,N〉Sn (Sn ≤ Tn)

= (H · 〈M,N〉)Sn (propriete de l’integrale de Stieltjes). (8.12)

Comme Sn +∞, en faisant n→ +∞, on deduit de (8.12) : 〈H ·M,N〉t = H · 〈M,N〉t.Finalement, on a 〈H ·M,N〉 = H · 〈M,N〉. La caracterisation de H ·M par cette egalitepour toute martingale locale N se justifie exactement comme dans le Theoreme 8.1.

La propriete d’arret (8.11) est obtenue pour les martingales locales par les memes argu-ments que dans la preuve du Theoreme 8.1 (noter que ces arguments utilisent seulementla propriete caracteristique (8.4) qu’on vient d’etendre).

Page 163: Processus stochastique

8.2. Par rapport a une martingale locale 143

Remarque 8.4 Discutons maintenant de l’extension des formules de moments (8.8), (8.9)enoncees avant le Theoreme 8.2. Soient M une martingale locale, H ∈ L2

loc(M) et t ∈[0,+∞]. Alors, sous la condition

E[〈H ·M,H ·M〉t

]= E

[∫ t

0

H2sd〈M,M〉s

]< +∞,

on a H ∈ L2(M t) et on peut appliquer le Theoreme 6.3 a (H ·M)t pour obtenir

E[∫ t

0

Hs dMs

]= 0, E

[(∫ t

0

Hs dMs

)2]

= E[∫ t

0

H2s d〈M,M〉s

].

De facon generale, la propriete d’isometrie de l’integrale stochastique du cas borne dansL2 est remplacee par

E

[(∫ t

0

Hs dMs

)2]≤ E

[∫ t

0

H2s d〈M,M〉s

]. (8.13)

En effet soit le majorant est +∞ et l’inegalite est vraie, soit il est fini et l’estimation de lavariance est valable et donne l’egalite.

L’enonce suivant etablit une approximation par des sommes de Riemann des integralesstochastiques (contre une martingale locale) et complete le Lemme 6.4 dans le cas variationfinie.

Proposition 8.5 (Approximation de Riemann) Soit M une martingale locale conti-nue et H ∈ L2

loc(M). Alors, pour tout t > 0, pour toute suite 0 = tn0 < · · · < tnpn = t desubdivisions de [0, t] de pas tendant vers 0, on a, au sens de la convergence en probabilite :

P- limn→+∞

n−1∑i=0

Htni(Xtni+1

−Xtni) =

∫ t

0

Hs dXs. (8.14)

Demonstration : Pour chaque n ≥ 1, on definit un processus Hn par

Hns =

Htni

si tni < s ≤ tni+1

0 si s > t.

Dans ce cas, (8.14) est clair. Posons enfin pour tout p ≥ 1

Tp = inf(s ≥ 0 : |Hs|+ 〈M,M〉s ≥ p

)(8.15)

et remarquons que H,Hn et 〈M,M〉 sont bornes sur l’intervalle ]0, Tp]. D’apres la theorieL2 de l’integrale stochastique (cf. (8.9) pour une expression du moment d’ordre 2), pourtout p fixe,

E[(

(Hn ·MTp)t − (H ·MTp)t)2]

= E[(

(Hn1[0,Tp] ·M)t − (H1[0,Tp] ·M)t)2]

Page 164: Processus stochastique

144 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

= E[(

((Hn −H)1[0,Tp]) ·M)2

t

]= E

[∫ t

0

(Hns −Hs)

21[0,Tp](s) d〈M,M〉s]

= E[∫ t∧Tp

0

(Hns −Hs)

2 d〈M,M〉s]

converge vers 0 quand n → +∞ par convergence dominee car (Hns − Hs)

2 est borne sur[0, Tp] par (2p)2, et

E[∫ t∧Tp

0

4p2 d〈M,M〉s]

= 4p2E[〈M,M〉t∧Tp

]≤ 4p2E

[〈M,M〉Tp

]≤ 4p2 × p = 4p3

puis par continuite limn→+∞Hns = Hs pour tout s ≥ 0. On a donc (Hn ·MTp)t → (H ·MTp)t

dans L2 et en utilisant la propriete d’arret (8.11), on en deduit la convergence dans L2

limn→+∞

(Hn ·M)t∧Tp = (H ·M)t∧Tp .

Pour conclure, on remarque que P(Tp > t) 1 quand p→ +∞, ce qui affaiblit la conver-gence L2 obtenue en une convergence en probabilite.

Le resultat suivant est une version du theoreme de convergence dominee pour les integralesstochastiques :

Theoreme 8.3 Soit X une semimartingale continue. Si Hn est une suite de processuslocalement bornes telle que limn→+∞H

nt = 0 pour tout t ≥ 0 et telle qu’il existe un pro-

cessus K borne satisfaisant |Hn| ≤ K pour tout n ≥ 1, alors (Hn · X)tP→ 0, n → +∞,

uniformement sur tout compact.

Demonstration : Il s’agit de voir

P- limn→+∞

sups≤t|(Hn ·X)s| = 0

ce qui est clair d’apres les proprietes de l’integrale de Stieltjes si X est un processus avariations finies. Il suffit de considerer le cas ou X est une martingale locale. On supposeX reduite par la suite de temps d’arret (Tp)p≥1 donnee en (8.15) alors (Hn)Tp converge vers0 dans L2(XT p

). D’apres l’isometrie du Theoreme 8.1, (Hn ·X)Tp converge vers 0 dans H2c .

Comme limp→+∞ P(Tp ≥ t) = 1, on obtient la convergence en probabilite cherchee.

8.3 Par rapport a une semimartingale

On acheve dans cette section la construction de l’integrale stochastique en integrant fi-nalement par rapport aux semimartingales continues. Pour cela, on dit qu’un processus

Page 165: Processus stochastique

8.3. Par rapport a une semimartingale 145

progressif H est localement borne si

ps ∀t ≥ 0, sups≤t|Hs| < +∞.

En particulier, tout processus continu adapte est localement borne (cf. Prop. 5.1). De plus,si H est localement borne, pour tout processus V a variation finie on a :

ps ∀t ≥ 0,

∫ t

0

|Hs| |dVs| < +∞.

De meme, pour toute martingale locale M , on a∫ t

0H2s d〈M,M〉s < +∞, ie. H ∈ L2

loc(M).

Definition 8.6 (Integrale par rapport a une semimartingale) Soit X = X0 +M +V une semimartingale continue, et soit H un processus progressif localement borne. L’in-tegrale stochastique H ·X est alors definie par

H ·X = H ·M +H · V

ou H ·M est definie dans la Section 8.2 et H · V est definie en Section 6.1.4 (integrale deStieltjes). On note traditionnellement

(H ·X)t =

∫ t

0

Hs dXs.

Des proprietes deja vues pour l’integrale contre une martingale locale ou contre un processusa variation finie, on deduit facilement :

Proposition 8.6

1. L’application (H,X) 7→ H ·X est bilineaire.

2. H · (K ·X) = (HK) ·X, si H et K sont localement bornes.

3. Pour tout temps d’arret T , (H ·X)T = (H1[0,T ]) ·X = H ·XT .

4. Si X est une martingale locale (resp. si X est un processus a variation finie) alors ilen est de meme pour H ·X.

5. Si H est un processus progressif de la forme Hs(ω) =∑p−1

i=0 H(i)(ω)1]ti,ti+1](s) ou,pour chaque i, H(i) est Fti-mesurable, alors

(H ·X)t =

p−1∑i=0

H(i)(Xti+1∧t −Xti∧t).

6. Soit X une semimartingale continue et soit H un processus continu adapte. Alors,pour tout t > 0, pour toute suite 0 = tn0 < · · · < tnpn = t de subdivisions de [0, t] depas tendant vers 0, on a, au sens de la convergence en probabilite :

P- limn→+∞

n−1∑i=0

Htni(Xtni+1

−Xtni) =

∫ t

0

Hs dXs.

Page 166: Processus stochastique

146 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Remarque 8.5— Remarquer que dans la propriete 5), on ne suppose pas que les variables H(i) sontbornees.

— Le resultat d’approximation dans 6) generalise dans le cas de l’integration sto-chastique l’approximation des integrales de Riemann. Ce resultat sera utile dans lasuite, notamment pour prouver la formule d’Ito.

— Dans ce resultat, il est essentiel de considerer Htnidans l’approximation de Rie-

mann. Un autre choix conduit a un autre type d’integrale stochastique : par exempleHtni+1

mene a une integrale dite anticipante, et H(tni+1+tni )/2 mene a l’integrale deStratonovich.

Demonstration : Toutes les proprietes viennent de celles vues en Section 6.1 pour lapartie variation finie et en Section 8.2 pour la partie martingale bornee. Par exemple, 6)vient du Lemme 6.4 et de la Proposition 8.5.

Le resultat suivant est une version du theoreme de convergence dominee pour les integralesstochastiques :

Theoreme 8.4 Soit X une semimartingale continue. Si Hn est une suite de processuslocalement bornes telle que limn→+∞H

nt = 0 pour tout t ≥ 0 et telle qu’il existe un pro-

cessus K borne satisfaisant |Hn| ≤ K pour tout n ≥ 1, alors (Hn · X)tP→ 0, n → +∞,

uniformement sur tout compact.

Demonstration : Il s’agit de voir

P- limn→+∞

sups≤t|(Hn ·X)s| = 0

ce qui est clair d’apres les proprietes de l’integrale de Stieltjes si X est un processus avariations finies. Il suffit de considerer le cas ou X est une martingale locale. On supposeX reduite par la suite de temps d’arret (Tp)p≥1 donnee en (8.15) alors (Hn)Tp converge vers0 dans L2(XT p

). D’apres l’isometrie du Theoreme 8.1, (Hn ·X)Tp converge vers 0 dans H2c .

Comme limp→+∞ P(Tp ≥ t) = 1, on obtient la convergence en probabilite cherchee.

8.4 Cas non continu

La theorie d’integration stochastique presentee dans ces notes s’applique pour des semimar-tingales a trajectoires continues. On pourrait s’interesser a des semimartingales a trajec-toires cadlag (continue a droite et avec des limites a gauche) ou caglad (continue a gaucheavec des limites a droite). On integre alors des processus dits previsibles ((Ft−)t≥0-adapteset continus a gauche) ou optionnels ((Ft)t≥0- adaptes et continus a droite). Dans le cadre

Page 167: Processus stochastique

8.4. Cas non continu 147

cadlag, la decomposition d’une semimartingale en martingale locale + processus a variationbornee n’est plus unique (heuristiquement : on peut jouer sur les sauts) a moins d’imposerpar exemple que le processus a variation finie soit previsible (dans ce cas, on ′′fixe′′ lessauts).Il faut cependant introduire deux crochets [M,M ]t et 〈M,M〉t (qui est la projection previ-sible de [M,M ]t). Chacun de ces deux crochets herite d’une des proprietes fondamentales(6.2), (6.3) de l’unique crochet defini dans le cadre continu (cf. Theoreme 6.2), on retrouveainsi que

— [M,M ]t = lim|∆|→0

∑ti∈∆(Mti+1

−Mti)2 est la variation quadratique de M ou ∆ est

une subdivision de [0, t] et |∆| designe son pas.— 〈M,M〉 est l’unique processus previsible tel que M2 − 〈M,M〉 soit une martingale

locale.Dans ce contexte, il faut alors porter une attention particuliere aux sauts ∆Xt = Xt−Xt−

du processus. On consultera [CT] ou [App] pour le cas specifique des processus de Levy.

Page 168: Processus stochastique

148 Chapitre 8. c©JCB – M2 Math. – Universite de Rennes 1

Page 169: Processus stochastique

Chapitre 9

Formule d’Ito et consequences

Dans ce chapitre, on prouve la formule d’Ito, veritable clef de voute du calcul stochas-tique. Celle-ci montre que lorsqu’on applique une application C2 a une semimartingale, onconserve une semimartingale ; elle en donne en plus la decomposition (martingale locale +processus a variation finie). La formule d’Ito est prouvee en Section 9.1. Des consequencesimportantes en sont presentees dans les sections suivantes : theoreme de Levy (caracterisa-tion du mouvement brownien par son crochet, Section 9.2 ), theoreme de Dubins-Schwarz(Section 9.3), inegalites de Burkholder-Davis-Gundy (Section ??), theoreme de represen-tation des martingales (Section 9.4), formule de Tanaka (Section ??).

9.1 Formule d’Ito

La formule d’Ito est l’outil de base du calcul stochastique : elle montre qu’une fonction declasse C2 de p semimartingales continues est encore une semimartingale continue, et elleexprime explicitement la decomposition de cette semimartingale.Rappelons la formule de changement de variable classique : si F, g sont de classe C1 alors(F g)′(t) = F ′(g(t)) g′(t) s’ecrit

F (g(t)) = F (g(0)) +

∫ t

0

F ′(g(s))g′(s) ds.

Si F est C1 et g est seulement absolument continue (c’est a dire a variation finie) alors ona encore avec l’integrale de Stieltjes :

F (g(t)) = F (g(0)) +

∫ t

0

F ′(g(s)) dg(s).

La meme formule reste vraie pour un processus X a variation finie en faisant un calcultrajectoriel (pour chaque ω fixe, la trajectoire t 7→ Xt(ω) est a variation finie et le casprecedent s’applique) : pour F une fonction de classe C1, on a alors

F (Xt) = F (X0) +

∫ t

0

F ′(Xs) dXs.

149

Page 170: Processus stochastique

150 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

La formule d’Ito generalise cette propriete pour des semimartingales lorsque F est C2 etfait apparaıtre un terme supplementaire du au fait que ces processus ne sont pas a variationfinie, cf. (9.1) ci-dessous.

Theoreme 9.1 (Formule d’Ito) Soient X une semimartingale et F : R→ R une fonc-tion de classe C2. Alors

F (Xt) = F (X0) +

∫ t

0

F ′(Xs) dXs +1

2

∫ t

0

F ′′(Xs) d〈X,X〉s. (9.1)

Si on considere p semimartingales continues X1, . . . , Xp et F : Rp → R de classe C2 alors,

F (X1t , . . . , X

pt ) = F (X1

0 , . . . , Xp0 ) +

p∑i=1

∫ t

0

∂F

∂xi(X1

s , . . . , Xps ) dX i

s

+1

2

p∑i,j=1

∫ t

0

∂2F

∂xi∂xj(X1

s , . . . , Xps ) d〈X i, Xj〉s. (9.2)

Demonstration : On traite d’abord le cas (9.1) pour p = 1. Considerons une suite 0 =tn0 < · · · < tnpn = tn≥1 de subdivisions emboitees de [0, t] de pas tendant vers 0. Alors entelescopant la somme, on a

F (Xt) = F (X0) +

pn−1∑i=0

(F (Xtni+1

)− F (Xtni)).

La formule de Taylor a l’ordre 2 sur l’intervalle (Xtni, Xtni+1

) donne pour chaque ω ∈ Ω :

F (Xtni+1)− F (Xtni

) = F ′(Xtni)(Xtni+1

−Xtni) +

fn,i(ω)

2(Xtni+1

−Xtni)2

ou

fn,i ∈

[inf

θ∈[0,1]F ′′(Xtni

+ θ(Xtni+1−Xtni

)), supθ∈[0,1]

F ′′(Xtni

+ θ(Xtni+1−Xtni

))].

D’apres 6) dans la Proposition 8.6 (approximation a la Riemann des integrales stochas-tiques) avec Hs = F ′(Xs), on a au sens de la convergence en probabilite :

P- limn→+∞

pn−1∑i=0

F ′(Xtni)(Xtni+1

−Xtni) =

∫ t

0

F ′(Xs) dXs.

Pour prouver la formule d’Ito (9.1), il reste a etablir la convergence en probabilite :

P- limn→+∞

pn−1∑i=0

fn,i(ω)(Xtni+1−Xtni

)2 =

∫ t

0

F ′′(Xs) d〈X,X〉s, (9.3)

Page 171: Processus stochastique

9.1. Formule d’Ito 151

car alors, par unicite presque sure de la limite en probabilite, on aura pour tout t ≥ 0 :

F (Xt) = F (X0) +

∫ t

0

F ′(Xs) dXs +1

2

∫ t

0

F ′′(Xs) d〈X,X〉s ps.

Les deux termes de l’egalite ci-dessus etant continus en t, les deux processus sont en faitindistinguables, ce qui donnera (9.1).

Il reste donc a etablir (9.3) ; pour cela, on note pour m < n :

Tn =

pn−1∑i=0

fn,i(ω)(Xtni+1−Xtni

)2

Tm,n =

pm−1∑j=0

fm,j(ω)∑

i:tmj ≤tni <tmj+1

(Xtni+1−Xtni

)2.

Comme∑pn−1

i=0 =∑pm−1

j=0

∑i:tmj ≤tni <tmj+1

, on a

|Tn − Tm,n|

=

∣∣∣∣∣∣pm−1∑j=0

∑i:tmj ≤tni <tmj+1

fn,i(ω)(Xtni+1−Xtni

)2 −pm−1∑j=0

∑i:tmj ≤tni <tmj+1

fm,j(ω)(Xtni+1−Xtni

)2

∣∣∣∣∣∣=

∣∣∣∣∣∣pm−1∑j=0

∑i:tmj ≤tni <tmj+1

(fn,i(ω)− fm,j(ω)

)(Xtni+1

−Xtni)2

∣∣∣∣∣∣≤ Zm,n

∣∣∣∣∣∣pm−1∑j=0

∑i:tmj ≤tni <tmj+1

(Xtni+1−Xtni

)2

∣∣∣∣∣∣= Zm,n

(pn−1∑i=0

(Xtni+1−Xtni

)2

)avec

Zm,n = sup0≤j≤pm−1

(sup

i:tmj ≤tni <tmj+1|fn,i − fm,j|

).

La continuite de F ′′ assure que Zm,n → 0 ps quand m,n → +∞. D’apres l’interpreta-

tion ′′variation quadratique′′ du crochet (Proposition 6.17), on a∑pn−1

i=0 (Xtni+1−Xtni

)2 P−→〈X,X〉t. Et donc pour ε > 0 donne, il existe m1 tel que pour tout n > m ≥ m1,

P(|Tn − Tm,n| ≥ ε/3

)≤ P

(Zm,n

(pn−1∑i=0

(Xtni+1−Xtni

)2

)≥ ε/3

)≤ ε/3. (9.4)

Page 172: Processus stochastique

152 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

(Comme Zm,nP−→ 0 et

∑pn−1i=0 (Xtni+1

− Xtni)2 P−→ 〈X,X〉t, le theoreme de Slutsky as-

sure Zm,n

(∑pn−1i=0 (Xtni+1

−Xtni)2)

P−→ 0.) Ensuite la Proposition 6.17 montre aussi qu’en

probabilite :

P- limn→+∞

Tm,n = P- limn→+∞

pm−1∑j=0

fm,j∑

i:tmj ≤tni <tmj+1

(Xtni+1−Xtni

)2

=

pm−1∑j=0

fm,j

(〈X,X〉tmj+1

− 〈X,X〉tmj)

=

∫ t

0

hm(s) d〈X,X〉s,

ou hm est definie par hm(s) = fm,j si tmj ≤ s < tmj+1. Ainsi il existe m2 tel que pour n ≥ m2

P(∣∣∣∣Tm,n − ∫ t

0

hm(s) d〈X,X〉s∣∣∣∣ ≥ ε/3

)≤ ε/3. (9.5)

Puis comme F est C2, on a limm→+∞ hm(s) = F ′′(Xs) ps. De plus, on a pour tout s∣∣hm(s)− F ′′(Xs)∣∣ =

∣∣fm,j − limn→+∞

fn,i∣∣ = lim

n→+∞

∣∣fm,j − fn,i∣∣ ≤ limn→+∞

Zn,m,

et doncsups∈[0,t]

|hm(s)− F ′′(Xs)|P−→ 0.

Il existe donc aussi m3 tel que pour m ≥ m3

P(∣∣∣∣∫ t

0

hm(s) d〈X,X〉s −∫ t

0

F ′′(Xs) d〈X,X〉s∣∣∣∣ ≥ ε/3

)≤ ε/3. (9.6)

Comme ∣∣∣∣∣pn−1∑i=0

fn,i(Xtni+1−Xtni

)2 −∫ t

0

F ′′(Xs) d〈X,X〉s

∣∣∣∣∣ ≥ ε

⊂ |Tn − Tm,n| ≥ ε/3

∪∣∣∣∣Tm,n − ∫ t

0

hm(s) d〈X,X〉s∣∣∣∣ ≥ ε/3

∪∣∣∣∣∫ t

0

hm(s) d〈X,X〉s −∫ t

0

F ′′(Xs) d〈X,X〉s∣∣∣∣ ≥ ε/3

en combinant (9.4), (9.5), (9.6), et en prenant n > m ≥ max(m1,m2,m3), on a :

P

(∣∣∣∣∣pn−1∑i=0

fn,i(Xtni+1−Xtni

)2 −∫ t

0

F ′′(Xs) d〈X,X〉s

∣∣∣∣∣ ≥ ε

)≤ ε

Page 173: Processus stochastique

9.1. Formule d’Ito 153

ce qui prouve (9.3) et donc la formule d’Ito (9.1) pour p = 1.

Dans le cas ou p est quelconque, la formule de Taylor (toujours a l’ordre 2) donne

F (X1tni+1

, . . . , Xptni+1

)− F (X1tni, . . . , Xp

tni)

=

p∑k=1

∂F

∂xk(X1

tni, . . . , Xp

tni)(Xk

tni+1−Xk

tni) +

p∑k,l=1

fk,ln,i2

(Xktni+1−Xk

tni)

avec

fk,ln,i ∈

[inf

θ∈[0,1]

∂2F

∂xk∂xl(X1

tni+ θ(X1

tni+1−X1

tni), . . . ), sup

θ∈[0,1]

∂2F

∂xk∂xl(X1

tni+ θ(X1

tni+1−X1

tni), . . . )

].

Le 6) dans la Proposition 8.6 donne a nouveau la limite cherchee pour les termes faisantintervenir les derivees premieres :

p∑i=1

∫ t

0

∂F

∂xi(X1

s , . . . , Xps ) dX i

sP→

p∑i=1

∫ t

0

∂F

∂xi(X1

s , . . . , Xps ) dX i

s.

En adaptant legerement les arguments du cas p = 1, on montre que pour tous k, l ∈1, . . . , p :

P- limn→+∞

pn−1∑i=0

fk,ln,i(Xktni+1−Xk

tni)(X l

tni+1−X l

tni) =

∫ t

0

∂2F

∂xk∂xl(X1

s , . . . , Xps ) d〈Xk, X l〉s.

Cela acheve la preuve de la formule d’Ito dans le cas general (9.2).

Un cas particulier important de la formule d’Ito est la formule d’integration par parties.

Corollaire 9.1 (IPP) Si X et Y sont deux semimartingales continues, on a

XtYt = X0Y0 +

∫ t

0

Xs dYs +

∫ t

0

Ys dXs + 〈X, Y 〉t. (9.7)

Le terme 〈X, Y 〉 est nul si X ou Y est a variation finie. Il est present quand on considerede (vraies) semimartingales et ce terme supplementaire temoigne de la difference entre lecalcul stochastique et le calcul differentiel deterministe.

Demonstration : Appliquer la formule d’Ito a F (x, y) = xy qui est bien de classe C2 enx, y et noter que

∂2F

∂x∂y(x, y) = 1,

∂2F

∂x2(x, y) =

∂2F

∂y2(x, y) = 0.

Page 174: Processus stochastique

154 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

En particulier, si Y = X on obtient

X2t = X2

0 + 2

∫ t

0

Xs dXs + 〈X,X〉t.

Remarque 9.1 — Lorsque X = M est une martingale locale, on sait que M2 −〈M,M〉 est une martingale locale (definition du crochet du Theoreme 6.2). La for-mule precedente montre que cette martingale locale est en fait

M20 + 2

∫ t

0

Ms dMs,

ce qu’on aurait pu voir directement sur la demonstration donnee en Section 6.2puisqu’une lecture attentive de la demonstration indique que la construction de〈M,M〉 fait intervenir

∑pni=0Mtni

(Mtni+1− Mtni

) qui sont des approximations (a la

Riemann) de l’integrale stochastique∫ t

0Ms dMs.

— En prenant X1t = t et X2

t = Xt, on a aussi pour toute fonction F de classe C2

sur R+ × R

F (t,Xt) = F (0, X0)+

∫ t

0

∂F

∂x(s,Xs)dXs︸ ︷︷ ︸

martingale locale

+

∫ t

0

∂F

∂t(s,Xs)ds+

1

2

∫ t

0

∂2F

∂x2(s,Xs) d〈X,X〉s︸ ︷︷ ︸

variation finie

.

(9.8)En fait, il suffit de prendre F ∈ C1,2(R+ × R,R), ie. F est C1 en t ∈ R+ et C2 enx ∈ R.

Retour au mouvement brownien

Pour un (Ft)t≥0-mouvement brownien B, la formule d’Ito s’ecrit

F (Bt) = F (B0) +

∫ t

0

F ′(Bs) dBs +1

2

∫ t

0

F ′′(Bs) ds.

En prenant X1t = t et X2

t = Bt, (9.8) devient : pour toute fonction F de classe C2 surR+ × R, on a :

F (t, Bt) = F (0, B0) +

∫ t

0

∂F

∂x(s, Bs) dBs +

∫ t

0

(∂F

∂t+

1

2

∂2F

∂x2

)(s, Bs) ds.

Si Bt = (B1t , . . . , B

pt ) est un (Ft)t≥0-mouvement brownien en dimension d alors les Bi sont

des mouvements browniens independants. On a vu au chapitre precedent que dans ce cas

Page 175: Processus stochastique

9.1. Formule d’Ito 155

〈Bi, Bj〉 = 0 lorsque i 6= j et d〈Bi, Bi〉s = ds. La formule d’Ito montre alors que, pourtoute fonction F de classe C2 sur Rp,

F (B1t , . . . , B

pt ) = F (B1

0 , . . . , Bp0) +

p∑i=1

∫ t

0

∂F

∂xi(B1

s , . . . , Bps )dB

is +

1

2

∫ t

0

∆F (B1s , . . . , B

ps )ds

ou ∆F =∑d

i=1∂2F∂x2

iest le laplacien de F . On a aussi une formule analogue pour F (t, B1

t , . . . , Bpt ).

En particulier si F est harmonique (ie. ∆F = 0) alors F (B1t , . . . , B

pt ) est une martingale

locale.

Exponentielles stochastiques

On definit maintenant l’exponentielle stochastique E(M) d’une martingale locale Mquelconque. La formule d’Ito justifie qu’il s’agit d’une martingale locale et explique laterminologie, cf. la Remarque 9.2 ci-dessous. Pour commencer, on dit qu’un processus avaleurs dans C est une martingale locale si ses parties reelle et imaginaire en sont.

Proposition 9.1 Soit M une martingale locale. Pour tout λ ∈ C, soit

E(λM)t = exp

(λMt −

λ2

2〈M,M〉t

).

Le processus E(λM) est une martingale locale.

Demonstration : Si F (x, r) est une fonction de classe C2 sur R × R+, la formule d’Itoentraıne que

F(Mt, 〈M,M〉t

)= F (M0, 0) +

∫ t

0

∂F

∂x

(Ms, 〈M,M〉s

)dMs

+

∫ t

0

(∂F

∂r+

1

2

∂2F

∂x2

)(Ms, 〈M,M〉s

)d〈M,M〉s.

Le processus F(Mt, 〈M,M〉t

)est une martingale locale des que sa partie a variation finie

s’annule, ie. lorsque F verifie la condition :

∂F

∂r+

1

2

∂2F

∂x2= 0.

Il est immediat que cette condition est satisfaite par la fonction F (x, r) = exp(λx− λ2

2r)

(plus precisement par les parties reelle et imaginaire de cette fonction).

Page 176: Processus stochastique

156 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

Remarque 9.2 Avec F (x, r) = exp(x− r/2

)(prendre λ = 1 precedemment), ∂F

∂x(x, r) =

F (x, r), si bien que l’identite

F(Mt, 〈M,M〉t

)= F (M0, 0) +

∫ t

0

∂F

∂x

(Ms, 〈M,M〉s

)dMs

s’ecrit

E(M)t = E(M)0 +

∫ t

0

E(M)s dMs (9.9)

ou en ecriture symbolique d’EDS (cf. Chapitre ??) : dE(M) = E(M)dM , ce qui generalisel’equation dy = ydx de solution y(x) = ex avec la condition y(0) = 1 ou l’equation dy = ydgde solution y(t) = exp(g(t)) si g est a variation finie nulle en 0 et avec la condition initialey(0) = 1. Cette propriete justifie l’appelation « exponentielle stochastique » de M pourE(M).

9.2 Theoreme de Levy

Le resultat suivant permet de caracteriser le mouvement brownien par son crochet parmiles martingales locales a trajectoires continues.

Theoreme 9.2 (Caracterisation du MB par son crochet) Soit X = (X1, . . . , Xd)un processus a trajectoires continues (Ft)t≥0-adapte issu de 0. Il y a equivalence entre

1. X est un (Ft)t≥0-mouvement brownien en dimension d.

2. Les processus X1, . . . , Xd sont des (Ft)t≥0-martingales locales continues et de plus

〈X i, Xj〉t = δi,jt

ou δi,j designe le symbole de Kronecker.

En particulier, une (Ft)t≥0-martingale locale continue M issue de 0 est un (Ft)t≥0-mouve-ment brownien si et seulement si 〈M,M〉t = t.

Remarque 9.3 Il est crucial que le processus soit a trajectoires continues. Par exemple leprocessus de Poisson (standard) verifie la meme propriete de crochet mais il est a trajec-toires cadlag.

Demonstration : Le sens 1) ⇒ 2) est connu, cf. Remarques 6.6 et ??. On montre lareciproque. Pour cela, soit u ∈ Rd. Alors u ·Xt =

∑dj=1 ujX

jt est une martingale locale de

processus croissantd∑j=1

d∑k=1

ujuk〈Xj, Xk〉t =d∑j=1

u2j t = ‖u‖2t.

D’apres la Proposition 9.1 sur les exponentielles stochastiques, E(iuX) = exp(iu · Xt +

12‖u‖2t

)est une martingale locale. Cette martingale locale est bornee sur les intervalles

Page 177: Processus stochastique

9.3. Dubins-Schwarz 157

[0, T ], T > 0, il s’agit donc d’une vraie martingale. La propriete de martingale donne alorspour s < t

E[exp

(iu ·Xt +

1

2‖u‖2t

) ∣∣∣Fs] = exp

(iu ·Xs +

1

2‖u‖2s

).

En particulier, pour A ∈ Fs, on a :

E[1A exp

(iu · (Xt −Xs)

)]= E

[E[1A exp (iu · (Xt −Xs)) |Fs

]]= E

[1A exp

(−iu ·Xs −

1

2‖u‖2t

)E[exp

(iu ·Xt +

1

2‖u‖2t

)|Fs]]

= E[1A exp

(−iu ·Xs −

1

2‖u‖2t

)exp

(iu ·Xs +

1

2‖u‖2s

)]= P(A) exp

(−1

2‖u‖2(t− s)

). (9.10)

Avec A = Ω, (9.10) montre que Xt − Xs ∼ N (0, (t − s)Id). Ensuite pour A ∈ Fs deprobabilite P(A) > 0, en notant PA(·) = P(·|A), on a

EA[

exp(iu · (Xt −Xs)

)]= exp

(−1

2‖u‖2(t− s)

)ie. L(Xt−Xs|A) = N

(0, (t− s)Id

). Pour toute fonction mesurable positive f sur Rd, on a

EA[f(Xt −Xs)

]= E

[f(Xt −Xs)

]soit

E[1Af(Xt −Xs)

]= P(A)E

[f(Xt −Xs)

].

Comme c’est vrai pour tout A ∈ Fs, on a Xt−Xs ⊥⊥ Fs (argument de classes monotones).

Finalement, pour tout 0 = t0 < t1 < · · · < tp, le vecteur(X itj−X i

tj−1

)1≤i≤d1≤j≤p

est un vecteur

gaussien (car obtenu en regroupant p vecteurs gaussiens independants). Par transforma-tion lineaire, (Xti)1≤i≤p est encore un vecteur gaussien pour tout (ti)1≤i≤p et donc X est unprocessus gaussien. Comme le vecteur

(X itj−X i

tj−1

)1≤i≤d1≤j≤p

a ses composantes independantes,

le processus X est finalement gaussien, a accroissements independants et stationnaires et(par hypothese) a trajectoires continues : cela justifie que X1, . . . , Xd sont d mouvementsbrowniens independants.

9.3 Dubins-Schwarz

Le resultat suivant montre que pour les martingales locales, le crochet est une horlogeinterne qui permet de retrouver le processus quand on evalue un mouvement brownien avec

Page 178: Processus stochastique

158 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

cette horloge. C’est une preuve supplementaire du role central du mouvement browniendans la classe des martingales locales continues.

Theoreme 9.3 (Dubins-Schwarz) Soit M une martingale locale continue issue de 0 ettelle que 〈M,M〉∞ = +∞ ps. Alors, il existe un mouvement brownien β tel que

ps ∀t ≥ 0, Mt = β〈M,M〉t .

Remarque 9.4 — En grossissant l’espace de probabilite on peut se debarrasser dela restriction 〈M,M〉∞ = +∞ ps.

— Le mouvement brownien β n’est pas adapte par rapport a la filtration (Ft)t≥0

initiale de M , mais par rapport a une filtration « changee de temps ».— Il s’agit d’un resultat existentiel : le resultat est valable pour un certain mouve-ment brownien (construit par la preuve du theoreme) et pas pour un mouvementbrownien quelconque.

Demonstration : Pour tout r ≥ 0, on definit un temps d’arret τr en posant

τr = inf(t ≥ 0 : 〈M,M〉t > r

).

L’hypothese sur 〈M,M〉 assure que τr < +∞ ps. De plus, la fonction r 7→ τr est— croissante car si r ≤ s alors

t ≥ 0 : 〈M,M〉t > s ⊂ t ≥ 0 : 〈M,M〉t > r

et en passant aux inf : τr ≤ τs ;— continue a droite car si on note α = limsr τs, on a d’abord α ≥ τr par croissance,

puis si l’inegalite est stricte, on aurait τr < β < α ≤ τs pour tout s > r etnecessairement r < 〈M,M〉β ≤ s pour tout s > r ce qui est absurde (car on peutprendre s arbitrairement proche de r) ;

— avec des limites a gauche en r > 0 avec

limsr

τs = τr− = inf(t ≥ 0 : 〈M,M〉t = r

).

La fonction r 7→ τr est donc croissante cadlag. On pose alors βr = Mτr . Le processus βest adapte par rapport a la filtration donnee par Gr = Fτr , r ≥ 0. Remarquons que cettefiltration satisfait les conditions habituelles (puisque lorsque (Tn)n≥1 est une suite de tempsd’arret decroissants vers T on a FT =

⋂n≥1FTn , cf. Prop. 5.2).

Lemme 9.1 Les intervalles de constance de M et de 〈M,M〉 sont ps les memes. End’autres termes, on a ps pour tous a < b,

Mt = Ma,∀t ∈ [a, b]⇐⇒ 〈M,M〉t = 〈M,M〉a,∀t ∈ [a, b].

Page 179: Processus stochastique

9.4. Representation des martingales (browniennes) 159

Demonstration : De la gauche vers la droite, utiliser l’approximation habituelle de〈M,M〉t. De la droite vers la gauche, appliquer le Corollaire 6.1 (〈M,M〉 = 0 : M estindistinguable de M0) au processus M(a+t)∧T −Ma pour un temps d’arret T convenable.

Revenons a la preuve du Theoreme 9.3. On a ps pour tout r > 0,

limsr

βs = limsr

Mτs = Mτr−= Mτr = βr.

ou l’avant derniere egalite vient du Lemme 9.1 et du fait que pour t ∈ [τr− , τr], on a〈M,M〉t = r. Par ailleurs, par composition de telles fonctions, les trajectoires de β sontclairement continues a droite ; on conclut que le processus β est a trajectoires continues.

Nous montrons ensuite que βs et β2s − s sont des martingales relativement a la filtration

(Gs)s≥0. Pour tout n ≥ 1, les martingales locales arretees M τn et (M τn)2 − 〈M,M〉τnsont des vraies martingales uniformement integrables (d’apres le Theoreme 6.3 puisque〈M τn ,M τn〉∞ = 〈M,M〉τn = n). Le theoreme d’arret s’applique pour ces martingales uni-formement integrables et donne alors pour r ≤ s ≤ n :

E[βs|Gr] = E[M τnτs |Fτr ] = M τn

τr = βr

et

E[β2s − s|Gr] = E

[(M τn

τs )2 − 〈M τn ,M τn〉τs|Fτr]

= (M τnτr )2 − 〈M τn ,M τn〉τr

= β2r − r.

On a donc 〈β, β〉s = s. Le Theoreme 9.2 (Theoreme de Levy avec d = 1) assure alors queβ est un (Gr)r≥0-mouvement brownien. Finalement, par definition de β, on a ps pour toutt ≥ 0,

β〈M,M〉t = Mτ〈M,M〉t.

On aτ〈M,M〉t = inf

(s ≥ 0 : 〈M,M〉s > 〈M,M〉t

)≥ t,

si l’inegalite est stricte alors 〈M,M〉 est constante sur [t, τ〈M,M〉t ], et d’apres le Lemme 9.1M aussi, ce qui assure Mτ〈M,M〉t

= Mt et conclut que ps pour tout t ≥ 0 on a Mt = β〈M,M〉t .Par continuite des trajectoires, les deux processus sont indistinguables.

9.4 Representation des martingales (browniennes)

Nous montrons que lorsque la filtration est engendree par un mouvement brownien,toutes les martingales pour cette filtration peuvent etre representees comme integralesstochastiques par rapport a ce mouvement brownien.

Page 180: Processus stochastique

160 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

Theoreme 9.4 (Representation des martingales) On suppose que la filtration (Ft)t≥0

sur Ω est (l’augmentation habituelle de) la filtration canonique d’un mouvement brownienB issu de 0. Alors, pour toute variable aleatoire Z ∈ L2(Ω,F∞), il existe un (unique)processus h ∈ L2(B) (en particulier progressif donc adapte) tel que

Z = E[Z] +

∫ +∞

0

h(s, ω) dBs.

Par consequent, pour toute martingale M continue et bornee dans L2 (respectivement pourtoute martingale locale M continue), il existe un (unique) processus h ∈ L2(B) (resp.h ∈ L2

loc(B)) et une constante C reelle tels que

Mt = C +

∫ t

0

h(s, ω) dBs.

La preuve utilise le resultat suivant de densite.

Lemme 9.2 Sous les hypotheses du theoreme precedent, l’espace vectoriel engendre parles variables aleatoires

exp(i

n∑j=1

λj(Btj −Btj−1))

pour 0 = t0 < t1 < · · · < tn et λ1, . . . , λn ∈ R est dense dans L2C(Ω,F∞).

Demonstration :[Lemme 9.2] Il suffit de montrer que si Z ∈ L2C(Ω,F∞) verifie

E

[Z exp

(i

n∑j=1

λj(Btj −Btj−1))]

= 0 (9.11)

pour tout choix de 0 = t0 < t1 < · · · < tn et λ1, . . . , λn ∈ R alors Z = 0.Soient 0 = t0 < t1 < · · · < tn fixes et on note gm,σ2(x), x ∈ R, la densite de la loi N (m,σ2),m ∈ R, σ2 > 0. La condition (9.11) assure que pour tous σ2

1, . . . , σ2n > 0 et m1, . . . ,mn ∈ R,

on a

0 =

∫Rn

n∏j=1

gmj ,σ2j(λj)E

[Z exp

(i

n∑j=1

λj(Btj −Btj−1))]

dλ1 . . . dλj

= E

[Z

n∏j=1

exp

(imj(Btj −Btj−1

)−σ2j (Btj −Btj−1

)2

2

)]

ou la deuxieme egalite vient du theoreme de Fubini et de l’expression de la fonction carac-teristique d’une loi gaussienne. On obtient pour tous m1, . . . ,mn ∈ R et α1, . . . , αn > 0 :

E

[Z

n∏j=1

exp(imj(Btj −Btj−1

)− αj(Btj −Btj−1)2)]

= 0.

Page 181: Processus stochastique

9.4. Representation des martingales (browniennes) 161

Le theoreme de Stone-Weierstrass garantit que les combinaisons lineaires complexes de lafonction constante egale a 1 et des fonctions de la forme

(y1, . . . , yn) 7→ exp( n∑j=1

(imjyj − αjy2j ))

avec α1, . . . , αm > 0 et m1, . . . ,mn ∈ R sont denses dans l’espace C`(Rn,C) des fonctionscontinues de Rn dans C qui ont une limite a l’infini, muni de la norme de la convergenceuniforme. Par un passage a la limite, on obtient donc, pour toute fonction ϕ ∈ C`(Rn,C),

E[Z ϕ(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1)

]= 0.

On a donc, d’abord par approximation, pour tout ouvert borne U de Rn puis, par unargument de classe monotone, pour tout borelien U de Rn :

E[Z 1U(Bt1 , Bt2 −Bt1 , . . . , Btn −Btn−1)

]= 0.

Finalement, on a obtenu l’egalite E[Z1A] = 0 pour tout A ∈ σ(Bt1 , . . . , Btn). Avec undernier argument de classe monotone, on montre que cette egalite reste vraie pour toutA ∈ σ(Bt : t ≥ 0) ; puis, par completion, pour tout A ∈ F∞. On conclut finalement queZ = 0 ce qui etablit le lemme.

Demonstration :(du Theoreme 9.4) On montre d’abord la premiere assertion. Pour cela,on note H l’espace vectoriel des variables aleatoires Z ∈ L2(Ω,F∞) qui ont la propriete

annoncee. Remarquons que l’unicite de h est facile a etablir puisque si h et h correspondenta la meme variable aleatoire Z, on a par isometrie :

E[∫ +∞

0

(h(s, ω)− h(s, ω))2 ds

]= E

[(∫ +∞

0

h(s, ω) dBs −∫ +∞

0

h(s, ω)) dBs

)2]

= 0,

d’ou h = h dans L2(B). Si Z ∈ H correspond a h,

E[Z2] = E[Z]2 + E[∫ +∞

0

h(s, ω)2 ds

].

Il en decoule facilement que si (Zn)n≥0 est une suite dans H qui converge dans L2(Ω,F∞)vers Z, les processus hn associes a Zn forment une suite de Cauchy dans L2(B) doncconvergent vers h ∈ L2(B). D’apres la propriete d’isometrie de l’integrale stochastique(Theoreme ??) on a alors Z = E[Z] +

∫ +∞0

h(s, ω) dBs et H est donc ferme.

Ensuite, pour 0 = t0 < t1 < · · · < tn et λ1, . . . , λn ∈ R, notons f(s) =∑n

j=1 λj1]tj−1,tj ](s)

et Eft la martingale exponentielle E(i∫ ·

0f(s) dBs

)(cf. Proposition 9.1). La formule d’Ito

pour l’exponentielle stochastique (cf. (9.9)) montre que

exp(i

n∑j=1

λj(Btj −Btj−1) +

1

2

n∑j=1

λ2j(tj − tj−1)

)= Ef∞ = 1 + i

∫ +∞

0

Efs f(s) dBs

Page 182: Processus stochastique

162 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

soit

exp(i

n∑j=1

λj(Btj −Btj−1))

= exp(− 1

2

n∑j=1

λ2j(tj − tj−1)

)+ i

∫ +∞

0

exp(− 1

2

n∑j=1

λ2j(tj − tj−1)

)Efs f(s) dBs

c’est a direexp

(i

n∑j=1

λj(Btj −Btj−1)

): λj ∈ R, 0 = t0 < t1 · · · < tn, n ∈ N

⊂ H

et d’apres le Lemme 9.2,

L2(Ω,F∞) = Vect

exp

(i

n∑j=1

λj(Btj −Btj−1)

): λj ∈ R, 0 = t0 < t1 · · · < tn, n ∈ N

⊂ H = H.

On a donc H = L2(Ω,F∞) ce qui prouve la premiere partie du theoreme.

Soit maintenant M une martingale continue et bornee dans L2, alors, d’apres la premierepartie, M∞ ∈ L2(Ω,F∞) s’ecrit, avec h ∈ L2(B), sous la forme

M∞ = E[M∞] +

∫ +∞

0

h(s, ω) dBs.

Par conditionnement, il vient :

Mt = E[M∞|Ft] = E[M∞] +

∫ t

0

h(s, ω) dBs.

L’unicite de h s’obtient comme dans la premiere partie.

Enfin, soit M une martingale locale (continue), on a d’abord M0 = C ∈ R parce que F0 estP-triviale (ce qu’on peut deduire soit de la premiere partie de la preuve soit du Chapitre4). Si Tn = inf

(t ≥ 0 : |Mt| ≥ n

)on peut appliquer ce qui precede a la martingale arretee

MTn et trouver un processus hn ∈ L2(B) tel que

MTnt = C +

∫ t

0

hn(s, ω) dBs.

Par unicite dans la deuxieme partie, si m < n, on a hn(s, ω) = hm(s, ω), ds-pp sur [0, Tm]ps. Il est alors facile de construire h ∈ L2

loc(B) tel que, pour tout m, h(s, ω) = hm(s, ω)ds-pp sur [0, Tm] ps. La formule annoncee decoule ensuite de la construction de l’integralestochastique

∫ t0h(s, ω) dBs et l’unicite de h s’obtient aussi facilement par un argument de

localisation.

Page 183: Processus stochastique

9.4. Representation des martingales (browniennes) 163

Remarque 9.5 Sous les hypotheses du Theoreme 9.4, notons N la classe des P-neglige-ables de σ(Bt : t ≥ 0) et pour tout t ≥ 0, Gt = σ(Bs : 0 ≤ s ≤ t) ∨ N . A priori, on aFt = Gt+ . En fait, le Theoreme 9.4 entraıne que Gt = Gt+ = Ft (le cas t = 0 est la loi deBlumenthal). En effet, si Z est une variable aleatoire Ft-mesurable bornee, on a

Z =

∫ t

0

h(s, ω) dBs = (L2)- limε↓0

∫ t−ε

0

h(s, ω) dBs.

et quitte a prendre une sous-suite, on voit que Z est limite ps de variables (Gt)t-mesurables(car si ε > 0 : Ft−ε ⊂ Gt).

Page 184: Processus stochastique

164 Chapitre 9. c©JCB – M2 Math. – Universite de Rennes 1

Page 185: Processus stochastique

Bibliographie

[App] David Applebaum. Levy Processes and Stochastic Calculus. Cambridge series inadvanced mathematics, vol. 93, 2004.

[BC] Bernard Bercu, Djalil Chafaı. Modelisation stochastique et simulation. Dunod, 2007.

[JCB-L3] Jean-Christophe Breton. Fondement des Probabilites. Notes de cours, L3 Mathe-matiques, Universite de Rennes 1, 2013.

[Bil2] Patrick Billingsley. Convergence of Probability measures. 2nd Edition, Wiley seriesin probabilities and mathematical statistics, 1999.

[Chung] Kai Lai Chung. A course in probability theory. 3rd Edition, Academic Press, 2001.

[CM] Francis Comets, Thierry Meyre. Calcul stochastique et modeles de diffusions. Dunod,2006.

[CT] Rama Cont, Peter Tankov. Financial modelling with Jump Processes. Chapman &Hall, 2003.

[Dav] Youri Davydov. Cours de DEA ”Processus stochastiques”. Universite Lille 1, 1999–2000.

[DM] Claude Dellacherie, Pierre-Andre Meyer. Probabilites et potentiels. Hermann, 1975.

[EGK] Nicole El Karoui, Emmanuel Gobet, Etienne Pardoux. Introduction au calcul sto-chastique. Ecole Polytechnique, 2001.

[Fel] William Feller. An introduction to probability theory and its applications. Vol. 1. 3rdEdition, Wiley series in probabilities and mathematical statistics, 1968.

[Gal] Leonard Gallardo. Mouvement brownien et calcul d’Ito. Coll. Methodes mathema-tiques. Ed. Hermann. 2008.

[Gue] Helene Guerin. Processus a temps continu. Notes de cours, M2 Mathematiques, Uni-versite de Rennes 1, 2009.

[Kal] Olav Kallenberg. Foundations of modern probability. 2nd Edition, Springer Series inStatistics. Probability and its Applications, 2002.

[KS] Ioannis Karatzas, Steven E. Shreve. Brownian motion and stochastic calculus. Sprin-ger, 1987.

[Kin] John Kingman. Poisson processes. Oxford University Press, 1993.

[LG0] Jean-Francois Le Gall. Introduction au mouvement brownien. Gazette des Mathe-maticiens, vol. 40, 1989.

165

Page 186: Processus stochastique

166 Bibliographie

[LG1] Jean-Francois Le Gall. Mouvement brownien, martingales et calcul stochastique.Spinger, Coll. Mathematiques et applications, vol. 71, 2013. Voir les notes de coursM2 Mathematiques de l’Universite Paris sud-Orasy.

[Lif] Michel Lifshits. Gaussian random functions, Kluwer, 1995.

[Mal] Florent Malrieu. Processus de Markov et inegalites fonctionnelles. Notes de cours deMaster 2, 2005–2006.

[Pro] Philipp Protter. Stochastic integration and differential equations. Springer, 1995.

[RY] Daniel Revuz, Marc Yor. Continuous martingales and Brownian motion. Springer,1991.

[Tud] Ciprian Tudor. Cours de calcul stochastique. Notes de cours M2 Mathematiques,Universite Lille 1, 2011.