Calcul Stochastique des martingales continues

105
Universit ´ e Pierre et Marie Curie, Paris 6 Master de Math ´ ematiques 2015-2016 M2–Probabilit´ es et Finance Calcul Stochastique des martingales continues Philippe Bougerol 3 D´ ecembre 2015 1

Transcript of Calcul Stochastique des martingales continues

Page 1: Calcul Stochastique des martingales continues

Universite Pierre et Marie Curie, Paris 6

Master de Mathematiques 2015-2016

M2–Probabilites et Finance

Calcul Stochastiquedes martingales continues

Philippe Bougerol

3 Decembre 2015

1

Page 2: Calcul Stochastique des martingales continues
Page 3: Calcul Stochastique des martingales continues

TABLE DES MATIERES

1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.1. Modelisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.3. Un ”primer” sur l’integrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4. Integrale de Wiener et theoreme de Cameron Martin. . . . . . . . . . . . . 51.5. Une formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.6. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11

2. Integration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2. Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3. Espaces L1, L1,L2, L2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.4. Convergence en probabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.5. Uniforme integrabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.6. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.7. Tribu engendree. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.8. Loi d’une variable aleatoire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242.9. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252.10. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.11. Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3. Mouvement Brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 323.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.4. Definition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.6. Propriete de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 37

Page 4: Calcul Stochastique des martingales continues

4 TABLE DES MATIERES

3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 403.8. Construction de P. Levy du mouvement brownien. . . . . . . . . . . . . . . . 413.9. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.1. Martingales, definition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454.2. Martingales a temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464.3. Martingale continue a droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484.4. Formulaire sur l’esperance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 51

5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555.2. Premiers pas, a temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 565.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605.5. Processus a variation finie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 635.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

6. Integrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 696.1. Cas d’une martingale de carre integrable. . . . . . . . . . . . . . . . . . . . . . . . . . 696.2. Cas d’une martingale locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 736.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 756.4. Formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 817.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 837.3. Theoremes de representation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 867.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 897.5. Critere de Novikov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 907.6. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

8. Equations differentielles stochastiques. . . . . . . . . . . . . . . . . . . . . . . . . . . 938.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 938.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 948.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 968.4. Propriete de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 988.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 998.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

Page 5: Calcul Stochastique des martingales continues

CHAPITRE 1

INTRODUCTION AU CALCUL

STOCHASTIQUE

Introduction tres tres sommaire et volontairement caricaturale, sans toutes

les justifications mathematiques, pour l’instant.

1.1. Modelisation

On cherche a modeliser (construire des modeles) et faire des calculs sur des

phenomenes evoluant dans le temps qui dependent du hasard.

La valeur Xt du phenomene a l’instant t, peut etre observee a cet instant,

mais pas predite avant. Entre les instants t et t+h une part de hasard s’ajoute.

On s’interesse dans ce cours au cas ou la fonction t 7→ Xt est continue. Pour

faire simple supposons que Xt est a valeurs dans R. On va avoir, pour t, h ≥ 0,

Xt+h = Xt + ∆ht

ou ∆ht est aleatoire. L’idee fondamentale est qu’au moins dans un premier

temps, pour h tres tres (infinitesimalement...) petit, ∆ht peut s’ecrire

∆ht = Htε

ht

ou εht est une variable aleatoire independante de tout ce qui precede et de loi

ne dependant que de h (et donc pas de t) et ou Ht est une fonction continue

de t, ”observable a l’instant t”, par exemple une fonction de Xt. On va voir

que c’est tres operationnel.

C’est assez naturel. Dans le cas deterministe (c’est a dire sans hasard), et

si Xt est derivable, on a bien ce type de modelisation en prenant pour Ht la

derivee a l’instant t et en prenant εht = h.

Page 6: Calcul Stochastique des martingales continues

2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

1.2. Bruit

Le fait d’avoir pris h ≥ 0 (infinitesimalement) petit entraıne des contraintes.

Si on remplace h par h = h1 + h2, avec h1, h2 ≥ 0, on a

Xt+h = Xt +Htεht

= Xt+h1+h2 = Xt+h1 +Ht+h1εh2t+h1

= Xt +Htεh1t +Ht+h1ε

h2t+h1

.

Pour h1 tres petit on a par continuite Ht+h1 ∼ Ht. On arrive donc a

εht ∼ εh1t + εh2t+h1 .

De proche en proche, pour h tres petit,

εht ∼ εh/nt + ε

h/nt+h/n + ε

h/nt+2h/n + · · ·+ ε

h/nt+(n−1)h/n.

Nous avons suppose que εht est une variable aleatoire independante de tout ce

qui precede et de loi ne dependant pas de t. On voit donc que necessairement,

εht est la somme de n variables aleatoires independantes et de meme loi. Une

variante du theoreme de la limite centrale (qui utilise que les εht sont petits ...)

nous conduit a dire qu’alors εht a une loi gaussienne. Notons mh sa moyenne

et σ2h sa variance. La relation

εht = εh1t + εh2t+h1

entraıne que

mh1+h2 = mh1 +mh2 , σ2h1+h2 = σ2

h1 + σ2h2

donc (par exemple si ces coefficients sont continus), il existe a ∈ R et σ ≥ 0

tels que mh = ah et σ2h = σ2h.

On voit donc que l’on peut ecrire

εht = ah+ σ(Bt+h −Bt)

ou Bt est un mouvement brownien sur un espace de probabilite (Ω,A,P),

c’est a dire un processus (=famille de variables aleatoires) continu forme de

v.a. gaussiennes telles que Bt ∼ N(0, t) et Bt+h − Bt est independant de

Br, 0 ≤ r ≤ t.

On etait parti de

Xt+h = Xt +Htεht

donc on a, au moins infinitesimalement,

Xt+h = Xt +Ht(ah+ σ(Bt+h −Bt)).

Page 7: Calcul Stochastique des martingales continues

1.3. UN ”PRIMER” SUR L’INTEGRALE D’ITO 3

Si σ = 0 cela s’interprete par l’equation differentielle

dXt

dt= aHt

ce qui s’ecrit aussi sous forme integrale

Xt −X0 =

∫ t

0aHs ds.

On va voir par contre que si σ > 0 alors Xt ne peut pas etre derivable. On

va donc plutot garder la forme integrale en ecrivant que

Xt −X0 =

∫ t

0aHs ds+

∫ t

0σHs dBs

ou il faut donner un sens a l’integrale dite stochastique∫ t

0 σHs dBs. On verra

qu’il est aussi utile de generaliser en ne prenant pas le meme facteur Hs dans

les deux termes, ce qui s’interprete en distinguant bien la partie aleatoire de

la partie deterministe de l’accroissement.

1.3. Un ”primer” sur l’integrale d’Ito

Le mot ”primer” est anglais et signifie ”premiere couche” en metallurgie.

Pour un processus continu par morceaux Ht on veut donner un sens a∫ t

0Hs dBs.

On va voir que c’est possible et naturel sous l’hypothese que l’on a deja

evoquee, que Ht est observable a l’instant t. Il faudra donner un sens a ca (et

on dira adapte), mais disons que la propriete essentielle dont on va se servir

ici est que l’accroissement Bt+h −Bt, h ≥ 0 est independant de Hs, s ≤ t.La definition simple ”naturelle” ressemble a l’integrale de Riemann : si

Ht =

n∑i=1

Hti1[ti,ti+1[(t)

par analogie avec la formule qui se verifie facilement∫ t

0Hs ds =

n∑i=1

Hti(ti+1 ∧ t− ti ∧ t)

(ou s ∧ t = min(s, t)), on pose∫ t

0Hs dBs =

n∑i=1

Hti(Bti+1∧t −Bti∧t).

Page 8: Calcul Stochastique des martingales continues

4 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

Lemme 1.3.1. — Si Hs ∈ L2 pour tout s > 0, alors pour t > 0,

E(

∫ t

0Hs dBs) = 0,

E((

∫ t

0Hs dBs)

2) = E(

∫ t

0H2s ds).

Preuve: Montrons la seconde egalite :

E((∫ t

0 Hs dBs)2) = E((

n∑i=1

Hti(Bti+1∧t −Bti∧t))2)

=

n∑i,j=1

E(HtiHtj (Bti+1∧t −Bti∧t)(Btj+1∧t −Btj∧t))

=

n∑i=1

E(Hti2(Bti+1∧t −Bti∧t)2) +

+2∑i<j

E(HtiHtj (Bti+1∧t −Bti∧t)(Btj+1∧t −Btj∧t))

=n∑i=1

E(Hti2)E((Bti+1∧t −Bti∧t)2) +

+2∑i<j

E(HtiHtj (Bti+1∧t −Bti∧t))E(Btj+1∧t −Btj∧t)

en utilisant l’independance. Puisque E((Bti+1∧t − Bti∧t)2) = ti+1 − ti et

E((Btj+1∧t −Btj∧t)) = 0 on obtient que

E((

∫ t

0Hs dBs)

2) =

n∑i=1

E(Hti2)(ti+1 ∧ t− ti ∧ t) =

∫ t

0E(Hs

2) ds.

On veut prolonger cette construction a d’autres processus H. On le fait de

la facon suivante : si H(n)t , t ≥ 0, est une suite de processus du type precedent

pour laquelle il y a un processus H tel que H(n) → H au sens ou pour tout

t ≥ 0, ∫ t

0E(H(n)

s −Hs)2 ds→ 0

alors, la suite∫ t

0 H(n)s dBs est une suite de Cauchy dans l’espace L2(Ω,F ,P)

puisque

E([

∫ t

0H(n)s dBs −

∫ t

0H(m)s dBs]

2)

Page 9: Calcul Stochastique des martingales continues

1.4. INTEGRALE DE WIENER ET THEOREME DE CAMERON MARTIN 5

= E([

∫ t

0(H(n)

s −H(m)s ) dBs]

2)

= E(

∫ t

0(H(n)

s −H(m)s )2 ds)

=

∫ t

0E((H(n)

s −H(m)s )2) ds

par le lemme. L’espace L2(Ω,F ,P) etant complet (Hilbert), cette suite∫ t0 H

(n)s dBs converge. On appelle∫ t

0Hs dBs

sa limite. Elle verifie, par passage a la limite, comme au dessus

Proposition 1.3.2. —

E(

∫ t

0Hs dBs) = 0,

E((

∫ t

0Hs dBs)

2) = E(

∫ t

0H2s ds).

Supposons que Ht, t ≥ 0, est un processus continu borne tel que Ht est

σ(Bs, 0 ≤ s ≤ t) mesurable. Alors la suite de processus

H(n)t =

n−1∑k=0

H kTn

1[ kTn,(k+1)T

n[(t)

approxime bien H au sens precedent sur l’intervalle [0, T ] (utiliser le theoreme

de convergence dominee). On peut donc lui appliquer la construction

precedente. En fait on verra qu’au lieu d’etre borne, il suffit que

E(

∫ T

0H2s ds) <∞.

1.4. Integrale de Wiener et theoreme de Cameron Martin

Considerons le cas tres particulier d’un processus Ht(ω), t ≥ 0, ω ∈ Ω,

qui ne depend pas de ω. Autrement dit il existe une fonction f : R+ → Rtelle que Ht(ω) = f(t) pour tout t ≥ 0, ω ∈ Ω. Dans ce cas l’integrale

stochastique a ete introduite des les annees 30 par Wiener et porte parfois

le nom d’integrale de Wiener. Si f ∈ L2([0, T ],m), ou m est la mesure de

Lebesgue, il existe une suite de fonctions fn constantes par morceaux, donc

de la forme fn =∑kn

i=1 ani 1[tni ,t

ni+1[ tels que fn → f dans L2([0, T ],m). Dans

Page 10: Calcul Stochastique des martingales continues

6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

ce cas, par le paragraphe precedent,∫ t

0 f(s)dBs est la limite dans L2(Ω) de∫ t0 fn(s)dBs. Remarquons que∫ t

0fn(s)dBs =

kn∑i=1

ani (Bt∧tni+1−Bt∧tni )

a une loi gaussienne d’esperance nulle et de variance∫ t

0 fn(s)2ds, donc pour

tout λ ∈ R

E(exp (iλ

∫ t

0fn(s)dBs)) = exp (−1

2λ2

∫ t

0fn(s)2ds)

et quand n→ +∞, puisque∫ t

0 fn(s)2ds→∫ t

0 f(s)2ds,

E(exp (iλ

∫ t

0f(s)dBs)) = exp (−1

2λ2

∫ t

0f(s)2ds).

On a donc montre,

Proposition 1.4.1. — Si f ∈ L2([0, T ],m),∫ t

0 f(s)dBs a une loi gaussienne

centree de variance∫ t

0 f(s)2ds

Pour une fonction f ∈ L2([0, T ],m) posons

Z = exp[

∫ T

0f(s)dBs −

1

2

∫ T

0f(s)2ds]

et sur l’espace de probabilite (Ω,A,P) definissons une probabilite Q par la

formule, pour tout A ∈ A

Q(A) =

∫1AZdP.

Si on note EQ l’esperance par rapport a Q et E l’esperance par rapport a P,

on a pour toute fonction mesurable positive X

EQ(X) =

∫XdQ =

∫XZdP = E(XZ)

Theoreme 1.4.2 (Cameron Martin). — Sur l’espace de probabilite

(Ω,A,Q),

BQt = Bt −

∫ t

0f(s)ds

est, pour 0 ≤ t ≤ T , un mouvement brownien.

Page 11: Calcul Stochastique des martingales continues

1.5. UNE FORMULE D’ITO 7

Preuve: Soit g ∈ L2([0, T ],m). Calculons

EQ(exp[

∫ T

0g(t)dBQ

t ]).

On a ∫ T

0g(t)dBQ

t =

∫ T

0g(t)dBt −

∫ T

0g(t)f(t)dt

donc

EQ(exp[

∫ T

0g(t)dBQ

t ]) = E(exp[

∫ T

0g(t)dBQ

t ]Z)

= E(exp[

∫ T

0g(t)dBt −

∫ T

0g(t)f(t)dt+

∫ T

0f(t)dBt −

1

2

∫ T

0f(t)2dt])

= exp[−∫ T

0(g(t)f(t) +

1

2f(t)2)dt]E(exp[

∫ T

0[g(t) + f(t)]dBt]).

On sait par la proposition precedente que∫ T

0 [g(t)+f(t)]dBt a une loi normale

centree de variance∫ T

0 [g(t) + f(t)]2dt donc

E(exp[

∫ T

0[g(t) + f(t)]dBt]) = exp[

1

2

∫ T

0[g(t) + f(t)]2dt]

On obtient donc

EQ(exp[

∫ T

0g(t)dBQ

t ]) = exp[−∫ T

0(g(t)f(t)+

1

2f(t)2)dt] exp[

1

2

∫ T

0[g(t)+f(t)]2dt]

= exp[1

2

∫ T

0g(t)2dt]

Le theoreme s’en deduit en prenant g(t) =∑n

k=1 λk1[0,tk](t) on voit que le

vecteur (BQt1, · · · , BQ

tn) a sous Q la meme transformee de Fourier, donc la meme

loi que (Bt1 , · · · , Btn) et est donc un mouvement brownien.

1.5. Une formule d’Ito

Commencons par un resultat fondamental, qui est tout a fait particulier au

mouvement brownien.

Theoreme 1.5.1. — Si B est un mouvement brownien si tn0 = 0 < tn1 <

· · · < tnn−1 < tnn = t est une suite de subdivisions de [0, t] dont le pas

sup0≤k≤n−1 |tnk+1 − tnk | tend vers 0, alors, dans L2,

limn→∞

n−1∑k=0

(Btnk+1−Btnk )2 = t.

Page 12: Calcul Stochastique des martingales continues

8 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

En fait montrons le resultat plus general suivant :

Proposition 1.5.2. — Sous les memes hypotheses, si f est une fonction

mesurable bornee, alors dans L2,

limn→∞

n−1∑k=0

f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)] = 0.

Preuve:

E(

(n−1∑k=0

f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]

)2

)

= E(n−1∑k=0

n−1∑r=0

f(Btnk )f(Btnr )[(Btnk+1−Btnk )2−(tnk+1−tnk)][(Btnr+1

−Btnr )2−(tnr+1−tnr )])

=n−1∑k=0

E(f(Btnk )2[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]2)

+2∑

0≤k<r<nEf(Btnk )f(Btnr )[(Btnk+1

−Btnk )2−(tnk+1−tnk)][(Btnr+1−Btnr )2−(tnr+1−tnr )])

On utilise l’independance des accroissements (esperance du produit est egal

au produit des esperances) :

=

n−1∑k=0

E(f(Btnk )2)E[((Btnk+1−Btnk )2 − (tnk+1 − tnk))2)

+2∑

0≤k<r<nE[f(Btnk )f(Btnr )((Btnk+1

−Btnk )2−(tnk+1−tnk))]E[(Btnr+1−Btnr )2−(tnr+1−tnr )].

Or, puisque Bt+h −Bt a la meme loi que√hB1,

E[(Btnr+1−Btnr )2 − (tnr+1 − tnr )] = 0

E[((Btnk+1−Btnk )2 − (tnk+1 − tnk))2) = E[((

√tnk+1 − tnk)B1)2 − (tnk+1 − tnk))2)

= (tnk+1 − tnk)2E[(B21 − 1)2].

Donc

E(

(n−1∑k=0

f(Btnk )[(Btnk+1−Btnk )2 − (tnk+1 − tnk)]

)2

)

=

n−1∑k=0

(tnk+1 − tnk)2E(f(Btnk )2)E[(B21 − 1)2].

Page 13: Calcul Stochastique des martingales continues

1.5. UNE FORMULE D’ITO 9

Or ceci se majore par, si C = E[(B21 − 1)2] max f2,

Cn−1∑k=0

(tnk+1 − tnk)2 ≤ C sup0≤k≤n−1

|tnk+1 − tnk |n−1∑k=0

(tnk+1 − tnk)

≤ Ct sup0≤k≤n−1

|tnk+1 − tnk |

qui tend vers 0.

Theoreme 1.5.3 (Une formule d’Ito). — Si f : R → R est a derivee

seconde continue,

f(Bt) = f(B0) +

∫ t

0f ′(Bs) dBs +

1

2

∫ t

0f ′′(Bs) ds.

Preuve: On peut se ramener au cas f est a support compact. On va utiliser

la formule de Taylor (Taylor-Lagrange) : pour tout x, y il existe z entre x et y

tels que

f(y)− f(x) = f ′(x)(y − x) +1

2f ′′(z)(y − x)2.

On prend une suite de subdivisions de [0, t], par exemple tnk = ktn .

f(Bt)− f(B0) =n−1∑k=0

(f(Btnk+1)− f(Btnk ))

=

n−1∑k=0

f ′(Btnk )(Btnk+1−Btnk ) +

1

2

n−1∑k=0

f ′′(θkn)(Btnk+1−Btnk )2

ou θkn est entre Btnk et Btnk+1.

Comme ca ne depend pas de n c’est egal a sa limite quand n → +∞.

Prenons la limite de chacun des deux termes de la somme pour une sous suite

(en utilisant que la convergence L2 entraıne la convergence p.s. pour une sous

suite). Pour le premier, on remarque d’abord que

n−1∑k=0

f ′(Btnk )(Btnk+1−Btnk ) =

∫ t

0Zns dBs

ou

Znt =

n−1∑k=0

f ′(Btnk )1[tnk ,tnk+1](t).

Donc,

E([

n−1∑k=0

f ′(Btnk )(Btnk+1−Btnk )−

∫ t

0f ′(Bs) dBs]

2)

Page 14: Calcul Stochastique des martingales continues

10 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE

= E([

∫ t

0(Zns − f ′(Bs)) dBs]2)

= E(

∫ t

0(Zns − f ′(Bs))2 ds)

qui tend vers 0 par le theoreme de convergence dominee usuel. Donc, dans L2,

n−1∑k=0

f ′(Btnk )(Btnk+1−Btnk )→

∫ t

0f ′(Bs) dBs.

On regarde maintenant le dernier terme :

n−1∑k=0

[f ′′(θnk )− f ′′(Btnk )](Btnk+1−Btnk )2

≤ sup1≤r≤n−1

|f ′′(θnr )− f ′′(Btnr )|n−1∑k=0

(Btnk+1−Btnk )2

tend vers 0, p.s. suivant une sous suite car f ′′ est uniformement continue. Par

la proposition, dans L2,

limn→∞

n−1∑k=0

f ′′(Btnk )(Btnk+1−Btnk )2 = lim

n→∞

n−1∑k=0

f ′′(Btnk )(tnk+1 − tnk)

=

∫ t

0f ′′(Bs) ds

puisque f ′′ est continue (approximation de l’integrale de Riemann).

On laisse en exercice la generalisation suivante tres utile, en utilisant la

formule de Taylor pour une fonction de deux variables.

Theoreme 1.5.4 (Une formule d’Ito). — Si f : R+ × R → R, (t, x) 7→f(t, x) est a derivees secondes continues,

f(t, Bt) = f(0, 0) +

∫ t

0

∂f

∂t(s,Bs) ds

∫ t

0

∂f

∂x(s,Bs) dBs +

1

2

∫ t

0f ′′(s,Bs) ds

1.5.1. Deux calculs. —

B2t = 2

∫ t

0Bs dBs + t.

Si Zt = exp(λBt − λ2t2

2 ) alors

Zt = 1 +

∫ t

0λZsdBs.

Page 15: Calcul Stochastique des martingales continues

1.6. BILIOGRAPHIE POUR TOUT LE COURS 11

1.6. Biliographie pour tout le cours

R. Bass : Stochastic Processes, Cambridge University Press, 2011.

F. Baudoin : Diffusion Processes and Stochastic Calculus, EMS Textbooks

in mathematics, 2014.

R. Durrett : Stochastic calculus, A practical Introduction, 1996. CRC Press.

I. Karatzas, S. Shreve : Brownian motion and stochastic calculus, Second

Edition 1991. Springer.

F.C Klebaner : Introduction to Stochastic Calculus with Applications, Second

Edition 2005. Imperial College Press.

J.-F. Le Gall : Mouvement brownien, martingales et calcul stochas-

tiqueSpringer, Collection : Mathematiques et Applications, Vol. 71, 2013.

(Recommande)

B. Oksendal : Stochastic differential equations, 6th edition, 2010. Springer.

(Beaucoup d’applications)

Ph. Protter : Stochastic Integration and Differential Equations, Second Edi-

tion Version 2.1, 2005. Springer (traite aussi le cas discontinu).

D. Revuz, M. Yor : Continuous martingales and Brownian motion, 2004.

Springer.

Page 16: Calcul Stochastique des martingales continues
Page 17: Calcul Stochastique des martingales continues

CHAPITRE 2

INTEGRATION DE LEBESGUE

Le but de ce chapitre est de developper rapidement ce que l’on appelle la

theorie abstraite de l’integration de Lebesgue.

2.1. Mesures

Un espace mesurable est la donnee (Ω,F) d’un ensemble Ω et d’une tribu

F sur cet ensemble :

Definition 2.1.1. — Une classe de parties F d’un ensemble Ω est une tribu

si

(i) elle est stable par complementaire,

(ii) elle est stable par reunion denombrable,

(iii) elle contient Ω.

Pour comparaison une topologie est une classe d’ouverts : c’est a dire, par

definition, une classe de parties de Ω stable par union quelconque, intersection

finie, contenant Ω et ∅

Definition 2.1.2. — Une mesure sur un espace mesurable (Ω,F) est une

application m : F → R+ ∪ +∞ telle que

(i) m(∅) = 0.

(ii) m(A ∪B) = m(A) +m(B) si A ∈ F , B ∈ F sont disjoints.

(iii) si (An) est une suite croissante d’elements de F , m(An)→ m(∪An).

On dit que m est σ-finie si on peut ecrire Ω comme une reunion denombrable

d’ensembles de mesure finie ; m est une probabilite si m(Ω) = 1.

Page 18: Calcul Stochastique des martingales continues

14 CHAPITRE 2. INTEGRATION DE LEBESGUE

Exemple : Lorsque Ω est denombrable (c’est a dire fini ou en bijection avec

N) , F = ensemble de toutes les parties de Ω est une tribu et m(A) = Card(A)

definit une mesure σ-finie (theorie des series).

Il est difficile de decrire aussi explicitement des exemples tres differents de

celui ci, comme par exemple la mesure de Lebesgue que nous verrons.

Definition 2.1.3. — On dit qu’une propriete est vraie p.p. (presque partout)

ou p.s. (presque surement) si elle est vraie en dehors d’un ensemble de mesure

nulle.

2.2. Integration

Soit (Ω,F ,m) un espace mesurable muni d’une mesure. Une fonction f :

Ω→ R est etagee si on peut l’ecrire sous la forme

f =n∑k=1

rk1Ak

ou rk ∈ R, Ak ∈ F , k = 1, ..n. On definit l’integrale de la fonction etagee f

positive par ∫f dm =

n∑k=1

rkm(Ak).

(avec la convention ici que 0 · ∞ = 0). On verifie que ca ne depend pas de la

decomposition choisie et que, si f, g sont etagees positives et a, b ∈ R+,∫(af + bg) dm = a

∫f dm+ b

∫g dm.

Pour l’instant, appelons fonction mesurable reelle une fonction f : Ω → Rtelle que pour tout a ∈ R, f > a ∈ F . (On utilisera les notations f > a =

ω ∈ Ω; f(ω) > a et R = R ∪ +∞ ∪ −∞).

Lemme 2.2.1. — Si (fn) est une suite de fonctions mesurables, alors

supn∈N fn est mesurable.

Preuve: En effet il suffit d’ecrire que

supn∈N

fn > a = ∪n∈Nfn > a.

Page 19: Calcul Stochastique des martingales continues

2.2. INTEGRATION 15

Si (fn) est une suite de fonctions mesurables, pour la meme raison, infn∈N fnet donc

lim sup fn := limn→+∞

supk≥n

fk = infn∈N

supk≥n

fk

lim inf fn := limn→+∞

infk≥n

fk = supn∈N

infk≥n

fk

sont mesurables. En particulier une limite de fonctions mesurables est me-

surable (rappelons qu’une suite fn converge dans R ssi f := lim sup fn =

lim inf fn et qu’alors f est la limite).

Si f : Ω→ R est mesurable positive on pose∫f dm = sup

∫g dm

ou le sup est pris sur l’ensemble des fonctions etagees g qui verifient 0 ≤ g ≤ f .

Si f est mesurable on dit que f est integrable si f+ := max(f, 0) et f− :=

−min(f, 0) sont d’integrale finie et on pose alors∫f dm =

∫f+ dm−

∫f− dm.

On voit que f est integrable ssi |f | l’est puisque |f | = f+ + f− et on a

|∫f dm| ≤

∫|f | dm

Lemme 2.2.2. — Une fonction integrable est finie presque partout.

Preuve: Soit A = |f | = +∞. Si r > 0 et g = r1A, on a g ≤ |f | donc

rm(A) =

∫g dm ≤

∫|f |dm

ce qui n’est possible pour r > 0 que si m(A) = 0.

Si f et g sont mesurables finies, −f et f + g sont aussi mesurables car

−f > ac = f ≥ −a = ∩n∈Nf > −a−1

n

et

f + g > a = ∪r∈Qf > r, g > a− r.

On en deduit

Proposition 2.2.3. — L’ensemble des fonctions integrables est un espace

vectoriel.

Page 20: Calcul Stochastique des martingales continues

16 CHAPITRE 2. INTEGRATION DE LEBESGUE

Theoreme 2.2.4 (de convergence monotone, ou de Beppo Levi)

Si fn est une suite croissante de fonctions mesurables positives,

limn→+∞

∫fn dm =

∫lim

n→+∞fn dm.

Preuve: La fonction f := lim fn est mesurable. Puisque fn ≤ fn+1 ≤ f , il est

facile de voir que ∫fn dm ≤

∫fn+1 dm ≤

∫f dm.

Donc lim∫fn dm ≤

∫f dm. Pour montrer l’inegalite inverse, prenons une

fonction etagee g telle que 0 ≤ g ≤ f et un reel c tel que 0 < c < 1. Chaque

ensemble

En = fn ≥ cgest mesurable, la suite En est croissante, de reunion Ω. On a∫

fn dm ≥∫fn1En dm ≥

∫cg1En dm.

Comme g est etagee, on verifie que le terme de droite tend vers c∫g dm. On

a donc

lim

∫fn dm ≥ c

∫g dm

d’ou, par definition,

lim

∫fn dm ≥ c

∫f dm.

Il suffit alors de faire tendre c vers 1.

Corollaire 2.2.5. — Si (fn)est une suite de fonctions mesurables positives

+∞∑n=0

∫fn dm =

∫ +∞∑n=0

fn dm.

Lemme 2.2.6 (de Fatou). — Soit (fn) une suite de fonctions mesurables

positives, ∫lim inf fn dm ≤ lim inf

∫fn dm.

Theoreme 2.2.7 (de convergence dominee). — Soit (fn) une suite de

fonctions mesurables verifiant |fn(x)| ≤ g(x) pour tout x de E, ou g est une

fonction integrable, alors si fn converge

limn→+∞

∫fn dm =

∫lim

n→+∞fn dm.

Page 21: Calcul Stochastique des martingales continues

2.3. ESPACES L1, L1,L2, L2. 17

Preuve: En remplacant fn par fn − lim fk on se ramene au cas ou fn → 0.

Dans ce cas, par Fatou applique a g − |fn| ≥ 0,∫g dm ≤

∫lim inf g−|fn| dm ≤ lim inf

∫g−|fn| dm =

∫g dm−lim sup

∫|fn| dm

Donc lim sup∫|fn| dm = 0 ce qui assure que lim

∫|fn| dm = 0. Donc

| lim∫fn dm| ≤ lim

∫|fn| dm = 0.

2.3. Espaces L1, L1,L2, L2.

On note L1 l’ensemble des fonctions integrables, L2 l’ensemble des fonctions

de carre integrable, i.e. des fonctions mesurables f : Ω→ R telles que∫|f |2 dm < +∞,

et L∞ l’ensemble des fonctions mesurables f pour lesquelles il existe une

constante M ≥ 0 telle que |f | ≤M , p.p. On pose

‖f‖1 =

∫|f | dm

‖f‖2 = (

∫f2 dm)1/2.

et ‖f‖∞ = l’inf des M tels que |f | ≤M , p.p. On definit ainsi des semi-normes

c’est a dire que la relation suivante est vraie pour p = 1, 2,∞ :

‖f + g‖p ≤ ‖f‖p + ‖g‖pCeci est immediat pour p = 1 et resulte pour p = 2 du lemme essentiel suivant :

Lemme 2.3.1 (inegalite de Cauchy Schwarz). — Pour f, g mesurables

(

∫fg dm)2 ≤

∫f2 dm

∫g2 dm.

Preuve: Pour tout λ ∈ R, le trinome en λ du second degre

λ2[

∫f2 dm] + 2λ[

∫fg dm] +

∫g2 dm =

∫(λf + g)2 dm

est positif, ce qui n’est possible que si son discriminant

[

∫fg dm]2 − [

∫f2 dm][

∫g2 dm]

est negatif.

Page 22: Calcul Stochastique des martingales continues

18 CHAPITRE 2. INTEGRATION DE LEBESGUE

On dit qu’une suite de fonctions mesurables fn converge vers f dans Lp, si

limn→+∞

‖fn − f‖p = 0.

Theoreme 2.3.2. — Si une suite fn converge vers f dans Lp il existe une

sous suite d’entiers nk telle que, pour presque tout ω ∈ Ω

fnk(ω)→ f(ω).

Preuve: Ecrivons la preuve pour p = 1. Par hypothese pour ε = 1/2k il existe

nk tel que

‖fnk − f‖1 ≤1

2k.

Alors, par Beppo Levi,∫ ∞∑k=0

|fnk − f | dm =

∞∑k=0

∫|fnk − f | dm =

∞∑k=0

‖fnk − f‖ ≤∞∑k=0

1

2k< +∞

Donc (cf Lemme 2.2.2) la serie∑∞

k=0 |fnk − f | converge p.p. ce qui entraıne

que son terme general fnk − f tend vers 0, p.p.

Definition 2.3.3. — La suite (fn) est de Cauchy dans Lp si pour tout ε > 0

il existe N > 0 tel que pour m,n ≥ N

‖fn − fm‖ ≤ ε.

Theoreme 2.3.4. — Soit (fn) une suite de Cauchy dans Lp. Alors il existe

f ∈ Lp tel que fn → f dans Lp.

Preuve: Ecrivons la preuve pour p = 1. Puisque la suite (fn) est de Cauchy,

pour tout k ∈ N, il existe Nk tel que, pour n,m ≥ Nk,

‖fn − fm‖ ≤ 2−k.

Si on prend nk = max(N0, · · · , Nk) on voit que

‖fnk+1− fnk‖ ≤ 2−k.

Donc, un peu comme dans la preuve precedente,∫ ∞∑k=1

|fnk+1− fnk | dm =

∞∑k=0

‖fnk+1− fnk‖ ≤

∞∑k=0

1

2k< +∞.

Page 23: Calcul Stochastique des martingales continues

2.3. ESPACES L1, L1,L2, L2. 19

Donc (cf Lemme 2.2.2)∑∞

k=0 |fnk − fnk+1| est fini presque partout, et la serie∑∞

k=0(fnk − fnk+1) est donc convergente (car absolument convergente). On a

fnp = fn0 +

p−1∑k=0

(fnk+1− fnk)

et on pose

f = fn0 +∞∑k=0

(fnk+1− fnk).

Pour tout n ≥ Nk, p ≥ k, ‖fn − fnp‖ ≤ 2−k donc, en appliquant le lemme de

Fatou, ∫|fn − f | dm ≤

∫lim infp→+∞

|fn − fnp | dm ≤ 2−k

d’ou ‖fn − f‖ tend vers 0.

Par rapport a la topologie il y a une petite difficulte car

Lemme 2.3.5. — Si f est mesurable∫|f | dm = 0 si et seulement si f = 0

p.p.

Cela resulte immediatement de la tres importante inegalite suivante

Lemme 2.3.6 (Inegalite de Markov). — Si f est une fonction mesurable

positive et T > 0,

m(f ≥ T ) ≤∫f dm

T.

Donc ‖f‖ = 0, n’entraıne pas que f est nulle (partout). Donc ‖ · ‖ n’est pas

une norme, mais seulement une semi-norme, et d(f, g) = ‖f −g‖ pas vraiment

une distance. Ce n’est pas genant (et si on veut une norme on remplace Lppar l’ensemble Lp des classes de fonctions egales presque partout).

Un role particulier est joue par L2 (ou L2) car il a une structure geometrique

plus riche que les autres. On peut y definir les angles et surtout l’orthogonalite,

a partir du produit scalaire : pour f, g ∈ L2

〈f, g〉 =

∫fg dm.

Un espace vectoriel muni d’un produit scalaire dans lequel les suites de Cauchy

convergent est appele un espace de Hilbert. Donc L2 (ou plutot L2) est un

espace de Hilbert. Une propriete fondamentale des espaces de Hilbert est le

theoreme suivant.

Page 24: Calcul Stochastique des martingales continues

20 CHAPITRE 2. INTEGRATION DE LEBESGUE

Theoreme 2.3.7 (Theoreme de projection). — Soit V un sous espace

vectoriel ferme dans un espace de Hilbert H. Pour tout x ∈ H il existe un

unique element v ∈ V appele la projection de x sur V caracterise par

— v ∈ V— 〈x− v, w〉 = 0, pour tous w ∈ V .

Corollaire 2.3.8. — Soit W un sous espace vectoriel d’un Hilbert H. Si le

seul vecteur orthogonal a W est 0, alors W est dense dans H

Preuve: Appliquer le theoreme a l’adherence de W .

2.4. Convergence en probabilite

Definition 2.4.1. — Une suite de v.a. Xn tend vers X en probabilite si pour

tout ε > 0,

P(|Xn −X] ≥ ε)→ 0

quand n→ +∞.

Lemme 2.4.2. — Xn → 0 en probabilite si et seulement si min(|Xn|, 1)→ 0

dans L1

Preuve: Si Xn → 0 en probabilite, pour tout ε > 0,

E(min(|Xn|, 1)) = E(min(|Xn|, 1)1|Xn|≥ε) + E(min(|Xn|, 1)1|Xn|<ε)

≤ P(|Xn| ≥ ε) + ε ≤ 2ε

pour n assez grand. Reciproquement, par l’inegalite de Markov, pour 0 ≤ ε ≤ 1

P(|Xn| ≥ ε) = P(min(1, |Xn|) ≥ ε) ≤min(1, |Xn|)

ε

qui tend vers 0.

On deduit donc du Theoreme 2.3.2 que

Proposition 2.4.3. — Si Xn → 0 p.s., alors Xn → 0 en probabilite.. Si

Xn → X en probabilite il existe une sous suite nk telle que Xnk → X presque

surement.

Page 25: Calcul Stochastique des martingales continues

2.5. UNIFORME INTEGRABILITE 21

2.5. Uniforme integrabilite

Limitons nous au cas des probabilites et utilisons les notations probabilistes :

on note P une probabilite sur (Ω,F). Une variable aleatoire reelle X : Ω→ Rest la meme chose qu’une fonction mesurable et on pose

E(X) =

∫X dP.

Definition 2.5.1. — Une famille L de v.a. est uniformement integrable si

supX∈L

∫|X|>R

|X| dP→ 0, quand R→ +∞.

Lemme 2.5.2. — Si Xi, i ∈ I et Yi, i ∈ I sont uniformement integrables,

alors Xi + Yi, i ∈ I est uniformement integrable.

Preuve: On a

E(|Xi|1|Xi+Yi|≥M) = E(|Xi|1|Xi+Yi|≥M1|Xi|≥M/2)+E(|Xi|1|Xi+Yi|≥M1|Xi|<M/2)

≤ E(|Xi|1|Xi|≥M/2) + E(|Xi|1|Xi+Yi|≥M1|Xi|<M/2)Le sup du premier terme tend vers 0 car (Xi) est uniformement integrable.

Pour le second on remarque qu’il est majore par

E(|Yi|1|Yi|≥M/2)

qui tend aussi vers 0.

Theoreme 2.5.3. — Soit Xn, n ∈ N une suite uniformement integrable de

v.a. qui converge en probabilite (donc a fortiori si elle converge p.s.) vers X.

Alors Xn → X dans L1 et en particulier, E(Xn)→ E(X).

Preuve: La suite Yn = |Xn − X| est aussi uniformement integrable par le

lemme.. Ensuite

E(Yn) = E(Yn1Yn<R) + E(Yn1Yn≥R)

Pour tout ε > 0, pour R assez grand, le second terme est inferieur a ε/2 par

unif. int. Un tel R etant choisi, le premier terme est inferieur a ε/2 pour n

assez grand, par convergence en probabilite.

Proposition 2.5.4. — Une suite de v.a. Xn telle que supnE(X2n) < +∞ est

uniformement integrable.

Preuve: On utilise que 1|Xn|>R ≤|Xn|R donc

E[|Xn|1|Xn|>R] ≤E[X2

n]

R.

Page 26: Calcul Stochastique des martingales continues

22 CHAPITRE 2. INTEGRATION DE LEBESGUE

2.6. Divers

Lemme 2.6.1 (de Borel Cantelli). — Soit (An) une suite de sous en-

sembles mesurables de Ω telle que∑∞

n=0m(An) < +∞. Alors

+∞∑k=0

1An < +∞ p.s.

Autrement dit, presque tout ω ∈ Ω n’appartient qu’a un nombre fini de An.

Preuve: Par convergence monotone,∫ +∞∑k=0

1An dm =

+∞∑k=0

m(An) < +∞

donc∑+∞

k=0 1An < +∞ p.p. .

2.7. Tribu engendree

Definition 2.7.1. — Soit C un ensemble de parties de Ω. On appelle tribu

engendree par C et on note σ(C) la plus petite tribu contenant C.

Definition 2.7.2. — Soit E un espace muni d’une topologie, on appelle tribu

borelienne de E et on note B(E) la tribu engendree par les ouverts.

Definition 2.7.3. — Soit (E, E) et (F,B) deux espaces mesurables, on dit

qu’une fonction f : E → F est mesurable si pour tout B ∈ B, f−1(B) ∈ E .

Lorsque E ou F est un espace topologique, si on ne le precise pas, on le

munit de la tribu borelienne. On retrouve donc la notion introduite avant. Un

sup, un inf, une limite d’une suite de fonctions mesurables a valeurs reelles

sont mesurables. Les fonctions continues sont mesurables.

Lemme 2.7.4. — Toute fonction mesurable de E dans R+ est la limite crois-

sante d’une suite de fonctions etagees.

En effet,

f = limn→+∞

n1n≤f +

n2n−1∑k=0

k

2n1 k

2n≤f< k+1

2n

(lorsque f est finie on peut se passer du premier terme).

Pour s’habituer aux notations, utilisons le vocabulaire des probabilites.

Donnons nous une famille (Ei, Ei), i ∈ I, d’espaces mesurables.

Page 27: Calcul Stochastique des martingales continues

2.7. TRIBU ENGENDREE 23

Definition 2.7.5. — Soit Xi : Ω → Ei, i ∈ I, des v.a.. On appelle tribu

engendree par cette famille et on note σ(Xi, i ∈ I) la tribu engendree par

Xi ∈ Ai, Ai ∈ Ei et i ∈ I.

Intuitivement, la tribu σXi, i ∈ I est formee des ensembles que l’on peut

decrire a l’aide des Xi. Pour une seule application X : Ω → Rd, σ(X) est

exactement la classe des ensembles X ∈ A, ou A est un borelien de Rd.Donnons nous pour toute la suite un espace de probabilite (Ω,F ,P). Une

variable aleatoire est la meme chose qu’une application mesurable mais la

plupart du temps a valeurs dans E = R ou Rd. Le lemme suivant est tres

utile.

Lemme 2.7.6. — Soit X une application de Ω dans un espace mesurable

(E, E) et σ(X). Une application Y : Ω→ R est σ(X)-mesurable si et seulement

si il existe une application mesurable φ : E → R telle que Y = φ(X).

Preuve: Supposons d’abord que Y est etagee et σ(X)-mesurable. On peut par

definition l’ecrire sous la forme Y =∑k

n=1 αn1An , ou An ∈ σ(X). Il existe donc

pour tout n, un borelien Bn tel que An = X ∈ Bn. Posons φ =∑k

n=1 αn1Bn .

On verifie qu’alors Y = φ(X). Ceci montre la partie directe du lemme lorsque

Y est etagee. Dans le cas general, si Y est σ(X)-mesurable, il existe une suite

de v.a. etagees Yn telle que Y = limYn. Par ce qui precede, on peut ecrire

Yn = φn(X) et il suffit alors de poser φ = lim supφn. La reciproque est facile.

Une facon agreable d’exprimer le lemme precedant est de dire qu’une va-

riable aleatoire Y est σ(X1, X2, · · · , Xn)-mesurable si et seulement si elle

s’ecrit

Y = φ(X1, X2, · · · , Xn)

pour une application borelienne φ.

Le maniement des tribus engendrees est souvent delicat. Un outil sophis-

tique :

Theoreme 2.7.7 (de la classe monotone). — Soient C et M des en-

sembles de parties de Ω tels que C ⊂ M. On suppose que

(i) C est stable par intersection finie (i.e. A,B ∈ C implique A ∩B ∈ C).

(ii) M est stable par difference propre (i.e. A,B ∈ M et A ⊂ B implique

B \A ∈M).

(iii)M est stable par limite croissante (i.e. An ∈M et An ⊂ An+1 implique

∪An ∈M).

(iv) Ω est dans M.

Page 28: Calcul Stochastique des martingales continues

24 CHAPITRE 2. INTEGRATION DE LEBESGUE

Alors σ(C) est contenu dans M.

Preuve: Montrons que l’intersection N de toutes les classes M verifiant

(ii), (iii), (iv) est une tribu donc contient σ(C). Stable par intersection finie :

Fixons un A de C, la classe

B ∈ N ;A ∩B ∈ N

contient C par (i) et verifie (ii, iii, iv), elle contient donc N . Maintenant, fixons

un B dans N , la classe

C ∈ N ;C ∩B ∈ Ncontient C par ce que l’on vient de montrer et verifie (ii, iii, iv), elle contient

donc N .

Le resultat fondamental de la theorie de l’integration est le suivant :

Theoreme 2.7.8. — Il existe une et une seule mesure m sur R, appelee

mesure de Lebesgue, verifiant

m(]s, t]) = t− s

Plus generalement, pour toute fonction croissante continue a droite A il existe

une mesure et une seule mA verifiant

mA(]s, t]) = A(t)−A(s)

pour tout s < t.

La preuve de l’existence est difficile, nous l’admettons. Par contre l’unicite

est consequence du theoreme de la classe monotone (applique a la classe des

intervalles de la forme [a, b], a, b ∈ R, qui engendre la tribu borelienne et est

stable par intersection finie.)

Il est facile de voir, en utilisant le theoreme de convergence dominee que

pour toute fonction continue a support compact sur R,∫f dm n’est autre que

l’integrale de Riemann de f . Nous utiliserons donc aussi la notation∫f(x) dx.

2.8. Loi d’une variable aleatoire

On se donne un espace de probabilite (Ω,F ,P) et un ensemble E, muni

d’une tribu E .

Definition 2.8.1. — Soit X : Ω → E une variable aleatoire (= application

mesurable). On appelle loi de X et on note parfois P(X) la probabilite sur

(E, E) definie par P(X)(A) = P(X ∈ A), pour tout A de E .

Page 29: Calcul Stochastique des martingales continues

2.9. MESURE PRODUIT 25

La regle de calcul suivante est d’un emploi constant : il faut absolument

savoir la manier. La premiere egalite est la definition de l’esperance.

Proposition 2.8.2. — Soit X une variable aleatoire a valeurs dans E. Pour

toute fonction mesurable f : E → R, a valeurs positives ou telle que f(X) soit

integrable, on a

E(f(X)) =

∫Ωf(X) dP =

∫Ef dP(X).

Definition 2.8.3. — Etant donne deux mesures µ et ν sur (Ω,F), et une

fonction mesurable positive φ : Ω → R, on dit que µ a la densite φ par

rapport a ν et on ecrit

dµ = φdν

si pour tout A ∈ F

µ(A) =

∫Aφ(x) dν(x).

Alors, pour toute fonction mesurable positive f∫f dµ =

∫fφ dν.

Souvent lorsqu’on dit qu’une v.a. reelle a la densite φ, on sous entend que sa

loi a la densite φ par rapport a la mesure de Lebesgue.

Proposition 2.8.4. — Si une v.a. X a une loi de densite φ, alors

E(f(X)) =

∫f(x)φ(x) dm(x)

pour toute fonction mesurable positive f .

2.9. Mesure produit

Soient (E1, E1,m1) et (E2, E2,m2) deux espaces mesures σ-finis. On munit

E1×E2 de la tribu E1⊗E2 sur E1×E2, appelee tribu produit, engendree par

les ensembles de la classe

C = A×B,A ∈ E1, B ∈ E2

Cette classe est stable par intersection finie. On pose, pour tout C ∈ E1 ⊗ E2,

(m1 ⊗m2)(C) =

∫∫

1C(x, y) dm1(x) dm2(y)

Page 30: Calcul Stochastique des martingales continues

26 CHAPITRE 2. INTEGRATION DE LEBESGUE

(a l’aide du thm de classe monotone, on verifie que y 7→∫

1C(x, y) dm1(x) est

bien mesurable). On definit ainsi une mesure sur m1 ⊗m2 sur E1 ×E2. De la

meme facon, la formule

ν(C) =

∫∫

1C(x, y) dm2(y) dm1(x)

definit aussi une mesure. Pour tout C = A×B de C,

(m1 ⊗m2)(C) = m1(A)m2(B) = ν(C)

On deduit donc du theoreme de classe monotone que les deux mesures m1⊗m2

et ν coincident. Il en resulte assez facilement :

Theoreme 2.9.1 (de Fubini). — Soit f : E1 × E2 → R une fonction me-

surable. Alors, pour tout x ∈ E1, la fonction

y ∈ E2 7→∫f(x, y) dm1(x)

est mesurable et∫∫f(x, y) dm1(x)dm2(y) =

∫∫f(x, y) dm2(y)dm1(x)

sous l’une des deux hypotheses suivantes (i) f est a valeurs positives (ii) f est

integrable

Lorsque f n’est pas positive, on applique souvent ce thm a |f | pour montrer

que f est integrable.

L’exemple fondamental est celui de la mesure de Lebesgue sur Rd = R ×R× · · · ×R, egale au produit, d fois, de la mesure de Lebesgue sur R. Pour la

manier on utilise parfois le

Theoreme 2.9.2 (de changement de variables). — Si φ est un

diffeomorphisme de l’ouvert U sur l’ouvert V , on a, pour toute f ∈ B+(Rd),

(1)

∫Vf(v) dm(v) =

∫Uf(φ(u))|J(φ)(u)| dm(u).

ou J(φ) est le determinant de la matrice des∂φj∂uk

et m est le mesure de

Lebesgue.

Page 31: Calcul Stochastique des martingales continues

2.10. PROCESSUS 27

2.10. Processus

Un processus (a temps continu) est une famille de variables aleatoires (Xt) a

valeurs dans un espace E muni d’une tribu E , indexee par t ∈ R+. En fait c’est

la meme chose qu’une variable aleatoire a valeurs dans l’ensemble F (R+, E)

des fonctions de R+ dans E muni de la tribu F(R+, E) engendree par les

applications φt : F (R+, E)→ E definies par φt(ω) = ω(t), ω ∈ F (R+, E).

La loi du processus est par definition la loi de cette variable aleatoire.

Proposition 2.10.1. — La loi d’un processus est determinee par les lois

finies dimensionnelles, c’est a dire les lois de

(Xt1 , · · ·Xtn), 0 ≤ t1 ≤ t2 ≤ · · · ≤ tn, n ∈ N.

Preuve: Cela resulte du theoreme de la classe monotone. En effet, la classe

des sous ensembles de F(R+, E) qui s’ecrivent

ω ∈ F (R+, E);ω(t1) ∈ E1, · · · , ω(tn) ∈ En

ou les Ek sont dans E est stable par intersection finie et engendre la tribu

F(R+, E).

Soit (Ω,F ,P) un espace de probabilite. On represente ce que l’on ”connait”

a l’instant t par une tribu Ft. Ceci amene a poser

Definition 2.10.2. — Une famille croissante (Ft, t ∈ R+) de sous-tribus de

F , c’est a dire verifiant Fs ⊂ Ft ⊂ F , s’appelle une filtration et le terme

(Ω,F ,Ft,P) un espace de probabilite filtre.

Un processus Xt est dit adapte a cette filtration si Xt est Ft-mesurable,

pour tout t ≥ 0.

L’exemple fondamental de filtration est donne par Ft = σ(Xs, s ≤ t) ou

(Xt) est un processus quelconque. Si Xt est un processus adapte sans regularite

particuliere, on ne sait rien de sa dependance en t. Elle n’est peut etre meme

pas borelienne. Ceci amene a poser :

Definition 2.10.3. — Un processus progressivement mesurable Xt, t ∈ R+,

est un processus tel que pour tout T ≥ 0, l’application

(t, ω) ∈ [0, T ]× Ω 7→ Xt(ω)

est mesurable de B([0, T ])⊗FT dans B(R), ou B([0, T ]) et B(R) sont les tribus

boreliennes.

En pratique tous les processus adaptes que nous rencontrerons seront pro-

gressifs. C’est par exemple le cas des processus continus et plus generalement,

Page 32: Calcul Stochastique des martingales continues

28 CHAPITRE 2. INTEGRATION DE LEBESGUE

Lemme 2.10.4. — Si X est un processus continu a droite (ou a gauche)

adapte a (Ft), l’application (s, ω) 7→ Xs(ω) est progressivement mesurable.

Preuve: Pour continu a droite : pour tout n, posons

X(n)s =

n−1∑k=0

X k+1n∧t1 k

n∧t≤s< k+1

n∧t

Alors (s, ω) 7→ X(n)s (ω) est mesurable de ([0, t] × Ω,B([0, t]) ⊗ Ft) dans E. Il

en est donc de meme de la limite X de X(n) quand n→ +∞.

2.11. Independance

La notion la plus importante en probabilite est sans conteste la notion

d’independance. Elle recouvre a la fois une notion intuitive (le resultat du

loto est independant de la temperature, etc ...) et une notion mathematique.

Il est necessaire de bien posseder ces deux aspects et de comprendre qu’ils

signifient la meme chose. Un bon utilisateur des probabilites est quelqu’un qui

sait exploiter l’independance, ou la non independance, dans les evenements

de la vie courante. Meme si le plus souvent on ne s’interesse qu’a l’independ-

ance d’evenements ou de variables aleatoires, il s’avere plus efficace de definir

l’independance de tribus. Un espace de probabilite (Ω,A,P) est toujours fixe.

Definition 2.11.1. — On dit que des tribus A1, · · · ,An contenues dans Asont independantes si, pour tout A1 ∈ A1, · · · , An ∈ An,

P(A1 ∩A2 · · · ∩An) = P(A1)P(A2) · · ·P(An).

Des variables aleatoires X1, · · · , Xn sont dites independantes si les tribus

engendrees σ(X1), · · · , σ(Xn) le sont. On dit qu’une famille infinie de sous

tribus (ou de variables aleatoires) est formee de tribus independantes lorsque

toute sous famille finie a cette propriete. Donnons quelques resultats utiles au

maniement de l’independance. Le premier est tres important et son enonce

est a bien comprendre, malgre son aspect complique. Nous en donnons deux

formes.

Proposition 2.11.2 (Lemme de regroupement). — (Forme 1). Soit I

un ensemble d’indices, et Ai, i ∈ I, des sous tribus independantes de A.

Alors, si I1, I2, · · · , In sont des parties disjointes de I, les tribus σ(Ai, i ∈I1), σ(Ai, i ∈ I2), · · · , σ(Ai, i ∈ In) sont independantes.

Page 33: Calcul Stochastique des martingales continues

2.11. INDEPENDANCE 29

(Forme 2). Soit X1, X2, · · · , Xn, · · · des variables aleatoires indep-

endantes. Alors si 0 < n1 < n2 < n3 < · · · les variables aleatoires

φ1(X1, · · · , Xn1), φ2(Xn1+1, · · · , Xn2), · · · sont independantes, pour toute

application φ1 : Rn1 → R, φ2 : Rn2−n1 → R, · · · , mesurable.

Donnons un exemple simple mais typique d’utilisation : si X,Y, U, V sont

quatre variables aleatoires reelles independantes, alors X +Y et UV sont ind-

ependantes.

Theoreme 2.11.3. — Deux variables aleatoires X,Y sont independantes si

et seulement si P(X,Y ) = P(X) ⊗ P(Y ).

Corollaire 2.11.4. — Si les variables aleatoires X,Y sont independantes,

alors pour toute fonction φ mesurable positive (ou telle que φ(X,Y ) soit

integrable) on a

E[φ(X,Y )] =

∫ ∫φ(x, y) dP(X)(x)dP(Y )(y).

On peut aussi ecrire cette relation sous les formes

E[φ(X,Y )] =

∫Ω

∫Ωφ(X(ω), Y (ω′)) dP(ω)dP(ω′),

ou encore

E[φ(X,Y )] =

∫ΩE[φ(X,Y (ω′))] dP(ω′),

qui nous seront utiles.

Page 34: Calcul Stochastique des martingales continues
Page 35: Calcul Stochastique des martingales continues

CHAPITRE 3

MOUVEMENT BROWNIEN

3.1. Loi gaussienne

La loi gaussienne N(m,σ2) sur R est la masse de Dirac en m lorsque σ = 0

et la loi de densite1√

2πσ2e−

(x−m)2

2σ2

sinon. Il n’y a pas de primitive explicite mais une excellente approximation par

une fraction rationnelle (1). Si X suit la N(m,σ2), alors E(X) = m, var(X) =

σ2. Lorsque σ = 0, X = m p.s. La fonction caracteristique est E(eitX) =

exp−σ2t2

2 + itm.

Proposition 3.1.1. — Toute limite de v.a. gaussiennes, en loi, en probabi-

lite, ou p.s., ou dans L1, ou dans L2 est gaussienne. De plus l’esperance et la

variance convergent vers l’esperance et la variance de la limite.

Preuve: Toutes les convergences considerees entraınent la convergence en

loi. Supposons donc que Xn converge en loi vers X et que Xn suit une loi

N(mn, σ2n). Alors E(eitXn) = exp−σ2

nt2

2 +itmn et E(eitXn)→ g(t) := E(eitX).

En prenant le module on voit que exp−σ2nt

2

2 → |g(t)| donc que σ2n converge

vers σ2 = −(2 log |g(t)|)/t2. On en deduit que eitmn converge vers h(t) =

exp−σ2t2

2 g(t). Alors, si f est C1 a support compact, tel que∫f(t)h(t)dt 6= 0,

par integration par parties,∫f ′(t)eitmndt = −imn

∫f(t)eitmndt

1. cf. Appendice

Page 36: Calcul Stochastique des martingales continues

32 CHAPITRE 3. MOUVEMENT BROWNIEN

donc, en pasant a la limitemn converge versm := i(∫f ′(t)h(t)dt)/(

∫f(t)h(t)dt).

On voit donc que

E(eitXn)→ exp−σ2t2

2+ itm

et la limite est donc gaussienne.

3.2. Vecteur gaussien

On identifie un vecteur a une matrice colonne. L’esperance d’un vecteur

aleatoire X = (X1, · · · , Xd)t est le vecteur E(X) = (E(X1), · · · ,E(Xd))

t et sa

matrice de covariance est,

KX = E[(X − E(X))(X − E(X))t] = E(XXt)− E(X)[E(X)]t.

ses composantes sont KX(i, j) = Cov(Xi, Xj). Si les composantes X1, . . . , Xd

sont independantes, K(X) est diagonale. Il est clair que

Lemme 3.2.1. — Si M est une matrice deterministe r × d, on a KMX =

MKXMt.

Pour λ ∈ Rd, notons

〈λ,X〉 =

d∑i=1

λiXi

le produit scalaire. En appliquant le lemme a M = λt on voit que

λtKXλ = var〈λ,X〉 ≥ 0.

En particulier, KX est une matrice symetrique semi-definie positive, donc

diagonalisable de valeurs propres positive ou nulles.

Definition 3.2.2. — Un vecteur aleatoire X = (X1, . . . , Xd)t est dit gaus-

sien si toute combinaison lineaire des composantes suit une loi normale.

Proposition 3.2.3. — Un vecteur X est gaussien si et seulement, il existe

un vecteur m ∈ Rd et une matrice de covariance K telle que pour tout λ ∈ Rd

E(exp(i〈λ,X〉) = exp(i〈λ,m〉 − λtKλ

2).

Alors m = E(X) et K = KX .

Page 37: Calcul Stochastique des martingales continues

3.4. DEFINITION DU MOUVEMENT BROWNIEN 33

Un exemple typique de vecteur gaussien est donne par un vecteur de com-

posantes normales independantes. Par contre, en general, un vecteur a com-

posantes gaussiennes n’est pas necessairement gaussien. En appliquant la pro-

position precedente pour calculer la fonction caracteristique, on obtient le

theoreme fondamental suivant :

Theoreme 3.2.4. — Soit (X1, . . . , Xp, Y1, · · · , Yq)t un vecteur gaussien de

Rp+q. Alors les vecteurs (X1, . . . , Xp) et (Y1, · · · , Yq) sont independants ssi

cov(Xi, Yj) = 0

lorsque 1 ≤ i ≤ p, 1 ≤ j ≤ q.

3.3. Famille gaussienne

Une famille, ou un processus, Xi, i ∈ I de variables aleatoires est dite

gaussienne si toute combinaison lineaire finie de ces v.a. suit une loi normale.

La loi globale de cette famille (c’est a dire par definition, la loi de toute sous

famille finie) est determinee par les esperances E(Xi), i ∈ I, et les covariances

Cov (Xi, Xj), i, j ∈ I. Comme pour le thm. on a

Theoreme 3.3.1. — Soit Xi, i ∈ I une famille gaussienne et I1, I2, · · · , Indes parties disjointes de I. Alors les familles

Xi, i ∈ I1, Xi, i ∈ I2, · · · , Xi, i ∈ In

sont independantes ssi

cov(Xi, Xj) = 0

chaque fois que iet j sont dans des ensembles I1, · · · , In differents.

Preuve: Il suffit de voir que Xi, i ∈ I1 ∪ I2 ∪ · · · ∪ In−1 est independant de

Xi, i ∈ In...

3.4. Definition du mouvement brownien

Definition 3.4.1. — On appelle mouvement brownien un processus gaussien

Bt, t ∈ R+, presque surement a trajectoires continues, tel que B0 = 0 et

Bt+s −Bt est independant de σ(Bu, u ≤ t) de loi N(0, s), pour tout t, s ≥ 0.

Proposition 3.4.2. — Un processus gaussien continu Bt, t ∈ R+ est un

mouvement brownien si et seulement si

E(Bt) = 0, E(BtBs) = min(s, t), pour tout t, s ≥ 0.

Page 38: Calcul Stochastique des martingales continues

34 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: Supposons d’abord que Bt, t ∈ R+, est un mouvement brownien.

Alors Bt est centre donc E(Bt) = 0. De plus, si 0 ≤ s ≤ t, on sait que Bt−Bsest independant de σ(Br, r ≤ s), donc en particulier de Bs. Il en resulte que

E(BtBs) = E((Bt −Bs +Bs)Bs) = E(Bt −Bs)E(Bs) + E(B2s ) = s.

Reciproquement, supposons les relations vraies et montrons qu’alors Bt, t ∈R+, est un mouvement brownien. Il faut montrer d’abord que si 0 ≤ s ≤ t,

Bt −Bs est independant de σ(Br, r ≤ s). Puisque la famille des Bt, t ≥ 0, est

gaussienne, il suffit de verifier que Cov(Bt −Bs, Br) = 0, si r ≤ s ≤ t. Or

Cov(Bt −Bs, Br) = E(BtBr)− E(BsBr) = min(t, r)−min(s, r) = 0.

Ensuite, il faut voir que, si 0 ≤ s ≤ t, loi de Bt −Bs ne depend que de t− s :

cette loi est gaussienne centree et sa variance est

E((Bt −Bs)2) = E(B2t ) + E(B2

s )− 2E(BtBs) = t+ s− 2s = t− s.

Enfin, Bt est bien centre de variance t.

Faisons une remarque importante sur la continuite. Dans l’enonce precedent

ne supposons pas a priori la continuite. La construction de Paul Levy donnee

plus bas construit un processus continu et le fait d’etre uniformement continu

sur les rationnels de [0, T ] pour un T > 0 fixe est mesurable. On voit donc que

sous les autres hypotheses de la proposition, Bt est p.s. uniformement continu

sur les rationnels de [0, T ], pour tout T > 0, donc admet un prolongement par

continuite a R+ tout entier.

Corollaire 3.4.3. — Soit Bt, t ∈ R+ un mouvement brownien. Alors

1. pour tout a > 0, Bt+a −Ba, t ∈ R+,

2. (Scaling) pour tout α ∈ R, αBα−2t, t ∈ R+,

3. tB1/t, t ∈ R+,

sont des mouvements browniens.

Preuve: Les trois assertions se montrent de la meme facon. Traitons par

exemple la seconde. Posons Xt = αBα−2t. Tout d’abord, toute combinaison

lineaire des v.a. Xt est une combinaison lineaire de certains Bs donc est

gaussienne. Ceci montre que le processus Xt, t ≥ 0 est gaussien. Il est continu

comme Bt. Il est clair que E(Xt) = 0, et

E(XtXs) = α2E(Bα−2tBα−2s) = α2 min(t

α2,s

α2) = min(s, t).

Page 39: Calcul Stochastique des martingales continues

3.5. FILTRATIONS ET BROWNIEN 35

Par la proposition precedente, Xt, t ≥ 0 est un brownien. Dans le troisieme

cas, il faut aussi verifier la continuite p.s. en 0. Puisque tB1/t, t > 0 a la meme

loi que Bt, t > 0, Xn = sup0<s<1/n |sB1/s| et Yn = sup0<s<1/n |Bs| ont la

meme loi. Donc P(Xn → 0) = P(Yn → 0) = 1 puisque B est continu en 0, ce

qui montre la continuite p.s.

3.5. Filtrations et Brownien

Considerons un espace de probabilite filtre (Ω, (Ft),F ,P). En general, on

note F∞ = σ(Ft, t ≥ 0). On pose

(2) Ft+ = ∩ε>0Ft+ε.

On dit que la filtration Ft est continue a droite si Ft+ = Ft. La filtration Ft+est elle meme continue a droite.

Definition 3.5.1. — Un processus B adapte a (Ω,Ft,P) est un (Ft)–mouve-

ment brownien si B est un mouvement brownien et pour tout s ≥ 0, la famille

Bt −Bs, t ≥ s est independante de Fs.

Theoreme 3.5.2. — Un (Ft)–mouvement brownien est aussi un (Ft+)–mou-

vement brownien.

Preuve: Pour tout s < t < t1 < · · · < td le vecteur

(Bt1 −Bt, · · · , Btd −Bt)

est independant de Ft donc de Fs+ , qui est contenu dans Ft. Par continuite

(Bt1 −Bs, · · · , Btd −Bs)

est aussi independant de Fs+ .

Corollaire 3.5.3 (Loi 0–1 de Blumenthal). — Soit B un mouvement

brownien et Ft = σ(Bs, 0 ≤ s ≤ t). Pour tout A ∈ F0+, P(A) = 0 ou 1.

Preuve: F0+ est independant de Bt pour tout t > 0 donc de Ft, donc de F0+ .

Page 40: Calcul Stochastique des martingales continues

36 CHAPITRE 3. MOUVEMENT BROWNIEN

3.5.1. Quelques proprietes trajectorielles du brownien. — Le resultat

technique suivant va nous permettre de decrire quelques proprietes non tri-

viales du mouvement brownien.

Lemme 3.5.4. — Si Bt, t ∈ R+ est un mouvement brownien,

lim supt→0+

Bt√t

= +∞, lim inft→0+

Bt√t

= −∞, p.s.

Preuve: La variable aleatoire R = lim supt→0+ Bt/√t est F0+–mesurable, ou

Ft = σ(Bs, 0 ≤ s ≤ t), donc constante p.s.. Plus precisement, soit R = +∞,

soit il existe une constante α telle que R ≤ α, p.s. Ce dernier cas est impossible

car il entraıne que P(Bt√t≥ α+ 1) → 0 quand t = 1/n avec n → +∞ alors

que P(Bt√t≥ α+ 1) = P(B1 ≥ α + 1) 6= 0. Le cas de la liminf s’obtient en

appliquant la limsup a (−Bt) qui est aussi un brownien.

Proposition 3.5.5. — Pour presque tout ω, la trajectoire t 7→ Bt(ω),

(i) n’est nulle part derivable ;

(ii) passe une infinite de fois par chaque point de R.

Preuve: Le lemme assure que B n’est pas derivable en 0, p.s., donc en

tout point t fixe, sur un ensemble de probabilite 1, qui peut dependre de

t. Nous admettons qu’on peut choisir cet ensemble independant de t. Posons

Wt = tB1/t. Comme Wt, t ≥ 0, est un mouvement brownien, on peut lui

appliquer le lemme : presque surement,

lim supt→0

Wt√t

= +∞.

Donc, en posant s = t−1,

lim sups→+∞

1√sBs = lim sup

s→∞

√sW1/s = +∞,

donc supBt = +∞. De meme inf Bt = −∞ ; les trajectoires etant continues

elles doivent passer par tous les points, une infinite de fois, p.s.

La preuve precedente montre aussi que la trajectoire oscille enormement au

moment ou elle part de 0, puisqu’elle arrive a traverser une infinite de fois

l’axe x = 0 avant chaque instant fixe.

Page 41: Calcul Stochastique des martingales continues

3.6. PROPRIETE DE MARKOV FORTE DU MOUVEMENT BROWNIEN 37

3.6. Propriete de Markov forte du mouvement brownien

3.6.1. Temps d’arret. — Soit (Ω,Ft,P) un espace de probabilite filtre et

F∞ = σ(Ft, t ≥ 0).

Definition 3.6.1. — Une application τ de Ω dans R+ est un temps d’arret

si, pour tout t ≥ 0, τ ≤ t ∈ Ft. La tribu

Fτ := A ∈ F∞ , pour tout t ≥ 0, A ∩ τ ≤ t ∈ Ft

s’appelle la tribu des evenements anterieurs a τ .

Lemme 3.6.2. — Une application τ : Ω → R+ est un temps d’arret si et

seulement si le processus

Xt = 1[0,τ [(t)

est adapte.

Proposition 3.6.3. — (i) Soient σ et τ des temps d’arret. Alors σ ∨ τ et

σ ∧ τ sont des temps d’arret et Fσ∧τ = Fσ ∩ Fτ . De plus σ ≤ τ et σ = τappartiennent a Fσ∧τ .

(ii) Soient τn des temps d’arret. Alors supn τn est un temps d’arret.

(iii) Supposons (Ft) continue a droite. Alors τ est un temps d’arret des que

τ < t ∈ Ft et un inf d’une suite de temps d’arret est un temps d’arret.

Preuve: (i) Soit A ∈ Fσ ∩ Fτ , alors A ∩ σ ∧ τ ≤ t = (A ∩ σ ≤ t) ∪(A ∩ τ ≤ t) ∈ Ft et A ∈ Fσ∧τ . Si A ∈ Fσ∧τ , A ∩ τ ≤ t = A ∩ σ ∧ τ ≤t ∩ τ ≤ t est dans Ft. Donc A ∈ Fτ de meme A ∈ Fσ. Pour montrer

que σ ≤ τ ∈ Fσ∧τ , il suffit de montrer que σ ≤ τ ∈ Fσ ∩ Fτ . Mais

l’on a σ ≤ τ ∩ τ ≤ t = σ ≤ t ∩ τ ≤ t ∩ σ ∧ t ≤ τ ∧ t ∈ Ft et

σ ≤ τ ∩ σ ≤ t = σ ∧ t ≤ τ ∧ t ∩ σ ≤ t ∈ Ft. On procede de meme

pour σ = τ.(ii) On a supn τn ≤ t = ∩nτn ≤ t ∈ Ft.(iii) Si τ < t ∈ Ft, pour tout t ≥ 0, τ ≤ t = ∩ε>0τ < t+ ε ∈ Ft+ = Ft.Si τn est une suite de temps d’arret et τ = inf τn, τ < t = ∪nτn < t ∈ Ft,donc τ est un temps d’arret.

Soit (Xt) un processus adapte a (Ω, (F t)) a valeurs dans un espace metrique

(E, d), par exemple Rk avec la norme usuelle. La distance d definit une topo-

logie et on munit E de la tribu borelienne. On associe a un sous ensemble A

de E,

(3) τA(ω) = inf(t ≥ 0, Xt(ω) ∈ A),

τA est appele le temps d’entree dans A.

Page 42: Calcul Stochastique des martingales continues

38 CHAPITRE 3. MOUVEMENT BROWNIEN

Proposition 3.6.4. — Si A est ferme et X a trajectoires continues, τA est

un temps d’arret.

Preuve: Posons d(x,A) = infa∈A d(x, a). Cette fonction est continue car, pour

tout x, y ∈ E et a ∈ A

d(x, a) ≤ d(x, y) + d(y, a)

donc d(x,A) ≤ d(x, y) +d(y,A) ce qui assure que |d(x,A)−d(y,A)| ≤ d(x, y).

On utilise alors que

τA ≤ t = ∩n ∪s≤t,s∈Q+ d(Xs, A) ≤ 1

n ∈ Ft.

(detail : si τA ≤ t, puisque A est ferme, il existe s ≤ t tel que Xs ∈ A. Par

continuite de x 7→ d(x,A), on a alors d(Xs, A) = 0. Il existe donc sn ∈ Qtel que sn → s et sn < s pour lequel d(Xsn , A) ≤ 1/n. Donc l’inclusion de

τA ≤ t dans le terme de droite. Reciproquement, si pour tout n ∈ N, il existe

sn ≤ t tel que d(Xsn , A) ≤ 1/n, pour toute valeur d’adherence s de la suite snon a s ≤ t et d(Xs, A) = 0 donc Xs ∈ A.)

Proposition 3.6.5. — Si A est ouvert et X a trajectoires continues a droite,

τA est un temps d’arret de Ft+.

Preuve: En effet

τA < t = ∪s<t,s∈Q+Xs ∈ A

Proposition 3.6.6. — Si X est un processus adapte progressivement mesu-

rable (cf. 2.10.3) et si τ est un temps d’arret, Xτ1τ<∞ est Fτ -mesurable.

Preuve: Soit Γ un borelien de E. Il s’agit de montrer que pour tout t ≥ 0,

Xτ ∈ Γ ∩ τ ≤ t ∈ Ft. Remarquons que

Xτ ∈ A ∩ τ ≤ t = Xτ∧t ∈ A ∩ τ ≤ t.

Soit Ωt = τ ≤ t. L’application ω 7→ (τ(ω), ω) est mesurable de (Ωt,Ft)dans ([0, t] × Ω,B([0, t]) ⊗ Ft), l’application (s, ω) 7→ Xs(ω) est mesurable de

(([0, t]×Ω,B([0, t])⊗Ft) dans E. Donc l’application composee ω 7→ Xτ(ω)(ω)

de (Ωt,Ft) dans E est mesurable i.e. τ ≤ t,Xτ ∈ Γ ∈ Ft.

3.6.2. La propriete de Markov forte du brownien. —

Lemme 3.6.7. — Soit τ un temps d’arret. Il existe une suite decroissante

τn, n ∈ N de temps d’arret convergeant vers τ telle que τn est a valeurs dans

k/2n, k ∈ N ∪ +∞.

Preuve: On peut prendre τn = [2nτ ]+12n .

Page 43: Calcul Stochastique des martingales continues

3.6. PROPRIETE DE MARKOV FORTE DU MOUVEMENT BROWNIEN 39

Theoreme 3.6.8. — Soit Bt, t ≥ 0 un (Ft)–mouvement brownien. Alors,

pour tout temps d’arret τ , conditionnellement a τ < +∞, le processus

Bt+τ −Bτ , t ∈ R+ est un brownien, independant de Fτ .

Preuve: Il faut montrer que pour toute v.a. Z, Fτ -mesurable bornee et

F : Rd → R, continue bornee,

E(Z1τ<+∞F (Bt1+τ −Bτ , Bt2+τ −Bτ , · · · , Btd+τ −Bτ )) =

= E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))On considere d’abord le cas ou τ prend toutes ses valeurs dans l’ensemble

denombrable sk = k2−n, k ∈ N. Alors, puisque τ < +∞ est la reunion

denombrable des ensembles disjoints τ = sk, on peut ecrire :

E(Z1τ<+∞F (Bt1+τ − Bτ , · · · , Btd+τ −Bτ )) =

=+∞∑k=0

E(ZF (Bt1+τ −Bτ , · · · , Btd+τ −Bτ )1τ=sk)

=

+∞∑k=0

E(Z1τ=skF (Bt1+sk −Bsk , · · · , Btd+sk −Bsk))

=+∞∑k=0

E(Z1τ=sk)E(F (Bt1 , · · · , Btd))

= E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))

ou l’on a utilise que Z1τ=sk est Fsk mesurable et que B est un Ft–brownien.

Dans le cas general, on approche τ par une suite decroissante τn de temps

d’arret a valeurs denombrables, donnee par le lemme. Puisque Fτ est contenu

dans Fτn on a encore

E(Z1τ<+∞F (Bt1+τn −Bτn , · · · , Btd+τn −Bτn)) =

E(Z1τ<+∞)E(F (Bt1 , · · · , Btd))et on fait tendre n vers l’infini pour conclure, en utilisant la continuite des

trajectoires.

Proposition 3.6.9 (Principe de reflexion). — Soit Bt, t ≥ 0 un mou-

vement brownien. Pour a > 0, on pose Ta = inft ≥ 0;Bt = a. Alors

P(Ta ≤ t) = 2P(Bt ≥ a).

La densite de Ta est f(s) = a(2πs3)−1/2e−a2/2s1R+(s). En particulier E(Ta) =

+∞.

Page 44: Calcul Stochastique des martingales continues

40 CHAPITRE 3. MOUVEMENT BROWNIEN

Preuve: En utilisant la propriete de Markov forte du brownien, on sait que

Wt = Bt+Ta − BTa est un brownien independant de FTa donc en particulier

de Ta. On peut donc ecrire, puisque BTa = a et en utilisant a l’avant derniere

ligne l’important theoreme 4.4.5 que

P(Bt ≥ a) = P(Ta ≤ t, Bt ≥ a)

= P(Ta ≤ t, (Bt −BTa) +BTa ≥ a)

= P(Ta ≤ t,Wt−Ta ≥ 0)

=

∫1s≤tP(Wt−s ≥ 0)dPTa(s)

=1

2P(Ta ≤ t).

On en deduit, avec le changement de variable de x en s ou x = a√t/s,

P(Ta ≤ t) = 2P(Bt ≥ a) =√

2/πt

∫ ∞a

e−x2/2t dx = a

∫ t

0(2πs3)−1/2e−a

2/2s ds.

Donc la densite de Ta est f(s) = a(2πs3)−1/2e−a2/2s, ce qui permet de calculer

l’esperance.

On voit donc que, bien que le brownien passe une infinite de fois par tout

les points, il met un temps d’esperance infinie pour atteindre un point donne.

La propriete suivante est assez etonnante !

Corollaire 3.6.10. — La loi de sup0≤s≤tBs est la meme que celle de |Bt|.

Preuve: P(sup0≤s≤tBs ≥ a) = P(Ta ≤ t) = 2P(Bt ≥ a) = P(|Bt| ≥ a).

3.7. Existence et Simulation du Mouvement brownien

L’ordinateur simule une suite Un de v.a. i.i.d. uniformes sur [0, 1]. (Par

simulation on veut dire qu’il ”tente” de fabriquer ... ) On commence par simuler

des v.a. independantes X1, X2, · · · de loi gaussienne N(0, 1). Une facon de faire

est de poser

Xn =√−2 logU2n sin(2πU2n+1).

Un intervalle de temps [0, T ] etant donne, on choisit ensuite un pas de

discretisation h = Tn , ou n ∈ N. On simule la trajectoire brownienne aux

instants kT/n, k = 0, 1, · · · , n− 1 en posant B0 = 0 puis par recurrence,

B(k+1)T/n = BkT/n +

√T

nXk+1.

Page 45: Calcul Stochastique des martingales continues

3.8. CONSTRUCTION DE P. LEVY DU MOUVEMENT BROWNIEN 41

Il y a une autre methode de simulation, qui permet de faire eventuellement

un effet de loupe sur un morceau de trajectoire choisi. Expliquons le principe

de cette construction en simulant le mouvement brownien sur [0, 1] par raffine-

ments successifs : A l’etape n on construit le brownien au points k2n , 0 ≤ k ≤ 2n.

A l’etape 0 on pose B0 = 0 et on choisit pour B1 une v.a. de loi N(0, 1). Une

fois l’etape n achevee, on procede ainsi : on se donne des v.a. ε0, ε1, · · · indep-

endantes entre elles et de ce qui precede, avec εn de loi N(0, 2−n) et l’on pose,

pour k entier,

B 2k+1

2n+1=B k

2n+B k+1

2n

2+ εk.

On verifie (cf. la construction de P. Levy dans la section suivante) que l’on

construit bien ainsi un mouvement brownien sur [0, 1] en passant a la limite

sur l’approximation lineaire. Ceci montre en particulier son existence.

3.8. Construction de P. Levy du mouvement brownien

Soit Yk,n; 0 ≤ k ≤ 2n, n ∈ N des v.a. independantes, toutes de loi

N(0, 1). On construit par recurrence sur n une suite Xn(t), 0 ≤ t ≤ 1n∈N∗de processus tels que :

Xn(t) est lineaire sur chaque intervalle dyadique [2−nk, 2−n(k + 1)],

X0(0) = 0, X0(1) = Y1,0,

Xn+1(2−nk) = Xn(2−nk),

Xn+1(2−(n+1)(2k + 1)) = Xn(2−(n+1)(2k + 1)) + 2−(n+2)/2Y2k+1,n+1.

Pour n fixe, toute combinaison lineaire des Xn(t), 0 ≤ t ≤ 1 est une

combinaison lineaire des Yk,m pour m ≤ n et est donc gaussienne. Montrons

par recurrence sur n que les v.a. Xn(2−n(k+1))−Xn(2−nk), k = 0, 1, · · · 2n−1,

sont independantes de loi N(0, 2−n). Si c’est vrai au rang n, regardons

Xn+1(2−n−1(2k + 1))−Xn+1(2−n−1(2k)) =

Xn(2−n(k + 1))−Xn(2−nk)

2+ 2−(n+2)/2Y2k+1,n+1

et

Xn+1(2−(n+1)(2k + 2))−Xn+1(2−(n+1)(2k + 1)) =

Xn(2−n(k + 1))−Xn(2−nk)

2− 2−(n+2)/2Y2k+1,n+1

Page 46: Calcul Stochastique des martingales continues

42 CHAPITRE 3. MOUVEMENT BROWNIEN

La seule chose non evidente est que ces deux v.a. sont independantes. Or leur

covariance est

var(Xn(2−n(k + 1))−Xn(2−nk)

2)− var(2−(n+2)/2Y2k+1,n+1) = 0.

Vu la construction de Xn+1 a partir de Xn,

sup0≤t≤1

|Xn+1(t)−Xn(t)| = sup0≤k≤2n−1

2−(n+2)/2Y2k+1,n+1

donc

P( sup0≤t≤1

|Xn+1(t)−Xn(t)| ≥ 2−n/4) = P( sup0≤k≤2n−1

2−(n+2)/2|Y2k+1,n+1| ≥ 2−n/4)

P( sup0≤k≤2n−1

|Y2k+1,n+1| ≥ 2(n+4)/4) ≤2n−1∑k=0

P(|Y2k+1,n+1| ≥ 2(n+4)/4)

= 2nP(|Y0,0| ≥ 2(n+4)/4)

Utilisons la majoration, pour a > 0

1√2π

∫ +∞

ae−t

2/2dt ≤ 1√2π

∫ +∞

a

t

ae−t

2/2dt ≤ 1√2π

1

ae−a

2/2

pour voir que∞∑n=0

P( sup0≤t≤1

|Xn+1(t)−Xn(t)| ≥ 2−n/4) < +∞

On en deduit, par Borel Cantelli, que, p.s., pour n assez grand,

sup0≤t≤1

|Xn+1(t)−Xn(t)| ≤ 2−n/4

donc que Xn converge uniformement sur [0, 1]. La limite Xt est donc continue,

c’est un processus gaussien centre continu dont les covariances coıncident avec

celles du brownien sur les dyadiques, donc partout.

3.9. Appendice 1

Donnons une excellente approximation de la fonction de repartition de la

loi normale sous la forme d’un programme C.

// standard normal density function

double ndf(double t)

return 0.398942280401433*exp(-t*t/2);

Page 47: Calcul Stochastique des martingales continues

3.9. APPENDICE 1 43

// standard normal cumulative distribution function

double nc(double x)

double result;

if (x<-7.)

result = ndf(x)/sqrt(1.+x*x);

else if (x>7.)

result = 1. - nc(-x);

else

result = 0.2316419;

static double a[5] = 0.31938153,-0.356563782,1.781477937,

-1.821255978,1.330274429;

result=1./(1+result*fabs(x));

result=1-ndf(x)*(result*(a[0]+result*

(a[1]+result*(a[2]+result*(a[3]+result*a[4])))));

if (x<=0.) result=1.-result;

return result;

Page 48: Calcul Stochastique des martingales continues
Page 49: Calcul Stochastique des martingales continues

CHAPITRE 4

MARTINGALES

4.1. Martingales, definition

Pour T = R ou N on considere (Ω, (Ft)t∈T ,P) un espace de probabilite filtre.

Definition 4.1.1. — Une famille de variables aleatoires reelles Mt, t ∈ T , est

une martingale si Mt ∈ L1, (Mt) est adapte et

E(Mt|Fs) = Ms, pour tout 0 ≤ s ≤ t.

Une famille Mt, t ∈ T , est une sous-martingale si Mt ∈ L1, (Mt) est adapte et

E(Mt|Fs) ≥Ms, pour tout 0 ≤ s ≤ t.

Si M est une (ss)-martingale sur (Ω, (Ft)t∈T ,P), ca l’est aussi pour la

filtration naturelle F0t = σ(Ms, s ≤ t).

Exemple. Soit X ∈ L1. On pose Xt = E(X|Ft). On a, pour s < t,

E(Xt|Fs) = E(E(X|Ft)|Fs) = E(X|Fs) = Xs

et Xt est une martingale.

Proposition 4.1.2. — Soit B un (Ft)–mouvement brownien. Alors,

(i) Bt, t ∈ R+ ;

(ii) B2t − t, t ∈ R+ ;

(iii) pour λ ∈ R , exp(λBt − λ2t2 ), t ∈ R+ ;

sont des (Ft)-martingales.

Proposition 4.1.3 (Inegalite de Jensen). — Soit M une martingale

(resp. sous martingale) et φ : R → R une fonction convexe (resp. convexe

croissante). Si φ(Mt) est integrable pour tout t ≥ 0, c’est une sous martingale.

Page 50: Calcul Stochastique des martingales continues

46 CHAPITRE 4. MARTINGALES

Preuve: Une fonction convexe est l’enveloppe superieure d’une famille de

droites : il existe une famille F de fonctions affines (du type x 7→ ax+ b) telles

que

φ(x) = supf∈F

f(x)

avec de plus chaque f croissante si φ est croissante (c’est evident si ϕ(x) = x+,

ou |x| ou x2, qui sont les cas principaux ou on appliquera cette inegalite dans

la suite du cours). Pour tout f ∈ F

E(φ(Mt)|Fs) ≥ E(f(Mt)|Fs) = f(E(Mt|Fs)) ≥ f(Ms)

donc E(φ(Mt)|Fs) ≥ supf∈F f(Ms) = φ(Ms).

Exemple : Si M est une martingale |M | est une sous martingale et si X est

une sous martingale, alors X+ est une sous martingale.

Proposition 4.1.4. — Soit M (n)t , t ∈ T, n ∈ N, une suite de (Ft)– martin-

gales. Si pour tout t, M(n)t tend vers Mt dans L1, ou afortiori dans L2, alors

Mt, t ∈ T , est une martingale.

Preuve: On utilise que

E(|E(M(n)t |Fs)− E(Mt|Fs)|) ≤ E(E(|M (n)

t −Mt||Fs)) = ||M (n)t −Mt||1.

4.2. Martingales a temps discret

Nous allons exposer deux resultats fondamentaux de Doob, indispensables

pour nous. Etant donne un processus M et un temps d’arret τ on note M τ le

processus arrete a l’instant τ , defini par :

M τt = Mτ∧t.

Theoreme 4.2.1 (d’arret). — Soit Mn, n ∈ N une (sous) martingale et

τ un temps d’arret. Alors M τ est encore une (sous)-martingale.

Preuve: Il suffit d’ecrire

M τn+1 −M τ

n = 1τ>n(Mn+1 −Mn).

Le lemme suivant n’est utile que pour les temps d’arret a valeurs

denombrables, c’est a dire rarement dans le cas ”continu” car il n’a d’interet

que si P(σ = r) > 0.

Page 51: Calcul Stochastique des martingales continues

4.2. MARTINGALES A TEMPS DISCRET 47

Lemme 4.2.2. — Si σ est un temps d’arret et r un reel fixe, pour toute v.a.

X ≥ 0, p.s.,

1σ=rE(X|Fσ) = 1σ=rE(X|Fr),

Preuve: Puisque σ = r ∈ Fσ, il faut montrer que

1σ=rE(X|Fσ) = 1σ=rE(X|Fr),

On utilise la propriete caracteristique de l’esperance conditionnelle 4.4.1 : la

v.a. Z = 1σ=rE(X|Fr) est Fσ-mesurable et pour toute v.a. U positive, Fσ-

mesurable, puisque U1σ=r est Fr-mesurable,

E(UZ) = E(U1σ=rE(X|Fr)) = E(U1σ=rX)

donc Z = E(1σ=rX|Fσ).

Corollaire 4.2.3. — Soient Mn, n ∈ N une (sous) martingale, σ et τ deux

temps d’arret a valeurs dans N. On suppose que τ est borne. Alors

E(Mτ | Fσ) ≥Mτ∧σ

avec egalite dans le cas d’une martingale.

Preuve: Si τ est borne par la constante r > 0, on peut ecrire que, sur σ = n,

E(Mτ | Fσ) = E(M τr | Fn) ≥M τ

r∧n = Mτ∧σ.

Theoreme 4.2.4. — Soit Mn, n ∈ N, une sous-martingale positive. Pour

tout a > 0,

P( max0≤k≤n

Mk ≥ a) ≤ 1

aE(Mn1max0≤k≤nMk≥a) ≤

1

aE(Mn).

De plus

E( max0≤k≤n

M2k ) ≤ 4E(M2

n).

Preuve: L’inegalite de droite est evidente car Mn ≥ 0. Pour celle de gauche,

posons σ = infk ≥ 0;Mk ≥ a. On a σ ≤ n = max0≤k≤nMk ≥ a donc

E(Mn1max0≤k≤nMk≥a) = E(Mn1σ≤n) = E(E(Mn|Fσ)1σ≤n)

≥ E(Mn∧σ1σ≤n) ≥ aP(σ ≤ n) = aP( max0≤k≤n

Mk ≥ a)

en appliquant le corollaire. Ensuite∫ ∞0

aP( max0≤k≤n

Mk ≥ a) da ≤∫ ∞

0E(Mn; max

0≤k≤nMk ≥ a) da.

Page 52: Calcul Stochastique des martingales continues

48 CHAPITRE 4. MARTINGALES

Avec Fubini ceci s’ecrit,

E(

∫ max0≤k≤nMk

0a da) ≤ E(Mn

∫ max0≤k≤nMk

0da)

donc1

2E(( max

0≤k≤nMk)

2) ≤ E(Mn max0≤k≤n

Mk).

En appliquant Cauchy Schwarz on obtient

1

2E(( max

0≤k≤nMk)

2) ≤ E(M2n)1/2E(( max

0≤k≤nMk)

2)1/2,

E((max0≤k≤nMk)2) est fini car majore par E(

∑nk=0M

2k ) on peut donc sim-

plifier par E((max0≤k≤nMk)2)1/2 dans l’inegalite precedente, ce qui donne le

resultat.

Dans la preuve precedente, en multipliant par ap−2 et en appliquant

l’inegalite de Holder (c.f. ??) on obtient pour p > 1,

|| max0≤k≤n

Mk||p ≤ q||Mn||p

ou p−1 + q−1 = 1.

4.3. Martingale continue a droite

Si Mt, t ∈ R+, est un processus a trajectoires continues a droite, on a

sup0≤t≤T

Mt = limn→+∞

sup0≤k≤2n

M kT2n.

En appliquant le Theoreme 4.2.4 a la sous martingale Xk = M kT2n

et l’egalite

sup0≤t≤T

Mt > a = ∪n∈N sup0≤k≤2n

M kT2n> a

on obtient, en passant par P(sup0≤t≤T Mt > a),

Theoreme 4.3.1 (Inegalites de Doob). — Soit Mt, t ∈ R+, une sous-

martingale continue a droite positive. Pour tout a > 0,

P( sup0≤t≤T

Mt ≥ a) ≤ 1

aE(MT 1sup0≤t≤T Mt≥a) ≤

1

aE(MT )

De plus

E( sup0≤t≤T

M2t ) ≤ 4E(M2

T ).

Puisque la valeur absolue d’une martingale est une sous martingale positive,

on en deduit le corollaire absolument fondamental pour la suite :

Page 53: Calcul Stochastique des martingales continues

4.3. MARTINGALE CONTINUE A DROITE 49

Corollaire 4.3.2. — Si M est une martingale continue a droite,

P( sup0≤t≤T

|Mt| ≥ a) ≤ E(|MT |)a

et

E( sup0≤t≤T

M2t ) ≤ 4E(M2

T ).

Deduisons un convergence de theoreme de martingales (il en existe d’autres,

par exemple pour les martingales positives).

Theoreme 4.3.3. — Une martingale continue a droite (Mt) telle que

supt≥0

E(M2t ) < +∞

converge p.s. et dans L2 lorsque t→ +∞.

Preuve: Puisque M2t est une sous martingale, E(M2

t ) est une fonction crois-

sante. Par hypothese, elle est bornee. Donc elle converge lorsque t→ +∞. On

en deduit que, pour tout ε > 0, il existe N tel que, si s, t ≥ N

E((Mt −Ms)2) = E(M2

t )− E(M2s ) < ε

lorsque s, t → +∞. La suite Mn est donc de Cauchy dans L2, elle converge

vers une v.a. M∞. En faisant tendre t → +∞ suivant les entiers on voit, par

Fatou, que

E((M∞ −Ms)2) < ε

donc Ms → M∞ dans L2. Si on applique l’inegalite de Doob a la martingale

Nt = Ms+t −Ms on obtient, pour s > N ,

E(supt≤T

(Mt+s −Ms)2) ≤ 4E((MT+s −Ms)

2) ≤ 4ε

pour tout T ≥ 0, donc

E(supt≥0

(Mt+s −Ms)2) ≤ 4ε.

Il en resulte en ecrivant que

(Mt+s −M∞)2 ≤ 2(Mt+s −Ms)2 + 2(Ms −M∞)2

que

E(supt≥0

(Mt+s −M∞)2) ≤ 16ε.

Il existe donc une sous suite ni telle que, p.s., supt≥0(Mt+ni −M∞) → 0, ce

qui entraıne que Mt →M∞, p.s.

Pour montrer le theoreme d’arret, nous allons utiliser :

Page 54: Calcul Stochastique des martingales continues

50 CHAPITRE 4. MARTINGALES

Lemme 4.3.4. — Si X ∈ L1(Ω,A,P), la famille E(X|F), F sous tribu de Aest uniformement integrable.

Preuve: Remarquons d’abord que pour tout ε > 0, il existe α > 0 tel que, si

P(A) < α alors E(|X|1A) ≤ ε. En effet, par Lebesgue domine, E(|X|1|X|≥M)tend vers 0 lorsque M → +∞. On choisit M pour lequel E(|X|1|X|≥M)) <ε/2 et ensuite α > 0 tel que αM < ε/2. On a alors

E(|X|1A) ≤ E(|X|1A1|X|≥M) + E(|X|1A1|X|≤M)

≤ E(|X|1|X|≥M) +MP(A) ≤ ε.Soit R = α−1E|X|. On a, pour a > R, P(|E(X|F)| > a) ≤ a−1E|E(X|F)| ≤a−1E|X| < α et∫|E(X|F)|>a

|E(X|F)| dP ≤∫|E(X|F)|>a

E(|X||F) dP =

∫|E(X|F)|>a

|X| dP < ε.

Theoreme 4.3.5 (d’arret). — Soient (Xt, t ∈ R+) une sous-martingale

continue a droite, et σ et τ deux temps d’arret avec τ borne. Alors Xτ ∈ L1

et Xσ∧τ ≤ E(Xτ | Fσ), avec egalite si X est une martingale.

Preuve: (a) La suite de temps d’arret τn = 2−n([2nτ ] + 1) decroit vers

τ et Xτn tend vers Xτ , quand n → +∞. Si τ est bornee par K, τn est

borne par K + 1. D’apres le corollaire 4.2.3, X+k2n

etant une sous-martingale,

X+τn ≤ E(X+

K+1 | Fτn). On a alors

E|Xτn | = 2E(X+τn)− E(Xτn) ≤ 2E(X+

K+1)− E(X0)

d’ou, par le lemme de Fatou, E|Xτ | ≤ lim infn E|Xτn | < +∞ donc Xτ ∈ L1.

(b) Soit σn = 2−n([2nσ] + 1). On suppose d’abord que Xt ≥ 0 pour tout

t ≥ 0. Soit A ∈ Fσ ⊂ Fσn . On a alors, en appliquant le corollaire 4.2.3 a la

sous-martingale X k2n, k ∈ N,

Xσn∧τn ≤ E(Xτn |Fσn)

donc

E(1AXσn∧τn) ≤ E(1AXτn).

Puisque Xt ≥ 0, |Xσn∧τn | ≤ E(Xτn |Fσn) et le lemme montre que les suites

Xσn∧τn et Xτn sont uniformement integrables. Donc Xσn∧τn et Xτn convergent

vers Xσ∧τ et Xτ dans L1 et E(1AXσ∧τ ) ≤ E(1AXτ ).

(c) On revient au cas general. Pour tout a > 0, a+Xt ∨ (−a) est une sous-

martingale positive donc, pour tout A ∈ Fσ, E(1A(Xσ∧τ ∨(−a))) ≤ E(1A(Xτ ∨

Page 55: Calcul Stochastique des martingales continues

4.4. FORMULAIRE SUR L’ESPERANCE CONDITIONNELLE 51

(−a))). On conclut facilement puisque, lorsque a→ +∞, Xτ ∨ (−a)→ Xτ et

Xσ∧τ ∨ (−a)→ Xσ dans L1 puisque |Xτ ∨ (−a)| ≤ |Xτ .

Corollaire 4.3.6. — Soient (Mt, t ∈ R+) une sous-martingale continue a

droite, telle que E(sup0≤t<+∞ |Mt|) < +∞. Pour tous temps d’arret σ et τ

E(Mτ |Fσ) ≥Mτ∧σ,

avec egalite si X est une martingale.

Preuve: En utilisant le theoreme precedent aux temps d’arrets bornes τ ∧ tet σ ∧ t, pour tout A ∈ Fσ

E(1A1σ≤tMτ∧t) = E(1A1σ≤tMσ∧τ∧t)

car A∩σ ≤ t ∈ Fσ∧t. Il suffit alors de faire tendre t vers l’infini en appliquant

le theoreme de convergence dominee.

Corollaire 4.3.7. — Soient (Xt, t ∈ R+) une (sous) martingale continue a

droite et τ un temps d’arret. Alors Xτt := Xt∧τ est une (sous) martingale.

Preuve: Vu le corollaire precedent, on a, pour s < t, E(Xt∧τ | Fs) ≥ Xt∧τ∧s =

Xτ∧s p.s.

Corollaire 4.3.8. — Soit (Xt, t ∈ R+) un processus integrable continu a

droite. Alors Xt est une martingale si et seulement si, pour tout temps d’arret

borne τ on a E(Xτ ) = E(X0).

Preuve: La necessite resulte du theoreme 4.3.5. Montrons que la condition

est suffisante. Soient s < t et A ∈ Fs. τ = s1A + t1Ac est un temps d’arret

borne et l’on E(X0) = E(Xτ ) = E(1AXs) + E(1AcXt). Mais τ = t est aussi

un temps d’arret borne d’ou E(X0) = E(Xt) = E(1AXt) + E(1AcXt). On en

deduit E(1AXs) = E(1AXt) i.e. Xt est une martingale.

4.4. Formulaire sur l’esperance conditionnelle

Soit (Ω,A,P) un espace de probabilite et F une sous-tribu deA. L’esperance

conditionnelle E(X|F) d’une variable aleatoire X positive (ou integrable) n’est

definie que presque surement, on ommetra d’ecrire ”p.s.” dans une egalite ou

elle apparait.

Theoreme 4.4.1 (Propriete caracteristique de l’esperance condition-

nelle)

Page 56: Calcul Stochastique des martingales continues

52 CHAPITRE 4. MARTINGALES

Soit X une v.a.r. positive ou integrable. L’esperance conditionnelle E(X|F)

est la seule (classe de) v.a. Z ayant les deux proprietes suivantes :

(i) Z est F-mesurable ;

(ii) pour toute v.a.r. U , F-mesurable bornee positive,

E(ZU) = E(XU).

On utilisera tres souvent les inegalites suivantes qui montrent que l’applica-

tion T : Lp → Lp donnee par T (X) = E(X|F) est continue pour p = 1, 2,∞.

Proposition 4.4.2 (Continuite de l’esperance conditionelle)

‖E(X|F)‖L1 ≤ ‖X‖L1 ; ‖E(X|F)‖L2 ≤ ‖X‖L2 ;

Les proprietes suivantes sont faciles a demontrer et essentielles :

Proposition 4.4.3. — Si les expressions ont un sens :

1. E(E(X|F)) = E(X);

2. |E(X|F)| ≤ E(|X||F).

3. Si X est F-mesurable, E(XY |F) = XE(Y |F);

4. Si G est une sous-tribu de F , E(X|G) = E(E(X|F)|G);

5. E(1|F) = 1;

6. E(aX + bY |F) = aE(X|F) + bE(Y |F);

7. Si X ≤ Y , E(X|F) ≤ E(Y |F);

8. |E(XY |F)|2 ≤ E(X2|F)E(Y 2|F).

On a l’analogue des theoremes de convergence de Beppo Levi, de Fatou, de

Lebesgue :

Proposition 4.4.4. — Soit (Xn) une suite de v.a.

(Beppo Levi conditionnel) Si 0 ≤ Xn ↑ X, E(Xn|F)→ E(X|F), p.s.

(Fatou conditionnel) Si 0 ≤ Xn, E(lim inf Xn|F) ≤ lim inf E(Xn|F),

(Lebesgue conditionnel) Si |Xn| ≤ V ou V ∈ L1 et si Xn → X , E(Xn|F)→E(X|F), p.s. et dans L1.

Page 57: Calcul Stochastique des martingales continues

4.4. FORMULAIRE SUR L’ESPERANCE CONDITIONNELLE 53

Preuve: On commence par montrer Beppo Levi : si 0 ≤ Xn ↑ X la suite

E(Xn|F) est croissante donc a une limite, que nous notons Z. Comme limite

de fonctions F-mesurables Z est F-mesurable. Et pour toute v.a. U positive

et F-mesurable, par le theoreme de Beppo Levi classique, applique deux fois,

E(UZ) = limn→+∞

E(UE(Xn|F)) = limn→+∞

E(UXn) = E(UX).

Donc Z = E(X|F) par la propriete caracteristique de l’esperance condition-

nelle (Thm 4.4.1). Les autres enonces s’en deduisent comme dans le cas non

conditionnel et par le fait que

||E(Xn|F)− E(X|F)||1 ≤ ||Xn −X||1pour la convergence dans L1.

Tres souvent les calculs explicites d’esperance conditionnelle utilisent le

theoreme suivant :

Theoreme 4.4.5. — Soit (T,X) une variable aleatoire a valeurs dans un

espace produit E × F et h : E × F → R mesurable, positive ou bornee. On

suppose que T est B-mesurable et que X est independante de B. Alors,

E(h(T,X)|B) = φ(T ) ou φ(t) = E(h(t,X)).

On peut encore ecrire cette egalite comme

E(h(T,X)|B)(ω) =

∫Ωh(T (ω), X(ω′)) dP(ω′).

Preuve: On utilise la caracterisation de l’esperance conditionnelle pour mon-

trer que E(h(T,X)|B) est bien la variable aleatoire φ(T ). D’abord, il resulte

du theoreme de Fubini que l’application t 7→ E(h(t,X)) est mesurable. Il en

resulte que φ(T ) est σ(T ) mesurable, donc B-mesurable. Ensuite, pour toute

v.a. Z B-mesurable, bornee et positive, p.s.,

E(h(T,X)Z)(ω) =

∫ ∫h(T (ω), X(ω′))Z(ω)dP(ω)dP(ω′)

d’apres le corollaire 2.11.4. Ceci est egal, par Fubini, a∫ ( ∫h(T (ω), X(ω′))dP(ω′)

)Z(ω)dP(ω′) =

∫φ(T (ω))Z(ω)dP(ω′) =

= E(φ(T )Z)(ω).

Page 58: Calcul Stochastique des martingales continues
Page 59: Calcul Stochastique des martingales continues

CHAPITRE 5

CROCHET DE MARTINGALES

Afin d’introduire le crochet de martingales, nous allons debuter la construc-

tion de l’integrale stochastique. La construction est naturelle mais il y a pas

mal d’inegalites a controler ! Apres ce debut, et a l’aide du crochet, on pourra

dans le chapitre suivant construire l’integrale stochastique en toute generalite.

5.1. Cas discret

Soit (Mn, n ∈ N) une (Fn)–martingale sur (Ω, (Fn)n∈N,P). Si Hn, n ∈ N,est un processus adapte on pose S(H,M)0 = 0 et

S(H,M)n =

n∑k=1

Hk−1(Mk −Mk−1).

Le lemme simple suivant est la cle des calculs que nous ferons.

Lemme 5.1.1 (Lemme d’orthogonalite). — Si Mn, n ∈ N, est une mar-

tingale dans L2,

E(M2n)− E(M2

0 ) =

n∑k=1

E((Mk −Mk−1)2).

Montrons maintenant un resultat technique (dont la courte demonstration

est due a M.M Belkhiria, etudiant du master),

Proposition 5.1.2. — Soit Mn, n ∈ N, une martingale et Hn, n ∈ N, un

processus adapte borne. Alors S(H,M) est une martingale et pour tout n ≥ 0,

E(S(H,M)2n) ≤ ‖ sup

k≤pH2k‖2‖M2

n‖2.

Page 60: Calcul Stochastique des martingales continues

56 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: Puisque H est borne, S(H,M)n est integrable pour tout n. C’est une

martingale car

E(S(H,M)n+1 − S(H,M)n|Fn) = E(Hn(Mn+1 −Mn)|Fn)

= Hn[E(Mn+1|Fn)−Mn] = 0.

Supposons maintenant que |M | est bornee par c. Par le lemme d’orthogonalite,

puisque S(H,M)0 = 0, en posant Kp = supk≤pH2k ,

E(S(H,M)2n) =

n−1∑p=0

E(H2p (Mp+1 −Mp)

2) ≤n−1∑p=0

E(Kp(Mp+1 −Mp)2).

Puisque Kp est Fp mesurable on a

E(KpMpMp+1)) = E(KpMpE(Mp+1|Fp)) = E(KpM2p )

donc en developpant,

E(Kp(Mp+1 −Mp)2) = E(Kp(M

2p+1 −M2

p )).

On obtient (puisque Kp ≤ Kp+1)

E(S(H,M)2n) ≤

n−1∑p=0

E(Kp(M2p+1 −M2

p ))

≤n−1∑p=0

E(Kp+1M2p+1 −KpM

2p )) = E(KnM

2n −K0M

20 )) ≤ E(KnM

2n)

donc, par Cauchy Schwarz,

E(S(H,M)2n) ≤ ‖ sup

k≤pH2k‖2‖M2

n‖2.

5.2. Premiers pas, a temps continu

On considere une martingale continue Mt, t ∈ R+, sur (Ω, (Ft),P). On

appelle processus (adapte) elementaire un processus H s’ecrivant

Ht =

n−1∑i=0

Hti1[ti,ti+1[(t)

ou 0 ≤ t0 < t1 · · · < tn et ou Hti est une v.a. Fti–mesurable bornee. On note

E l’ensemble de ces processus elementaires.

Page 61: Calcul Stochastique des martingales continues

5.3. CROCHET COMME VARIATION QUADRATIQUE 57

Proposition 5.2.1. — Pour H ∈ E on pose∫ t

0Hs dMs = (H ·M)t =

n−1∑i=0

Hti(Mti+1∧t −Mti∧t).

Alors

(i) H ·M est une (Ft)-martingale continue, nulle en 0.

(ii) Si M est bornee par C > 0, pour tout T > 0,

|| sup0≤t≤T

(H ·M)t||22 ≤ C2|| supt≤T

H2t ||2

Preuve: Puisque M est une martingale, E(Mr|Fs) = Mr∧s pour tous r, s,≥ 0.

On en deduit que si 0 ≤ ti ≤ s ≤ t,

E(Hti(Mti+1∧t −Mti∧t)|Fs) = HtiE(Mti+1∧t −Mti∧t)|Fs)= Hti(Mti+1∧t∧s −Mti∧t∧s)

= Hti(Mti+1∧s −Mti∧s).

En utilisant cette relation pour s = ti, on voit maintenant que si 0 ≤ r ≤ ti ≤ t,

E(Hti(Mti+1∧t −Mti∧t)|Fr) = E(E(Hti(Mti+1∧t −Mti∧t)|Fti)|Fr) = 0

donc encore

E(Hti(Mti+1∧t −Mti∧t)|Fr) = Hti(Mti+1∧r −Mti∧r).

Lorsque t ≤ ti, ceci est trivialement vrai. Donc H ·M est une martingale.

Montrons (ii). On regarde la martingale a temps discret Nk = Mtk∧T et le

processus a temps discret Gk = Htk . Alors

(H ·M)T = S(G,N)n

donc par la Proposition 5.1.2, il existe c > 0 tel que

||(H ·M)T ||22 ≤ c|| supt≤T

H2t ||2.

On applique alors l’inegalite de Doob a la martingale H ·M .

5.3. Crochet comme variation quadratique

Theoreme 5.3.1. — Soit M une martingale continue bornee et 0 = tn0 ≤tn1 ≤ · · · ≤ tnpn = T une suite de subdivisions de [0, T ] dont le pas tend vers 0.

Alors, la limite

(4) limn→+∞

pn−1∑i=0

(Mtni+1∧t −Mtni ∧t)2

Page 62: Calcul Stochastique des martingales continues

58 CHAPITRE 5. CROCHET DE MARTINGALES

existe dans L2 et definit, pour t ≤ T , un processus croissant continu adapte

note 〈M,M〉t. Il existe une sous suite qui, presque surement, converge uni-

fomement en t ∈ [0, T ]. De plus

M2t − 〈M,M〉t

est une martingale.

Preuve: L’idee de la preuve est d’anticiper la formule

M2t −M2

0 − 〈M,M〉t = 2

∫ t

0MsdMs

(que l’on ne connait pas encore) en ecrivant que

M2t −M2

0 −pn−1∑i=0

(Mtni+1∧t −Mtni ∧t)2 = 2

pn−1∑i=0

Mtni ∧t(Mtni+1∧t −Mtni ∧t)

= 2

pn−1∑i=0

Mtni(Mtni+1∧t −Mtni ∧t).

Avec

M(n)t =

pn−1∑i=0

Mtni1[tni ,t

ni+1[(t),

ceci se reecrit

(5) M2t −M2

0 −pn−1∑i=1

(Mtni+1∧t −Mtni ∧t)2 = 2

∫ t

0M (n)s dMs.

Posons

X(n)t =

∫ t

0M (n)s dMs.

On sait par la Proposition 5.2.1 que X(n)t est une martingale. En appliquant

cette proposition a la martingale X(n)t −X(m)

t on voit qu’il existe C > 0 telle

que

E[ sup0≤t≤T

(X(n)t −X(m)

t )2] ≤ C|| sup0≤s≤T

(M (m)s −M (n)

s )2||2

≤ 2C|| sup0≤s≤T

(M (m)s −Ms)

2||2 + 2C|| sup0≤s≤T

(M (n)s −Ms)

2||2

(en utilisant (a + b)2 ≤ 2(a2 + b2)). Par continuite de t 7→ Mt(ω) et donc

uniforme continuite sur [0, T ], et le theoreme de convergence dominee, ceci

Page 63: Calcul Stochastique des martingales continues

5.3. CROCHET COMME VARIATION QUADRATIQUE 59

tend vers 0 quand m,n→ +∞. Par recurrence construisons une suite d’entiers

nk verifiant nk ≥ nk−1 et, pour tout ≥ nk

E( sup0≤t≤T

(X(nk)t −Xm

t )2) ≤ 1/2k.

Alors,

E(+∞∑k=0

sup0≤t≤T

|X(nk)t −X(nk+1)

t |) ≤+∞∑k=0

E( sup0≤t≤T

|X(nk)t −X(nk+1)

t |2)1/2 < +∞.

Donc+∞∑k=0

sup0≤t≤T

|X(nk)t −X(nk+1)

t | < +∞, p.s.

On en deduit que, presque surement, X(nk)t converge uniformement sur [0, T ]

vers un processus Xt qui sera donc continu. Toute la suite X(n)t converge vers

Xt dans L2. En particulier X est une martingale. Ceci montre (4) en utilisant

(5) et

〈M,M〉t = M2t −M2

0 − 2Xt.

On a

M2t −M2

0 − 2X(n)t =

pn−1∑i=0

(Mtni+1∧t −Mtni ∧t)2

Donc la suite i 7→M2tni−M2

0−2X(n)tni

est croissante. Choisissons une subdivision

qui se raffine, alors c’est encore vrai pour la suite i 7→M2tni−M2

0 −2X(m)tni

pour

m ≥ n, donc par passage a la limite pour la suite

〈M,M〉t(n)i

= limm→+∞

M2tni−M2

0 − 2X(m)tni

La fonction 〈M,M〉t est donc croissante.

Remarque : La preuve montre que

(6) limn→+∞

E[supt≤T

(

pn−1∑i=0

(Mtni+1∧t −Mtni ∧t)2 − 〈M,M〉t)2] = 0

Le corollaire suivant resulte de la formule (4) et de la convergence p.s. pour

une sous suite.

Lemme 5.3.2. — Si M est une martingale bornee et τ un temps d’arret,

〈M τ ,M τ 〉t = 〈M,M〉t∧τ .

Page 64: Calcul Stochastique des martingales continues

60 CHAPITRE 5. CROCHET DE MARTINGALES

5.4. Martingale locale

Dans ce cours, on se concentre sur les processus continus. C’est pourquoi

on pose :

Definition 5.4.1. — Un processus adapte M tel que M0 = 0 est une mar-

tingale locale si il est continu et si il existe une suite croissante τn, n ∈ N, de

temps d’arret tendant vers +∞ telle que M τn soit une martingale. On dit que

(τn) reduit M .

Si M est un processus adapte non nul en 0, on dit que c’est une martingale

locale si Mt −M0 l’est.

Lemme 5.4.2. — Il y a equivalence entre

(i) M est une martingale locale et M0 est integrable ;

(ii) Il existe une suite croissante (τn) de temps d’arret tendant vers +∞telle que M τn soit une martingale continue.

Il resulte du theoreme d’arret que :

Theoreme 5.4.3. — Une martingale locale arretee est une martingale locale.

Lemme 5.4.4. — La somme de deux martingales locales est une martingale

locale.

Preuve: Si (τn) reduit la martingale locale M et (σn) reduit la martingale

locale N , alors σn ∧ τn reduit M +N .

Tres souvent on utilisera :

Proposition 5.4.5. — Si M est une martingale locale nulle en 0, et si

Tn = inft ≥ 0; |Mt| = n

alors MTn est une martingale bornee.

Preuve: Si (τk) reduit M , M τk est une martingale donc par le theoreme

d’arret, M τk∧Tn est une martingale. Pour tout t ≥ 0, quand k → +∞, M τk∧Tnt

tend vers MTnt dans L1 par convergence dominee (puisque |M τk∧Tn

t | ≤ n).

Donc MTn est une martingale.

Theoreme 5.4.6. — Une martingale locale M telle que sup0≤s≤t |Ms| est

dans L1 pour tout t ≥ 0 est une martingale.

Page 65: Calcul Stochastique des martingales continues

5.4. MARTINGALE LOCALE 61

Preuve: Il suffit d’utiliser qu’une limite dans L1 de martingales est une

martingale (Proposition 4.1.4) et le theoreme de convergence dominee.

Par contre l’uniforme integrabilite ne suffit pas. L’exemple classique est

Mt = 1/||Bt+1|| ou B est le brownien dans R3 : on verra que c’est une

martingale locale avec la formule d’Ito, par calcul E(M2t ) est uniformement

borne (et meme E(M5/2t ) ) et pourtant

E(Mt) = E(1/||Bt+1||) =1√t+ 1

E(1/||B1||)

n’est pas constant.

5.4.1. Crochet d’une martingale locale. — Considerons une martingale

locale M , nulle en 0, et Tn = inft ≥ 0; |Mt| = n. Il resulte du corollaire 5.3.2

que si n ≤ m alors

〈MTn ,MTn〉t = 〈MTm ,MTm〉tsi t ≤ Tn. On peut donc definir sans ambiguite 〈M,M〉 en posant

〈M,M〉t = 〈MTn ,MTn〉t, pour tout n tel que Tn ≥ t.

On aura

〈M τ ,M τ 〉t = 〈M,M〉t∧τOn remarque que, puisque M2

t∧τn − 〈M,M〉t∧τn est une martingale,

Proposition 5.4.7. — Si M est une martingale locale, le processus 〈M,M〉test continu, adapte et

M2t − 〈M,M〉t, t ≥ 0,

est une martingale locale.

Le theoreme suivant est tres important.

Theoreme 5.4.8. — Soit M une martingale locale nulle en 0. Alors les

conditions suivantes sont equivalentes :

(i) pour tout t ≥ 0, 〈M,M〉t ∈ L1 ;

(ii) M est une martingale de carre integrable.

Sous ces conditions, M2t − 〈M,M〉t est une martingale.

Preuve: Supposons (i). On peut reduire M avec Tn = inft; |Mt| = n. Alors

N(n)t = (MTn

t )2 − 〈MTn ,MTn〉t

est une martingale (cf. Theoreme 5.3.1). Donc E(N(n)t ) = 0 c’est a dire

(7) E(M2Tn∧t) = E(〈M,M〉Tn∧t).

Page 66: Calcul Stochastique des martingales continues

62 CHAPITRE 5. CROCHET DE MARTINGALES

En particulier

E(M2Tn∧t) ≤ E(〈M,M〉t)

ce qui assure que la suite MTn∧t, n ∈ N, est uniformement integrable. Donc

MTnt tend vers Mt dans L1 et Mt est une martingale comme limite dans L1

de martingales. Par Fatou

E(M2t ) ≤ lim inf

n→+∞E(M2

Tn∧t) ≤ lim infn→+∞

E(〈M,M〉Tn∧t) = E(〈M,M〉t) < +∞.

Donc Mt est de carre integrable. Ce qui montre (ii). Dans ce cas, par Doob

sup0≤s≤tM2s est dans L1. La martingale locale M2

t − 〈M,M〉t est majoree en

valeur absolue pour t ∈ [0, T ] par 〈M,M〉T + sup0≤t≤T M2t . C’est donc une

vraie martingale par le theoreme 5.4.6.

Supposons maintenant (ii) donc que Mt est une martingale de carre

integrable. Alors, par Doob,

E( sup0≤t≤T

M2t ) ≤ 4E(M2

T )

donc, puisque MTn est bornee,

E(〈MTn ,MTn〉T ) = E(M2Tn∧T ) ≤ 4E(M2

T )

et

E(〈M,M〉T ) ≤ 4E(M2T ) < +∞.

Proposition 5.4.9. — Soit Mt une martingale locale nulle en 0 et

〈M,M〉∞ = limt→+∞

〈M,M〉t.

Alors

E(supt≥0

M2t ) ≤ 4E(〈M,M〉∞).

Si ces quantites sont finies, Mt est une martingale, elle converge p.s. et dans

L2 vers une v.a. M∞ quand t→ +∞ et pour tous temps d’arrets σ, τ

E(Mτ |Fσ) = Mτ∧σ.

Preuve: Soit (τn) une suite de temps d’arret bornant M . Par Doob, pour tout

T > 0,

E(supt≤T

(M τnt )2) ≤ 4E((M τn

T )2) = 4E(〈M τn ,M τn〉T ) ≤ 4E(〈M,M〉∞)

On peut appliquer deux fois le theoreme de convergence monotone, en faisant

tendre T puis n vers l’infini, pour obtenir

E(supt≥0

M2t ) ≤ 4E(〈M,M〉∞).

Page 67: Calcul Stochastique des martingales continues

5.5. PROCESSUS A VARIATION FINIE 63

Si cette quantite est finie, Mt est une martingale convergente p.s. par le

theoreme de convergence 4.3.3. Par le theoreme d’arret,

E(Mτ∧n|Fσ) = Mτ∧n∧σ.

et on peut appliquer le theoreme de convergence dominee pour l’esperance

conditionnelle (ou la continuite dans L2) pour faire tendre n vers l’infini.

Attention : si M est une vraie martingale, E(M2t ) = E(〈M,M〉t), donc

supt≥0

E(M2t ) = E(〈M,M〉∞).

Si par contreM est seulement une martingale locale ceci peut etre faux, comme

le montre le contre exemple de la fin de la section precedente Mt = 1/||Bt+1||ou B est le brownien de R3 (dans ce cas E(〈M,M〉∞) = +∞ car M n’est pas

une martingale).

Insistons, l’inegalite de Doob sous la forme

E(supt≤T

M2t ) ≤ 4E(M2

T )

est fausse pour la martingale locale Mt = 1/||Bt+1||.

5.5. Processus a variation finie

Definition 5.5.1. — On appelle processus (sous entendu adapte continu) a

variation finie la difference de deux processus croissants continus adaptes.

Si At = Ut − Vt est a variation finie avec U et V croissants, pour toute

subdivision 0 = t0 < t1 < · · · < tn = T ,

(8)n∑i=1

|Ati−Ati−1 | ≤n∑i=1

|Uti−Uti−1 |+n∑i=1

|Vti−Vti−1 | ≤ UT −U0 +VT −V0.

Il y a une reciproque a cette propriete, mais nous ne l’utiliserons pas.

L’exemple typique de processus a variation finie est donne par la primitive

At =∫ t

0 Rs ds d’un processus Rt localement integrable progressif (par exemple

continu adapte) : en effet il suffit de prendre Ut =∫ t

0 R+s ds et Vs =

∫ t0 R−s ds.

Si A est nul en 0 on prendra U et V nuls en 0.

Proposition 5.5.2. — Une martingale locale (continue) nulle en 0 a varia-

tion finie est nulle.

Page 68: Calcul Stochastique des martingales continues

64 CHAPITRE 5. CROCHET DE MARTINGALES

Preuve: Ecrivons Mt = Ut − Vt avec U, V croissants continus adaptes. Soit

τk = inft ≥ 0;Ut + Vt ≥ k et 0 = tn0 < tn1 < · · · < tnpn = T une suite de

subdivisions de [0, T ] dont le pas tend vers 0. Alors, en appliquant le lemme

d’orthogonalite 5.1.1 a la martingale N = M τk ,

E(M2T∧τk) = E(

pn∑i=1

(Ntni−Ntni−1

)2)

≤ E(supj|Ntnj

−Ntnj−1|pn∑i=1

|Ntni−Ntni−1

|)

≤ E(supj|Ntnj

−Ntnj−1|(UT∧τk + VT∧τk))

≤ kE(supj|Ntnj

−Ntnj−1])→ 0,

donc MT = 0.

Corollaire 5.5.3. — Si M est une martingale locale, 〈M,M〉 est l’unique

processus croissant adapte At nul en 0 tel que M2t − At soit une martingale

locale.

5.6. Crochet de deux martingales locales

Considerons deux martingales locales M et N . Le ”crochet” de M et N est

defini par

〈M,N〉t =1

4[〈M +N,M +N〉t − 〈M −N,M −N〉t]

Exactement comme au dessus on voit que

Proposition 5.6.1. — 〈M,N〉 est le seul processus (continu adapte) a va-

riation finie, nul en 0, tel que MN − 〈M,N〉 soit une martingale locale.

Si M et N sont bornes, il resulte de la formule (4) du theoreme 5.3.1 que

si 0 = tn0 < tn1 < · · · < tnpn = T sont des subdivisions dont le pas tend vers 0.

Alors

(9) 〈M,N〉T = limn→+∞

pn∑i=1

(Mtni−Mtni−1

)(Ntni−Ntni−1

)

On en deduit :

Page 69: Calcul Stochastique des martingales continues

5.6. CROCHET DE DEUX MARTINGALES LOCALES 65

Theoreme 5.6.2. — Si M et N sont deux martingales locales, et τ un temps

d’arret, alors

〈M τ , N〉 = 〈M,N τ 〉 = 〈M τ , N τ 〉 = 〈M,N〉τ .

Preuve: Ecrire (apres avoir borne par localisation) que

〈M τ , N〉T = limn→+∞

pn∑i=1

(Mtni ∧τ −Mtni−1∧τ )(Ntni−Ntni−1

)

et que ∑i=1

=∑i;tni ≤τ

+∑

i;tni−1≤τ≤tni

+∑

i;tni−1≥τ.

La somme du milieu ne comporte qu’un seul terme et tend donc vers 0, les

autres sont les memes si on remplace Ntni−Ntni−1

par Ntni ∧τ −Ntni−1∧τ . Le

resultat suivant serait aussi vrai pour des martingales (cf TD),

Proposition 5.6.3. — Si Bt, t ≥ 0, et B′t, t ≥ 0, sont deux Ft-browniens

independants, alors 〈B,B′〉t = 0.

Preuve: En appliquant la proposition 3.4.2, on voit que Wt =Bt+B′t√

2est un

mouvement brownien. On en deduit que

t = 〈W,W 〉t =1

2(〈B,B〉t + 2〈B,B′〉t + 〈B′, B′〉t) = t+ 〈B,B′〉t

donc 〈B,B′〉 = 0.

Considerons un processus croissant continu A sur R+. Pour chaque ω ∈ Ω,

definissons une mesure mA(ω) sur R+ on posant

mA(ω)([s, t]) = At(ω)−As(ω).

Pour simplifier, on notera∫ t

0f(s) dmA(ω)(s) =

∫ t

0f(s) dAs(ω)

si f est borelienne positive ou bornee, et la plupart du temps on n’ecrit pas ω.

Si A maintenant est un processus a variation finie, donc s’ecrivant At = Ut−Vtou U et V sont des processus croissants, on posera∫ t

0f(s) dAs =

∫ t

0f(s) dUs −

∫ t

0f(s) dVs.

Page 70: Calcul Stochastique des martingales continues

66 CHAPITRE 5. CROCHET DE MARTINGALES

Le seul cas que l’on rencontrera souvent est celui ou A est une primitive :

At =∫ t

0 Rs ds. Alors ∫ t

0f(s) dA(s) =

∫ t

0f(s)Rs ds.

Le lemme suivant sera considerablement renforce au theoreme 6.1.8.

Lemme 5.6.4. — Pour H ∈ E, si M et N sont des martingales locales,

〈H ·M,N〉T =

∫ T

0Hs d〈M,N〉s.

Preuve: Par linearite, il suffit de considerer le cas ou Ht = Z1[a,b[(t), avec

b ≤ T , ou Z est Fa–mesurable, bornee. Par localisation, il suffit de considerer

le cas ou M et N sont bornees. On a alors

E((H ·M)TNT ) = E(Z(Mb −Ma)NT ),

or

E(Z(Mb −Ma)NT ) = E(ZMbNb)− E(ZMaNa)

= E(Z[(MbNb−〈M,N〉b)−(MaNa−〈M,N〉a)])+E(Z〈M,N〉b)−E(Z〈M,N〉a)

= E(Z〈M,N〉b)− E(Z〈M,N〉a)

car MN − 〈M,N〉 est une martingale, donc,

E((H ·M)TNT ) = E(Z(〈M,N〉b − 〈M,N〉a)) = E(

∫ t

0Hs d〈M,N〉s).

Pour tout temps d’arret τ borne par T , en remplacant M et N par M τ et N τ

on a encore

E((H ·M)τNτ ) = E(

∫ τ

0Hs d〈M,N〉s)

ce qui montre que (H ·M)tNt −∫ t

0 Hs d〈M,N〉s est une martingale (par le

corollaire 4.3.8).

Le resultat suivant est deterministe.

Lemme 5.6.5. — Soit H une fonction qui s’ecrit Ht =∑n−1

i=0 Hti1[ti,ti+1[(t)

ou Hti est un reel. Alors

(

∫ t

0Hs d〈M,N〉s)2 ≤ 〈N,N〉t

∫ t

0H2s d〈M,M〉s.

Page 71: Calcul Stochastique des martingales continues

5.6. CROCHET DE DEUX MARTINGALES LOCALES 67

Preuve: On ecrit que 〈λM + N,λM + N〉t est une fonction croissante de t,

on en deduit que, si s ≤ t,

(〈M,N〉t − 〈M,N〉s)2 ≤ (〈M,M〉t − 〈M,M〉s)(〈N,N〉t − 〈N,N〉s)

qui s’ecrit aussi

(

∫ t

sd〈M,N〉u)2 ≤

∫ t

sd〈M,M〉u

∫ t

sd〈N,N〉u.

On en deduit que

|∫ t

0Hs d〈M,N〉s| = |

n∑i=1

∫ ti+1∧t

ti∧tHs d〈M,N〉s|

≤n∑i=1

|Hti

∫ ti+1∧t

ti∧td〈M,N〉s|

≤n∑i=1

|Hti |[∫ ti+1∧t

ti∧td〈M,M〉s]1/2[

∫ ti+1∧t

ti∧td〈N,N〉s]1/2.

Or (∑aibi)

2 ≤ (∑a2i )(∑b2i ) (Cauchy Schwarz) donc

(

∫ t

0Hs d〈M,N〉s)2 ≤ [

n∑i=1

H2ti

∫ ti+1∧t

ti∧td〈M,M〉s][

n∑i=1

∫ ti+1∧t

ti∧td〈N,N〉s]

c’est a dire

(

∫ t

0Hs d〈M,N〉s)2 ≤

∫ t

0H2sd〈M,M〉s

∫ t

0d〈N,N〉s.

En utilisant par exemple la proposition 6.1.7, on voit, en utilisant la densite

dans L2(R, dd〈M,M〉) a fixe, que

Proposition 5.6.6 (Kunita Watanabe). — L’application qui a Ht =∑n−1i=0 Hti1[ti,ti+1[(t) associe

∫ t0 Hs d〈M,N〉s se prolonge par continuite a tout

processus mesurable H tel que∫ t

0 H2sd〈M,M〉u <∞ et si on note de la meme

facon ce prolongement, il verifie encore

(

∫ t

0Hs d〈M,N〉s)2 ≤ 〈N,N〉t

∫ t

0H2s d〈M,M〉s.

Page 72: Calcul Stochastique des martingales continues
Page 73: Calcul Stochastique des martingales continues

CHAPITRE 6

INTEGRALE STOCHASTIQUE

6.1. Cas d’une martingale de carre integrable

Sur un espace (Ω, (Ft),P) on considere une martingale continue Mt de

carre integrable (c’est a dire telle que Mt ∈ L2 pour tout t ≥ 0). Rappelons

(Theoreme 5.4.8) qu’alors 〈M,M〉t ∈ L1 et que

M2t − 〈M,M〉t

est une martingale. Dans la suite on fixe un T > 0.

Definition 6.1.1. — On noteH2T l’espace des martingales dans L2(Ω, (Ft),P)

presque surement continues Mt, 0 ≤ t ≤ T , telles que M0 = 0, muni du produit

scalaire

(M,N)H2T

= E(MTNT ) = E(〈M,M〉T ).

Remarquons que si M,N ∈ H2T , alors M + N et M − N sont dans H2

T et

que MN − 〈M,M〉 est une martingale.

On identifiera deux martingales egales p.s. dans la proposition suivante.

Proposition 6.1.2. — H2T est un espace de Hilbert.

Preuve: Il faut montrer queH2T est complet. Considerons une suite de Cauchy

M (n). Alors M(n)T est une suite de Cauchy dans L2(Ω,F ,P), qui est complet.

Il existe donc une variable aleatoire, que nous noterons MT , dans L2(Ω,F ,P)

telle que

E((M(n)T −MT )2)→ 0

Page 74: Calcul Stochastique des martingales continues

70 CHAPITRE 6. INTEGRALE STOCHASTIQUE

quand n → +∞. Posons, pour tout t ≤ T , Mt = E(MT |Ft). Il est clair que

(Mt) est une martingale, et par continuite dans L2 de l’esperance condition-

nelle, que M(n)t →Mt dans L2. Par Doob

E( sup0≤t≤T

(M (n)s −M (m)

s )2) ≤ 4E((M(n)T −M (m)

T )2)

tend vers 0 quand n,m → +∞. On peut extraire une sous suite nk telle que

M(nk)t converge uniformement. La limite sera donc continue. Or cette limite

est necessairement Mt. Ceci montre que Mt est une martingale continue. Donc

M ∈ H2T et ||M (n) −M ||2H2

T= E((M

(n)T −MT )2)→ 0.

Definition 6.1.3. — Etant donnee une martingale M on note L2(M)T l’en-

semble des processus progressifs H tels que E(∫ T

0 H2sd〈M,M〉s) <∞ muni du

produit scalaire

(H,K)L2(M)T = E(

∫ T

0HsKs d〈M,M〉s).

Proposition 6.1.4. — E est dense dans L2(M)T .

Preuve: Remarquons que L2(M)T est un sous espace ferme de l’espace L2(Ω×[0, T ],FT ⊗B([0, T ]),m) ou m est la mesure definie par, si A ∈ FT ⊗B([0, T ]),

m(A) = E(

∫ T

01A(ω, s)d〈M,M〉s(ω))

C’est donc un espace de Hilbert. Il suffit donc de montrer que si K ∈ L2(M)Test orthogonal a E alors il est nul (cf. Corollaire 2.3.8). Posons, pour un tel K,

Xt =

∫ t

0Ks d〈M,M〉s.

Montrons que Xt est une martingale : Par l’inegalite de Kunita Watanabe

(Proposition 5.6.6),∫ t

0|Ks| d〈M,M〉s ≤ 〈M,M〉1/2t (

∫ t

0K2s d〈M,M〉s)1/2

on voit, apres avoir applique Cauchy Schwarz, que

(10) [E(

∫ t

0|Ks| d〈M,M〉s)]2 ≤ E(〈M,M〉t)E(

∫ t

0K2s d〈M,M〉s) < +∞.

Donc Xt ∈ L1. Soit Z une v.a. Fs–mesurable bornee. Pour 0 ≤ s ≤ t ≤ T ,

le processus Hr = Z1[s,t[(r) est dans E donc, par hypothese, orthogonal a K,

Page 75: Calcul Stochastique des martingales continues

6.1. CAS D’UNE MARTINGALE DE CARRE INTEGRABLE 71

donc

0 = E(

∫ T

0HrKr d〈M,M〉r) = E(Z

∫ t

sKr d〈M,M〉r) = E(Z(Xt −Xs)).

Ceci entraıne que X est une martingale. Comme elle est a variation finie, elle

est nulle par la Proposition 5.5.2. Donc, p.s.∫ t

0Ks d〈M,M〉s = 0

pour tout s > 0, ce qui entraıne (par densite des combinaisons lineaires de

fonctions indicatrices 1[0,s], ou classe monotone) que, pour presque tout ω ∈ Ω,

s 7→ Ks(ω) est nul d〈M,M〉s(ω) presque partout, donc que K est nul dans

L2(M)T .

Rappelons maintenant que lorsque H =∑Hti1[ti,ti+1[ ∈ E et M est une

martingale, on a defini l’integrale stochastique

(H ·M)t =∑

Hti(Mti+1∧t −Mti∧t)

Lemme 6.1.5. — Si H ∈ E et M est une martingale de carre integrable,

E(H ·M)2T = E(

∫ T

0H2s d〈M,M〉s).

Preuve: Il suffit d’appliquer deux fois le lemme 5.6.4 :

d〈H ·M,H ·M〉 = Hd〈M,H ·M〉 = H2d〈M,M〉.

Theoreme 6.1.6. — L’integrale stochastique par rapport a M se prolonge en

une isometrie de L2(M)T dans H2T . On note encore H ·M ou

∫ t0 Hs dMs, 0 ≤

t ≤ T, l’image de H ∈ L2(M)T .

Preuve: Considerons l’application

IM : E 7→ H2T

definie par IM (H) = H ·M . Le lemme precedent montre que c’est une isometrie

de E , considere comme sous espace de L2(M)T , dans H2T . Comme E est dense

et H2T complet, on peut prolonger cette isometrie a H2

T tout entier. En effet,

on a le resultat general suivant :

Proposition 6.1.7. — On considere deux espaces metriques (F1, d1) et

(F2, d2), D une partie dense de F1 et φ : D 7→ F2 une application pour laquelle

il existe c > 0 tel que

d2(φ(x), φ(y)) ≤ cd1(x, y)(11)

Page 76: Calcul Stochastique des martingales continues

72 CHAPITRE 6. INTEGRALE STOCHASTIQUE

pour tous x, y ∈ D. Si (F2, d2) est complet, l’application φ se prolonge a F1

tout entier en une application verifiant (11) partout.

Preuve: En effet, par densite, pour tout x ∈ F1, il existe une suite xn ∈ Dtendant vers x. La suite (xn) est de Cauchy pour d1 puisqu’elle converge.

L’inegalite (11) montre que φ(xn) est une suite de Cauchy dans (F2, d2).

Comme cet espace est complet, φ(xn) converge. Il suffit de poser φ(x) =

limφ(xn).

Le theoreme suivant est fondamental.

Theoreme 6.1.8 (Propriete caracteristique). — Pour H ∈ L2(M)T ,

(H ·M)t, t ≤ T, est la seule martingale de H2T , nulle en 0, verifiant

〈H ·M,N〉T =

∫ T

0Hs d〈M,N〉s,

pour tout N ∈ H2T .

Preuve: Lorsque H ∈ E la relation est donnee par le lemme le lemme 5.6.4.

Pour traiter le cas general d’un H dans L2(M)T , approchons le par une suite

Hn ∈ E . Par construction de l’integrale stochastique, Hn ·M tend vers H ·Mdans H2

T . L’application lineaire

M ∈ H2T 7→ 〈M,N〉T ∈ L1

est continue par Kunita Watanabe (Proposition 5.6.6 appliquee a H = 1),

donc, dans L1,

〈H·M,N〉T = limn→+∞

〈Hn·M,N〉T = limn→+∞

∫ T

0Hns d〈M,N〉s =

∫ T

0Hs d〈M,N〉s,

puisque en utilisant a nouveau Kunita Watanabe

[E|∫ T

0(Hn

s −Hs) d〈M,N〉s|]2 ≤ E〈N,N〉TE∫ T

0(Hn

s −Hs)2 d〈M,M〉s.

Reste l’unicite : si X est une martingale nulle en 0, telle que pour tout N ,

〈X,N〉T = 〈H ·M,N〉T ,

alors, en prenant N = X − H ·M , on a 〈X − H ·M,X − H ·M〉 = 0 donc

X = H.M .

Une autre facon d’ecrire cette relation est

d〈H ·M,N〉t = Ht d〈M,N〉tc’est a dire que, pour chaque ω fixe, la mesure d〈H ·M,N〉t a la densite Ht

par rapport a la mesure d〈M,N〉t.

Page 77: Calcul Stochastique des martingales continues

6.2. CAS D’UNE MARTINGALE LOCALE. 73

Corollaire 6.1.9. — Pour toutes martingales M,N dans H2T , H ∈ L2(M)T

et K ∈ L2(N)T

〈H ·M,K ·N〉T =

∫ T

0HsKs d〈M,N〉s.

Theoreme 6.1.10. — Pour H ∈ L2(M)T , pour tout temps d’arret τ ,

(H ·M)τ = H ·M τ = H1[0,τ [ ·M.

De plus, K ∈ L2(H ·M)T si et seulement si KH ∈ L2(M)T et alors (associa-

tivite de l’integrale stochastique)

(KH) ·M = K · (H ·M).

Preuve: Pour l’arret, on utilise la propriete caracteristique. Par le theoreme

5.6.2 pour tout N ∈ H2T , et

〈(H ·M)τ , N〉T = 〈(H ·M), N〉τT =

∫ T

0Hs d〈M,N〉τs

=

∫ T

0Hsd 〈M τ , N〉s = 〈H ·M τ , N〉T

et

〈(H ·M)τ , N〉T =

∫ T

0H1[0,τ [ d〈M,N〉s = 〈H1[0,τ [ ·M,N〉T .

Pour l’associativite : d’abord

E(

∫ T

0K2s d〈(H ·M), (H ·M)〉s) = E(

∫ T

0K2sH

2s d〈M,M〉s).

Par ailleurs

〈(KH)·M,N〉T =

∫ T

0KsHsd 〈M,N〉s =

∫ T

0Ks〈H·M,N〉s = 〈K·(H·M), N〉T .

6.2. Cas d’une martingale locale.

Soit M une martingale locale.

Definition 6.2.1. — On note L0(M) l’ensemble des processus progressifs H

tels que, pour tout t > 0,∫ t

0H2s d〈M,M〉s < +∞, p.s.

Page 78: Calcul Stochastique des martingales continues

74 CHAPITRE 6. INTEGRALE STOCHASTIQUE

Les processus adaptes ”raisonnables” sont dans L0(M), par exemple (en

utilisant le lemme 3.6.2)

Proposition 6.2.2. — Si Xt est un processus adapte continu et τ ≤ +∞ un

temps d’arret alors

Ht = Xt1[0,τ [(t)

est dans L0(M).

Tout processus adapte continu, et meme seulement cad-lag, est dans L0(M).

Soit H ∈ L0(M). La suite

τn = inft ≥ 0;

∫ t

0(1 +H2

s )d〈M,M〉s ≥ n

est formee de temps d’arret et croıt vers +∞. Puisque

〈M τn ,M τn〉t ≤ n et

∫ T

0H2s d〈M τn ,M τn〉s ≤ n,

on voit que M τn est une vraie martingale de H2T et que H est dans L2(M τn)T .

Considerons H ·M τn . Pour m ≥ n,

(H ·M τm)τn = H · (M τm)τn = H ·M τm∧τn = H ·M τn .

On peut donc poser, sans ambiguıte,

(H ·M)t = (H ·M τn)t, pour tout n tel que τn ≥ t.

On utilisera aussi la notation

(H ·M)t =

∫ t

0Hs dMs.

Theoreme 6.2.3 (Propriete caracteristique). — Pour H ∈ L0(M), H ·M est l’unique martingale locale, nulle en 0, telle que, pour toute martingale

locale N

〈H ·M,N〉T =

∫ T

0Hs d〈M,N〉s,

Preuve: facile.

Corollaire 6.2.4. — Pour H,K ∈ L0(M), pour tout temps d’arret τ ,

(H ·M)τ = H ·M τ = H1[0,τ [ ·M et (HK) ·M = H · (K ·M).

Page 79: Calcul Stochastique des martingales continues

6.3. SEMIMARTINGALES 75

Corollaire 6.2.5 (Kunita Watanabe 2). — Pour H ∈ L0(M), K ∈L0(N),

(

∫ t

0HsKs d〈M,N〉s)2 ≤

∫ t

0H2s d〈M,M〉s

∫ t

0K2s d〈N,N〉s.

6.3. Semimartingales

On se fixe (Ω,F , (Ft),P).

Definition 6.3.1. — On appelle semimartingale (sous entendu continue) un

processus adapte Xt s’ecrivant

Xt = X0 +Mt + Vt

ou M est une martingale locale et V un processus a variation finie, nuls en 0,

continus adaptes et X0 est F0-mesurable.

Vu la Proposition 5.5.2, cette decomposition est unique. On l’appelle la

decomposition canonique.

Definition 6.3.2. — Le crochet de 2 semimartingales Xt = X0 + Mt +

Vt, Yt = Y0 + Nt + Ut ou M et N sont les parties martingales locales, est

par definition

〈X,Y 〉 = 〈M,N〉.

L’exemple fondamental de semimartingale (mais ce n’est pas le seul, penser

au sup du brownien St = max0≤s≤tBs) est donne par les processus d’Ito : on

considere un Ft–mouvement brownien B = (B(1), · · · , B(d)) a valeurs dans Rdissu de 0 ; par definition,

Definition 6.3.3. — Un Ft–mouvement brownien B = (B(1), · · · , B(d)) a

valeurs dans Rd est un processus continu tel que Bt+s − Bt, s ≥ 0, est

independant de Ft et dont les composantes sont des browniens independants.

Definition 6.3.4. — On appelle processus d’Ito reel tout processus Xt de la

forme

(12) Xt = X0 +d∑

k=1

∫ t

0φks dB

ks +

∫ t

0αs ds

ou X0 ∈ F0, ou φk et α sont des processus progressifs reels tels que, pour tout

t > 0,∫ t

0

∑(φks)

2 ds+∫ t

0 |αs| ds < +∞ p.s.

Page 80: Calcul Stochastique des martingales continues

76 CHAPITRE 6. INTEGRALE STOCHASTIQUE

Un processus d’Ito multidimensionnel est un processus dont les compo-

santes sont des processus d’Ito reels (par rapport au meme Ft–brownien d-

dimensionnel B). Soient Xt = X0 +∑∫ t

0 φk dBk +

∫ t0 αs ds et Yt = Y0 +∑∫ t

0 ψk dBk +

∫ t0 βs ds les composantes d’un processus d’Ito de dimension 2.

On a

(13) 〈X,Y 〉t =d∑

k=1

∫ t

0φksψ

ks ds.

6.3.1. Integration par rapport a une semimartingale. — Soit Xt =

X0 +Mt +A1t −A2

t une semimartingale ou A1 et A2 sont croissants. On note

L0(X), l’ensemble des processus progressifs U tels que, pour tout t > 0,∫ t

0U2s d〈Ms,Ms〉+

∫ t

0|Us| d(A1

s +A2s) < +∞, p.s.

Par exemple tout processus adapte continu par morceaux est dans L0(X).

Pour U ∈ L0(X), on definit :

(U ·X)t =

∫ t

0Us dXs =

∫ t

0Us dMs +

∫ t

0Us dA

1s −

∫ t

0Us dA

2s.

On verifie facilement que :

Proposition 6.3.5. — Si X,Y sont des semimartingales, pour H ∈ L0(X),

pour tout temps d’arret τ ,

(H ·X)τ = H ·Xτ ),

si K ∈ L0(H.X),

(KH) ·X = K · (H ·X),

〈H ·X,K · Y 〉t =

∫ t

0HsKs d〈X,Y 〉s.

Theoreme 6.3.6 (de convergence dominee pour l’I.S.)

Soit K,H ∈ L0(X) et H(n) une suite de processus progressifs telle que ;

pour tout t ≥ 0, H(n)t → Ht p.s. quand n → +∞ et |H(n)

t | ≤ Kt. Alors, en

probabilite

sup0≤t≤T

|∫ t

0H(n)s dXs −

∫ t

0Hs dXs| → 0.

Page 81: Calcul Stochastique des martingales continues

6.3. SEMIMARTINGALES 77

Preuve: Si Xt = X0 + Mt + At est la decomposition canonique de X.

L’integrale par rapport a A se traite avec le theoreme de Lebesgue classique.

Pour la partie M , appliquons la technique fondamentale : la localisation.

Etape 1 : Localisation et convergence L2. Soit τk la suite croissante vers

+∞ de temps d’arret, definie par

τk = inft ≥ 0; |Mt|+ 〈K ·M,K ·M〉t = k

alors par Doob

E[ sup0≤t≤T

(

∫ t

0H(n)s dM τk

s −∫ t

0Hs dM

τks )2] ≤ 4E[(

∫ T

0H(n)s dM τk

s −∫ T

0Hs dM

τks )2]

= 4E[(

∫ τk∧T

0(H(n)

s −Hs)2 d〈M,M〉s].

Par Lebesgue domine (puisque (H(n)s −Hs)

2 ≤ 4K2s ) on voit que

∫ τk∧T0 (H

(n)s −

Hs)2 d〈M,M〉 → 0 quand n→ +∞, et puisque cette quantite est bornee (par

2k) son esperance tend vers 0 a nouveau par Lebesgue domine.

Etape 2 : Convergence en probabilite :Soit ε > 0

P( sup0≤t≤T

(

∫ t

0H(n)s dMs −

∫ t

0Hs dMs)

2 > ε)

≤ P( sup0≤t≤T

(

∫ t

0H(n)s dM τk

s −∫ t

0Hs dM

τks )2 > ε, τk > t) + P(τk ≤ t)

etc... tend vers 0.

Proposition 6.3.7. — Soit X une semimartingale et U un processus adapte

continu. Soit 0 = tn0 ≤ tn1 ≤ . . . ≤ tnpn = T, une suite de subdivisions dont le

pas tend vers 0. Alors

sup0≤t≤T

|pn−1∑i=0

Utni (Xtni+1∧t −Xtni ∧t)−∫ t

0Us dXs| → 0

et

sup0≤t≤T

|pn−1∑i=0

Utni (Xtni+1∧t −Xtni ∧t)2 −

∫ t

0Us d〈X,X〉s| → 0

en probabilite.

Preuve: On pose Uns =∑pn−1

i=0 Utni 1[tni ,tni+1[(s). On a

pn−1∑i=0

Utni (Xtni+1∧t −Xtni ∧t) =

∫ t

0Uns dXs.

Page 82: Calcul Stochastique des martingales continues

78 CHAPITRE 6. INTEGRALE STOCHASTIQUE

Vu la continuite, Un tend vers U en restant borne pour chaque ω puisque

|Uns | ≤ max0≤r≤t |Ur|. Il suffit d’appliquer le theoreme precedent pour obtenir

la premiere limite.

Pour la seconde limite, pour simplifier les notations ne regardons que ce qui

se passe en T . Ecrivons X = X0 + M + A ou M est une martingale et A a

variation finie. Commencons par montrer que

pn−1∑i=0

(Xtni−Xtni−1

)2 → 〈X,X〉T .

On a

limn→+∞

|pn−1∑i=0

(Xtni−Xtni−1

)2 −pn−1∑i=0

(Mtni−Mtni−1

)2|

≤ lim |pn−1∑i=0

(Atni −Atni−1)2 + 2

pn−1∑i=0

(Mtni−Mtni−1

)(Atni −Atni−1)|

≤ ( sup1≤j≤n

|Atnj −Atnj−1|+ 2|Mtnj

−Mtnj−1|)|

pn−1∑i=0

|Atni −Atni−1| = 0

par continuite de M et de A et en utilisant l’inegalite (8). Donc

lim

pn−1∑i=0

(Xtni−Xtni−1

)2 = lim

pn−1∑i=0

(Mtni−Mtni−1

)2

Posons τk = inf(s ≥ 0, |Ms| ≥ k). En ecrivant

P(|pn−1∑i=0

(Mtni−Mtni−1

)2 − 〈X,X〉T | > ε)

= P(|pn−1∑i=0

(M τktni−M τk

tni−1)2 − 〈Xτk , Xτk〉T | > ε, t < τk) + P(t ≥ τk)

on obtient la convergence en probabilite puisque∑pn

i=1(M τktni− M τk

tni−1)2 →

〈Xτk , Xτk〉T par le theoreme 5.3.1. Le cas avec supt≤T se traite avec (6).

Il est alors facile de traiter le cas d’un U continu : Il suffit de l’approcher

(pour ω fixe) uniformement sur [0, T ] par les fonctions en escalier du type∑k Uk/n1[k/n,(k+1)/n[.

Page 83: Calcul Stochastique des martingales continues

6.4. FORMULE D’ITO 79

Corollaire 6.3.8. — Si X,Y sont deux semimartingales et U un processus

adapte continu.

sup0≤t≤T

|pn−1∑i=0

Utni (Xtni+1∧t −Xtni ∧t)(Ytni+1∧t − Ytni ∧t)−∫ t

0Us d〈X,Y 〉s| → 0

en probabilite.

Preuve: Par decoupage.

6.4. Formule d’Ito

Theoreme 6.4.1. — (Formule d’Ito) Soit Xt = (X1t , . . . , X

pt ) une semimar-

tingale a valeurs dans un ouvert U de Rp, et f ∈ C2(U). Alors f(Xt) est une

semimartingale et

f(Xt)− f(X0) =

p∑j=1

∫ t

0

∂f

∂xj(Xs) dX

js +

1

2

p∑j,k=1

∫ t

0

∂2f

∂xj∂xk(Xs) d〈Xj , Xk〉s.

Preuve: Traitons le cas p = 1. Par continuite Xt reste a valeurs dans l’inter-

valle de U contenant X0. La formule de Taylor a l’ordre 2 s’ecrit

f(y)− f(x) = f ′(x)(y − x) +(y − x)2

2f ′′(θ)

pour un θ ∈ [x, y]. Ecrivons donc, pour une suite de subdivisions 0 = tn0 <

tn1 < . . . < tnpn = t, de [0, t] dont le pas tend vers 0,

f(Xt)− f(X0) =

pn−1∑i=0

(f(Xtni+1)− f(Xtni

))

=

pn−1∑i=0

f ′(Xtni)(Xtni+1

−Xtni) +

pn−1∑i=0

f ′′(θni )(Xtni+1

−Xtni)2

2

ou θni est entre Xtni+1et Xtni

. Le premier terme tend en probabilite vers∫ t0 f′(Xs) dXs par la proposition 6.3.8. Pour le second, on a

limn→+∞

pn−1∑i=0

|f ′′(θni )− f ′′(Xtni)|

(Xtni+1−Xtni

)2

2

≤ limn→+∞

supk|f ′′(θnk )− f ′′(Xtnk

)|pn−1∑i=0

(Xtni+1−Xtni

)2

2= 0

Page 84: Calcul Stochastique des martingales continues

80 CHAPITRE 6. INTEGRALE STOCHASTIQUE

par uniforme continuite de f ′′ sur les compacts. Il suffit donc d’appliquer la

proposition precedente pour conclure. Si p > 1, la preuve est la meme lorsque

U est convexe. Sinon on utilise la formule de Taylor sous la forme, pour x, y

variant dans un compact de U , il existe une fonction o telle que

f(y)−f(x) =

p∑j=1

∂f

∂xj(x) (yj−xj)+

1

2

p∑j,k=1

∂2f

∂xj∂xk(x)(yj−xj)(yk−xk)+o(‖y−x‖2),

ou o(h)/h→ 0 quand h→ 0.

On ecrit souvent de facon formelle,

(14) df(Xt) =

p∑j=1

∂f

∂xj(Xt) dX

jt +

1

2

p∑j,k=1

∂2f

∂xj∂xk(Xt) d〈Xj , Xk〉t.

Corollaire 6.4.2. — Soit X une semimartingale a valeurs dans Rp et f ∈C1,2(R+ × Rp). Alors f(t,Xt) est une semimartingale et

f(t,Xt)− f(0, X0) =∫ t

0

∂f

∂t(s,Xs) ds+

p∑j=1

∫ t

0

∂f

∂xj(s,Xs) dX

js+

1

2

p∑j,k=1

∫ t

0

∂2f

∂xj∂xk(s,Xs) d〈Xj , Xk〉s.

Corollaire 6.4.3 (Integration par parties). — Si X et Y sont deux se-

mimartingales,

d(XtYt) = XtdYt + YtdXt + d〈X,Y 〉t

Page 85: Calcul Stochastique des martingales continues

CHAPITRE 7

APPLICATIONS DE LA FORMULE D’ITO

7.1. Sur le Brownien multidimensionnel

Soit B le Brownien dans Rd partant de 0 et Wt = Bt + x0, le mouvement

brownien partant de x0 ∈ Rd. Pour tout temps d’arret, τ , par Ito, si U est un

ouvert tel que Wt∧τ ∈ U pour tout t ≥ 0, pour toute fonction C2(U)

f(Wt∧τ ) = f(x0) +d∑i=1

∫ t∧τ

0

∂f

∂xi(Ws) dW

is +

1

2

∫ t∧τ

0∆f(Ws) ds

ou ∆ est le laplacien ∆f =∑d

i=1∂2f∂x2i

. Considerons pour U = Rd − 0 la

fonction f : U → R egale a :

f(x) = log ‖x‖, si d = 2 et f(x) =1

‖x‖d−2, si d ≥ 3.

En dehors de 0, ∆f = 0 (on dit que f est harmonique). Donc

Lemme 7.1.1. — Si τ est un temps d’arret tel que W τt ne s’annule jamais,

f(W τt ) est une martingale locale.

Proposition 7.1.2 (Les points sont polaires en dimension ≥ 2)

Si d ≥ 2, pour tout x ∈ Rd

P(∃t > 0;Bt = x) = 0.

Preuve: Il suffit de traiter le cas d = 2. Supposons d’abord x0 6= 0. Montrons

que

P(∃t > 0;Wt = 0) = 0.

Choisissons r,R > 0 tels que r < ||x0|| < R, posons Tr = inft ≥ 0; ||Wt|| =

r, TR = inft ≥ 0; ||Wt|| = R et τ = Tr ∧ TR. Puisque ln(||W τt ||) est une

Page 86: Calcul Stochastique des martingales continues

82 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

martingale locale bornee,

E[ln(||W τt ||)] = E[ln(||W τ

0 ||)] = ln ||x0||

donc, en faisant t→ +∞, par convergence dominee,

E[ln(||Wτ ||)] = ln ||x0||

c’est a dire

P(Tr < TR) ln r + P(Tr > TR) lnR = ln ||x0||

ce qui donne

(15) P(Tr < TR) =lnR− ln ||x0||

lnR− ln r.

En faisant tendre r vers 0 on obtient que

P(T0 ≤ TR) = 0,

car T0 ≤ TR = ∪r<RTr < TR. Puis en faisant tendre R vers +∞,

P(T0 <∞) = 0.

Donc partant de x0 6= 0 on n’atteint pas 0. Ensuite, puisque pour tout ε > 0,

Bt = Bt+ε−Bε, t ≥ 0, est un brownien independant de Bε et puisque Bε 6= 0,

p.s., on a (en prenant dans ce qui precede Wt = Bt +Bε)

P(∃t > ε,Bt = 0) = P(∃t > 0, Bε+t = 0) = P(∃t > 0, Bt = −Bε) = 0

et, en faisant tendre ε vers 0, P(∃t > 0, Bt = 0) = 0.

Proposition 7.1.3. — En dimensions d = 1, 2, pour tout ouvert U de Rd

P(∃t > 0;Bt ∈ U) = 1

et, p.s.,

lim inft→+∞

||Bt|| = 0.

Si d ≥ 3, p.s.,

limt→+∞

||Bt|| = +∞.

Preuve: Le cas d = 1 est clair. Pour d = 2 en reprenant la preuve precedente

on voit en commencant par faire tendre R vers l’infini dans (15), que pour

tout x0, P(Tr < +∞) = 1 et donc que pour tout x ∈ R2,

P(∃t > 0; ||Bt − x|| < ε) = 1.

Page 87: Calcul Stochastique des martingales continues

7.2. MARTINGALES EXPONENTIELLES 83

On conclut alors facilement. Par contre pour d ≥ 3, puisque ce n’est plus

ln ||x|| mais ||x||2−d qui est harmonique hors de 0, on obtient a la place de

l’equation (15),

P(Tr < TR) =R2−d − ||x0||2−d

R2−d − r2−d .

En faisant tendre R vers +∞, on obtient que, partant de x0,

P(Tr < +∞) =||x0||2−d

r2−d .

On a donc, pour tout M > 0,

P(lim inft→+∞

|Bt| ≥ r) ≥ P(‖Bt+TM ‖ ≥ r, ∀t ≥ 0) ≥ 1− M2−d

r2−d → 1

quand M tend vers l’infini si d > 2.

Remarque : On peut maintenant justifier que Mt := 1/||Bt+1|| est bien une

martingale locale pour le brownien dans R3.

7.2. Martingales exponentielles

7.2.1. Definition. —

Theoreme 7.2.1. — Soit M une martingale locale. Alors, pour tout λ ∈ C,

E(λM) = exp(λM − 1

2λ2〈M,M〉)

est une martingale locale et

dE(λM) = λE(λM) dM.

Si N est une martingale locale strictement positive, il existe une martingale

locale M telle que N = E(M)

Preuve: Il suffit pour la partie directe d’appliquer la formule d’Ito aux fonc-

tions parties reelles et imaginaires de f(x) = ex et a la semimartingale

λM − λ2

2 〈M,M〉. Pour la reciproque on applique Ito a log(Nt).

Proposition 7.2.2. — Soit M une martingale locale a valeurs positives ou

nulles telle que M0 est integrable. Alors M est une surmartingale (i.e. −M est

une sous martingale). On a toujours E(MT ) ≤ E(M0). Si E(MT ) = E(M0),

alors M est une martingale.

Page 88: Calcul Stochastique des martingales continues

84 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: Soit τn reduisant M . Par Fatou conditionnel

E(MT |Fs) ≤ E(lim infn→+∞

M τnT |Fs) ≤ lim inf

n→+∞E(M τn

T |Fs) = lim infn→+∞

M τns = Ms

donc Mt est une surmartingale. Pour 0 ≤ s ≤ t ≤ T ,

E(MT |Fs) ≤ E(Mt|Fs) ≤Ms

donc

E(MT ) ≤ E(Mt) ≤ E(Ms) ≤ E(M0) < +∞.

Si E(MT ) = E(M0) alors E(Mt) = E(Ms). Donc Ms − E(Mt|Fs) ≥ 0 est

d’esperance nulle, donc nul p.s.

Corollaire 7.2.3. — Soit M une martingale locale nulle en 0 et E(M) =

exp(M− 12〈M,M〉). Alors E(E(M)T ) ≤ 1 et, si E(E(M)T ) = 1 pour un T > 0,

alors E(M)t, t ≤ T, est une (vraie) martingale.

7.2.2. Critere de Paul Levy. —

Proposition 7.2.4. — Soit M une martingale locale (continue) nulle en 0

de crochet t. Alors M est un (Ft)–brownien.

Preuve: Par le theoreme precedent, pour tout λ reel, E(iλM) est une martin-

gale locale bornee sur [0, T ] par eλ2T2 donc une martingale : pour 0 < s < t,

E[E(iλMt)|Fs] = E(iλMs)

autrement dit,

E[exp(iλMt −1

2λ2t)|Fs] = exp(iλMs −

1

2λ2s)

d’ou

E[exp(iλ(Mt −Ms))|Fs] = exp(−1

2λ2(t− s))

et l’on conclut facilement.

7.2.3. Dubins-Schwarz. —

Proposition 7.2.5. — Soit M une martingale locale nulle en 0. Alors il

existe un brownien B tel que Mt = B〈M,M〉t.

Page 89: Calcul Stochastique des martingales continues

7.2. MARTINGALES EXPONENTIELLES 85

Preuve: Ne traitons que le cas plus simple ou 〈M,M〉 est strictement croissant

et 〈M,M〉∞ = ∞. Dans ce cas, pour chaque ω ∈ Ω, la fonction t ∈ R+ 7→〈M,M〉t(ω) ∈ R+ est bijective. Notons t ∈ R+ 7→ σt(ω) ∈ R+ l’inverse de

cette fonction (qui verifie donc 〈M,M〉σt = σ〈M,M〉t = t). Chaque σt est un

temps d’arret car

σt ≤ s = 〈M,M〉σt ≤ 〈M,M〉s = t ≤ 〈M,M〉s

est Fs–mesurable. Pour n ∈ N, Mσn est une vraie martingale car

〈Mσn ,Mσn〉t ≤ 〈M,M〉σn = n

et par Doob

E(supt≥0

(Mσnt )2) ≤ lim

T→+∞E(sup

t≤T(Mσn

t )2) ≤ 4E(〈M,M〉σn) = n.

On n’a donc pas de mal a justifier l’application du theoreme d’arret pour

obtenir que si s ≤ t,

E(Mσnσt |Fσs) = Mσn

σs .

Donc Mσt est une (Fσt)-martingale locale. On voit de la meme facon que

(M2 − 〈M,M〉)σt = M2σt − t

est une martingale locale. On conclut donc avec le critere de Levy que Bt =

Mσt est un mouvement brownien. On termine en remarquant que Mt =

B〈M,M〉t .

Proposition 7.2.6. — Soit M une martingale locale. Presque surement,

a. Sur 〈M,M〉∞ = +∞,

lim supt→+∞

Mt = +∞, lim inft→+∞

Mt = −∞

et limt→+∞Mt/〈M,M〉t = 0.

b. Sur 〈M,M〉∞ < +∞, Mt converge quand t→ +∞.

Corollaire 7.2.7. — Une martingale locale positive converge p.s.

Page 90: Calcul Stochastique des martingales continues

86 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

7.3. Theoremes de representation

Theoreme 7.3.1 (Theoreme de representation L2)

On suppose que (Ft) est la filtration du brownien Ft = σ(Bs, 0 ≤ s ≤ t). Si

Z ∈ L2(FT ), il existe un unique processus K dans L2T (B) tel que

(16) Z − E(Z) =

∫ T

0Ks dBs.

Preuve: Les combinaisons lineaires des v.a.

U = exp(i

n∑j=1

λj(Btj −Btj−1)),

n ∈ N, λ1, · · · , λn ∈ R, t1 ≤ t2 ≤ · · · ≤ tn ≤ T, sont denses dans L2(Ω,FT ). En

effet soit X ∈ L2(Ω,FT ) tel que

E[X exp(i

n∑j=1

λj(Btj −Btj−1))] = 0.

Notons µ+ et µ+ les probabilites sur Rn images de X+

E(X+)dP et X−

E(X−)dP

par le vecteur (Bt1 − Bt0 , · · · , Btn − Btn−1). Ces deux probabilites ont la

meme transformee de Fourier donc sont egales. Autrement dit pour tout

A ∈ σ(Btj − Btj−1 , j = 1, · · · , n), E(1AX) = 0. Par classe monotone, c’est

vrai pour tout A ∈ FT . Donc X = 0.

Notons H l’ensemble des Z de L2(FT ) admettant la representation (16).

C’est un ferme car si Zn → Z dans L2 et

Zn = E(Zn) +

∫ T

0Kns dBs

la suite Zn − E(Zn) est de Cauchy donc Kn est de Cauchy dans L2T (B), qui

est complet. Si Kn → K, alors

Z = E(Z) +

∫ T

0Ks dBs.

Montrons que chaque v.a. U est dans H. Posons Gt =∑n

j=1 λj1[tj−1,tj [(t),

Mt = ei∫ t0 Gs dBs+

12

∫ t0 G

2s ds et γ = e−

12

∫ T0 G2

s ds. Remarquons que γ n’est pas

aleatoire et que dMt = iGtMtdBt. On a

U = ei∫ T0 Gs dBs = ei

∫ T0 Gs dBs+

12

∫ T0 G2

s dse−12

∫ T0 G2

s ds = γMt

donc

U = γ[1 +

∫ T

0iGtMt dBt]

Page 91: Calcul Stochastique des martingales continues

7.3. THEOREMES DE REPRESENTATION 87

U = E(U) +

∫ T

0iγGtMt dBt

ce qui montre que U est dans H. Finalement H est ferme et contient un sous

ensemble dense dans L2T (B), il lui est donc egal. Ceci montre l’existence de

la representation (16). Pour l’unicite, si (16) est vrai pour K et K ′, alors∫ T0 Ks dBs =

∫ T0 K ′s dBs donc

E(

∫ T

0(Ks −K ′s) dBs)2 =

∫ T

0E(Ks −K ′s)2 ds = 0

et Ks = K ′s, p.s.

Corollaire 7.3.2. — Si Ft = σ(Bs, 0 ≤ s ≤ t), toutes les Ft-martingales

sont continues p.s.

Preuve: Soit M est une martingale arbitraire et T > 0. Considerons une suite

Zn de v.a. bornees qui tend vers MT dans L1, on peut ecrire

Zn = E(Zn) +

∫ T

0Kns dBs

et alors, pour 0 ≤ t ≤ T ,

M(n)t = E(Xn|Ft) = E(Zn) +

∫ t

0Kns dBs

est continue. Par Doob

P( sup0≤s≤T

|M (n)s −M (m)

s | > ε) ≤ E(|Xn −Xm|)ε

il en resulte qu’une sous suite de M (n) converge uniformeement sur [0, T ], p.s.,

vers M . Donc M est continue.

Corollaire 7.3.3 (Theoreme de representation L1)

Si Z ∈ L1(FT ), ou FT = σ(Bs, 0 ≤ s ≤ T ), il existe un processus K dans

L(0)T (B) tel que

(17) Z − E(Z) =

∫ T

0Ks dBs.

Preuve: Par la corollaire precedent Mt = E(Z|Ft), 0 ≤ t ≤ T , est une

martingale continue. Elle s’ecrit donc par le theoreme de representation des

martingales

Mt = M0 + intt0Ks dBs

ou K dans L(0)T (B). Il suffit alors de remarquer que Z = MT .

Page 92: Calcul Stochastique des martingales continues

88 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Theoreme 7.3.4 (Theoreme de representation des martingales)

Si Mt est une Ft = σ(Bs, 0 ≤ s ≤ t)-martingale locale, il existe un processus

K ∈ L(0)(B) tel que

Mt = M0 +

∫ t

0Ks dBs.

Preuve: On peut supposer que M0 = 0. Soit τn = inft ≥ 0; |Mt| ≥ n.Puisque M τn

T est borne, il existe par le theoreme precedent un unique processus

Kn ∈ L2T (B) tel que

M τnT =

∫ T

0Kns dBs

Alors, pour tout 0 ≤ t ≤ T ,

M τnt = E(M τn

T |Ft) =

∫ t

0Kns dBs

Si m ≥ n

M τmt =

∫ t

0Kms dBs

donc puisque τn ≤ τm,

M τnt =

∫ t∧τn

0Kms dBs =

∫ t

0Kms 1s≤τn dBs

Par unicite

Kms 1s≤τn = Kn

s

On peut donc poser sans ambiguite, pour s ≤ τn

Ks = Kns

Alors on aura, pour tout n

M τnt =

∫ t

0Ks dBs

donc, puisque τn → +∞,

M τnt =

∫ t

0Ks dBs.

Page 93: Calcul Stochastique des martingales continues

7.4. GIRSANOV 89

7.4. Girsanov

Sur un espace probabilisable (Ω,F) on dit que deux probabilites P et Qsont equivalentes si il existe une v.a. Z strictement positive telle que pour

tout A ∈ FQ(A) =

∫1AZ dP.

On ecrira Q = Z·P, ou dQ = Z dP. Par application du theoreme de convergence

monotone c’est la meme chose que dire que pour toute v.a. X, F–mesurable

positive, ∫X dQ =

∫XZ dP.

On continuera a noter E l’esperance par rapport a P mais on notera EQl’esperance par rapport a Q. Autrement dit E(X) =

∫X dP et EQ(X) =∫

X dQ =∫XZ dP..

Theoreme 7.4.1 (Girsanov). — Soit M une martingale locale nulle en 0

sur (Ω, (Ft),P), T > 0 et

ZT = eMT− 12〈M,M〉T .

On suppose que E(ZT ) = 1 et on note Q la probabilite ZT · P sur (Ω,FT ).

Alors pour toute martingale locale N sur (Ω, (Ft),P), le processus Xt = Nt −〈N,M〉t, 0 ≤ t ≤ T, est une martingale locale sur (Ω, (Ft)t≤T ,Q) de processus

croissant 〈N,N〉t.

Preuve: Montrons d’abord que, sous P, XtZt est une martingale locale.

Puisque dZ = ZdM et d〈N,Z〉 = Zd〈N,M〉 la formule d’Ito nous montre

que

d(XZ) = d(NZ−〈N,M〉Z) = ZdN+NdZ+d〈N,Z〉−〈N,M〉dZ−Zd〈N,M〉

= ZdN +NdZ − 〈N,M〉dZest une somme d’integrales stochastiques par rapport a des martingales locales,

donc une martingale locale. Soit (τn) reduisant XZ en martingale et soit τ

un temps d’arret borne par T , alors, en utilisant a la fois que, sous P, Z (cf.

Lemme 7.2.3) et (XZ)τn sont des martingales,

EQ[Xτnτ ] = E[Xτn

τ ZT ] = E[Xτnτ E(ZT |Fτn∧τ )]

= E[Xτnτ Zτn∧τ ] = E[(XZ)τnτ ] = E[X0] = EQ[X0],

(car Z0 = 1). Donc Xτn est une Q-martingale (Corollaire 4.3.8).

Page 94: Calcul Stochastique des martingales continues

90 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Le crochet pouvant s’obtenir par une limite p.s. ne depend que de la classe

d’equivalence des probabilites (puisqu’alors les ensembles negligeables sont les

memes).

Il resulte de ce theoreme que les semimartingales pour P et Q sont les

memes (jusqu’en T ). Par l’argument de la fin de la preuve, ou la propriete

caracteristique par exemple, on voit aussi que les integrales stochastiques sont

les memes pour P et pour Q.

Pour verifier l’hypothese du theoreme de Girsanov, on utilise le critere de

Novikov :

7.5. Critere de Novikov

Lemme 7.5.1. — Une famille Xi, i ∈ I est uniformement integrable si et

seulement si supi∈I E(|Xi|) < +∞ et pour tout ε > 0, il existe η > 0 tel que

si P(A) ≤ η alors E(1A|Xi|) ≤ ε pour tout i ∈ I.

Preuve: Si le criere est verifie, etant donne ε > 0, par Markov,

P(|Xi| ≥ a) ≤ supE(|Xi|)a

≤ η

pour a assez grand, donc E(1|Xi|≥a|Xi|) ≤ ε. Reciproquement, si la famille

est uniformement integrable, pour M assez grand, et P(A) ≤ ε/2M ,

E(|X|1A) ≤ E(|X|1A1|X|≥M) + E(|X|1A1|X|≤M)

≤ E(|X|1|X|≥M) +MP(A) ≤ ε

Theoreme 7.5.2 (Critere de Novikov). — Soit M martingale locale

nulle en 0, telle que E(e〈M,M〉T

2 ) < +∞. Alors E(E(M)T ) = 1.

Preuve: Rappelons d’abord (Corollaire 7.2.3) que E(E(M)T ) ≤ 1. Pour tout

A ∈ FT ,

1AeMT2 = E(M)

1/2T 1A(e

〈M,M〉T2 )1/2,

donc par Cauchy Schwarz,

E(1AeMT2 ) ≤ [E(E(M)T )]1/2[E(1Ae

〈M,M〉T2 )]1/2 ≤ [E(1Ae

〈M,M〉T2 )]1/2.

Pour 0 < a < 1, posons X = exp aMT1+a , alors

E(aM)T = eaMT−a2

2〈M,M〉T = (eMT− 1

2〈M,M〉T )a

2ea(1−a)MT = E(M)a

2

T X1−a2 .

Page 95: Calcul Stochastique des martingales continues

7.6. CAMERON-MARTIN 91

En appliquant l’inegalite de Holder on a

(18) E(1AE(aM)T ) ≤ E(E(M)T )a2E(1AX)1−a2 ≤ E(1AX)1−a2 .

Comme (1+a)/2a > 1 on peut appliquer l’inegalite de Jensen (E(U)(1+a)/2a ≤E(U (1+a)/2a),

E(1AX) = E(1A expaMT

1 + a) ≤ E(1Ae

MT2 )

2a1+a .

On arrive donc a

E(1AE(aM)T ) ≤ E(1AeMT2 )2a(1−a) ≤ [E(1Ae

〈M,M〉T2 )]a(1−a).

Pour tout temps d’arret τ , en appliquant ceci a M τ , on obtient que

E(1AE(aM)τ∧T ) ≤ [E(1Ae〈M,M〉T

2 )]a(1−a).

Il resulte du lemme que la famille E(aM)τ∧T est uniformement integrable. Et

donc (pourquoi ?) que la martingale locale E(aM)t est une vraie martingale.

En particulier E(E(aM)T ) = 1. Pour atteindre le cas a = 1 on ecrit que par

(18) avec A = Ω,

1 = E(E(aM)T ) ≤ E(E(M)T )a2E(X)1−a2

donc en prenant a→ 1, E(E(M)T ) = 1.

Remarque : On a aussi E(E(M)T |F0) = 1 puisque E(E(M)T |F0) ≤ 1 et

E(E(E(M)T |F0)) = E(E(M)T ) = 1.

7.6. Cameron-Martin

Corollaire 7.6.1 (Cameron–Martin). — Soit B un brownien sur

(Ω, (Ft),P) et φs ∈ L0(B). On suppose que ZT = exp[∫ T

0 φs dBs − 12

∫ T0 φ2

s ds]

verifie E(ZT ) = 1. Alors, pour 0 ≤ t ≤ T , Bt = Bt −∫ t

0 φs ds est un

mouvement brownien sur (Ω, (Ft)0≤t≤T ,Q) ou dQ = ZT dP sur FT .

Preuve: d’apres le critere de Levy, il suffit de voir que Bt est une martingale

locale de processus croissant t ce qui est immediat par le theoreme.

Le critere suivant est tres utile :

Corollaire 7.6.2 (Variante de Novikov). — Si il existe µ > 0 tel que∫ T0 E(eµφ

2t ) dt < +∞, alors E(ZT ) = 1.

Page 96: Calcul Stochastique des martingales continues

92 CHAPITRE 7. APPLICATIONS DE LA FORMULE D’ITO

Preuve: On choisit t0 = 0 < t1 · · · < tn = T avec ti+1 − ti < 2µ et on

pose φi = φ1[ti,ti+1[. Alors, ecrivons, en utilisant que pour toute probabilite

ν,exp∫|f | dν ≤

∫exp |f | dp (consequence de l’inegalite de Jensen),

E(e12

∫ T0 φi(s)

2 ds) = E(exp[1

ti+1 − ti

∫ ti+1

ti

(ti+1 − ti)φ(s)2

2ds])

≤ E(1

ti+1 − ti

∫ ti+1

ti

exp(ti+1 − ti)φ(s)2

2ds) ≤ 1

ti+1 − ti

∫ ti+1

ti

E expµφ(s)2 ds

est fini, donc en appliquant la remarque suivant Novikov au processusZti+tZti

, t ≥0, on voit que

E(Zti+1

Zti|Fti) = 1.

Donc de proche en proche,

E(ZT ) = E(Zt0Zt1Zt0· · · Ztn

Ztn−1

) = 1.

Page 97: Calcul Stochastique des martingales continues

CHAPITRE 8

EQUATIONS DIFFERENTIELLES

STOCHASTIQUES

8.1. Introduction

Notons Mp×d(R) l’ensemble des matrices p× d a coefficients dans R. Soient

σ : Rp → Mp×d(R) et b : Rp → Rp deux fonctions mesurables localement

bornees (i.e. bornees sur chaque boule) definies sur Rp. Pour x ∈ Rp, on

considere l’equation differentielle stochastique (E.D.S.)

(19) dXt = σ(Xt) dBt + b(Xt) dt, X0 = x ∈ Rp;

pour Bt ∈ Rd et Xt ∈ Rp. Etant donne un Ft-mouvement Brownien d dimen-

sionnel B sur (Ω, (Ft),P), muni de sa filtration, on appelle solution (forte) de

cette equation un processus adapte continu Xt tel que, en coordonnees, pour

i = 1, · · · , p, pour tout t ≥ 0,

X(i)t = X

(i)0 +

d∑j=1

∫ t

0σij(Xs) dB

(j)s +

∫ t

0bi(Xs) ds

Le cas d’une equation a coefficients dependant du temps, du type

dXt = σ(t,Xt) dBt + b(t,Xt) dt

se ramene a cette situation en travaillant dans Rp+1, en rajoutant une com-

posante X(0)t = t. Le lemme suivant est crucial.

Lemme 8.1.1 (Gronwall). — Soit g : [0, T ] → R une fonction borelienne

bornee telle que, pour a, b ≥ 0,

g(t) ≤ a+ b

∫ t

0g(s) ds, pour tout 0 ≤ t ≤ T.

Alors g(t) ≤ aebt sur [0, T ].

Page 98: Calcul Stochastique des martingales continues

94 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES

Preuve: On pose G(t) = a+ b∫ t

0 g(s) ds et H(t) = a+ b∫ t

0 G(s) ds. Alors

g(t) ≤ G(t) ≤ H(t)

et H(t) ≤ a+ b∫ t

0 H(s) ds. Il suffit donc majorer H or H est derivable et

(e−btH(t))′ = −be−btH(t) + e−btH ′(t) = −be−btH(t) + be−btG(t) ≤ 0

donc e−btH(t) ≤ H(0) = a.

8.2. Solutions fortes d’E.D.S.

On considere l’equation (19). On dit que b et σ sont lipschitziennes si il

existe K > 0 tel que, partout,

||b(x)− b(y)|| ≤ K||x− y||, ||σ(x)− σ(y)|| ≤ K||x− y||.

(on peut prendre comme norme, par exemple, ||σ(x)|| = (∑

i,j σi,j(x)2)1/2 et

||b(x)|| = (∑

i bi(x)2)1/2). Le theoreme fondamental est le suivant :

Theoreme 8.2.1. — Soit Bt, t ≥ 0, un (Ω, (Ft),P) mouvement brownien d–

dimensionnel. On suppose que b et σ sont lipschitziennes. Etant donne x ∈ Rpil existe un et un seul processus continu adapte X tel que pour tout t ≥ 0,

Xt = x+

∫ t

0b(Xs) ds+

∫ t

0σ(Xs) dBs.

Preuve: En dimensions p = d = 1, pour simplifier les notations uniquement.

1. Unicite : Si X,X ′ sont deux solutions. On localise avec τ = inft >0; |Xt −X ′t| ≥ n :

Xt∧τ −X ′t∧τ =

∫ t∧τ

0(b(Xs)− b(X ′s)) ds+

∫ t∧τ

0(σ(Xs)− σ(X ′s)) dBs.

Puisque (a+ b)2 ≤ 2a2 + 2b2, et en appliquant Cauchy Schwarz, si t ≤ T ,

E([Xt∧τ − X ′t∧τ ]2) ≤

≤ 2E([

∫ t∧τ

0(b(Xs)− b(X ′s)) ds]2) + 2E([

∫ t∧τ

0(σ(Xs)− σ(X ′s)) dBs]

2)

≤ 2E((t ∧ τ)[

∫ t∧τ

0(b(Xs)− b(X ′s))2 ds]) + 2E([

∫ t∧τ

0(σ(Xs)− σ(X ′s))

2 ds])

≤ 2E(T [

∫ t∧τ

0(K|Xs −X ′s|)2 ds]) + 2E([

∫ t∧τ

0(K|Xs −X ′s|)2 ds])

≤ 2(T + 1)K2

∫ t

0E(|Xs∧τ −X ′s∧τ |)2 ds.

Page 99: Calcul Stochastique des martingales continues

8.2. SOLUTIONS FORTES D’E.D.S. 95

Donc E[Xt∧τ−X ′t∧τ ]2 = 0 par le lemme de Gronwall. On en deduit queX = X ′.

2. Existence : on utilise ce qu’on appelle le schema de Picard. On pose, pour

tout t ≥ 0, X0t = x puis par recurrence

Xnt = x+

∫ t

0b(Xn−1

s ) ds+

∫ t

0σ(Xn−1

s ) dBs

On a

Xn+1t −Xn

t =

∫ t

0(b(Xn

s )− b(Xn−1s )) ds+

∫ t

0(σ(Xn

s )− σ(Xn−1s )) dBs

Posons

gn(u) = E(supt≤u

[Xn+1t −Xn

t ]2).

Si 0 ≤ u ≤ T ,

gn(u) ≤ 2E(supt≤u

[

∫ t

0(b(Xn

s )− b(Xn−1s )) ds]2) + 2E(sup

t≤u[

∫ t

0(σ(Xn

s )− σ(Xn−1s )) dBs]

2)

≤ 2E(T

∫ u

0(b(Xn

s )− b(Xn−1s ))2 ds) + 8E([

∫ u

0(σ(Xn

s )− σ(Xn−1s ))2 ds)

≤ 2(T + 4)K2

∫ u

0E(|Xn

s −Xn−1s |2) ds

≤ 2(T + 4)K2

∫ u

0E(sup

s≤v|Xn

s −Xn−1s |2) dv = C

∫ u

0gn−1(v) dv

pour C = 2(T + 4)K2. On en deduit par recurrence que,

gn(t) ≤ Cntn−1

(n− 1)!g0(t)

or

g0(t) ≤ E(sups≤T

[X1s − x]2) ≤ E(sup

s≤T(sb(x) + σ(x)Bs)

2)) ≤ Cte

On a donc

E(∞∑n=0

supt≤T

[Xn+1t −Xn

t ]2) =∞∑n=0

gn(T ) < +∞.

On en deduit facilement que Xn converge p.s. vers une solution X de

l’equation.

Page 100: Calcul Stochastique des martingales continues

96 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES

8.3. Localisation

On dit que b et σ sont localement lipschitziennes si pour tout N > 0 il existe

KN ,K′N > 0 tel que, si ||x|| ≤ N, ||y|| ≤ N ,

||b(x)− b(y)|| ≤ KN ||x− y||, ||σ(x)− σ(y)|| ≤ K ′N ||x− y||.

C’est le cas par exemple dans le cas fondamental ou les fonctions b et σ sont

de classe C1, par le theoreme des accroissements finis.

Theoreme 8.3.1. — On suppose que b et σ sont localement lipschitziennes.

Alors pour tout x ∈ Rp il existe un temps d’arret ξ ≤ +∞ et un processus X

tel que pour tout t < ξ, Xt est solution de l’E.D.S.,

dXt = σ(Xt) dBt + b(Xt) dt, X0 = x.

Lorsque ξ < +∞, lim supt→ξ− ||Xt|| = +∞. Dans ce cas on dit qu’il y a

explosion.

Si, de plus il existe K > 0 tel que, pour tout x ∈ Rp,

(20) ||σ(x)||+ ||b(x)|| ≤ K(1 + ||x||)

alors ξ = +∞ p.s. et pour tout m,T > 0,

E(supt≤T‖Xt‖m) < +∞.

Preuve: Pour tout n > 0 on se donne une fonction φn : Rp → R de classe C1,

egale a 1 sur x; ||x|| ≤ n et a 0 sur x; ||x|| ≥ n+ 1. Les fonctions bn = bφnet σn = σφn sont lipschitziennes. Il existe donc une unique solution X(n) de

l’E.D.S.

dX(n)t = σn(X

(n)t ) dBt + bn(X

(n)t ) dt, X

(n)0 = x.

On prend n ≥ ||x||. Soit τn = inft ≥ 0; ||X(n)t || ≥ n. Si m ≥ n , soit

τnm = inft ≥ 0; ||X(m)t || ≥ n. Alors bm(X

(m)t∧τnm) = bn(X

(m)t∧τnm) et σm(X

(m)t∧τnm) =

σn(X(m)t∧τnm). Comme pour la preuve de l’unicite dans la preuve du theoreme

8.2.1 on en deduit que pour tout m ≥ n,

X(m)t∧τnm = X

(n)t∧τn

en particulier τnm ≥ τn. On peut donc poser, des que τn ≥ t,

Xt = X(n)t

Page 101: Calcul Stochastique des martingales continues

8.3. LOCALISATION 97

Soit ξ = limn→+∞ τn. On definit ainsi, pour t < ξ, une solution Xt de l’E.D.S.

De plus si ξ <∞,

lim supt→ξ−

||Xt|| ≥ lim supn→+∞

||Xτn || = lim supn→+∞

n = +∞.

Supposons maintenant verifiee la condition (20). Soit

τ = inft ≥ 0; ‖Xt‖ ≥ n

avec n ≥ ‖x0‖. Pour simplifier les notations, travaillons en dimension 1, pour

p ∈ N, par Ito,

dXpt = pXp−1

t dXt +p(p− 1)

2Xp−2t d〈X,X〉t

donc

Xpt∧τ = xp0 +

∫ t∧τ

0[p(Xτ

s )p−1b(Xτs ) +

p(p− 1)

2σ(Xτ

s )2(Xτs )p−2]ds

+

∫ t∧τ

0p(Xτ

s )p−1σ(Xτs )dBs

Puisque (a+ b+ c)2 ≤ 4(a2 + b2 + c2) on en deduit que

X2pt∧τ ≤ 4x2p

0 + 4(

∫ t∧τ

0[p(Xτ

s )p−1b(Xτs ) +

p(p− 1)

2σ(Xτ

s )2(Xτs )p−2]ds)2

+4(

∫ t∧τ

0p(Xτ

s )p−1σ(Xτs )dBs)

2

donc par Doob, et par Cauchy Schwarz, si 0 ≤ r ≤ T , pour un T > 0 fixe,

E(supt≤r

X2pt∧τ ) ≤

4x2p0 + 4T (

∫ r

0[p(Xτ

s )p−1b(Xτs ) +

p(p− 1)

2σ(Xτ

s )2(Xτs )p−2]2ds)

+16E(

∫ r

0[p(Xτ

s )p−1σ(Xτs )]2ds

On peut trouver deux constantes α, β > 0 telles que, pour tout x ∈ R,

4T (pxp−1b(x) +p(p− 1)

2σ(x)2xp−2)2 + 16(pxp−1σ(x))2 ≤ α+ β|x|2p

On a donc, en posant γ = 4x2p0 + Tα,

E(supt≤r

X2pt∧τ ) ≤ γ + β

∫ r

0E(X2p

s∧τ )ds

donc

E(supt≤r

X2pt∧τ ) ≤ γ + β

∫ r

0E(sup

t≤sX2pt∧τ )ds

Page 102: Calcul Stochastique des martingales continues

98 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES

et par Gronwall,

E(supt≤r

X2pt∧τ ) ≤ γeβr.

Comme les constantes ne dependent pas de n (qui a defini τ) on peut faire

tendre n vers l’infini pour obtenir que

E(supt≤r

X2pt ) ≤ γeβr.

En particulier Xt est fini p.s. donc ξ = +∞.

8.4. Propriete de Markov

Reprenons les hypotheses precedentes en supposant que ξ = +∞, et notons

Xt la solution de l’E.D.S. (19) verifiant X0 = x0. Par construction, l’applica-

tion

(x0, ω) ∈ Rp × Ω 7→ Xt(ω), 0 ≤ t ∈ C(R+,Rp)est mesurable lorsqu’on munit Rd × Ω de la tribu B(R+)× F∞ et l’ensemble

des fonctions continues C(R+,Rp) de R+ dans Rp de la tribu engendree par les

applications coordonnees (f 7→ f(t)), par exemple. Puisque l’on peut prendre

F∞ = σ(Bs, s ≥ 0) , il existe une application mesurable

Φ : Rp × C(R+,Rp)→ C(R+,Rp)

telle que

Xt = Φ(x0, B)(t).

De plus, par construction, Pour tout temps d’arret τ , fini p.s., on a

Xτt = Φ(x0, B

τ )(t).

Par la propriete de Markov forte on sait que le processus Bt = Bt+τ −Bτ est

un mouvement brownien independant de Fτ , donc de Xτ . On voit facilement

en prenant d’abord pour H des fonctions etagees que, pour tout H de L0(B),∫ t+τ

τHs dBs =

∫ t

0Hs+τ dBs

La relation

Xτ+t = Xτ +

∫ t+τ

τb(Xs) ds+

∫ t+τ

τσ(Xs) dBs

= Xτ +

∫ t

0b(Xτ+s) ds+

∫ t

0σ(Xτ+s) dBs

montre que, si on pose τXt = Xτ+t, pour tout t ≥ 0, alors

τX = Φ(Xτ , B).

Page 103: Calcul Stochastique des martingales continues

8.5. PROCESSUS DE MARKOV 99

Puisque B est independant de Fτ , on en deduit :

Theoreme 8.4.1. — (Propriete de Markov forte) Pour tout temps d’arret τ

fini p.s., pour toute fonction mesurable positive F definie sur C(R+,Rp),

E(F (τX)|Fτ ) = Ey(F (X)), pour y = Xτ

ou le symbole Ey signifie que l’on considere la solution X telle que X0 = y.

8.5. Processus de Markov

Posons, pour f mesurable positive sur Rp, Ptf(x) = Ex(f(Xt)). En prenant

F (X) = f(Xt) et τ = s dans le theoreme precedent on voit que

E(f(Xt+s)|Fs) = Ey(f(Xt)) = Ptf(y), pour y = Xs,

donc, en prenant l’esperance,

Pt+sf(x) = Ex(f(Xt+s)) = Ps(Ptf)(x)

c’est la propriete dite de semigroupe. On dit que X est un processus de Markov

de semigroupe (Pt). Par continuite des trajectoires en t = 0,

limt→0

Ptf(x) = f(x)

si f est continue bornee.

Definition 8.5.1. — On appelle generateur du semigroupe (Pt) l’operateur

Lf defini par

Lf(x) = limt→0

Ptf(x)− f(x)

t

pour les f pour lesquels cette limite a un sens.

Theoreme 8.5.2. — Soit X solution de l’E.D.S.,

dXt = σ(Xt) dBt + b(Xt) dt

Alors X est un processus de Markov dont le generateur est donne par

Lf(x) =1

2

p∑i,j=1

ai,j(x)∂2f

∂xi∂xj(x) +

p∑i=1

bi(x)∂f

∂xi(x)

lorsque f est C2 a support compact ou a = σσ∗. On dit que X est une diffusion.

Page 104: Calcul Stochastique des martingales continues

100 CHAPITRE 8. EQUATIONS DIFFERENTIELLES STOCHASTIQUES

Preuve: Si on applique la formule d’Ito a f(Xt), on obtient,

f(Xt) = f(X0) +∑i,j

∫ t

0

∂f

∂xi(Xs)σi,j(Xs) dBj(s) +

∫ t

0Lf(Xs) ds

Puisque f est a support compact , ∂f∂xi

(Xs)σi,j(Xs) est borne, donc l’integrale

stochastique est une martingale, d’esperance nulle. On a alors

Ptf(x) = f(x) + Ex(

∫ t

0Lf(Xs) ds) = f(x) +

∫ t

0PsLf(x) ds

Donc

Lf(x) = limt→0

Ptf(x)− f(x)

t= lim

t→0

1

t

∫ t

0PsLf(x) ds = P0Lf(x) = Lf(x).

8.6. EDS et EDP

La formule d’Ito et le theoreme precedent montrent qu’il y a un lien tres fort

entre les EDS et les operateurs differentiels aux derivees partielles du second

ordre du type de L. Ceci permet en particulier de donner des solutions proba-

bilistes a certaines equations aux derivees partielles (EDP), et reciproquement.

Donnons deux exemples.

8.6.1. Probleme de Dirichlet. — Dans Rp considerons un ouvert borne

D de frontiere ∂D reguliere. Etant donne une fonction f : ∂D → R sur le bord

on considere l’equation

Lφ(x) = 0, x ∈ D;

φ(x) = f(x), x ∈ ∂D,ou φ est continue sur D. Donnons juste l’idee du type de resultat auquel on

peut s’attendre :

Theoreme 8.6.1. — Sous de bonnes hypotheses..., la solution φ admet la

representation

φ(x) = Ex(f(Xτ )), x ∈ D;

ou X est la diffusion associee a (19) et τ = inft ≥ 0;Xt ∈ ∂D.

Preuve: On considere la solution X de (19) partant de x ∈ D. Par Ito,

φ(Xt∧τ ) = φ(x) +

∫ t∧τ

0

∑i,j

∫ t

0

∂φ

∂xi(Xs)σi,j(Xs) dBj(s) +

∫ t∧τ

0Lφ(Xs) ds

Page 105: Calcul Stochastique des martingales continues

8.6. EDS ET EDP 101

On prend l’esperance et on tient compte du fait que Lφ est nulle :

E(φ(Xt∧τ )) = E(φ(x)) = φ(x)

et on fait tendre t vers l’infini, et on utilise que φ = f sur ∂D :

φ(x) = limt→+∞

E(φ(Xt∧τ ) = E(φ(Xτ )) = E(f(Xτ )).

8.6.2. Feynman-Kac. — On se donne g : R+×Rp → R φ, c : Rp → R avec

c ≥ 0. On considere une solution u bornee a derivees bornees de l’equation

(21)∂u

∂t(t, x) = (L− c(x))u(t, x) + g(t, x), u(0, x) = φ(x).

Theoreme 8.6.2. — La solution u(t, x) de (21) verifie :

u(t, x) = Ex[φ(Xt) exp(−∫ t

0c(Xs) ds)]+Ex[

∫ t

0g(t−s,Xs) exp(−

∫ s

0c(Xu) du) ds]

ou X est la diffusion associee a (19)

Preuve: On pose, t > 0 etant fixe,

v(s, x) = u(t− s, x), Zs = exp(−∫ s

0c(Xu) du).

Appliquant la formule d’Ito, on a

d(v(s,Xs)Zs) = −v(s,Xs)c(Xs)Zs ds+ Zs dv(s,Xs)

= Z∂v∂s

+ (L− c)v ds+ Z∇xv σ dBs.

Vu que ∇xv est bornee et que 0 ≤ Zs ≤ 1, E(∫ t

0 Zs∇xv σ(Xs) dBs) = 0.

D’autre part ∂v∂s (s, x) = −∂u

∂s (t− s, x) et donc

∂v

∂s(s, x) + (L− c)v(s, x) = −∂u

∂s(t− s, x) + (L− c)u(t− s, x) = −g(t− s, x).

On a donc

E(v(t,Xt)Zt)− E(v(0, X0)Z0) = E(−∫ t

0g(t− s,Xs)Zs ds),

mais, puisque u(0, Xt) = φ(Xt),

E(v(t,Xt)Zt)−E(v(0, X0)Z0) = E(u(0, Xt)Zt)−u(t, x) = E(φ(Xt)Zt)−u(t, x)

et l’on obtient

u(t, x) = E(φ(Xt)Zt) + E(

∫ t

0g(t− s,Xs)Zs ds).