Mémoire de Magistère en Mathématiques

91
UNIVERSIT ´ E DE GAB ` ES FACULTÉ DES SCIENCES DE GABÈS DÉPARTEMENT DE MATHÉMATIQUES Mémoire de Magistère en Mathématiques Titre : Équations Différentielles Stochastiques Rétrogrades et Mathématiques Financières Présenté par : Mokhtar Zahdi ALAYA Dirigé par : Directeur : Pr. Saïd HAMADÈNE co-Directrice : Mme. Ibtissem HDHIRI Soutenu publiquement le 10 juillet 2010 devant la commission d’examen composée de : Khalifa DABBEK Faculté des Sciences de Gabès Président Ibtissem HDHIRI Faculté des Sciences de Gabès co-Directrice Moncef LAHZAMI Faculté des Sciences de Gabès Examinateur Jilani ALAYA Faculté des Sciences de Gabès Invité Année Universitaire : 2009 - 2010

Transcript of Mémoire de Magistère en Mathématiques

Page 1: Mémoire de Magistère en Mathématiques

UNIVERSITE DE GABESFACULTÉ DES SCIENCES DE GABÈSDÉPARTEMENT DE MATHÉMATIQUES

Mémoire de Magistère en Mathématiques

Titre :

Équations Différentielles Stochastiques Rétrogradeset Mathématiques Financières

Présenté par :

Mokhtar Zahdi ALAYA

Dirigé par :

Directeur : Pr. Saïd HAMADÈNE

co-Directrice : Mme. Ibtissem HDHIRI

Soutenu publiquement le 10 juillet 2010

devant la commission d’examen composée de :

Khalifa DABBEK Faculté des Sciences de Gabès Président

Ibtissem HDHIRI Faculté des Sciences de Gabès co-Directrice

Moncef LAHZAMI Faculté des Sciences de Gabès Examinateur

Jilani ALAYA Faculté des Sciences de Gabès Invité

Année Universitaire : 2009 - 2010

Page 2: Mémoire de Magistère en Mathématiques

Équations Différentielles Stochastiques Rétrogrades

et Mathématiques Financières

juillet 2010, Mokhtar Zahdi Alaya

Page 3: Mémoire de Magistère en Mathématiques

À ma mère Sahara.

Page 4: Mémoire de Magistère en Mathématiques

RemerciementsComment ne pas commencer ces remerciements par un hommage à mon premier di-

recteur de mémoire, le Pr. Saïd Hamadène, qui fut l’origine de ce sujet, et de mon attrait

pour la recherche. Plus que m’enseigner le cours de calcul stochastique dans mon première

année de magistère, puis le début de mon mémoire, plus que de m’initier aux équations dif-

férentielles stochastiques rétrogrades, aux mathématiques financières, il a été et restera

pour moi un modèle. Il m’a donné le goût de la recherche, et c’est lui qui m’a donné envie

de continuer dans cette voie sous sa supervision.

Je suis strès reconnaissant envers Mme. Ibtissem Hdhiri, qui a accepté spontanément

de prendre la co-direction de mon mémoire, et qui m’a conseillé, suivi, soutenu. J’aimerais

lui exprimer ici toute mon admiration et ma gratitude, et de la confiance qu’elle m’ a accor-

dée.

Je suis très honoré que M. Khalifa Dabbek ait accepté d’être le président de jury de

mon travail. Je suis également très reconnaisant envers M. Moncef Lahzami qui m’a fait

l’immense plaisir d’examiner ce mémoire. Je les remercie vivement pour le travail que cela

leur a demandé.

Je tiens également à remercier M. Mohamed Jalel Atia, coordinateur de Magistère de

Mathématiques, pour tout le temps qu’il a consacré tout au long de mon mémoire, pour son

soutien et son aide de m’avoir facilité les démarches administratives.

Un énorme merci à tous les membres de Département des Mathématiques de la faculté

des sciences de Gabès. Je remercie de même tous ceux qui m’ont partagé la salle de re-

cherche de master durant cette année. Par l’entente et l’esprit d’entreaide quils ont sans

cesse manifestés ils sont devenus au fil du temps de véritables amis.

Je n’oublierai jamais les discussions, matheuses ou non, toujours fructueuses que j’ai par-

tagé avec Mlle. Monia Kharouf.

Enfin, je n’aurai pas pu arriver jusque là sans l’équilibre, la chaleur, le soutien et le

bonheur dans lequel j’ai vécu, merci Maman, mes frères, mes soeurs et tous ceux qui ont si

bien su m’entourer.

Gabès, Juillet 2010 Mokhtar Zahdi ALAYA

Page 5: Mémoire de Magistère en Mathématiques

Table des matières

Notations vi

Introduction 1

1 Les outils fondamentaux 4

1.1 Mouvement brownien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Intégrale stochastique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.3 Formule d’Itô . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.4 Théorème de Girsanov : Changement de probabilité . . . . . . . . . . . . . . . 10

1.5 Équations différentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . 11

2 Équations Différentielles Stochastiques Rétrogrades Standards 14

2.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Existence et Unicité des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2.3 Estimation à priori . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.4 EDSRs linéaires et théorème de comparaison . . . . . . . . . . . . . . . . . . . 28

3 EDSRs Unidimensionnelles 32

3.1 Cas d’un générateur à croissance linéaire . . . . . . . . . . . . . . . . . . . . . 32

3.2 Cas d’un générateur à croissance quadratique . . . . . . . . . . . . . . . . . . 37

3.3 EDSRs réfléchies sur une barrière continue . . . . . . . . . . . . . . . . . . . . 52

4 EDSRs et Mathématiques Financières 63

4.1 Présentation de la finance mathématique . . . . . . . . . . . . . . . . . . . . . 63

4.2 Terminologie financière . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

4.2.1 Options . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

4.2.2 Modélisation mathématique : le modèle de Black et Scholes . . . . . . 66

4.2.3 Portefeuille autofinançant . . . . . . . . . . . . . . . . . . . . . . . . . . 67

4.3 Évaluation des options européennes via les EDSRs . . . . . . . . . . . . . . . 71

4.4 Évaluation des options américaines via les EDSRs . . . . . . . . . . . . . . . . 75

iv

Page 6: Mémoire de Magistère en Mathématiques

v

Références 78

Page 7: Mémoire de Magistère en Mathématiques

Notations

I. Notations générales

Pour tous réels x et y :

x ∧ y = min(x, y), x ∨ y = max(x, y).

x+ = max(x, 0), x− = max(−x, 0).

II. Ensembles

N est l’ensemble des entiers naturels.

Rd est l’espace réel eucledien de dimension d. R = R1,R+ est l’ensemble des réels positifs.

Pour tous x = (x1, ..., xd), y = (y1, ..., yd) dans Rd, on note <,> le produit scalaire et |.| la

norme euclidienne :

< x, y >=

d∑i=1

xiyi et |x| =√< x, x >.

Rm×d est l’ensemble des matrices réelles m×d (Rm×1 = Rm). Id est la matrice identité d×d.

Pour tout σ = (σij)1≤i≤m,1≤j≤d ∈ Rm×d, on note σ∗ = (σji)1≤j≤d,1≤i≤m la matrice transposée

dans Rd×m. On note trace(A) =m∑i=1

aii, la trace d’une matrice carrée A = (aij)1≤i≤m,1≤j≤m.

On choisit comme norme matricielle sur Rm×d :

‖σ‖ = (trace(σσ∗))12 .

Pour tout ensemble A, l’indicatrice de A est notée :

1A(x) =

1, x ∈ A

0, sinon.

III. Intégration et Probabilité

(Ω,F,P) : un espace de probabilité.

P-p.s. : la notation presque sûrement pour la mesure de probabilité P.

Page 8: Mémoire de Magistère en Mathématiques

Notations vii

B(U) : la tribu borélienne engendrée par les ouverts de l’espace topologique U .

σ(G) : la plus petite σ-algèbre contenant G, collection de sous-ensembles de Ω.

E[X] : l’espérance de la variable aléatoire X par rapport à une probabilité P fixée initiale-

ment.

E[X|G] : l’espérance conditionnelle de X sachant G.

EQ[X] : l’espérance de la variable aléatoire X pa rapport à la mesure de probabilité Q.

Lp(Ω,F,P;Rm) : l’ensemble des variables aléatoires X, à valeurs dans Rm, F-mesurables tel

que E|X|p ≤ +∞, pour p ∈ [1,+∞[. On ommettra parfois certaints arguments et on écrira

Lp ou (Lp(P)) lorsqu’il n’ya pas d’ambiguité.

L∞(Ω,F,P;Rm) : l’ensemble des variables aléatoires, à valeurs dans Rm, bornées, F-mesurables.

On écrira parfois L∞.

N : l’ensemble des P-négligeables, où P est une probablité fixée intialement.

Page 9: Mémoire de Magistère en Mathématiques

Introduction

Les équations différentielles stochastiques rétrogrades (EDSRs en abrégé) furent in-

troduites pour la première fois (la forme linéaire) en 1973 dans les travaux de J. Bismut

[Bis73] lorsqu’ il étudiait l’équation adjointe associée au principe du maximum stochas-

tique en contrôle optimal. Elle est de la forme −dYt = [Ytβt + Ztγt]dt− ZtdWt, 0 ≤ t < T.

YT = ξ.

Cependant, il a fallu attendre les années 1990 pour voir une théorie plus générale sur les

EDSRs. Elle fut initiée par Peng et Pardoux [PP90] qui ont introduit une nouvelle forme −dYt = g(t, Yt, Zt)dt− ZtdWt, 0 ≤ t < T.

YT = ξ.

où ξ est la valeur terminale et g est le générateur ou encore le coefficient de l’EDSR qui est

une fonction nonlinéaire et globalement lipschitizienne par rapport aux variables (Y,Z).

La solution est un couple de processus (Y,Z). En effet comme la condition aux limites est

donnée à l’instant terminal T , la présence du processus Z assure à Y d’être adapté par

rapport à la filtration du mouvement brownien (Wt)t≤T via le théorème de représentation

des martingales.

Les EDSRs furent l’objet de plusieurs études à cause de leur connection à maintes

domaines scientifiques tels que le contôle stochastique optimal, les jeux différentiels sto-

chastiques de somme nulle (deux joueurs dont les intérêts sont antagonistes) ou non nulle

(plusieurs joueurs dont chacun dispose de son propre critère) (voir Hamadène et Lepeltier

[HL95]). Il est bien connu que pour montrer l’existence d’un contrôle optimal, d’un point

selle ou d’un équilibre de Nash, il suffit de résoudre les EDSRs sous-jacentes associées. En

mathématique physique, elles donnent une interprétation probabiliste des équations aux

dérivées partielles (EDPs en abrégé) (voir Pardoux et Peng [PP92]). En mathématiques fi-

nancières, il est bien connu que pour déterminer la valeur d’une option européenne dans un

marché complet, il suffit de résoudre l’EDSR sous-jacente associée. Cette dernière donne

Page 10: Mémoire de Magistère en Mathématiques

Introduction 2

alors non seulement la valeur de l’option par l’intermédiaire du processus Y mais aussi, par

l’intermédiaire du processus Z, la manière d’investir sur le marché du vendeur pour qu’il

puisse honorer son engagement vis à vis de l’acheteur de l’option. En outre, elles formalis-

ment les fluctuations non linéaires du prix de l’option de l’achat dans un marché incomplet

(voir El Karoui et al [ElkPQ97]).

Notons que globalement tous ces résultats ont été obtenus sous la condition classique de

lipschitz sur le générateur. Cependant cette hypothèse n’est toujours pas satisfaite dans

de nombreux problèmes en finance. Par exemple, dans le problème de la volarisation de

l’option d’achat formalisé par l’EDSR linéaire unidimensinnelle suivante : −dYt = [rtYt + Ztθt]dt− ZtdWt, 0 ≤ t < T.

YT = ξT ,

avec r est le taux d’intêret du placement et θ est la prime de risque (premium risk en

anglais). Ces derniers sont rarement bornés, Ce qui ne permet pas d’avoir la condition

de lipschitz. Pour palier cette insuffisance et coller à la réalité, on suppose des conditions

plus faibles. On peut citer les EDSRs à générateurs non lipschitziens (voir Pardoux et Peng

[PP92]), les EDSRs à générateurs continus (voir Hamadène [HLP97] et Lepeltier, San Mar-

tin [LS97]) et ceux à coefficients localements lipschitziens (voir Hamadène [Ham96]).

Par la suite des contraintes rencontrées dans les modèles économiques et physiques ont

engendré l’étude des équations différentielles stochastiques rétrogrades réfléchies sur une

barrière introduites dans [ElkKPPQ97]. L’objectif était de prouver l’existence et l’unicité

d’une solution (Yt, Zt,Kt) de l’équation−dYt = g(t, Yt, Zt)dt+ dKt − ZtdWt, 0 ≤ t < T,

YT = ξT ,

Yt ≥ St, et (Yt − St)dKt = 0.

Leur particularité est que la solution Y est confinée derière une barrière stochastique

(St)t≤T . Ce type d’ EDSRs a pour but de traiter le problème de valorisation des options amé-

ricaines (avec éventuellement des contraintes non linéaires) qui est solution d’une EDSR

réfléchie ou l’obstacle est donné par le payoff (voir El Karoui, Quenez [ElkPQ97]).

S’inspirant de ce travail Cvitanic et Karatzas ont généralisé ces résultats à des EDSRs

réflechies sur deux barrières fixées, une inférieure L et l’autre supérieure U .

Puis Hamadène, Lepeltier, Matoussi [HLM97] et Lepeltier, San Martin [LS97] les ont suc-

cessivement ameliorés.

Plus récemment, M. Kobylanski a une approche radicalement différente dans [Kob00]. Elle

Page 11: Mémoire de Magistère en Mathématiques

Introduction 3

indique un théorème d’existence et d’unicité pour un générateur quadratique en Z.

D’autre part, en collaboration avec R. Carmona et P. Briand, elle a étudié l’existence et

l’unicité des EDSRs lorsque le générateur est à croissance polynômiale.

Après ce bref historique sur les EDSRs et la donnée de quelques domaines d’applica-

tions pour ces équations dont certains seront abordés rigoureusement par la suite, nous

présentons le statut de ce mémoire qui se décompose de 4 chapitres.

Nous commencerons par un chapitre introductif dans lequel on va présenter une foule de

définitions, propositions et théorèmes faits sans démonstrations car comme on a dit ce

chapitre a pour finalité de mettre le lecteur dans le cadre théorique de notre étude ulté-

rieure pour les EDSRs. Dans le deuxième chapitre, on abordera les EDSRs standards par

la présentation du théorème de Pardoux et Peng puis l’étude du comportement entre des

solutions des EDSRs. Concernant le troisième chapitre, qui un plus technique, on va se

débarasser de l’hypothèse de lipschitz sur le générateur g pour la remplacer par d’autres

tout en restant dans le cas unidimensionnel. Finallement, le dernier chapitre a un aspect

d’application pour les résultats vus auparavant. Dans le cadre de la mathématisation de la

finance, on s’intéresse aux problèmes d’évaluation des options européenes et américaines.

Page 12: Mémoire de Magistère en Mathématiques

Chapitre 1

Les outils fondamentaux

Ce chapitre est essentiellement une sorte d’introduction, ayant pour but de mettre en

relief les outils de notre étude. L’objet mathématique fondamental est le mouvement brow-

nien qui est le nom donné aux trajectoires irrégulières du pollen en suspension dans l’eau,

observé par le botaniste Robert Brown en 1828. Ce mouvement “aléatoire”, dû aux chocs

sucessifs entre le pollen et les molécules d’eau, entraîne la dispersion ou diffusion du pol-

len dans l’eau. Le champ d’application du mouvement brownien est beaucoup plus vaste

que l’étude des particules microscopiques en suspension et inclut la modélisation du prix

des actions, du bruit thermique dans les circuits électriques, du comportement limite des

problèmes de files d’attente et des perturbations aléatoires dans un grand nombre de sys-

tèmes physiques, biologiques ou économiques.

Bachelier (1900) a eu les premiers résultats quantitatifs en s’intéresssant aux fluctuations

du prix des actions en économie. Einstein (1905) a obtenu la densité de probabilité de tran-

sition du mouvement brownien à partir de la théorie moléculaire de la chaleur. Le premier

traitement mathématique rigoureux est dû à N. Wiener (1923, 1924) qui a prouvé l’exis-

tence du brownien.

1.1 Mouvement brownien

Dans la suite de ce résumé, on supposera donné un espace probabilisé (Ω,F,P).

Définition 1.1.1 (Filtration) Une filtration Ft; 0 ≤ t < +∞ est une famille croissante

de sous-tribus de F : pour tout 0 ≤ s ≤ t < +∞, Fs ⊆ Ft.

Définition 1.1.2 (Processus stochastique) Un processus stochastique X est la donnée

de Xt; 0 ≤ t < +∞, où à t fixé, Xt est une variable aléatoire définie sur (Ω,F) à valeurs

dans (Rd,B(Rd)). À w fixé, la fonction t 7→ Xt(w), t ≥ 0, est dite trajectoire du processus X

de scénario w. Elle peut représenter par exemple le nombre de clients qui attendent à un

Page 13: Mémoire de Magistère en Mathématiques

1.1 Mouvement brownien 5

guichet ou le prix d’une action, à l’instant t.

Définition 1.1.3 (Processus mesurable, processus continu) Un processus X est dit

mesurable si l’application suivante :

([0,+∞[×Ω,B([0,+∞[)⊗ F) → (Rd,B(Rd))

(t, w) 7→ Xt(w)

est mesurable.

Un processus est dit continu si pour presque tout w ∈ Ω, la fonction t 7→ Xt(w) est continue

(i.e les trajectoires sont continues).

Définition 1.1.4 (Processus adapté) Un processus est dit adapté à la filtration

Ft; 0 ≤ t < +∞ si pour tout t, la variable aléatoire Xt est Ft-mesurable.

Définition 1.1.5 (Processus progressivement mesurable) Un processus est dit progres-

sivement mesurable par rapport à la filtration Ft; 0 ≤ t < +∞, si pour tout t ≥ 0 l’appli-

cation suivante :

([0, t]× Ω,B([0, t])⊗ F) → (Rd,B(Rd))

(s, w) 7→ Xs(w)

est mesurable.

Dans la suite, on aura toujours affaire à des processus mesurables et adaptés à une filtra-

tion que l’on précisera.

Définition 1.1.6 (i) Un processus (Xt)t≥0 adapté intégrable est une martingale ( resp.

surmartingale, sous martingale) si , ∀t ≥ s, E[Xt|Fs] = Xs (resp. E[Xt|Fs] ≤ Xs,

E[Xt|Fs] ≥ Xs).

(ii) on appelle temps d’arrêt par rapport à une filtaration (Ft)t≤0 une variable aléatoire τ

à valeurs dans R+ ∪+∞ telle que, pour tout t ≥ 0 :

τ ≤ t ∈ Ft.

(iii) On appelle martingale locale un processus X pour lequel il existe une suite (Tn)n≥0

de temps d’arrêt croissant p.s. vers +∞, telle que chaque processus arrêtéXTn = (XTn)t≥0 :=

Xt∧Tn soit une martingale pour tout n.

Définition 1.1.7 (Mouvement brownien(M.B.)) Un mouvement brownien de dimension

d, Wt,Ft; 0 ≤ t < +∞ est la donnée d’un processus continu continu mesurable W à va-

leurs dans Rd et d’une filtration tels que W est adapté à (Ft)t≥0, vérifiant :

1. W0 = 0, P-p.s.

2. Pour 0 ≤ s < t, l’accroissement Wt −Ws est indépendant de Fs.

Page 14: Mémoire de Magistère en Mathématiques

1.1 Mouvement brownien 6

3. Pour 0 ≤ s < t, l’accroissement Wt −Ws suit une loi normale centrée, de matrice de

covariance√t− sId où Id désigne la matrice identité de dimension d.

La filtration (Ft)t≥0 fait partie de la définition. Cependant, si on se donne Wt; 0 ≤ t < +∞,

processus continu et si on sait que :

1. W est à acroissements indépendants et stationnaires, i.e : pour tout 0 ≤ r < s ≤ t <

u, Wu −Wt et Ws −Wr sont indépendants et la loi de Wu −Wt ne dépend que de la

différence u− t.

2. Wt −W0 suit une loi normale centrée, de matrice de covariance√tId,

alors Wt,FtW ; 0 ≤ t < +∞ est un mouvement brownien où FW = σWs; 0 ≤ s ≤ t, la

tribu engendrée par W.

Proposition 1.1.8 (propriétés de martingale du M.B.)

1. W est une martingale par rapport à la tribu (F)t≥0, de carré intégrable.

2. W 2t − t; 0 ≤ t < +∞ est aussi une martingale par rapport à la même tribu.

La seconde propriété est très importante car elle démontre que le mouvement brownien

est à variation quadratique finie presque surement. Si Π = t0, t1, ..., tm est une subdivi-

sion de l’intervalle [0,t], la variation quadratique sur l’intervalle [0,t] par rapport à Π est

V 2t (Π) =

m∑k=1

|Wtk −Wtk−1|2.

Si V 2t (Π) converge quand le pas de la subdivision Π tend vers 0, on dit que le processus est

à variation quadratique finie. Enonçons quelques résultats concernant la régualrité des

trajectoires.

Théorème 1.1.9 (Régularité)

1. Le M.B. est à variation infinie sur tout intervalle.

2. Le M.B. n’est dérivable en aucun point.

3. Les trajectoires du M.B. sont localement Holder-continues d’ordre α, avec α < 1/2.

(ce qui est faux si α ≥ 1/2).

Proposition 1.1.10 (Inégalités maximales)

— (i) Soit (Xt)t≥0 une surmartingale positive continue à droite (càd en abrégé).

Alors pour tout a > 0 on a :

P[

supt≥0

Xt ≥ a]≤ 1

aE[X0].

— (ii) Soit (Xt)t≥0 une sousmartingale positive càd. Alors pour tout a > 0 et T ≥ 0 on

a :

P[

sup0≤t≤T

Xt ≥ a]≤ 1

aE[XT ].

Page 15: Mémoire de Magistère en Mathématiques

1.2 Intégrale stochastique 7

Théorème 1.1.11 (Inégalité de Doob) Soit (Xt)t≥0 une sousmartingale positive càd. Alors

pour tout p > 1 et T > 0 on a :

E[

sup0≤t≤T

Xt

]p≤( p

p− 1

)pE[(XT )p].

1.2 Intégrale stochastique

Soit un M.B. W avec sa filtration (Ft)t≥0, le calcul différentiel donne un cadre à la no-

tion d’équation différentielle ordinaire, qui sert de modéle pour des phénomènes variables

dans le temps. Quand il est voulu ajouter à ces équations des perturbations aléatoires, la

non différentiabilité du M.B. pose des problèmes. Du coup, il est préférable de commen-

cer par la construction d’une intégrale par rapport au M.B., pour ensuite définir la notion

d’équation différentielle stochastique. Il a donc fallu donner un sens à∫ t

0Hs dWs.

Rappel : intégrale de Stieljes

Soit f une fontction à valeurs réelles, définie sur [a, b] et à variation bornée. Alors f se

décompose en f = g − h avec g et h croissantes sur [a,b]. Si g est croissante, g est aussi à

variation bornée et pour tout fonction φ définie continue sur [a, b], on peut définir l’integrale

au sens de Stieljes de φ par rapport à g de la façon suivante :∫ b

aφ dg = lim

|Π|→0

m∑k=1

φ(xk−1)(g(xk)− g(xk−1)),

où Π est la subdivision x0, x1, ..., xm de l’intervalle [a, b] et |Π| est le pas de Φ, i.e.

|Π| = maxk=1,...,m

(xk − xk−1)

On pose alors : ∫ b

aφ df =

∫ b

aφ dg −

∫ b

aφ dh.

Maintenant, si pour toute fonction φ continue, la limite suivante :

lim|Π|→0

m∑k=1

φ(xk−1)(g(xk)− g(xk−1))

existe et est finie, alors g est à variation bornée. Donc il est possible, avec des conditions

complémentaires, de définir l’intégrale stochastique trajectoire par trajectoire pour tout

processus continu. Si H est un processus stochastique continu, à w fixé, il ne peut pas don-

ner un sens à l’expression :∫ t

0Hs(w) dWs(w). où (Wt)t≤0 est un mouvement brownien.

Une telle construction a été développée par T. Lyons(1994 -...)dans la théorie des rough

paths. Mais elle impose des conditions supplémentaires de régularité sur H.

Page 16: Mémoire de Magistère en Mathématiques

1.2 Intégrale stochastique 8

Intégrale par rapport au M.B.

La construction est due à K. Itô (1942-1944) dans le cas du M.B. et a été généralisée au

cas d’une martingale de carré intégrable par Kunita et Watanabe (1967). On se donne un

mouvement brownien W avec sa filtration (Ft)t≥0. On définit deux classes de processus :

H2 := H = (Ht)t≥0, processus réel adapté, tel que ∀t, E(

∫ t

0H2sds) < +∞,

et M2c l’ensemble des martingales( par rapport à la filtration du brownien), de carré inté-

grable, continues et nulles à l’instant 0.

Théorème 1.2.1 (Intégrale d’Itô) Il existe une unique application linéaire, notée I, de H2

dans M2c telle que pour tout H ∈ H2 et tout t,

E(I(Ht)2) = E(

∫ t

0H2sds)

On note :

I(H)t =

∫ t

0HsdWs.

Tel que le théorème est enoncé, on peut se demander où intervient vraiment le M.B dans

l’intégrale. Pour comprendre son role, il faut se pencher un peu plus sur la construction. Si

le processus H est de la forme :

Ht = φ010(t) +

p∑i=1

φi1]ti−1,ti[(t),

ou 0 = t0 < t1 < ... < tp < +∞, φ0 est F0-mesurable et bornée et pour i = 1, ..., p, les φi sont

Fti−1-mesurables et bornées, on pose

I(H)t =

p∑i=1

φi(Bti∧t −Bti−1∧t).

Il est facile de démontrer que l’intégrale stochastique I vérifie toutes les propriétés énon-

cées précédement sur les processus élémentaires. Ensuite on montre la densité des proces-

sus élémentaires dans H2 et on prolonge la fonction I définie sur les processus élémentaires

à la classe H2. L’unicité signifie que si I et I ′ sont deux prolongements vérifiant les proprié-

tés précédentes alors I(H) et I ′(H) sont indistinguables c’est à dire que leurs trajectoires

coincident p.s. (P[I(H)t = I ′(H)t, ∀t ≥ 0] = 1).

Proposition 1.2.2 (Propriétes de l’intégrale d’Itô) Pour H ∈ H2 et T ∈ R+,

1. I(H) est à variation quadratique finie et cette variation sur [0,T] est égale à∫ t

0H2sds.

2.

E( sup0≤t≤T

|∫ t

0Hs dWs|2) ≤ 4E(

∫ t

0H2s ds).

Page 17: Mémoire de Magistère en Mathématiques

1.3 Formule d’Itô 9

Une dernière extention consiste à relaxer l’hypothèse d’intégrabilité portant sur H, en

introduisant :

H2 := H = (Ht)t≥0, processus adapté, tel que ∀t ≥ 0

∫ t

0H2s ds < +∞, P− p.s.

On peut encore prolonger I sur cet ensemble, mais on n’a plus une martingale, mais seule-

ment une martingale locale. Un intêret de l’integrale stochastique est contenu dans le

théorème suivant :

Théorème 1.2.3 (Représentation des martingales browniennes)

Soient Wt,Ft; 0 ≤ t < +∞ un mouvement brownien. et M = Mt; 0 ≤ t < +∞ une mar-

tingale brownienne (i.e. adaptée à la filtration engendré par W ) de carré intégrable et telle

que M0 = 0. Alors il existe un processus H ∈ H2 tel que pour tout t ≥ 0 :

Mt =

∫ t

0HsdWs.

De plus, si K est un autre représentant de M , on a presque surement :H = K. D’une certaine

manière, toute martingale de carré intégrable est une intégrale stochastique par rapport à

un mouvement brownien (cf. Karatzas-shreve [37], chapitre 3,4).

1.3 Formule d’Itô

La formule d’Itô ou formule de changement de variables est un outil particulièrement

important dans l’étude des processus stochastiques.

Définition 1.3.1 (Processus d’Itô ou semi-martingales) Un processusX, à valeurs dans

Rn, est appelé processus d’Ito s’il se décompose de la manière suivante : pour tout t, presque

surement :

Xt = X0 +

∫ t

0Ks ds+

∫ t

0Hs dWs,

avec X et K sont à valeurs dans Rn, H à valeurs dans Rn×d, X0 est F0-mesurable et∫ t

0|Ks| ds+

∫ t

0|Hs|2 ds < +∞, P− p.s., ∀t.

Cette décomposition est unique.

Théorème 1.3.2 (Formule d’Itô) Soit f une fonction définie sur [0,+∞[×Rn, à valeurs

réelles, une fois continument dérivable en temps et deux fois en espace (i.e. toutes les dérivées

partielles d’ordre 2 existent et sont continues). Soit X = (X1, ..., Xn) une semi-martingale à

valeurs dans Rn donnée par :

Xit = Xi

0 +

∫ t

0Kis ds+

d∑j=1

∫ t

0H ijs dWs, t ≥ 0 , 1 ≤ i ≤ n, 1 ≤ j ≤ d.

Page 18: Mémoire de Magistère en Mathématiques

1.4 Théorème de Girsanov : Changement de probabilité 10

Alors f(t,Xt); 0 ≤ t < +∞ est encore une semi-martingale et admet la décomposition

suivante :

f(t,Xt) = f(0, Xt) +

∫ t

0

∂f

∂t(s,Xs) ds+

n∑i=1

∫ t

0

∂f

∂xi(s,Xs)dX

is

+1

2

n∑i,j=1

∫ t

0

∂2f

∂xi∂xj(s,Xs)d < Xi, Xj >s .

Maintenant, si X et Y sont deux semi-martingales,

Xt = X0 +

∫ t

0Ks ds+

∫ t

0Hs dWs, Yt = Y0 +

∫ t

0K ′s ds+

∫ t

0H ′s dWs,

∫ t

0Xs dYs = XtYt −X0Y0 −

∫ t

0Ys dXs− < M,N >t .

Avec M =

∫ t

0Hs dWs,

N =

∫ t

0H ′s dWs,

< M,N >t=∫ t

0 HsH′s ds.

Théorème 1.3.3 (Formule de Tanaka)

Soit (Wt]t≥0 un mouvement brownien standard à valeurs dans R. Alors pour tout a ∈ R,

|Wt − a| = |a|+∫ t

0sgn(Ws − a)dWs +

1

2Lat .

Avec,

Lat = Limε→01

2ελs ∈ [0, t];Ws ∈]a− ε, a+ ε[.

λ étant la mesure de Lebesgue sur R.

Théorème 1.3.4 (Inégalité de Burkholder-Davis-Gundy)

Pour tout p > 0, il existe des constantes positives cp et Cp telles que pour toute martingales

locale continue X = (Xt)t≥0 et tout T > 0, on ait :

cpE[< X >

p2T

]≤ E

[sup

0≤t≤T|Xt|

]p≤ CpE

[< X >

p2T

].

1.4 Théorème de Girsanov : Changement de pro-

babilité

Soit P et Q deux mesures de probabililités définies sur le même espace (Ω,F). On dit

que Q est absolument continue par rapport à P si P(A) = 0 =⇒ Q(A) = 0,∀A ∈ F. les

mesures P et Q sont dites équivalentes si et seulement si elles ont les mêmes ensembles

négligeables c’est à dire,

P(A) = 0⇐⇒ Q(A) = 0.

Page 19: Mémoire de Magistère en Mathématiques

1.5 Équations différentielles stochastiques 11

Théorème 1.4.1 (Radon-Nikodym) Soit P et Q deux probabilités définies sur (Ω,F). Si P

et Q sont équivalentes, alors il existe une variable Y strictement positive, F-mesurable d’és-

pérance 1 sous P telle que dQ = Y dP. Y est appelé densité de Radon Nikoym.

D’une manière réciproque, si Y est une variable aléatoire strictement positive et F-mesurable

d’espérance 1 sous P alors on peut définir une probabilité Q équivalente à P par EQ[Z] =

EP[ZY ].

Théorème 1.4.2 (Girsanov) Soient (Wt)t≥0 un M.B. et (θt)t≤T un processus adapté à

(Ft)0≤t≤T qui vérifie∫ t

0θ2sds <∞ P− p.s. tel que le processus (Lt)0≤t≤T défini par :

Lt := exp[ ∫ t

0θsdWs −

1

2

∫ t

0θ2sds].

soit une martingale. Soit Q la probabilité définie par dQ = LTdP sur FT , alors le processus

(Wt)t≤T défini par :

Wt = Wt +

∫ T

0θsds

est un Q-mouvement brownien.

Notons que la condition dîte de Novikov,

EP[exp(1

2

∫ T

0θ2sds)] <∞.

est suffisante pour que LT soit une martingale sous P.

1.5 Équations différentielles stochastiques

On se place toujours sur un espace de probabilité (Ω,F,P), et on se donne

W := (Wt)t≥0 un M.B. d-dimentionnel, avec sa filtration naturelle.

Soit T un réel strictement positif. On considère deux fonxtions b : Ω × [0, T ] × Rn → Rn et

σ : Ω × [0, T ] × Rn → Rn×d, mesurables. On donne également une variable aléatoire ξ de

carré intégrable et indépendante du M.B. On cherche à résoudre l’équation différentielle

stochastique (EDS en abrégé) :

dXt = b(t,Xt)dt+ σ(t,Xt)dWt, avec X0 = ξ.

En fait cette équation doit être interpretée au sens d’une équation intégrale, à savoir :

Xt = ξ +

∫ t

0b(s,Xs) ds+

∫ t

0σ(s,Xs)dWs, 0 ≤ t ≤ T.

Le coefficient b s’appele la dérive tandisque la matrice σσ∗ s’appelle la matrice de diffusion.

Définition 1.5.1 (Solution (forte) d’une EDS) Une solution X de l’EDS est un processus

continu qui vérifie :

Page 20: Mémoire de Magistère en Mathématiques

1.5 Équations différentielles stochastiques 12

1. X est mesurable adapté à la filtration (Ft)0≤t≤T .

2. P-p.s.∫ T

0 |b(s,Xs)|+ ‖σ(s,Xs)‖2ds <∞.

3. P-p.s. on a : Xt = ξ +∫ t

0 b(s,Xs)ds+∫ t

0 σ(s,Xs)dWs, 0 ≤ t ≤ T.

où la filtration est définie pour tout t positif par :

Ft = σσ(ξ,Ws; s ≤ t) ∪N

Lemme 1.5.2 (Gronwall) Soit φ ∈ L1[a, b] une fonction qui satisfait

φ(t) ≤ f(t) + β

∫ b

aφ(s)ds, ∀t ∈ [a, b],

où f ∈ L1[a, b] et β une constante positive. Alors on

φ(t) ≤ f(t) + β

∫ b

af(s)eβ(t−s)ds.

En particulier, si la fonction f est une constante égale à α on :

φ(t) ≤ αeβ(t−a), ∀a ≤ t ≤ b.

Le théorème suivant est du à Itô.

Théorème 1.5.3 (Existence et unicité de la solution) On suppose qu’il existe une constante

K telle que pour tout t ∈ [0, T ], x, y dans Rn :

1. condition de Lipschitz en espace, uniforme en temps :

|b(t, x)− b(t, y)|+ ‖σ(t, x)− σ(t, y)‖ ≤ K|x− y|;

2. croissance linéaire : |b(t, x)|+ ‖σ(t, x)‖ ≤ K(1 + |x|);

3. E(|ξ|2) <∞ ;

Alors l’EDS posséde une unique solution. De plus cette solution vérifie :

E(

sup0≤t≤T

|Xt|2)<∞.

On retrouve donc le résultat classique des equations différentielles ordinaires (EDO) en

prendrant σ = 0.

Exemple 1 :

Un exemple classique d’EDS est lié à la finance, le prix d’une action St à un instant t est

supposée suivre l’EDS suivante :

St = S0 +

∫ t

0µSs ds +

∫ t

0σSs dWs, 0 ≤ t ≤ T.

S0 est donnée et σ est appelée volatilité de l’action(c’est le paramètre important ici). On

montre facilemet à l’aide de la formule d’Ito que

St = Soexp(µ− σ2/2)t+ σWt.

Page 21: Mémoire de Magistère en Mathématiques

1.5 Équations différentielles stochastiques 13

On reviendra sur ce champ d’application d’une maniére plus rigoureuse ultérieurement.

Exemple 2 :

Un autre exemple vient de la mécanique (Langevin (1908))( et du calcul de Malliavin) :

Xt = X0 −∫ t

0αXs ds +

∫ t

0σXs dWs.

Dans cette équation, Xt représente la vitesse d’une particule libre de masse m dans un

champ composé d’une force de friction et d’une force aléatoire, α est le coefficient de friction,

et σ2 = 2αkT/m, ou T désigne la température absolue, k est la constante de Boltzman. La

solution est donnée par :

Xt = X0e(−αt) + σ

∫ t

0e(t−s)dWs,

et porte le nom de processus d’Ornstein-Uhlenbeck.

Page 22: Mémoire de Magistère en Mathématiques

Chapitre 2

Équations Différentielles

Stochastiques Rétrogrades

Standards

2.1 Préliminaires

Précisons tout d’abord le cadre du travail : On se donnem et d deux entiers naturels non

nuls, T un réel strictement positif et on suppose qu’on dispose d’un espace de probabilité

(Ω,F,P) sur lequel on a construit un mouvement brownien standard

(Wt)t6T := (W 1t ,W

2t , ...,W

dt )∗0≤t≤T défini sur l’intervalle [0, T ]. On notera (F0

t )t6T sa filtartion

naturelle c’est à dire

F0t = σ(Ws, s ≤ t) et par (Ft)t6T sa complétée avec les ensembles P-négligeables de F. Cette

dernière vérifie donc les conditions habituelles c’est à dire : elle est continue à droite, i.e.

Ft+ := ∩s≥tFs = Ft, ∀t ≥ 0,

et si elle est complète, i.e. F0 contient les ensembles négligeables de F+∞.

Étudions la situation dans un cas simple ; on considère, pour un temps terminal fixé,

T > 0 dit également horizon, l’équation différentielle rétrograde suivante définie sur R y′(t) = 0, 0 ≤ t < T.

yT = c.

où c est une constante réelle donnée. La solution existe sur [0,T], et elle est unique, il s’agit

évidemment de la solution constante y = c. Quel est l’équivalent stochastique de cette très

simple équation ? Le problème est donc de trouver un processus réel progressivement me-

surable par rapport à la filtration (Ft)t>0, de carré intégrable ( de manière à se placer dans

Page 23: Mémoire de Magistère en Mathématiques

2.1 Préliminaires 15

des conditions suffisantes à l’utilisation de l’intégrale d’Itô) vérifiant l’équation différen-

tielle stochastique dYt = 0, 0 ≤ t < T.

YT = ξ.

où ξ est une variable aléatoire FT -mesurable.

Ici, la condition d’adaptation du processus Y entraîne que ξ doit être déterministe car si Y

était une solution, elle serait, égale à Y0 et est donc F0-mesurable.

En fait, pour une condition terminale ξ donnée, le processus adapté le plus simple que

l’on puisse construite est Yt = E[ξ|Ft]. En utilisant le fait que Y0 = E[ξ] et le théorème de

représentation des martingales, ce théorème classique de calcul stochastique qui est un

outil majeur dans l’étude des équations différentielles rétrogrades, on voit qu’il existe un

processus Z progressivement mesurable et de carré intégrable doné par :

Yt = E[ξ|Ft] = E[ξ] +

∫ t

0Zs dWs, t ≤ T.

Un calcul élémentaire montre alors que

Yt = ξ −∫ T

tZs dWs.

Pour résumer, le système dYt = Zt dWt, 0 ≤ t < T.

YT = ξ.

possède uniquement une solution (Y,Z) adaptée telle que Yt = E[ξ|Ft] et Z est obtenu par le

théorème de représentation des martingales appliqué à Y entre 0 et T.

Le précédent système est un cas particulier très simple de ce que l’on appelle équations

différentielles stochastiques rétrogrades 1 (EDSR en abrégé par la suite) qui s’écrivent sous

forme différentielle comme suit :

−dYt = g(t,Yt,Zt) dt− Zt dWt, 0 ≤ t ≤ T.

YT = ξ.

ou d’une façon équivalente, sous forme intégrale,

Yt = ξ +

∫ T

tg(s,Ys,Zs) ds−

∫ T

tZs dWs, 0 ≤ t ≤ T. (2.1.1)

Dans l’EDSR (2.1.1), les éléments de base sont les paramètres g et ξ appelés respective-

ment le générateur (ou parfois coefficient) et la condition terminale , on dit souvent que

l’EDSR est associée aux paramètres(g, ξ).

1. “ L’avenir est devant toi. Mais tu l’auras dans le dos chaque fois que tu feras un demi-tour ”.

Pierre Dac.

Page 24: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 16

Souvent, pour résoudre des équations différentilles stochastiques rétrogrades, les tech-

niques les plus efficaces sont celles qui évitent d’attaquer de front le processus Z et qui

parviennent à en obtenir des propriétés par des moyens détournés.

Nous allons maintenant être plus rigoureux et, tout en démontrant les résultats fonda-

mentaux de l’étude des équations différentielles stochastiques rétrogrades, découvrir les

principaux techniques nécessaires à leur résolution.

Considèrons les espaces suivants :

• Pm = processus sur Ω× [0, T ] dans Rm, Ft-progressivement mesurable.

• L2m(Ft) = η : variable aléatoire dans Rm, Ft-mesurable tel que E[|η|2] <∞.

• S2m(0, T ) =

ϕ ∈ Pm, tel que E[sup0≤t≤T |ϕt|2] <∞

.

• H2m(0, T ) =

Z ∈ Pm, tel que E

[ ∫ T

0|Zs|2 ds

]<∞

.

• H1m(0, T ) =

Z ∈ Pm, tel que E

[(

∫ T

0|Zs|2 ds)1/2

]<∞

.

On notera Dα = H2m(0, T )×H2

m×d(0, T ) muni de la norme,

‖(Y, Z)‖α =

(E[ ∫ T

0eαs(|Ys|2 + ‖Zs‖2) ds

])1/2

.

Maintenant, on va introduire la notion d’EDSR mutli-dimensionelle.

Définition 2.1.1 Soit ξ ∈ L2m(FT ) une condition terminale à valeurs dans Rm et

g : Ω× [0, T ]×Rm×Rm×d −→ Rm un générateur supposé Pm⊗B(Rm)⊗B(Rm×d) mesurable.

Une solution m−dimensionnelle de l’EDSR (2.1.1) associée aux paramètres (g, ξ) est la don-

née d’un couple (Y,Z) := (Yt, Zt)0≤t≤T de processus progressivement mesurables, à valeurs

dans Rm × Rm×d tels que P-p.s.,Y ∈ S2

m(0, T ) Z ∈ H2m×d(0, T )

Yt = ξ +

∫ T

tg(s, ω, Ys, Zs) ds−

∫ T

tZs dWs, 0 ≤ t ≤ T.

Puisqu’on travaille avec des équations différentielles, il semble trop naturel de supposer le

fameux problème d’existence et d’unicité des solutions.

2.2 Existence et Unicité des solutions

En 1990, E.Pardoux et S.Peng dans leur célébre article [PP90] ont démontré l’existence

et l’unicité des solutions de l’EDSR (2.1.1) dans le cas où le générateur g est lipschtizien

Page 25: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 17

par rapport aux deux variables y et z. Ce travail a été le point de départ d’ un grand nombre

d’articles visant à montrer l’existence et l’unicité tout en affinant les hypothèses. Ce cha-

pitre n’a pas pour ambition de fournir une liste exhaustive de tous ces résultats. Nous

allons nous limiter à ceux qui reviendront dans la suite de ce mémoire.

Avant d’énoncer le principal théorème, nous présentons le lemme suivant qui nous sera

d’une grande utilité par la suite :

Lemme 2.2.1 Soient (Y, Z) ∈ H2m(0, T )×H2

m×d(0, T ), le processus∫ t

0YsZs dWs, 0 ≤ t ≤ T

est une martingale uniformément intégrable.

Preuve. En combinant les inégalités de Brunkholder-Davis-Gundy avec la majoration

2ab ≤ a2 + b2, il en découle que

E[ sup0≤t≤T

|∫ t

0YsZs dWs|] ≤ KE

[ ∫ T

0|Y |2s‖Z‖2s ds

]1/2

≤ KE[

sup0≤t≤T

|Yt|(∫ T

0‖Zs‖2 ds

)1/2]≤ K

2

(E[ sup

0≤t≤T|Yt|2] + E[

∫ T

0‖Zs‖2 ds]

).

Mais cette dernière quantité est finie, d’où∫ t

0YsZs dWs, 0 ≤ t ≤ T

est uniformément

intégrable, c’est donc une martingale et E[ ∫ T

tYsZs dWs

]= 0 ∀t ≤ T.

Théorème 2.2.2(Pardoux, Peng 1990 [PP90])

Sous les hypothèses (H1) dites souvent standards :

(H1)

− ξ ∈ L2m(FT )et (g(t, 0, 0))0≤t≤T ∈ H2

m(0, T )

− g est lipschitzien en espace,uniformément en temps ; i.e,

il existe C ≥ 0, telsque ∀t ∈ [0, T ],∀y, y′ ∈ Rm, ∀z, z′ ∈ Rm×d,

|g(t, ω, y, z)− g(t, ω, y′, z′)| ≤ C(|y − y′|+ ‖z − z′‖), dP⊗ dt p.s.

l’EDSR (2.1.1) admet une unique solution (Y,Z).

Un outil-clé dans la démonstration est le théorème de représentation des martingales

browniennes (théorème 1.3.1). La preuve sera faite en trois étapes ; en premier lieu on

examine le cas d’un générateur g nul(g ≡ 0), ensuite g est indépendant de (y, z), puis nous

utlisons un outil du point fixe dans un espace de Banach pour traiter le cas général.

Preuve.

Étape 1. (Le cas où g ≡ 0)

L’EDSR(2.1.1) devient dans ce cas Yt = ξ −∫ Tt Zs dWs, 0 ≤ t < T.

YT = ξ.

La même démarche que dans la partie préliminaires donne :

Yt = E[ξ|Ft].

Page 26: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 18

Comme ξ ∈ L2m(FT ), alors par le théorème de représentation des martingales il existe un

unique processus Z ∈ H2m×d(0, T ) tel que

Yt = E[Y0] +

∫ t

0Zs dWs,

donc,

Yt = Y0 +

∫ t

0Zs dWs.

De même, on a :

YT = Y0 +

∫ T

0Zs dWs.

Comme YT = ξ, la différence entre les deux processus donne

Yt = ξ −∫ T

tZs dWs.

En conclusion, on a :Yt = E[ξ|Ft] et le processus Z est donné par le théorème des représen-

tation des martingales.

Remarque 2.2.3 Si ξ est déterministe, Yt = E[ξ|Ft] = ξ, d’où (Yt, Zt) = (ξ, 0) est solution de

l’EDSR. Dans ce cas le processus Y est anticipatif.

Étape 2. (Le cas où g ne dépend ni de y ni de z)

Dans ce cas on a g(t, ω, y, z) = g(t, ω).

On pose Yt = E[ξ+

∫ T

0g(s, ω) ds|Ft] ; c’est une martingale brownienne, alors le théorème de

représentation de martingales d’Itô permet de construire un processus Z ∈ H2m×d(0, T ) tel

que

Yt = Y0 +

∫ t

0Zs dWs

ce qui donne

YT = Yt +

∫ T

tZs dWs, (2?)

On vérifie aisément que la paire (Y,Z) ainsi construite est une solution de l’EDSR étudiée

puisque (2?) donne

ξ +

∫ T

0g(s, ω) ds = E[ξ +

∫ T

0g(s, ω) ds|Ft] +

∫ T

tZs dWs

donc,

ξ +

∫ T

0g(s, ω) ds−

∫ T

tZs dWs = E[ξ +

∫ T

tg(s, ω) ds|Ft] + E[

∫ t

0g(s, ω) ds|Ft]

mais, (∫ t

0 g(s, ω) ds)t≤T est un processus adapté à la filtration Ft, alors

E[ξ +

∫ T

tg(s, ω) ds|Ft] = ξ +

∫ T

tg(s, ω) ds−

∫ T

tZs dWs.

Page 27: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 19

Par conséquent,

Yt = ξ +

∫ T

tg(s, ω) ds−

∫ T

tZs dWs

où encore

Yt = E[ξ +

∫ T

tg(s, ω) ds|Ft].

Étape 3. (Cas général)

Dans cette étape on va définir une application dont la solution de l’EDSR (2.1.1) sera son

point fixe : On a Dα = H2m(0, T ) × H2

m×d(0, T ) muni de la norme ‖.‖α est un espace de

Banach.

On construit une fonction Φ de Dα dans lui même de sorte que (Y,Z) ∈ Dα soit une solution

de l’EDSR (2.1.1) si et seulement si (Y,Z) est un point fixe de Φ.

De manière à évaluer ‖Φ(u, v) − Φ(u′, v′)‖α pour (u, v), (u′, v′) ∈ Dα il est plus pratique de

définir (Y u,v, Zu,v) = Φ(u, v) comme étant la solution de l’EDSR :

Y u,vt = ξ +

∫ T

tgu,v(s, ω) ds−

∫ T

tZu,vs dWs , 0 ≤ t ≤ T, (2.2.1)

où gu,v(t, ω) = g(t, ω, ut, vt) qui ne dépend pas de (y, z). Soulignons que l’application Φ est

bien définie par hypothèse dans Dα, en effet en vertu de l’ Étape 2 de la preuve, l’EDSR

(2.2.1) admet une unique solution (Y u,v, Zu,v), où

Y u,vt = E[ξ +

∫ T

tgu,v(s, ω) ds|Ft], 0 ≤ t ≤ T

et Zu,vt , 0 ≤ t ≤ T est obtenu par le théorème de représentation des martinglaes. Ainsi

pour (Y,Z) ∈ Dα, on a :

(Y,Z) solution de l’EDSR (2.1.1) si et seulement si c’est un point fixe de Φ.

Existence et unicité du point fixe :

Pour utiliser le critère d’un point fixe, il suffit de prouver que Φ est une contraction de

l’espace Dα muni de la norme ‖.‖α pour un α bien choisi. Pour cela, il faut d’abord prouver

que Y u,v ∈ H2m(0, T ).

En effet, on a, pour tout t ∈ [0, T ]

Y u,vt = Y u,v

0 −∫ t

0g(s, ω, us, vs) ds+

∫ t

0Zu,vs dWs.

Par suite, en utilisant le fait que (a+ b+ c)2 ≤ 3(a2 + b2 + c2), on obtient :

E[ sup0≤t≤T

|Y u,vt |2] = E

[sup

0≤t≤T

(Y u,v

0 −∫ t

0g(s, ω, us, vs) ds+

∫ t

0Zu,vs dWs

)2]≤ 3

(E[|Y u,v

0 |2] + E[ sup0≤t≤T

|∫ t

0g(s, ω, us, vs) ds |2]

+E[ sup0≤t≤T

|∫ t

0Zu,vs dWs|2]

).

Page 28: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 20

Maintenant, on a d’une part via les inégalités de Doob et de Hölder,

E[ sup0≤t≤T

|∫ t

0Zu,vs dWs|2] ≤ 4 E[

∫ T

0‖Zu,vs ‖2 ds],

et

E[ sup0≤t≤T

|∫ t

0g(s, ω, us, vs) ds |2] ≤ T E[

∫ T

0| g(s, ω, us, vs) |2 ds]

D’autre part par l’hypothèse (H1) (g est Lipschitzien en y et z) on a :

|g(s, ω, us, vs)| ≤ |g(s, ω, us, vs)− g(s, ω, 0, 0)|+ |g(s, ω, 0, 0)|

≤ |g(s, ω, 0, 0)|+ C(|us|+ ‖vs‖)

Donc,

|g(s, ω, us, vs)|2 ≤ 3|g(s, ω, 0, 0)|2 + 3C2(|us|2 + ‖vs‖2)

En regroupant tout ces résultats il vient que,

E[ sup0≤t≤T

|Y u,vt |2] ≤ 3 E|Y u,v

0 |2 + 12 E[ ∫ T

0‖Zu,vs ‖2 ds

]+ 3 T

(3E[ ∫ T

0|g(s, ω, 0, 0)|2 ds

]

+3C2E[ ∫ T

0|u|2 ds

]+ 3C2E

[ ∫ T

0‖vs‖2 ds

]).

Par hypothèse, ces derniers termes sont finis et Y0 est déterministe, donc de carré inté-

grable ; il s’en suit que E[supt∈[0,T ] |Yu,vt |2] < ∞, ce qui prouve que Y ∈ H2

m(0, T ), et par

construction, Z ∈ H2m×d(0, T )

Maintenant, soient (u, v) et (u′, v′) deux éléments de Dα et (Y u,v, Zu,v) = Φ(u, v),

(Y u′,v′ , Zu′,v′) = Φ(u′, v′).

La formule d’Itô appliquée à la différence de processus eαt|Y u,vt − Y u′,v′

t |2 entre t et T , en-

traîne que

eαT |Y u,vT − Y u′,v′

T |2 − eαt|Y u,vt − Y u′,v′

t |2

= α

∫ T

teαs|Ys − Y u′,v′

s |2 ds+ 2

∫ T

teαs(Y u,v

s − Y u′,v′s ) d(Y u,v

s − Y u′,v′s )

+

∫ T

teαs d < Y u,v

s − Y u′,v′s > .

Page 29: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 21

D’où,

eαt|Y u,vt − Y u′,v′

t |2 = 2

∫ T

teαs(Y u,v

s − Y u′,v′s )(g(s, ω, us, vs)− g(s, ω, u′s, v

′s))ds

− α∫ T

teαs|Y u,v

s − Y u′,v′s |2 ds−

∫ T

teαs‖Zu,vs − Zu′,v′s ‖2 ds

− 2

∫ T

teαs(Y u,v

s − Y u′,v′s )(Zu,vs − Zu′,v′s ) dWs

= 2

∫ T

teαs(Y u,v

s − Y u′,v′s )(g(s, ω, us, vs)− g(s, ω, u′s, v

′s)) ds

− α∫ T

teαs|Y u,v

s − Y u′,v′s |2 ds−

∫ T

teαs‖Zu,vs − Zu′,v′s ‖2 ds

− (MT −Mt).

avec Mt = 2

∫ t

0(Y u,vs − Y u′,v′

s )(Zu,vs − Zu′,v′s ) dWs.

Mais d’après le lemme 2.2.1. la martingale locale Mt est en réalité une martingale, d’où

E[eαt|Y u,vt − Y u′,v′

t |2] + E[

∫ T

teαs‖Zu,vs − Zu,vs ‖2 ds]

= E[− α

∫ T

teαs|Y u,v

s − Y u′,v′s |2 + 2

∫ T

teαs(Y u,v

s − Y u′,v′s )

(g(s, us, vs)− g(s, u′s, v

′s))ds].

Prenant en considération le fait que g est lipschitizien et la formule de polarisation sui-

vante

−αa2 + 2cab = −α(a2 + 2acb

α) = −α(a+

cb

α)2 +

c2

αb2 ≤ c2b2

α,

On se ramène à,

E[eαt|Yt − Y ′t |2] + E[

∫ T

teαs‖Zu,vs − Zu′,v′s ‖2 ds] ≤ E

[ ∫ T

teαs(− α|Y u,v

s − Y u′,v′s |2

+2C|Y u,vs − Y u′,v′

s |(|us − u′s|+ ‖vs − v′s‖))ds]

≤ c2

αE[ ∫ T

teαs(|us − u′s|2 + ‖vs − v′s‖2 ds

]≤ 2C2

αE[ ∫ T

teαs(|us − u′s|2 + ‖vs − v′s‖2) ds

].

Il en découle donc que,

E[

∫ T

0eαs‖Zu,vs − Zu′,v′s ‖2 ds] ≤ 2C2

αE[ ∫ T

teαs(|us − u′s|2 + ‖vs − v′s‖2) ds

].

Ainsi,

‖(Zu,v, Zu′,v′)‖2α ≤2C2

α‖(u− u′, v − v′)‖2α.

De plus,

eαtE[|Y u,vt − Y u′,v′

t |2] ≤ 2C2

α‖(u− u′, v − v′)‖2α.

Donc

|(Y u,v − Y u′,v′)|2 =

∫ T

0E|Y u,v

t − Y u′,v′

t |2eαt dt ≤ 2C2

α ‖(u− u′, v − v′)‖2α

∫ T

0dt

≤ 2C2

α T‖(u− u′, v − v′)‖2α.

Page 30: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 22

Par conséquent, il existe une constante K > 0 dépendant seulement de C et T telle que

‖(Y u,vt − Y u′,v′

t , Zu,v − Zu′,v′)‖2α ≤K

α‖(u− u′, v − v′)‖2α, (2.2.2)

Finallement, si on choisit α suffisamment grand de sorte que Kα < 1, l’application Φ est

contractante de Dα dans lui-même. D’où d’après le théorème de Banach, il existe une

unique paire (Y,Z) ∈ Dα telle que Φ(Y,Z) = (Y,Z). L’unicité doit être comprise dt⊗ dP-p.s.

La construction de la première composente Y Φ de Φ(Y,Z) est un processus continu, égal à

Y dt⊗ dP-p.s. et le couple(Y Φ, Z) est l’unique solution de l’EDSR (2.1.1) associée aux para-

mètres (g, ξ).

Historiquement, Pardoux et Peng ont prouvé l’existence de la solution en s’appuyant

sur la méthode itérative de Picard par la défintion de la suite (Y k, Zk) donnée par :Y 0 = 0 Z0 = 0

−dY k+1t = g(t, Y k

t , Zkt ) dt− Zk+1

t dWt, 0 ≤ t < T.

Y k+1T = ξ.

ou d’une façon équivalente,

Y k+1t = ξ +

∫ T

tg(s, Y k

s , Zks ) ds−

∫ T

tZk+1s dWs, ∀t ∈ [0, T ]. (2.2.3)

Les auteurs ont montré, pour une norme bien choisie et sous une hypothèse de régu-

larité de type lipschitz sur le générateur g en s’inspirant de théorème 2.2.2, que Y k et Zk

sont des processus qui convergent et leurs limites Y et Z est la solution de l’EDSR(2.1.1).

Même s’ils n’utilisent pas directement dans leur démonstration le théorème du point fixe,

il faut reconnaître que le fil directeur de cette preuve est une itération de type fixe. L’idée

du point fixe était donc sous jacente aux travaux de Pardoux et Peng. L’utilité générale de

ces techniques aux EDSR apparaît pour la première fois dans un article de F. Antonelli en

1993.

Proposition 2.2.4 On considère la suite de réccurence de Picard (Y k, Zk) définie par (2.2.3).

La suite (Y k, Zk) converge dans H2m(0, T )×H2

m×d(0, T ) et dt⊗ dP-p.s vers la solution (Y, Z)

de l’EDSR associée à (g, ξ). De plus, la suite (Yk)k≥0 est p.s. uniformément convergente.

Preuve.

Commençons par montrer que la suite (Y k, Zk) est convergente dans H2m(0, T )×H2

m×d(0, T ) :

On définit par réccurence une suite de processus de Dα en posant ;(Y 0 = 0, Z0 = 0),

(ukt , vkt ) = (Y k−1

t , Zk−1t ),

(Y k, Zk) = Φ(uk, vk) = (Y (uk,vk), Z(uk,vk)).

Page 31: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 23

on obtient aisément grâce à l’estimation (2.2.2)

‖Y k+1 − Y k, Zk+1 − Zk‖2α = ‖Φ(uk+1t − ukt , vk+1

t − vkt )‖2α≤ K

α ‖(uk+1t − ukt , vk+1

t − vkt )‖2α≤ K

α ‖(Ykt − Y k−1

t , Zkt − Zk−1t )‖2α (2.2.4)

≤ (Kα )k‖(Y 1, Z1)‖

alors

‖(Y k+1 − Y k), (Zk+1 − Zk)‖2α ≤ (K

α)kE[ ∫ T

0eαs(|Y 1

s |2 + ‖Z1s‖2) ds

],

ceci montre que la suite (Y n, Zn) est de Cauchy dans Dα.

• La suite (Y k) converge uniformément :

On définit la norme uniforme de semi-martingale δk(Y ) = Y k − Y k−1 par

‖δk(Y )‖2∞ := E[ sup0≤t≤T

|δkt (Y )|2].

Maintenant pour un processus d’Itô Ψt = ΨT −∫ T

tφs ds−

∫ T

tσs dWs, φ et σ dans H2

1(0, T ),

on a :

‖Ψ‖2∞ = E[ sup0≤t≤T

|Ψt|2] = E[

sup0≤t≤T

|Ψ0 +

∫ t

0φs ds+

∫ t

0σs dWs|2

]≤ 3

(E[|Ψ0|2] + E

[sup

0≤t≤T|∫ t

0φs ds|2

]+ E

[sup

0≤t≤T|∫ t

0σs dWs|2

]).

D’autre part, via les inégalités maximales de martingales, il en découle que

‖∫ .

0σs dWs‖2∞ := E

[sup

0≤t≤T|∫ t

0σs dWs|2|

]≤( 2

2− 1

)2E[ ∫ T

0|σs|2 ds

]= 4‖σ2‖2

H21(0,T ).

Alors,

‖Ψ‖2∞ ≤ 3(E|Ψ0|2 + E

[sup

0≤t≤T|∫ t

0φs ds|2

]+ E

[sup

0≤t≤T|∫ t

0σs dWs|2

])≤ 3

(E|Ψ0|2 + E

[sup

0≤t≤T|∫ t

0φs ds|2

]+ 4‖σ‖2

H21(0,T )

)≤ 3

(E|Ψ0|2 + T‖φ‖2

H21(0,T )

+ 4‖σ‖2H2

1(0,T )

)Ainsi,

‖Ψ‖2∞ ≤ 3(E|Ψ0|2) + 3T‖φ‖2H2

1(0,T ) + 12‖σ‖2H2

1(0,T ) (2.2.5)

Appliquons la dernière inégalité à la semimartingle Y k+1 − Y k avec la décomposition sui-

vante ; φt = g(t, Y kt , Z

kt )− g(t, Y k−1

t , Zk−1t ),

σt = Zkt − Zk−1t = δkt (Z).

Page 32: Mémoire de Magistère en Mathématiques

2.2 Existence et Unicité des solutions 24

Il s’en suit que,

‖φ‖2H2

1(0,T )= E

[ ∫ T

0|φt|2 dt

]= E

[ ∫ T

0|g(t, Y k

t , Zkt )− g(t, Y k−1

t , Zk−1t )|2 dt

]≤ E

[ ∫ T

0C(|Y k

t − Y k−1t |+ ‖Zkt − Zk−1

t ‖)2 dt]

≤ 2C2E[ ∫ T

0(|Y k

t − Y k−1t |2 + |Zkt − Zk−1

t |2) dt]

≤ 2C2E[ ∫ T

0(|δkt (Y )|2 + |δkt (Z)|2) dt

]≤ 2C2‖δk(Y ), δk(Z)‖22.

C’est à dire, ‖φ‖H21(0,T ) ≤ C‖δk(Y ), δk(Z)‖2.

De plus avec les notations introduites il vient que,

δk+1t (Y ) = δk+1

T (Y ) +

∫ T

tΦks ds−

∫ T

tσks dWs =

∫ T

tΦks ds−

∫ T

tσks dWs.

Alors, par application de l’inégalité (2.2.5) à la semimartingale δk+1(Y ) on se ramène à :

‖δk+1(Y )‖2∞ ≤ 2(2T‖Φ‖22 + 10‖δk(Z)‖22) ≤ 4TC‖δk(Y ), δk(Z)‖22 + 20‖δk(Z)‖22

≤ ‖δk(Y ), δk(Z)‖22.

On en déduit, par l’inégalité (2.2.3), que

‖δk+1(Y )‖2∞ ≤ Kεk−1, ε < 1

E[ sup0≤t≤T

|Y k+1t − Y k

t |2] ≤ Kεk−1,

il en résulte de cette dernière inégalité que∑k≥0

∥∥∥ sup0≤t≤T

|Y k+1t − Y k

t |∥∥∥L1≤∑k≥0

∥∥∥ sup0≤t≤T

|Y k+1t − Y k

t |∥∥∥L2≤ (K)1/2

∑k≥0

(ε)k−1/2 <∞.

Ainsi, la série∑k≥0

sup0≤t≤T

|Y k+1t −Y k

t | converge P-p.s. et donc P-p.s. Y k converge uniformément

vers un processus Y continu.

De plus Y ∈ H2m(0, T ) puisque la convergence a lieu dans H2

m(0, T ).

•(Y,Z) est solution de l’EDSR (2.2.3) :

Notons (Y,Z) la limite de la suite (Y n, Zn), dans l’espace de Banach Dα.

On a, pour tout k ∈ N∗,

Y k+1t = ξ +

∫ T

tg(t, ω, Y k

t , Zkt ) dt−

∫ T

tZk+1t dWt, (3?).

et on doit passer à la limite dans cette équation.

Pour cela notons tout d’abord que la convergence dans Dα implique que

E[ ∫ T

0eαt(|Y k

t − Yt|2 + ‖Zkt − Zt‖2) dt]−→ 0 si k → +∞

Page 33: Mémoire de Magistère en Mathématiques

2.3 Estimation à priori 25

En outre,

E[

supt∈[0,T ]

|∫ T

tZks dWs −

∫ T

tZs dWs|2] ≤ 16E[

∫ T

0‖Zks − Zs‖2 ds

],

et

E[

supt∈[0,T ]

|∫ T

tg(s, Y k

s , Zks ) ds−

∫ T

tg(s, Ys, Zs) ds|2

]≤ E

[ ∫ T

0|g(s, Y k

s , Zks )− g(s, Ys, Zs)|2 ds

]≤ TC2E

[ ∫ T

0(|Y k

s − Ys|+ ‖Zks − Zs‖)2 ds]

≤ 2TC2E[

supt∈[0,T ]

|Y ks − Ys|2

+

∫ T

0‖Zks − Zs‖2 ds

].

On en déduit alors que la convergence de g(s, Y ks , Z

ks ) vers g(s, Ys, Zs) à lieu également.

Passant à la limite dans (3?) lorsque k −→∞, on obtient

Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs , 0 ≤ t ≤ T.

Ainsi (Y,Z) est solution de l’EDSR.

2.3 Estimation à priori

L’étude des équations différentielles stochastiques rétrogrades s’accompagne génèra-

lement de l’analyse de la dépendance des solutions aux paramètres de ces équations. On

espère cependant étudier la dependance de ces derniers par rapport à ξ et le processus

g(t, 0, 0)0≤t≤T . Jusqu’à la fin de ce chapitre on posera m = 1 et d = 1.

Proposition 2.3.1 Sous l’hypothèse (H1), si (Y, Z) est solution de l’EDSR (g, ξ), alors il

existe une constante c > 0 telle que

E[

sup0≤t≤T

|Yt|2 +

∫ T

0‖Zs‖2 ds

]≤ cE

[|ξ|2 +

∫ T

0|g(t, 0, 0)|2 dt

].

Preuve. Soit (Y,Z) solution de l’EDSR associée à (g, ξ)

Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs.

On applique la formule d’Itô a |Yt|2 entre t et T on obtient,

|Yt|2 +

∫ T

t‖Zs‖2 ds = |ξ|2 + 2

∫ T

tYsg(s, Ys, Zs) ds− 2

∫ T

tYsZs dWs

Par hypothèse sur g, on a pour tout (t, y, z)

2yg(t, y, z) ≤ 2y|g(t, 0, 0)|+ 2C|y|2 + 2C|y|‖z‖

Page 34: Mémoire de Magistère en Mathématiques

2.3 Estimation à priori 26

et donc utilisant le fait que 2ab ≤ εa2 + b2/ε pour ε = 1 puis, 2

2yg(t, y, z) ≤ (1 + 2C + 2C2)|y|2 + |g(t, 0, 0)|2 + (‖z‖2/2).

D’où,

|Yt|2 +1/2

∫ T

t‖Zs‖2 ds ≤ |ξ|2 +(2C+2C2 +1)

∫ T

t|Ys|2 ds+

∫ T

t|g(s, 0, 0)|2 ds−2

∫ T

tYsZs dWs.

Notons β = 2C + 2C2 + 1 et b = E[|ξ|2] + E[

∫ T

t|g(s, 0, 0)|2 ds], il vient que :

|Yt|2 + 1/2

∫ T

t‖Zs‖2 ds ≤ b+ β

∫ T

t|Ys|2 ds− 2

∫ T

tYsZs dWs (2.3.1)

Après passage à l’espérance, nous obtenons

E[|Yt|2 + 1/2

∫ T

t‖Zs‖2 ds

]≤ b+ βE

[ ∫ T

t|Ys|2 ds

].

Enfin l’inégalité de Gronwall, donne :

E[|Yt|2] ≤ b exp(β(T − t)).

On étudie maintenant le terme (−∫ T

tYsZs dWs).

Notons Mt =

∫ t

0YsZs dWs ; c’est une martingale grâce au lemme 2.2.1, alors les inégalités

de Burkholder-Davis-Gundy fournissent

E[ supt∈[0,T ]

(−∫ T

tYsZs dWs)] = E[ sup

t∈[0,T ](Mt −MT )]

≤ kE[(

∫ T

0|Ys|2‖Zs‖2 ds)1/2]

≤ E[( supt∈[0,T ]

|Yt|2)1/2(

∫ T

0‖Zt‖2 dt)1/2]

≤ E[(1

2supt∈[0,T ]

|Yt|2)1/2(2k2

∫ T

0‖Zt‖2 dt)1/2]

≤ 1

4E[ supt∈[0,T ]

|Yt|2] + k2E[

∫ T

0‖Zt‖2 dt].

Revenant à l’inegalité (2.3.1) on en déduit que

E[ supt∈[0,T ]

|Yt|2 +1

2

∫ T

0‖Zs‖2 ds] ≤ b+ βE[ sup

t∈[0,T ]

∫ T

t|Ys|2] + 2E[ sup

t∈[0,T ]−∫ T

tYsZs dWs

≤ b+ βE[

∫ T

0|Ys|2 ds] +

1

2E[ supt∈[0,T ]

|Yt|2] + 2k2E[

∫ T

0‖Zs‖2 ds]

E[

supt∈[0,T ]

|Yt|2 +

∫ T

0‖Zs‖2 ds

]≤ 2b+ 2βE

[ ∫ T

0|Ys|2 ds

]+ 4k2E

[ ∫ T

0‖Zs‖2 ds

].

Page 35: Mémoire de Magistère en Mathématiques

2.3 Estimation à priori 27

Or,

E[ ∫ T

0|Ys|2 ds

]≤∫ T

0b exp(β(T − s)) ds ≤ b

β(eβT − 1).

D’autre part, si on prend l’espérance de l’inégalité (2.3.1) on obtient facilement pour t = 0

E[

∫ T

0‖Zs‖2 ds] ≤ 2b+ 2βE[

∫ T

0|Ys|2 ds] ≤ 2beβT .

Au total on obtient donc

E[

supt∈[0,T ]

|Yt|2 +

∫ T

0‖Zs‖2 ds

]≤ 2b+ 2b(eβT − 1) + 8k2beβT

≤ 2beβT (1 + 4k2) ≤ cE[|ξ|2 +

∫ T

0|g(t, 0, 0)|2 dt

]où c = 2(1 + 4k2)eβT .

Ce qui achève la preuve.

On a dèjà vu sur l’exemple où g est nulle que l’intégrale stochastique, qui apparaît dans

l’EDSR (2.1.1), est a pour but d’adapter Y à la filtration du mouvement brownien, ce qui

confirme la proposition suivante.

Proposition 2.3.2 Soit (Y,Z) la solution de l’EDSR (2.1.1). On suppose outre l’hypothèse

(H1), que ξ et g(t, y, z) sont déterministes.

Alors Zt = 0 P-p.s ∀t, et Yt est P-p.s la solution de l’équation différentielle ordinaire

dYtdt

= −g(t, Yt, 0) ; YT = ξ.

En bref si Z n’est pas nécessaire pour adapter la solution, alors il est nul.

Preuve. Comme g est déterministe on a :

Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs,

il vient alors que,

Yt = E[ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs|Ft

]= ξ +

∫ T

tg(s, Ys, Zs) ds− E

[ ∫ T

tZs dWs|Ft

]= ξ +

∫ T

tg(s, Ys, Zs) ds.

Par conséquent, le terme∫ T

tZs dWs est nul.

D’où,

E[(

∫ T

tZs dWs)

2]

= E[ ∫ T

t‖Zs‖2 ds

]= 0

et en fin que Zs = 0, P− p.s.

Il s’en suit immédiatement que,

−dYt = g(t, Yt, 0) dt , YT = ξ.

Page 36: Mémoire de Magistère en Mathématiques

2.4 EDSRs linéaires et théorème de comparaison 28

On est ramené alors à la resolution d’une équation ordinaire.

2.4 EDSRs linéaires et théorème de comparaison

Les équations différentielles stochastiques rétrogrades linéaires sont apparues en 1973

dans un article de J. Bismut [Bis73], dans le cadre de la théorie du contrôle stochastique.

Comme pour les équations différentielles ordinaires, si g est linéaire, on peut donner une

formule explicite de la solution de l’EDSR puis on en déduire le théorème de comparaison.

Proposition 2.4.1 soit (β, µ) un processus à valeur dans (R,Rd), progressivement mesu-

rable et borné, ϕ un élément de H21(0, T ) et ξ une variable aléatoire FT -mesurable, de carré

intégrable et à valeurs réelles.

On considère l’EDSR linéaire suivante :

Yt = ξ +

∫ T

t(ϕs + Ysβs + Zsµs) ds−

∫ T

tZs dWs, 0 ≤ t ≤ T (2.4.1)

a) L’équation (2.4.1) possède une unique solution (Y, Z) ∈ S21(0, T ) × H2

d(0, T ), dont la

première composante Y est donné par la formule explicite

Yt = E[ξΓt,T +

∫ T

tΓt,sϕs ds|Ft

],

où (Γt,s)s≥t est le processus adjoint défini par l’EDS

dΓt,s = Γt,s(βs ds+ µs dWs) ; Γt,t = 1.

et qui vérifie : ∀t ≤ s ≤ u Γt,sΓs,u = Γt,u P− p.s.

b) Si ξ ainsi que ϕ sont positifs, alors le processus (Yt)t≤T l’est aussi. En outre, si de plus

Yt = 0 sur B ∈ Ft, alors pour tout s ≥ t on a P − p.s. sur B, Ys = 0 ξ = 0, ϕs = 0, et

Zs = 0 dt⊗ dP− p.s.

Preuve. Les processus β et µ sont bornés, on a donc l’existence et l’unicité d’une solution

de l’EDS. Par application de la formule d’Itô à |Γ|2, on obtient

|Γt,s|2 = |Γt,t|2 + 2

∫ s

t|Γt,u| dΓt,u +

∫ s

td < Γt,u >

= 1 + 2

∫ s

t|Γt,u|2(βu du+ µu dWu) +

∫ s

t|Γt,u|2µ2

u du

= 1 + 2

∫ s

t|Γt,u|2(βu + µ2

u) du+ 2

∫ s

t|Γt,u|2µu dWu

Par le fait que µ et β sont bornés nous avons

|Γt,s|2 ≤ 1 + 2(C1 + C22 )

∫ s

t|Γt,u|2 du+ 2

∫ s

t|Γt,u|2µu dWu.

Page 37: Mémoire de Magistère en Mathématiques

2.4 EDSRs linéaires et théorème de comparaison 29

Après passage à l’espérance, nous obtenons

E[|Γt,s|2]| ≤ 1 + 2(C1 + C22 )E[

∫ s

t|Γt,u|2 du].

Enfin via le lemme de Gronwall, on se ramène à l’inégalité suivante :

E[|Γt,s|2]| ≤ exp(2(C1 + C22 )(s− t)).

Mieux, par l’inégalité de Burkholder-Davis-Gundy, on obtient

E[

sup0≤s≤T

|Γt,s|2]≤ 1 + 2(C1 + C2

2 )E[

sup0≤s≤T

∫ s

t|Γt,u|2 du

]+ 2E

[sup

0≤s≤T

∫ s

t|Γt,u|2µu dWu

]≤ 1 + 2(C1 + C2

2 )E[

sup0≤s≤T

∫ s

t|Γt,u|2 du

]+ 2E

[( ∫ T

0|Γt,u|4|µu|2 du

)1/2]≤ 1 + 2(C1 + C2

2 )E[ ∫ T

0|Γt,u|2 du

]+ 2E

[(sups≥0|Γt,s|4

)1/2(∫ T

0|µu|2 du

)1/2]≤ 1 + 2(C1 + C2

2 )E[ ∫ s

0|Γt,u|2 du

]+

1

2E[

sup0≤s≤T

|Γt,s|4]

+ 2E[ ∫ T

0|µu|2 du

],

et donc

E[sups≥0|Γt,s|2]− 1

2E[ sup

0≤s≤T|Γt,s|4] ≤ 1 + 2C1E[

∫ T

0|Γt,u|2 du] + 2E[

∫ T

0|µu|2 du].

Par le fait que µ borné, on montre que

E[ sup0≤s≤T

|Γt,s|2]− 1

2E[ sup

0≤s≤T|Γt,s|4] ≤ 1 + 2C1

∫ T

0exp(2C1(u− t)) du+ 4C2

2E[

∫ T

0du]

et par conséquent,

E[ sup0≤s≤T

|Γt,s|2] <∞.

En outre, le théorème 2.2.2 nous assure l’existence et l’unicité d’une unique solution

(Yt, Zt)t≥0 ∈ S21(0, T )×H2

d(0, T ) de l’EDSR linéaire. Il suffit de poser g(t, y, z) = ϕt+βty+µtz

et de vérifier que (H1) est satisfaite.

La formule d’integration par partie donne, pour tout t ∈ [0, T ],

d(Γt,sYt,s) = Γt,s dYt + Yt dΓt,s + d < Γ, Y >t,s

= Γt,s(−ϕt dt− Ytβt dt− Ztµt dt+ Zt dWt) + YtΓt,s(βt dt+ µt dWt) + Γt,sZtµt dt

= −ϕtΓt,s dt+ Γt,s(Zt + Ytµt) dWt.

Ce qui montre que, le processus(

Γt,sYt +

∫ t

0ϕuΓu,s ds

)t≤T

est une martingale locale. De

plus, on a pour tout t ≥ 0 :

|Γt,sYt +

∫ t

0ϕuΓu,s ds| ≤

1

2

sups≥0|Γt,s|2 + sup

s≥0|Ys|2

+ sup

s≥0|Γt,s|

∫ t

0du

Page 38: Mémoire de Magistère en Mathématiques

2.4 EDSRs linéaires et théorème de comparaison 30

et ce dernier terme est une variable aléatoire de carré intégrable, compte tenu des hypo-

thèses. Donc la martingale locale ΓtYt+

∫ t

0ϕsΓs ds est en fait une martingale uniformément

intégrable, et on a finalement le résultat par définition de martingale

Γt,tYt +

∫ t

0ϕsΓt,s ds = E

[Γt,T ξ +

∫ T

0Γt,sϕs ds|Ft

].

Donc,

Yt = E[Γt,T ξ +

∫ T

tΓt,sϕs ds|Ft

].

b) Vu l’égalié (2.4.1), on en déduit que si ξ et ϕ sont positifs, Yt est également positif.

On arrive maintenant au théorème de comparaison qui nous permet de comparer les solu-

tions des EDSRs dès qu’on arrive à comparer leurs paramètres.

Théorème 2.4.2 (El Karoui, Peng, Quenez [ElkPQ97])

Soient (Y,Z) et (Y ′, Z ′) solutions des EDSRs associées aux paramètres (g, ξ) et (g′, ξ′)

On suppose que g vérifie (H1) et g′(s, Y ′s , Z ′s) un élément de H21(0, T )

Si ξ ≤ ξ′ P− p.s. et g(t, Y ′t , Z′t) ≤ g′(t, Y ′t , Z ′t) dt⊗ dP− p.s., alors

Yt ≤ Y ′t , 0 ≤ t ≤ T , p.s.

Preuve. On définit

ϕt = g(t, Y ′t , Z′t)− g′(t, Y ′t , Z ′t),

Y = Y − Y ′,

Z = Z − Z ′,

ξ = ξ − ξ′.

Ainsi pour tout t ≥ 0,

Yt = ξ +

∫ T

t(g(s, Ys, Zs)− g′(s, Y ′s , Z ′s)) ds−

∫ T

tZs dWs.

On découpe l’accroissement de g en trois morceaux en écrivant,

g(t, Yt, Zt)− g′(t, Y ′t , Z ′t) = g(t, Yt, Zt)− g(t, Y ′t , Zt) + g(t, Y ′t , Zt)− g(t, Y ′t , Z′t)

+ g(t, Y ′t , Z′t)− g′(t, Y ′t , Z ′t).

On introduit deux processus β et µ à valeurs réelles par

βt =

(Yt − Y ′t )−1(g(t, Yt, Zt)− g(t, Y ′t , Zt)) si Yt 6= Y ′t

0 sinon

µt =

(Zt − Z ′t)−1(g(t, Yt, Zt)− g(t, Y ′t , Z′t)) si Zt 6= Z ′t

0 sinon

Avec toutes ces notations on peut écrire Yt sous la forme,

Yt = ξ +

∫ T

t(Ysβs + Zsµs + ϕs) ds−

∫ T

tZs dWs

Page 39: Mémoire de Magistère en Mathématiques

2.4 EDSRs linéaires et théorème de comparaison 31

le couple (Yt, Zt) est solution d’une EDSR linéaire.

Il ne faut pas perdre de vue que β, µ et ϕ satisfont les hypothèses de la proposition précé-

dente . En effet,

-βt et µt sont progressivement mesurables pourvu que Yt et Zt le soient également.

- Ils sont bornés puisque g est Lipschitz. De plus les conditions d’intégrabilité sur le pro-

cessus ϕ se déduisent facilement de l’hypotèse (H1) et des propriétés de Y et Z.

Utilisant donc la formule explicite pour les EDSRs linéaires (proposition 2.4.1), on a, pour

tout t ∈ [0, T ]

Yt = E[ξΓt,T +

∫ T

tϕsΓt,s ds

∣∣∣Ft],avec

dΓt,s = Γt,s(βs ds+ µs dWs)

Or ξ ≤ 0 et ϕs ≤ 0, ce qui montre que Yt ≤ 0.

Remarque 2.4.3 La comparaison est stricte si de plus Y0 = Y ′0 , alors ξ = ξ′ , g(s, Ys, Zs) =

g′(s, Y ′s , Z′s), et Ys = Y ′s , ∀s ∈ [0, T ] P− p.s. En particulier, quand on a en outre P(ξ < ξ′T ) > 0

ou g(t, Y ′t , Z′t) < g′(t, Y ′t , Z

′t) sur un ensemble de mesure dt ⊗ dP strictement positive, alors

Y0 < Y ′0 .

En effet, si Y0 = Y ′0 ; supposons par l’absurde qu’il existe t ∈ [0, T ] tel que Yt < Y ′t .

Soit Yt = Yt − Y ′t < 0. Alors Y0 − Y ′0 = 0 = E[ξΓ0,T +

∫ T

0ϕsΓt,s ds], et la variable aléatoire

intégrée est négative, d’où ξT = 0 et ϕs = 0 ∀s. Par suite Yt = E[0] = 0 ∀t. Finalement, si

P(ξ < ξ′) > 0 ou g < g′ sur un ensemble de mesure positive, alors par contraposée Y0 < Y ′0 .

Page 40: Mémoire de Magistère en Mathématiques

Chapitre 3

EDSRs Unidimensionnelles

Tout le long de ce chapitre, on va préserver les mêmes notations vues dans le précedent

sauf que la dimention m sera égale à 1 d’où l’appelation unidimensionnelle. Le but de ce

chapitre consiste à l’étude de quelques types particuliers des EDSRs, sous entendu sur des

propriétés convenables de leurs générateurs. Notre étude se décompose en trois sections :

en premier lieu, on traite une EDSR avec un générateur non lipschitzien et vérifie une

propiété de croissance linéaire( c’est un travail de J.P .Lepeltier et de S. Martin en 1997).

En second lieu, dans le même esprit que le générateur perd le critère lipschtizien, mais

cette fois en affaiblissant l’hypothèse de croissance sur le générateur pour la remplacer

par une condition de croissance quadratique en Z( c’est un travail de M. Kobylanski en

2000). Dans la troisième section, on revient sur des EDSRs associées à des générateurs

lipschitiziens sauf qu’on met une contrainte d’inégalité sur la composante Y , ce dernier

type des EDSRs sont dites EDSRs réfléchies. Ces EDSRs sont apparues pour la première

fois en 1997 par un groupe de chercheurs à savoir N. Elkaroui, E. Pardoux et M.C. Quenez.

3.1 Cas d’un générateur à croissance linéaire

Dans cette première section, on considère des EDSRs standards avec un générateur

g : [0, T ] × Ω × R × R1×d −→ R qui est une fonction continue mesurable et une condition

terminale ξ ∈ L21(FT ). Les hypothèses sous lesquelles on va travailler sont notées(H2).

(H2)

− (g(t, 0, 0))t≤T ∈ H21(0, T ),

− Pour t, ω fixés, g(t, ω, ., .) est continue dt⊗ dP p.s.

− Croissance linéaire : Il existe une fonction bk(y, z) := k(|y|+ |z|) telleque

∀ t, ω, y, z |g(t, ω, y, z)| ≤ |g(t, ω, 0, 0)|+ bk(y, z), dt⊗ dP− p.s.

Page 41: Mémoire de Magistère en Mathématiques

3.1 Cas d’un générateur à croissance linéaire 33

Commençons par préciser un résultat d’approximation pour lequelle on peut énoncer le

théorème d’existence et d’unicité dans ce cadre. En résumant, disons qu’on va approcher g

par une suite de fonctions lipschitziennes pour utiliser le théorème (2.2.2).

Lemme 3.1.1 Soit g : Rn −→ R une fonction continue à croissance linéaire : Il existe une

constante k <∞ telle que ∀x ∈ Rn, |g(x)| ≤ k(1 + |x|) = lk(x).

Alors la suite de fonctions

gn(x) = infy∈Qng(y) + n|x− y| = g ~ l0n(x)

définie comme l’inf-convolution de la fonction g par une fonction l0n(x) est finie

pour n ≥ k et satisfait :

i) croissance linéaire : ∀x ∈ Rn, |gn(x)| ≤ k(1 + |x|) = lk(x).

ii) monotonie en n : la suite gn est croissante.

iii) condition de Lipschitz : ∀x, y ∈ Rn |gn(x)− gn(y)| ≤ n|x− y|.

iv) convergence forte : si xn −→n→+∞ x, alors gn(xn) −→n→∞ g(x).

Preuve. Il est clair sous l’hypothèse de croissance linéaire de g que pour tout y ∈ Qn

−k(1 + |x|) ≤ −k(1 + |y| − |x− y|) ≤ g(y) + n|x− y|, k ≤ n,

et donc, prenant la borne inférieure

−k(1 + |x|) ≤ gn(x) ≤ g(x) ≤ k(1 + |x|),

ce qui prouve que gn est bien définie pour n ≥ k , et à croissance linéaire.

La propriété ii) est évidente par définition de la suite gn.

Montrons la propriété iii). Prenons ε > 0 et yε ∈ Qn tel que

gn(x) ≥ g(yε) + n|x− yε| − ε

≥ g(yε) + n|y − yε| − n(|y − yε| − |x− yε|)− ε

≥ g(yε) + n|y − yε| − n|x− y| − ε

≥ gn(yε)− n|x− y| − ε.

D’où, en tendant ε vers 0, on en déduit que gn est n-Lipschitz.

Supposons à présent que xn −→ x et prenons pour tout n ≥ k, yn ∈ Qd tel que

g(xn) ≥ gn(xn) ≥ g(yn) + n|xn − yn| −1

n.

La bornitude de xn entraîne celle de la suite yn, en effet, comme |g(x)| ≤ k(1 + |x|)

k(1 + |xn|) ≥ −k(1 + |yn|) + n|yn| − n|xn| −1

n,

Page 42: Mémoire de Magistère en Mathématiques

3.1 Cas d’un générateur à croissance linéaire 34

c’est-à-dire

(n− k)|yn| ≤ (n+ k)|xn|+ 2k +1

n.

On a alors

lim supn→∞

n|xn − yn| ≤ lim supn→∞

g(xn)− g(yn) +1

n<∞,

alors il existe une sous-suite (np)p≥0 telle que,

limp→+∞

np|xnp − ynp | <∞,

d’où, yn −→ x (n→ +∞).

Comme, g(xn) ≥ gn(xn) ≥ g(yn)− 1

nla continuité de g, ce qui achève la preuve.

Théorème 3.1.2 (J.P. Lepelitier, S. Martin [LS97]) Sous l’hypothèse (H2) l’EDSR asso-

ciée aux paramètres (g, ξ) admet une solution maximale (Y,Z) dans le sens où si (Y ′, Z ′) est

une autre solution de cette équation, alors Y ≥ Y ′ P− p.s.

De plus, dans( Pardoux , Darling[DP97] et Pardoux [Par99]), il était démontré que s’il existe

une constante K telle que

∀(y1, y2, z), (g(s, y1, z)− g(s, y2, z))(y1 − y2) ≤ K(y1 − y2), dt⊗ dP− p.s.

alors la solution est unique.

Remarque 3.1.3 L’hypothèse de la croissance linéaire peut être remplacée par une autre

plus générale ; il existe une constante positive K et une fonction ϕ : R+ → R+ continue

croissante tellesque :

∀t ∈ [0, T ], (y, z) ∈ R× Rd, |g(t, y, z)| ≤ |g(t, 0, 0)|+ ϕ(|y|) +K|z|.

Pour plus de détails voir (Pardoux [Par99]).

Preuve.

On considère pour (t, ω) fixé, une suite gn associée à g par le lemme précédent, alors gn,

bk(x) = k(1 + |x|) et −bk satisfont (H1).

D’où, par le résultat classique de Pardoux et Peng, les EDSRs suivantes :

Y nt = ξ +

∫ T

tgn(s, Y n

s , Zns ) ds−

∫ T

tZns dWs , n ≥ k,

U1t = ξ +

∫ T

t(−bk)(s, U1

s , V1s ) ds−

∫ T

tV 1s dWs,

U2t = ξ +

∫ T

tbk(s, U

2s , V

2s ) ds−

∫ T

tV 2s dWs.

possèdent chacune une unique solution.

D’après les propriétés i) et iii) de la suite (gn)n, pour tout n ≥ k, −bk(x) ≤ gn(x) ≤ gn+1(x) ≤

bk(x). Donc, par le théorème de comparaison (théorème 2.4.2), U2 ≥ Y n+1 ≥ Y n ≥ U1.

Page 43: Mémoire de Magistère en Mathématiques

3.1 Cas d’un générateur à croissance linéaire 35

Etudions la bornitude de Y n et Zn dans L1.

Pour tout n ≥ k, la première propriété de la suite (gn)n, conduit à

∀n ≥ k, ∀(t, y, z) ygn(t, y, z) ≤ k(|y|+ |y|2 + |y||z|),

alors l’estimation à priori, donne

E[

sup0≤t≤T

|Y nt |2 +

∫ T

0|Zns |2 ds

]≤ C1E[|ξ|2 + kT ], avec C1 une constante réelle.

Etudions maintenant la convergence de (Y n, Zn) dans H21(0, T )×H2

d(0, T ).

P − p.s., pour tout t ∈ [0, T ] la suite (Y nt )n est croissante et majorée par U2

t , alors elle est

convergente vers un processus que l’on notera Yt. De plus, on a, P− p.s. pour tout t

supn≥k|Y nt | ≤ max(|Y k

t |, |U1t |, |U2

t |)

et cette dérnière majorantion dans H21(0, T ).

D’où par le théorème de convergence dominée, on obtient la convergence de Y n vers Y dans

H21(0, T ). Ainsi Y n

t t∈[0,T ] est une suite de cauchy.

On applique maintenant la formule d’Itô a |Y nt − Y m

t |2, pour n,m ≥ k, on obtient

|Y nT − Y m

T |2 − |Y nt − Y m

t |2 = −2

∫ T

t(Y ns − Y m

s )(gn(s, Y ns , Z

ns )− gm(s, Y m

s , Zms )) ds

+2

∫ T

t(Y ns − Y m

s )(Zns − Zms ) dWs +

∫ T

t|Zns − Zms |2 ds

en particulier, pour t = 0, on obtient,

E[|Y n0 − Y m

0 |2] + E[ ∫ T

0 |Zns −Zms |2 ds

]= 2E

[ ∫ T0 (Y n

s − Y ms )(gn(s, Y n

s , Zns )− gm(s, Y m

s , Zms )) ds]

puis l’inégalité de Hölder donne,

E[|Y n0 − Y m

0 |2] + E[ ∫ T

0|Zns − Zms |2 ds

]≤ 2

(E[ ∫ T

0|Y ns − Y m

s |2 ds])1/2

×

(E[ ∫ T

0|gn(s, Y n

s , Zns )− g(s, Y m

s , Zms )|2 ds])1/2

,

Or la première propriété de la suite (gn)n et le fait que (Y n, Zn) est bornée impliquent que

supn,m≥k

E[ ∫ T

0|gn(s, Y n

s , Zns )− g(s, Y m

s , Zms )|2 ds]

≤ supn,m≥k

E[2(

∫ T

0|gn(s, Y n

s , Zns )|2 ds+

∫ T

0|g(s, Y m

s , Zms )|2 ds)]

≤ supn,m≥k

2E[ ∫ T

0|g(s, 0, 0)|+ k(|Y n

s |+ ||Zns |)2 ds

+

∫ T

0|g(s, 0, 0)|+ k(|Y m

s |+ ||Zms |)2 ds]

≤ K,donc

E[|Y n0 − Y m

0 |2] + E[ ∫ T

0|Zns − Zms |2 ds

]≤ 2K1/2

(E[ ∫ T

0|Y ns − Y m

s |2 ds])1/2

Page 44: Mémoire de Magistère en Mathématiques

3.1 Cas d’un générateur à croissance linéaire 36

Par conséquent (Zn)n≥k est une suite de Cauchy dans H2d(0, T ).

Montrons que le processus limite est solution de l’EDSR associée à (g, ξ).

Soit (Y,Z) la limite de la suite (Y n, Zn). On a, pour tout temps d’arrêt ν ≤ T

E[|Y nν − Yν |] −→n→+∞ 0

Il reste à étudier la convergence du terme continu ; pour cela notons que

E[|∫ ν

0(gn(s, Y n

s , Zns )− g(s, Ys, Zs)) ds|] ≤ E[

∫ T

0|gn(s, Y n

s , Zns )− g(s, Ys, Zs)|1|Y ns |+|Zns |≤k ds]

+E[

∫ T

0|gn(s, Y n

s , Zns )− g(s, Y, Z)|1|Y ns |+|Zns |>k ds].

La convergence de la première partie du terme majorant ne pose pas de problème, en effet,

comme on a convergence de Y n dans H21(0, T ) et P−p.s., alors supn |Y n| est P−p.s. intégrable.

De plus Zn −→H21Z, supposons donc l’existence d’une sous suite tel que Zn −→ Z P− p.s et

sup |Zn| P− p.s. intégrable.

D’après le quatrième point du lemme 3.1.1, on en déduit que gn(s, Y nt , Z

nt ) converge vers

g(t, Yt, Zt) dt− p.s.

D’autre part, comme

|gn(t, Y nt , Z

nt )| ≤ |g(s, 0, 0)|+ k

(supn|Y nt |+ sup

n|Znt |

)∈ L1

([0, T ], dt

)on en déduit que la convergence de

∫ T

0|gn(s, Y n

s , Zns ) − g(s, Ys, Zs)|1|Y ns |+|Zns |≤k ds a lieu

également dans L1(

[0, T ], dt).

Il reste donc à étudier la seconde partie de l’inégalité.

Commençons par majorer |gn(s, Y ns , Z

ns )− g(s, Ys, Zs)| :

|gn(s, Y ns , Z

ns )− g(s, Ys, Zs)| ≤ |gn(s, Y n

s , Zns )|+ |g(s, Ys, Zs)|

≤ 2k |g(s, 0, 0)|+ k(|Y n

s |+ |Zns |) + k(|Y ns |+ |Zns |)

≤ k(|Ψs|+ |Y ns |+ |Zns |)

où on a posé |Ψs| =2

k2|g(s, 0, 0)|+ |Ys|+ |Zs| ∈ H2

1(0, T ).

Alors,

E[ ∫ T

0|gn(s, Y n

s , Zns )− g(s, Ys, Zs)|1|Y ns |+|Zns |>k ds

]≤ E

[ ∫ T

0k(|Ψs|+ |Y n

s |+ |Zns |)1|Y ns |+|Zns |>k ds]

(??).

Puisque, 1|Y ns |+|Zns |>k ≤1k|Y

ns | + |Zns | et la suite (|Y n

s | + |Zns |)n ∈ H21(0, T ), est bornée

dans H21(0, T ) alors le dernier terme dans l’inégalité (??) est bornée par une constante δ

k

qui converge vers 0 lorsque k →∞.

Passant à la limite lorsque n→ +∞, on a

Yν = Y0 −∫ ν

0g(s, Ys, Zs) ds+

∫ ν

0Zs dWs

Page 45: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 37

Or on sait que, deux processus X et X ′ sont indistinguables si Xν = X ′ν pour tout temps

d’arrêt ν. Par conséquent, Y et(Y0−

∫ t

0g(s, Ys, Zs) ds+

∫ t

0Zs dWs

)t≤T

sont indistinguables ;

Ce qui assure que (Y, Z) est solution de l’EDSR associée aux paramètres (g, ξ).

Pour finir, on considère (Y ′, Z ′) une autre solution de l’EDSR (2.1.1). Par le théorème de

comparaison, si gn lipschitzienne et g ≤ gn, alors on Y ′ ≤ Y n.

Et donc en passant à la limite

Y ′ ≤ Y,

ce qui montre que Y est une solution maximale.

La proposition suivante donne des conditions suffisantes pour pouvoir comparer les solu-

tions.

Proposition 3.1.4 Soit (Y, Z) la solution maximale de l’EDSR associée à (g, ξ) et (Y , Z) so-

lution d’une EDSR associée à (g, ξ) , où (g, ξ) et (g, ξ) vérifient l’hypothèse (H2),. On suppose

également que

ξ ≥ ξ P− p.s et g ≥ g,

alors,

Y ≥ Y P− p.s.

Preuve. On pose gn(x) = − infy∈Qn−g(y) + n|x− y| pour tout n ≥ k. et (Y n1 , Z

n1 ) solution

de l’EDSR (gn, ξ).

Par définition de gn, on voit aisément qu’elle vérifie les propriétés i) , iii) et iv) du lemme

3.1.1 et que

ii′) monotonie en n : pour tout x ∈ Qn, gn(x) est décroissante en n et

gn ≥ g ≥ g.

Donc, toujours à l’aide du théorème de comparaison

Y 1n ≥ Y 1 et Y 1

n ≥ Y p.s pour tout n ≥ k,

par suite (Y n1 , Z

n1 ) converge uniformément vers (Y,Z), et donc Y ≥ Y p.s.

3.2 Cas d’un générateur à croissance quadratique

Dans ce stade, on affaiblit encore l’hypothèse de croissance sur les générateurs pour la

remplacer par une qui est quadratique en z. Présentons les hypothèses, notées (H3), sous

Page 46: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 38

lesquelles notre cadre d’étude s’effectue.

(H3)

(i) g : [0, T ]× Ω× R× Rd −→ R ,P1 ⊗B(R1+d) mesurable,

(ii) Croissance quadratique en z : il existe une constance C > 0 telleque

∀(t, y, z) ∈ [0, T ]× Rd+1, |g(t, y, z)| ≤ C(1 + |z|2) P− p.s.,

(iii) Continuité en (y, z) : pour tout t ∈ [0, T ], la fonction qui a

(y, z) −→ g(t, y, z) est continue, P− p.s.

(iv) Bornitude : ξ ∈ R est bornée.

On considère l’exemple classique et le plus simple qui apparaît quand on veut présenter

ce problème et qui montre qu’on peut raisonnablement espérer trouver une solution sous

cette hypothèse :

a) Cas : g(t, y, z) = |z|2.

On a

Yt = ξ +

∫ T

t|Zs|2 ds−

∫ T

tZs dWs, 0 ≤ t ≤ T.

Cette équation admet une solution (Y,Z). En effet utilisant le changement de variable

y = exp(2Y ) et la formule d’Itô, on voit aisément que y est formellement solution de l’équa-

tion

dyt = zt dWt, yT = exp(2ξ) ∀t ∈ [0, T ].

Donc, si exp(2ξ) est intégrable, on est dans le cadre d’EDSRs linéaires : équations qui sont

explicitement résolubles, yt = E[exp(2ξ)|Ft], 0 ≤ t ≤ T et z est obtenu par représentation

de martingales.

Prenons maintenant le cas où ξ ∈ L∞(Ω).

On a ξ ⊂ L∞(Ω) ⊂ L2(Ω), il y a donc existence de la solution l’EDSR, mais quel changement

de variable doit-on lui associer pour prouver que (Y,Z) est une solution ? En effet, tant que

yt = E[exp(ξ)|Ft] ≥ E[(exp(−‖ξ‖∞)|Ft] ≥ exp(−‖ξ‖∞),

on peut appliquer la formule d’Itô a1

2ln yt et obtenir

1

2ln(yt) =

1

2ln(y0) +

1

2

∫ t

0

ZsysdWs −

1

4

∫ t

0|Zsys|2 ds et

1

2ln(yT ) = ξ, (4?).

Ainsi, pour monter que (Yt, Zt)t≤T = (1

2ln yt,

1

2(Ztyt

))t≤T est solution de l’EDSR il nous suffit

de prouver que,1

2ln yt ∈ H2

d(0, T ),Z

y∈ H2

m×d(0, T ).

Comme le fonction ln est concave on a,

1

2ln(yt) =

1

2lnE[exp(2ξ)|Ft] ≥ E[ξ|Ft] ≥ −E[ξ−|Ft] := Mt.

Page 47: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 39

On considère maintenant le temps d’arrêt

Ta = inft > 0; |Mt| > a,

∫ t

0

∣∣∣∣Zsys∣∣∣∣2 ds > a, |

∫ t

0Zs dWs| > a

∧ T.

Alors ∫ Ta

0

∣∣∣∣Zsys∣∣∣∣2 ds ≤ 2 ln y0 − 4MTa + 2

∫ Ta

0

ZsysdWs.

Par l’inégalité (a+ b+ c)2 ≤ 3(a2 + b2 + c2), on a donc

(∫ Ta

0

∣∣∣∣Zsys∣∣∣∣2 ds

)2

≤ 12(ln y0) + 48(MTa)2 + 12

(∫ Ta

0

ZsysdWs

)2

.

En utilisant le fait que M2t est une sous martingale, on en déduit

E

(∫ Ta

0

∣∣∣∣Zsys∣∣∣∣2 ds

)2

≤ 12(ln y0)2 + 48E(ξ−)2 + 12E

(∫ Ta

0

∣∣∣∣ ZsMs

∣∣∣∣2 ds).

Or, (∫ Ta

0

∣∣∣∣Zsys ds∣∣∣∣2)≤ (lnM0)2

2,

donc

E

(∫ Ta

0

∣∣∣∣Zsys ds∣∣∣∣2)2

≤ c0(ln(M0))2 + E(ξ−)2 + 1) ≤ c1; c1 > 0.

Puis, comme T a T quand a→∞, en utilisant le théorème de convergence monotone, on

obtient que E

(∫ T

0

∣∣∣∣Zsys∣∣∣∣2 ds

)≤ (c1)1/2. D’où

Zsys∈ H2

d.

Pour finir, on en déduit de l’inégalité (4?) que :

(ln yt)2 ≤ 3

(lnM0)2 +1

2

(∫ t

0

ZsysdWs

)+

1

4

(∫ t

0

∣∣∣∣Zsys∣∣∣∣2 ds

)2 ,

et donc,

E[ sup0≤t≤T

(ln yt)2] ≤ 3

(E[ln(M0)]2 + E

[sup

0≤tr≤T

(∫ t

0

ZsysdWs

)2]

+1

4E

[sup

0≤t≤T

(∣∣∣∣Zsys∣∣∣∣2 ds

)])

≤ 3(E[(ln(M0))2] + k1E

(∫ T

0

∣∣∣∣Zsys∣∣∣∣2 ds

)+

1

4TE

(∫ T

0

∣∣∣∣Zsys∣∣∣∣4 ds

),

d’aprés les inégalités de Burkholder Davis Gundy.

Par conséquent,

E[ sup0≤t≤T

(ln(Mt))2] <∞.

Cet exemple montre combien les hypothèses évoquées au début qui, de point de vue exis-

tence des solutions, semblent très naturelles, et sont en fait adaptées à ce type de problème.

Nous allons maintenant être plus rigoureux, et tout en démontrant les résultats fonda-

mentaux de l’étude de ces EDSRs, découvrir ses principaux caractérisations.

b) Existence d’une solution maximale et minimale

Pour obtenir l’existence d’une solution maximale, une méthode standard consiste à trouver

Page 48: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 40

une suite croissante de processus dont la limite est la solution souhaitée, en utilisant un

résultat de comparaison des solutions des EDSRs (théorème 1.2.3). Soit B l’ensemble des

processus P1-mesurables, continus et bornés.

Théorème 3.2.1 (Kobylanski [Kob00], Lepltier et San Martin [LS98])

Supposons que (H3) est vérifiée, alors l’EDSR à coefficient quadratique en Z associée à (g, ξ)

admet une solution maximale. De plus Y est un processus P1-mesurable, continu et borné.

Preuve. Soit (Y, Z) la solution de l’EDSR associée à (g, ξ) i.e,

Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs.

Alors par la formule d’Itô, on obtient

exp(2CYt) = exp(2Cξ) + 2C

∫ T

texp(2CYs)(g(s, ω, Ys, Zs) ds− Zs dWs)

−2C2

∫ T

texp(2CYs)|Zs|2 ds

= exp(2Cξ) + 2C

∫ T

texp(2CYs)(g(s, ω, Ys, Zs)− C|Zs|2) ds

+2C

∫ T

texp(2CYs)Zs dWs.

Si on pose Yt = exp(2CYt), Zt = 2CYtZt, alors le processus Y vérifie :

Yt = exp(2Cξ) + 2C

∫ T

tYs(g(s,

ln Ys2C

,Zs

2CYs)− |Zs|

2

2CY 2s

) ds−∫ T

tZs dWs.

Par conséquent, le couple (Y , Z) satisfait l’EDSR

Yt = η +

∫ T

tG(s, ω, Ys, Zs) ds+

∫ T

tZs dWs

η = e2Cξ et G(s, ω, y, z) = 2Cy(g(t, ω,ln y

2C,z

2Cy)− |z|

2

4Cy2) (3.2.1)

De plus la fonction G satisfait la condition suivante dite de structure :

P− p.s.; −2C2y − |z|2

y≤ G(t, ω, y, z) ≤ 2C2y, ∀(t, y, z) ∈ [0, T ]×]0,+∞[×Rd (3.2.2)

En effet, par ii) de (H3) on a, |g(t, ω, y, z)| ≤ C(1 + |z|2)

alorsG(t, ω, y, z) = 2Cy

(g(t, ω, ln y

2C ,z

2Cy ))− |z|24Cy2

≤ 2Cy

(C(

1 + |e|24C2y2

)− |z|2

4Cy2

)≤ 2C2y.

En outre G(t, ω, y, z) ≥ −2C2y − |z|2

y. Le résultat s’en suit immédiatement.

Considérons le fait que ξ est bornée, soient γ1 et γ2 tel que P − p.s. γ1 ≤ ξ ≤ γ2, et donc on

peut définir deux autres constantes α et β tel que

0 < α ≤ e2C(γ1−CT ), et β ≥ e2C(γ2−CT ).

Page 49: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 41

Fixons maintenant, la fonction bornée définie par :

ρ : R −→ [α, β]

y −→ α1[y>α] + y1[α,β](y) + β1[y>β]

et considérons l’EDSR suivante : Y ∈ B, Z ∈ H2d(0, T ),

Yt = η +∫ Tt G(s, ρ(s), Zs) ds−

∫ Tt Zs dWs. (3.2.3)

Montrons (3.2.1) admet une solution maximale. On remarque tout d’abord que ρ(y) = y

sur [α, β] ; il suffit pour cela de prouver que l’EDSR ci-dessus (3.2.3) possède aussi comme

solution maximale (Yt, Zt), avec α ≤ Yt ≤ β.

Dorénavant la preuve est faite sur 5 étapes.

Étape 1 :

Notons pour tout (t, y, z) ∈ [0, T ]× Rd

- G(t, ω, y, z) := G(t, ω, ρ(y), z)

- kp : Rd −→ Rd une suite de fonction qui vérifie, pour p ≥ 00 ≤ kp ≤ 1

kp(z) = 1 si |z| ≤ p

kp(z) = 0 si |z| ≥ p+ 1

- pour tout p ≥ 0; Gp(t, ω, y, z) = 2C2ρ(y)(1− kp(z)) + kp(z)G(t, ω, y, z).

On voit alors que,

Gp(t, ω, y, z)− Gp+1(t, ω, y, z) =(

2C2ρ(y)− G(t, ω, y, z))

(kp+1(z)− kp(z)) ≥ 0

(d’après (3.2.2) et le fait que (kp)p≥0 est croissante).

D’autre part, la suite Gp est continue, décroissante, bornée et on a limp−→+∞

Gp = G, (voir

[28]). En appliquant le théorème 3.1.2, on obtient donc que l’EDSR associé aux paramètres

(Gp, η) admet une solution maximale (Yt, Zt)t≤T .

Donc, Y p ∈ B, Z ∈ H2d(0, T ),

Y pt = η +

∫ Tt Gp(s, Y p

s , Zps ) ds−

∫ Tt Zps dWs.

Rappelons que G ≥ Gp+1, cela conduit sous théorème de comparaison à la relation

Y p ≥ Y p+1.

Maintenant, en considérant at = e2C2(t−T )+2γ1C et at = e2C2(T−t)+2γ2C et en utilisant la

formule d’Itô entre t et T , on obtient

e2C2(T−T )+2γ2C − e2C2(T−t)+2γ2C = 2C2

∫ T

tas ds,

Page 50: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 42

c’est à dire at = e2γ1C − 2C2∫ Tt as ds = e2γ1C − 2C2

∫ Tt ρ(as) ds, pour a ≤ a, α ≤ a0, β ≥ a

puis, d’une manière parfaitement identique, on a :

Gp(t, y, z) ≥ G(t, y, z) ≥ −2C2ρ(y)− |z|2

ρ(y),

donc, une autre fois par le théorème de comparaison, on a

Y pt ≥ at ≥ a0,

où (a, 0) désigne la solution de l’EDSR associée aux paramètres(− 2C2ρ(y)− |z|

2

ρ(y), e2Cγ1

).

Ainsi, il existe un processus Y := (Yt)t≤T tel que

P− p.s ∀t ≤ T, Yt = limp→∞

Y pt et Zt = lim

p→∞Zpt dansH2

1(0, T ).

En particulier on a, ∀t ≤ T, α ≤ Yt ≤ β.

Étape 2 :

La suite (Zp)p≥0 est uniformément bornée dans H2d(0, T ) .

Pour tout t ≤ T , on a

Y pt = Y p

0 −∫ t

0Gp(s, Ys, Zs) ds+

∫ t

0Zps dWs.

On applique la formule d’Itô à la fonction ψ(x) = exp(−3Cx), on obtient alors

ψ(Y pt )− ψ(Y p

0 ) =

∫ t

0ψ′(Y p

s )(G(s, Y ps , Z

ps ) + Zps dWs) +

1

2

∫ t

0ψ′′(Y p

s )|Zs|2 ds.

Puis, pour t = T on a :

ψ(η)− ψ(Y p0 )−

∫ T

0ψ(Zps ) dWs =

1

2

∫ T

0ψ′′(Y p

s )|Zps |2 ds−∫ T

0ψ′(Y p

s )Gp(s, Y ps , Z

ps ) ds.

Or ψ′ < 0 et Gp ≥ G, donc

ψ(η)− ψ(Y p0 )−

∫ T

0Zps dWs ≥

1

2

∫ T

0ψ′′(Y p

s )|Zps |2 ds−∫ T

0ψ′(Y p

s )G(s, Y ps , Z

ps ) ds,

et comme, il existe une constante C > 0 telle que pour tout p ≥ 0

P− p.s., −2C2Y pt − C|Z

pt |2 ≤ G(t, Y p

t , Zpt ) ≤ 2C2Y p

t , ∀t ∈ [0, T ]

d’après l’expression (3.2.2), on obtient également,

ψ(η)− ψ(Y p0 ) ≥

∫ T

0Zps dWs + frac12

∫ T

0ψ′′(Y p

s )|Zps |2 ds

+2C2

∫ T

0|ψ(Y p

s )Y ps | ds+ C

∫ T

0ψ′(Y p

s )|Z2s |2 ds

≥∫ T

01

2ψ′′(Y p

s ) + Cψ′(Y ps )|Zps |2 ds+ 2C2

∫ T

0|ψ(Y p

s )Y ps | ds.

Page 51: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 43

Notons que,1

2ψ′′(Y p

s ) + Cψ′(Y ps ) = (

9

2c2 − 3c2)ψ(x) =

3

2C2ψ(x)

ce qui conduit aux majorations suivantes :∫ T

0

3

2C2ψ(x)ψ(Y p

s )|Zps |2 ds+ ψ(Y p0 ) ≤ ψ(η) + 2C2

∫ T

0|ψ(Y p

s )Y ps | ds−

∫ T

0ψ′′(Y p

s )Zps dWs.

En prenant l’espérance dans cette inégalité, nous avons

E[ψ(Y p0 )] + E

[3

2C2

∫ T

0ψ(Y p

s )|Zps |2 ds]≤ E[ψ(η)] + E

[ ∫ T

0|Y ps ψ′(Y p

s )| ds],

c’est à dire

E[ψ(Y p0 )] + E

[ ∫ T

0

3

2C2e−3Y ps |Zps |2 ds

]≤ E[ψ(η)] + E

[ ∫ T

0|Y ps ψ′(Y p

s )| ds],

puis, par le fait que Y p est uniformément borné, nous obtenons

3

2C2e−3Cβ sup

p≥0E[

∫ T

0|Zps |2 ds] ≤ E[ψ(η)] + 6C2βTe−3Cα.

On en déduit donc que

supp≥0

E[

∫ T

0|Zps |2 ds] <∞.

Étape 3 :

Il existe une sous suite (Zp)p≥0 et un processus Z ∈ Hd2(0, T ), tel que (Zp)p≥0 converge vers

Z dans Hd2(0, T ).

Puisque (Zp)p≥0 est une suite bornée dans H2d(0, T ), par un argument classique, il existe

une sous suite, que l’on note (Zp)p≥0, qui converge au sens faible dans H2d(0, T ) vers un

processus Z := (Zt)t≤T appartenant à H2d(0, T ).

Ensuite, considérons deux constantes réelles λ′ = max(c, 4c2β), λ = 3λ′ > 116 , une fonction

ψ(x) = e4λx− x4 − 1 et deux entiers p, q positif tel que p ≤ q. L’application de la formule d’Itô

à ψ(Y p − Y q) entre t et T conduit donc à

ψ(Y p0 − Y

q0 ) =

∫ T

0ψ′(Y p

s − Y qs )(Gp(s, Y p

s , Zps )− Gq(s, Y q

s , Zqs )) ds

−12

∫ T

0ψ′′(Y p

s − Y qs )|Zps − Zqs |2 ds+

∫ T

0(Zps − Zqs )ψ′(Y p

s − Y qs ) dWs.

Or les suites (Y ps ) et (Y q

s ) sont bornées, donc par passage a l’espérance, on a

E[ψ(Y p0 − Y

q0 )] + 1

2E[ ∫ T

0ψ′′(Y p

s − Y qs )|Zps − Zqs |2 ds

]= E

[ ∫ T

0ψ′(Y p

s − Y qs )(Gp(s, Y p

s , Zps )− Gq(s, Y q

s , Zqs )) ds

].

Page 52: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 44

Puis, comme

Gp(s, Y ps , Z

ps )− Gq(s, Y q

s , Zqs ) = 2C2ρ(Y p

s )(1− kp(Zps )) + kp(Zps )

+kp(Zps )G(s, Y p

s , Zps )− Gq(s, Y q

s , Zqs )

≤ 2c2ρ(Y ps )(1− kp(Zps )) + kp(Z

ps )2c2ρ(Y p

s )− G(s, Y qs , Z

qs )

≤ 2c2ρ(Y ps ) + 2c2ρ(Y p

s ) + c|Zqs |2

≤ 4c2β + c|Zqs |2

≤ λ′(1 + |Zqs |2)

≤ λ(1 + |Zqs − Zps |2 + |Zps − Zs|2 + |Zs|2).

D’autre part, ψ′(Y ps − Y q

s ) ≥ 0 si bien que λ ≥ 116 , on en déduit que

E[ψ(Y p0 − Y

q0 )] + E

[ ∫ T

0(1

2ψ′′ − λψ′)(Y p

s − Y qs )|Zps − Zqs |2 ds

]≤ E

[ ∫ T

0ψ′(Y p

s − Y qs )λ(1 + |Zps − Zs|+ |Zs|2) ds

](3.2.4)

Ensuite, on a1

2ψ′′(x)−λψ′(x) = 4λ2e4λ+

λ

4, d’où le processus borné (

1

2ψ′′−λψ′)1/2(Y p−Y q)

converge au sens fort dans H12(0, T ) quand q →∞ vers le processus (

1

2ψ′′−λψ′)1/2(Y p−Y ).

Ainsi

(1

2ψ′′ − λψ′)1/2(Y p − Y q)

(Zp − Zq) converge au sens faible quand q →∞.

En utilisant donc (3.2.2), on obtient que,

E[ ∫ T

0(1

2ψ′′ − λψ′)(Y p

s − Ys)|Zps − Zqs |2 ds]≤ lim

q→∞inf E

[ ∫ T

0ψ′(Y p

s − Y qs )|Zps − Zqs |2 ds

]≤ E

[ ∫ T

0ψ′(Y p

s − Ys)λ(1 + |Zps − Zs|2

+|Zs|2) ds]− E[ψ(Y p

0 − Y0)].

Mais 12ψ′′ − λψ′ = λ

2 , il vient alors que

E[ ∫ T

0

λ

2(Y ps − Ys)|Zps − Zs|2 ds

]≤ λE

[ ∫ T

0ψ′(Y p

s − Ys)(1 + |Zs|2) ds]− E[ψ(Y p

0 − Y0].

Par le théorème de la convergence dominée, le membre de droite converge vers 0 a l’infini

d’où

limp→∞

E[ ∫ T

0|Zps − Zs|2 ds

]= 0,

ce que l’on voulait établir.

Étape 4 :

Le couple de processus (Y, Z) est solution de l’EDSR associée à (g, ξ).

L’étape précédente prouve qu’il existe une sous suite de (Zp)p≥0 telle que

dt⊗ dP− p.s Zp −→p→∞ Z et Zt = supp≥0|Zpt | ∈ H2

d(0, T ).

Page 53: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 45

D’autre part, en considèrant un temps d’arrêt ν borné par T on obtient,

Y pν = Y p

0 −∫ ν

0Gp(s, Y p

s , Zps ) ds−

∫ ν

0Zps dWs,

de plus, comme (Zp)p converge vers Z dans H2d(0, T ), on a la convergence dans L2(P) de(∫ ν

0Zps dWs

)p≥0

vers(∫ ν

0Zs dWs

).

En outre,∫ ν

0(Gp(s, Y p

s , Zps )− G(s, Ys, Zs)) ds =

∫ ν

0(Gp(s, Y p

s , Zps )− G(s, Y p

s , Zps )) ds

+

∫ ν

0(G(s, Y p

s , Zps )− G(s, Ys, Zs)) ds.

Par le théorème de la convergence dominée, on a

limp→∞

∫ ν

0G(s, Y p

s , Zps ) ds =

∫ ν

0G(s, Ys, Zs) ds,

En vertu du théorème de Dini, Gp(t, y, z) converge uniformément vers G(t, y, z) dans des

sous ensembles compacts de Rd+1.

Donc Gp(s, Y ps , Z

ps ) −→→∞ ˜G(s, Ys, Zs) dt× dP− p.s. Enfin, le fait que

|Gp(s, Ys, Zs)| ≤ c(1 + |Zps |2) ≤ c(1 + |Zs|2) ∈ H2d(0, T )

prouve que

E[ ∫ ν

0|Gp(s, Y p

s , Zps )− Gp(s, Ys, Zs)|

]−→p→∞ 0.

Ainsi, en prenant la limite dans l’EDSR ci-dessus on obtient

Yν = Y0 −∫ ν

0G(s, Ys, Zs) ds+

∫ ν

0Zs dWs.

Et par conséquent, on a

P− p.s Yt = η +

∫ T

tG(s, Ys, Zs) ds−

∫ T

tZs dWs. (3.2.5)

Pour finir on en déduit, par le théorème de comparaison et de l’inégalité G(t, ω, y, z) ≤ 2C2y

que Yt ≤ β.Toutefois Yt ≥ α pour tout t ; par définition de ρ, on obtient donc ρ(Yt) = Yt.

Par suite

G(t, ω, y, z) = G(t, ω, y, z).

La conclusion en découle immédiatement. Il ne reste plus qu’à démontrer la maximalité de

la solution.

Étape 5 :

Nous allons obtenir la maximalité de la solution de notre EDSR. Pour se faire on va décrire

d’une manière générale comment on obtient que cette solution est maximale.

Soit (Yt, Zt) solution maximal de l’EDSR (G, η), alors

Yt = η +

∫ T

tG(s, Ys, Zs) ds−

∫ T

tZs dWs, t ≤ T.

Page 54: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 46

En opérant le changement de variable

Yt =ln(Yt)

2C, Zt =

Zt2CYt

et en appliquant la formule d’Itô aln(Y )

2C, on obtient alors

Yt =ln(Yt)

2C+

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs,

ce qui prouve que (Yt, Zt) est une solution de l’EDSR associée à (g, ξ).

On considère maintenant une autre solution (Yt, Zt) de l’EDSR (g, ξ). L’application de la

formule d’Itô (exp(2CYt)) conduit donc à

exp(2CYt) = η +

∫ T

tG(s, Ys, Zs) ds−

∫ T

t2C exp(2CYs)Zs dWs,

c’est à dire (exp(2CYt), 2C exp(2CYt)Zt) est solution de l’EDSR associée à (G, η),

et comme Yt est solution maximale, alors

exp(2CYt) ≤ Yt.

D’où, P− .p.s Yt ≤ Yt, et ce que l’on affirme est vérifié.

Pour être tout à fait complet, signalons que le changement de variable effectué est légitime

et que les processus Yt et Zt sont bien définis, si Y ≥ exp(2Cα).

La preuve de l’existence d’une solution minimale se calque sur celle de la maximale. La

nouveauté est qu’il faut, dans ce cas utiliser le changement de variable Y = exp(2CY ).

Avec la même technique que la preuve prédente on peut démontrer de nouveau un résultat

d’existence sous l’hypothèse : g à croissance, linéaire en y et quadratique en z.

ii′) Il existe une constante C > 0, tel que,

∀t, y, z |g(t, ω, y, z)| ≤ C(1 + |y|+ |z|2).

Théorème 3.2.2 Sous les conditions i), ii′), et iii), l’EDSR (g, ξ) admet une solution maxi-

male bornée.

Preuve. Une première idée dans cette preuve est de prendre en compte en même temps le

théorème précédent et le théorème de comparaison.

Considérons deux fonctions déterministes u1 et u2 tel que

u1(t) = γ1 − C∫ T

t(1 + |u1(s)|) ds et u2(t) = γ2 − C

∫ T

t(1 + |u2(s)|) ds.

Soient α et β par

α ≤ u1(0) et β ≥ u2(0)

Page 55: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 47

et une fonction ρ définie par ρ(y) = α1[y<α] + y1[α,β] + β1[y>β].

Notons tout d’abord que

u1(t) = γ1 − C∫ T

t(1 + |ρ(u1(s))|) ds et u2(t) = γ2 − C

∫ T

t(1 + |ρ(u2(s)|)) ds.

On peut ainsi appliquer le théorème précédent et en déduire que l’EDSR (G(t, ρ(y), z, ξ)

admet une solution maximale bornée (Y, Z).

Par ailleurs, u1(t) ≤ Yt ≤ u2(t), grâce au théorème de comparaison.

On a donc l’égalité ρ(Yt) = Yt et l’hypothèse que nous avons faite nous dit qu’il s’agit d’une

égalité entre G et G.

En particulier on obtient que (Y, Z) est solution maximale bornée de (G(t, y, z), ξ)).

Ce qui achève la démonstration de ce théorème.

Remarque 3.2.3. Il convient de souligner que, si l’on dispose de deux fonctions g1 et g2 qui

satisfont (H3), telles que g1(t, ω, y, z) ≤ g2(t, ω, y, z) et on note (Y 1t , Z

1t ) et (Y 2

t , Z2t ) leurs solu-

tions maximales respectives, alors P− p.s Y 1 ≤ Y 2.

En effet : g1 et g2 vérifient l’hypothèse (H3) avec C = max(C1, C2)

Considérons deux fonctions G1 et G2 associées respectivement à g1 et g2 par (3.2.2), on en

déduit alors que G1 ≤ G2.

Supposons maintenant que (Y 1, Z1) (resp (Y 2, Z2)) est solution maximale de (G1, η)(resp

(G2, η)), alors on obtient P− p.s Y 1 ≤ Y 2, puis par définition, on a Y 1 ≤ Y 2.

A l’issue de cette remarque, la question que l’on peut poser est de savoir comment les ré-

sultats de comparaison sont pris en compte ?

Dans ce cadre-là, on ne sera réellement complet que lorsqu’on aura un résultat d’unicité,

pour cette finalité on présente un résultat de Kobylanski qui prouve un théorème de com-

paraison pour lequel il faut imposer des conditions supplémentaires.

c)Comparaison et unicité de la solution

Nous allons présenter un principe de comparaison entre les sur et sous solutions.

Définition 3.2.4. Supposons que m = 1. On appelle sursolution (resp sous-solution ) de

l’EDSR associée aux paramètres (g, ξ), le processus (Yt, Zt, Ct)0≤t≤T vérifiant

Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs +

∫ T

tdCs

(resp. Yt = ξ +

∫ T

tg(s, Ys, Zs) ds−

∫ T

tZs dWs −

∫ T

tdCs

),

. (Ct, t ∈ [0, T ]) est un processus croissant, adapté continu à droite tel que C0 = 0).

. Yt est un processus borné à valeur dans R.

Page 56: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 48

. (Zt)t≤T est un processus tel que E( ∫ T

0 |Zt|2 dt)<∞ P− p.s.

Théorème 3.2.5. Etant donné (g1, ξ1) et (g2, ξ2) des paramètres des EDSRs tels que

1) ξ1 ≤ ξ2 p.s et g1 ≤ g2.

2) g1 et g2 vérifient : pour tout réel M > 0, il existe une constante C > 0 telle que

∀(t, y, z) ∈ [0, T ]× [−M,M ]× Rd

i) |g(t, y, z)| ≤ C(1 + |z|2) p.s

ii)∣∣∣∣∂g∂z (t, y, z)

∣∣∣∣ ≤ C(1 + |z|) p.s

iii) ∀ε > 0,∃Cε telle que∂g

∂y(t, y, z) ≤ Cε + ε|z|2 p.s.

si (Y 1t , Z

1t , C

1t ) et (Y 2

t , Z2t , C

2t ) sont deux solutions des EDSRs associées respectivement aux

paramètres (g1, ξ1) et (g2, ξ2), alors Y 1t ≤ Y 2

t pour tout t ∈ [0, T ], P.p.s.

Preuve. On procède en deux étapes.

Étape 1 :

Soit (Yt, Zt)t≤T solution de l’EDSR associée à (G, ξ), où ξ est supposée bornée.

Commençons par supposer que l’on a M ∈ R tel que ‖Y ‖∞ ≤M et effectuer le changement

de variable y = ψ−1(y) où ψ est une fonction croissante régulière.

Considérons alors u(y) = ψ′(y), Yt = ψ−1(Yt), Zt =Ztu(Yt)

.

Alors par application de la formule d’Itô au processus ψ−1(Ys), on obtient

ψ−1(YT )− ψ−1(Yt) =

∫ T

t(ψ−1)′(Ys) dYs +

1

2

∫ T

t(ψ−1)′′(Ys) d < Y >s,

ψ−1(Yt) = ψ−1(ξ) +

∫ T

t

1

ψ′(Ys)

(G(t, ψ(Ys)Zs)− Zs dWs

)+

1

2

∫ T

t

ψ′′(Ys)

(ψ′(Ys))2Z2s ds,

d’où

Yt = ψ−1(ξ)

∫ T

t

1

ψ′(Ys)

(G(t, ψ(Ys)Zs) +

1

2ψ′′(Ys)Z

2s

)ds−

∫ T

tZs dWs,

ainsi, le couple de processus (Yt, Zt) est solution de l’EDSR associée à (g, ψ−1(ξ)) avec

g(t, y, z) =1

ψ′(y)

(G(t, ψ(y), ψ′(y)z) +

1

2ψ′′(y)z2

).

Par un calcul nous avons,

∂g

∂y(t, y, z) =

∂y

(1

ψ′y

(G(t, ψ(y), ψ′(y)z) +

1

2ψ′′(y)z2

))=

∂g

∂y

(1

ψ′(y)

)(G(t, ψ(y), ψ′(y)z) +

1

2ψ′′(y)z2

)+

1

ψ′(y)

(∂g

∂yG(t, ψ(y), ψ′(y)) +

1

2

∂y(ψ′′(y)z2)

)= −u

uG(t, u, z) +

∂G

∂y(t, y, z) +

u′

u

∂G

∂z(t, y, z)z +

1

2

u′′

u|z|2

=1

u

(1

2u′′|z|2 + u′(

∂G

∂zz −G) + u

∂G

∂u

),

Page 57: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 49

et∂g

∂z(t, y, z) =

∂z

(1

ψ′y

(G(t, ψ(y), ψ′(y)z) +

1

2ψ′′(y)z2

))=

1

u

(u∂

∂zG(t, y, z)

)+ z

u′

u

=∂

∂zG(t, y, z) + z

u′

u.

Donc,(∂g

∂y+ b

∣∣∣∣∂g∂z∣∣∣∣2)

(t, y, z) =1

u

(1

2u′′|z|2 + u′(

∂g

∂z−G)

)+∂G

∂y+ b

∣∣∣∣∂G∂z (t, y, z) + zu′

u

∣∣∣∣2≤ 1

u

(1

2u′′|z|2 + u′C|z|+ C + 2C|z|2

)+ Cε + ε|z|2

+b(C + (C +u′

u)|z|)2

≤ |z|2

1

2

u′′

u+u′

u2C + ε+ a(C +

u′

u)2

+|z|

u′

uC + 2bC(C +

u′

u)

+u′

uC + Cε + bC2.

Puis, comme 2ab ≤ 1λa

2 + λb2 pour tout λ > 0.

|z|(u′

uC + 2bC(C +

u′

u)

)=

(u′

u|z|)C + b.2

(|z|(C +

u′

u)

)C

≤ 1

2|z|2

(u′

u

)2

+1

2C2 + b|z|2

(C +

u′

u

)2

+ aC2.

On en déduit que,

∂g

∂y+ b

∣∣∣∣∂g∂z∣∣∣∣2 (t, y, z) ≤ |z|2

(1

2

u′′

u+u′

u2C + ε+ a(C +

u′

u)2

)+

(|z|2 1

2

(u′

u

)2

+1

2C2 + |z|2b(C +

u′

u)2

)

+aC2 +u′

uC + Cε + aC2

≤ |z|2(

1

2

u′′

u+u′

u2C +

1

2

(u′

u

)2

+ ε+ 2b(C +u′

u)2

)

+u′

uC + Cε + (

1

2+ 2a)C2

≤ |z|2(

1

2

u′′

u+u′

u2C +

1

2

(u′

u

)2

+ ε+ 2b(C +u′

u)2

)

+u′

uC + Cε + (1 + 2b)C2.

Supposons alors que1

2

u′′

u+u′

u2C + (

u′

u)2 < 0. Pour b et ε assez petit, on peut affirmer que

|z|2(

1

2

u′′

u+u′

u2C +

1

2

(u′

u

)2

+ ε+ 2a(C +u′

u)2

)< 0,

Page 58: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 50

ensuite il est facile de voir que

∂g

∂y+ b

∣∣∣∣∂g∂z∣∣∣∣ (t, y, z) ≤ u′

uC + Cε + (1 + 2b)C2,

et par conséquent,∂g

∂y+ b

∣∣∣∣∂g∂z∣∣∣∣ (t, y, z) ≤ a (3.2.6)

où a =u′

uC + Cε + (1 + 2b)C2.

On obtient ainsi une meilleure hypothèse sur le comportement de la différentielle de coef-

ficient.

L’étape suivante consiste à comparer les solutions : mais dans ce cas on est amené à consi-

dérer simplement la condition de structure correspondante et utiliser le lemme de Gronwall

pour conclure.

Étape 2 :

On applique la formule de Tanaka à la semimartingale continue Y + = max(Y , 0) pour

obtenir

Y +t = Y +

T −∫ T

t1Y +≥0 dY

+s −

1

2(L0

T − L0t )

où Y = Y 1t − Y 2

t et Z = Z1t − Z2

t et L désigne le temps local associé à Y -c’est un processus

croissant continu qui croit seulement sur l’ensemble t ∈ [0, T ]; Y 1t = Y 2

t

alors

Y +t = Y +

T −∫ T

t1Y +≥0(g

1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s )) ds

−∫ T

t1Y +≥0Zs dWs +

∫ T

tdC1

s −∫ T

tdC2

s −1

2(L0

T − L0t ).

Ce qui est équivalent à

−dY +t = 1Y +≥0(g

1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s )) ds− 1Y +≥0Zs dWs + dL+

t + (dC1t − dC2

t ).

On applique maintenant la formule d’Itô a (Y +s )p entre t et T , p ≥ 2

(Y +t )p = (Y +

T )p + p

∫ T

t(Y +s )p−1(g1(s, Y 1

s , Z1s )− g2(s, Y 2

s , Z2s )) ds− p

∫ T

t(Y +s )p−1Zs dWs

+p

∫ T

t(Y +s )p−1 dLs + p

∫ T

t(Y +s )p−1 dCs −

p(p− 1)

2

∫ T

t1Y +≥0(Y

+s )p−2Z2

s ds.

On a p∫ T

t(Y +s )p−1 dLs = 0 et p

∫ T

t(Y +s )p−1 dCs ≤ 0.

Page 59: Mémoire de Magistère en Mathématiques

3.2 Cas d’un générateur à croissance quadratique 51

D’autre part,

(g1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s )) = (g1(s, Y 1

s , Z1s )− g2(s, Y 1

s , Z1s ))

+(g2(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s ))

≤ (g2(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s ))

= (g2(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z1s ))

+(g2(s, Y 2s , Z

1s )− g2(s, Y 2

s , Z2s ))

=

[∫ 1

0

∂g2

∂y(s, kY 1

s + (1− k)Y 2s ,

kZ1s + (1− k)Z2

s ) dk (Y 1s − Y 2

s )

]

+

[∫ 1

0

∂g2

∂z(s, kY 1

s + (1− k)Y 2s ,

kZ1s + (1− k)Z2

s ) (Z1s − Z2

s )dk

].

Alors,

(g1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s ))(Y +

s )p−1 ≤(∫ 1

0

∂g2

∂y(s, kY 1

s + (1− k)(Y 2s ,

kZ1s + (1− k)Z2

s ) dk)

(Y +s )p

+(∫ 1

0

∂g2

∂z(s, kY 1

s + (1− k)(Y 2s ,

kZ1s + (1− k)Z2

s ) dk)

(Y +s )p−1Zs1Y +≥0

≤(∫ 1

0

∂g2

∂y(s, kY 1

s + (1− k)(Y 2s ,

kZ1s + (1− k)Z2

s ) dk)

(Y +s )p

+(∫ 1

0

√2b∂g2

∂z(s, kY 1

s + (1− k)(Y 2s ,

kZ1s + (1− k)Z2

s )(Y +)p/2 dk) 1√

2b(Y +)

p−22 Zs1Y +≥0.

Grâce a un argument habituel, ab ≤ a2/2 + b2/2, on montre donc que :

(g1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s ))(Y +

s )p−1 ≤

[∫ 1

0

∂g2

∂y+ b

∣∣∣∣∂g2

∂z

∣∣∣∣2 (s, kY 1s + (1− k)Y 2

s ,

kZ1s + (1− k)Z2

s

)dk(Y +

s )p

]+

1

4b(Y +s )p−2|Zs|21Y +≥0.

Prenant en considération l’inégalité (3.2.6) et pour M = max(‖Y 1‖∞, ‖Y 2‖∞) on obtient

finalement,

(g1(s, Y 1s , Z

1s )− g2(s, Y 2

s , Z2s ))(Y +

s )p−1 ≤ a(s)(Y +)p−2|Zs|21Y +≥0.

Page 60: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 52

Revenons à la formule d’Itô,

(Y +t )p +

p

2

((p− 1)− 1

2a

)∫ T

t1Y +≥0(Y

+t )p−2|Zs|2 ds ≤

∫ T

ta(s)(Y +

s )p ds

−p∫ T

t(Y +s )p−1Zs dWs.

En particulier, en appliquant l’espérance-ce qui fait partir l’intégrale stochastique puisque

(Y +s )p−1Zs de carré intégrable, on obtient aisément

E[(Y +t )p] +

p

2

((p− 1)− 1

2a

)E[ ∫ T

t1Y +

s ≥0|Zs|2 ds

]≤ p

∫ T

tE[(Y +

S )p] ds.

Choisissons p assez grand de sorte que la quantité ((p− 1)− 1

2a) soit positive. Le lemme de

Gronwall implique alors que,

∀t ∈ [0, T ], E[(Y +t )p] ≤ 0.

Ce qui prouve que ∀t ∈ [0, T ], Y 1t ≤ Y 2

t p.s. D’où le résultat voulu.

3.3 EDSRs réfléchies sur une barrière continue

Contrairement aux sections précédentes où on a joué sur le comportement du généra-

teur g, ici on va garder le critère lipschtizien de celui ci, tout en tournant nos yeux sur

les composantes de l’EDSR. On va mettre la composante Y sous une contrainte d’inégalité

avec un autre processus S bien régulier, souvent on appelle ce processus barrière (ou par-

fois obstacle).

Venons à présenter la structure d’une EDSR réfléchie et bien évidemment sa solution. Pour

cela, on dispose d’une condition terminale ξ ∈ L21(P), d’un générateur g : Ω × [0, T ] × R ×

Rd −→ R supposée P1 ⊗B(R)⊗B(Rd) mesurable qui vérifie :

(i) ∀(y, z) ∈ R× Rd, g(., y, z) ∈ H21(0, T ),

(ii) Il existe une constante C > 0 et pour tout y, y′ ∈ R, z, z′ ∈ Rd, telleque

|g(t, ω, y, z)− g(t, ω, y′, z′)| ≤ C(|y − y′|+ ‖z − z′‖), dP⊗ dt− p.s.

et d’un un processus S := (St)(0≤t≤T ) réel continu P1-mesurable satisfaisantE[

sup0≤t≤T

((St)+)2]< +∞,

ST ≤ ξ, P− p.s.

Maintenant, nous allons définir ce qu’on appelle une solution d’une EDSR réfléchie ; c’est

un triplet de processus P1-mesurables (Y, Z,K) := (Yt, Zt,Kt)0≤t≤T à valeurs dans R1+d+1

Page 61: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 53

telsque

(H4)

Y ∈ S21(0, T ), Z ∈ H2

d(0, T ) et K ∈ S21(0, T )

Kest un processus continu croissant, (K0 = 0)

Yt = ξ +

∫ T

tg(s,Ys,Zs) ds+KT −Kt −

∫ T

tZs dWs, 0 ≤ t ≤ T. (3.3.1)

∀t ≤ T, Yt ≥ St et∫ T

0(Yt − St) dKt = 0.

Remarque 3.3.1 (Rôle de K)

Pour que Y reste au dessus de la barrière S, un troisième processus continu croissant inter-

vient, ce dernier agit d’une manière minimale, c’est à dire, il intervient seulement lorsque

la contrainte est saturée. Autremant dit, le processus K ne croit que lorsque Y touche la

barrière S, ceci se traduit par l’écriture∫ T

0(Yt−St) dKt = 0. À ce moment, on est en mesure

de prouver que l’EDSR associée aux paramètres(g, ξ, S) satisfaisant l’hypothèse (H4) a une

seule solution.

Proposition 3.3.2 (Unicité) L’EDSR réfléchie associée aux paramatères(g, ξ, S) vérifiant(H4)

a une unique solution.

Preuve. Étant donnés deux triplets de processus (Y,Z,K) et (Y ′, Z ′,K ′) qui sont solutions

d’une EDSR satisfaisant l’hypothèse (H4). Alors, on a

Lemme 3.3.3

∀t ≤ T,

1[Yt>Y ′t ] − 1[Y ′t>Yt]

(dKt − dK ′t) ≤ 0.

Preuve. (du lemme) On a

1[Yt>Y ′t ] − 1[Y ′t>Yt]

(dKt − dK ′t

)= 1[Yt>Y ′t ]dKt − 1[Yt>Y ′t ]dK

′t

− 1[Y ′t>Yt]dKt + 1[Y ′t>Yt]

dK ′t.

Or puisque, ∀0 ≤ t ≤ T on a Y ′t ≥ St, alors t, [Y ′t ≥ St] est contenu dans t, [Yt >

Yt] d’ou en tenant compte de la quantité∫ T

0 (Yt − St) dKt = 0 ; on a∫ T

0 (Yt − St) dKt =∫ T0 1[Yt>Y ′t ](Yt − St) dKt = 0. or la fonction t 7→ 1[Yt>Y ′t ](Yt − St) dKt est continue positive

(puisque le processus K l’est) d’integrale nulle sur un compact [0, T ], alors elle est nulle

partout sur cet interval. L’application t 7→ (Yt − St) est differente de 0 car on est dans l’en-

semble t, [Yt > Y ′t ≥ St]. Ainsi, t 7→ 1[Yt>Y ′t ]dKt = 0. Dans le meme esprit, on démontre

que t 7→ 1[Y ′t>Yt]dK ′t = 0. Par conséquent, la quantité

1[Yt>Y ′t ] − 1[Y ′t>Yt]

(dKt − dK ′t) = −

(1[Yt>Y ′t ]dK

′t + 1[Y ′t>Yt]

dKt

).

D’autre part, en vertu de la croissance des deux processus K et K ′ (K0 = K ′0 = 0) la fonc-

tion t 7→ 1[Yt>Y ′t ]dK′t + 1[Y ′t>Yt]

dKt est positive. Ce qui achève la preuve du lemme.

Page 62: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 54

Appliquons maintenant la formule de Tanaka pour le processus Y − Y ′, il en découle que

|Yt − Y ′t | =∫ T

tsgn(Ys − Y ′s )(g(s, Ys, Zs)− g((s, Y ′s , Z

′s)))ds+

∫ T

tsgn(Ys − Y ′s )(dKs − dK ′s)

−∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dWs.

Or on a ∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dWs =

∫ T

t1[Ys>Y ′s ] − 1[Y ′s>Ys]

(dKs − dK ′s).

En tenant compte du résultat du lemme, il vient que

|Yt − Y ′t | ≤∫ T

tsgn(Ys − Y ′s )(g(s, Ys, Zs)− g((s, Y ′s , Z

′s)))ds−

∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dWs.

D’autre part, puisque le générateurg est lipschitzien en espace (y, z) uniformément en

temps, il existe deux processus bornés (at)0≤t≤t et (bt)0≤t≤t pour lequels la différence sui-

vante

g(t, Yt, Zt)− g(t, Y ′t , Z′t) = at(Yt − Y ′t ) + bt(Zt − Z ′t)

Par ailleurs,

|Yt − Y ′t | ≤∫ T

tsgn(Ys − Y ′s )(at(Ys − Y ′s ) + bs(Zs − Z ′s))ds −

∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dWs.

≤∫ T

tat|Ys − Y ′s | + bssgn(Ys − Y ′s )(Zs − Z ′s)ds −

∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dWs.

≤ C∫ T

t‖Ys − Y ′s |ds−

∫ T

tsgn(Ys − Y ′s )(Zs − Z ′s)dW ∗s .

où W ∗ est un mouvement brownien sous une probabilité P∗.

commentaire. Dans le changement de probabilité qui est assuré par le thèoréme de Gir-

sanov, nous transformons le coefficient de dérivée afin que la tendance soit nulle et nous

intégrons par rapport à une (Ft,W∗)-martingale. Il en résulte que le processus∫ T

t bssgn(Ys − Y ′s )(Zs − Z ′s)ds −∫ Tt sgn(Ys − Y ′s )(Zs − Z ′s)dWs. soit une (Ft,W

∗)-martingale.

Maintenant, appliquons l’esperance pour les deux membres de l’inégalité, il vient que

E∗[|Yt − Y ′t |

]≤ C

∫ T

tE∗[|Ys − Y ′s |

]ds, 0 ≤ t ≤ T.

Enfin, par le lemme de Gronwall on aboutit à

E∗[|Yt − Y ′t |

]= 0

pour tout 0 ≤ t ≤ T. Par conséquent, Y = Y ′, Z = Z ′ et K = K ′ ; ce qui achève la preuve.

Le théorème suivant a pour but de démontrer l’existence de l’EDSR (3.3.1) par deux ap-

proches. L’une est basée sur une approximation par pénalisation et l’autre est fondée sur

la théorie des enveloppes de Snell pour les processus.

Page 63: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 55

Théorème 3.3.4 (Existence)

L’EDSR (3.3.1) réfléchie associée à (g, ξ, S) a une unique solution.

Preuve.

A. Existence via la méthode de pénalisation.

Pour tout n ∈ N, soit le processus P1-mesurable (Y n, Zn) := (Y nt , Z

nt ) appartenant à S2

1(0, T )×

H2d(0, T ) tel que :

Y nt = ξ +

∫ T

tg(s, Y n

s , Zns )ds+Kn

T −Knt

∫ T

tZsdWs, t ∈ [0, T ].

et

Knt =

∫ t

0n(Y n

s − Ss)− ds, t ∈ [0, T ],

Étape 1 :

Nous allons à présent donner une estimation à priori, uniformément en n de la suite

(Y n, Zn,Kn). >Il existe une constante positive C ≥ 0 telle que

∀n ∈ N et t ≤ T, E[|Y nt |2 +

∫ T

0|Zns |2 + (Kn

T )2]≤ C. (5?)

Par ailleurs, il existe un processus P1-mesurable (Yt)t≤T limite de la suite (Yn)n ≥ 0 dans

H21(0, T ). La formule d’Itô appliquée à la semi martingale |Y n

t |2 entre t et T donne

E[|Y nt |2 +

∫ T

t|Zns |2ds

]= E

[|ξ|2 + 2E

∫ T

tY ns g(s, Y n

s , Zns )ds+ 2E

∫ T

tY ns dK

ns

]≤ E|ξ|2 + 2E

[ ∫ T

t|Y ns |(g(s, 0, 0) +K|Y n

s |+K|Zns |)ds]

+2E[ ∫ T

tSs dK

ns

]≤ E|ξ|2 + C + CE

[ ∫ T

t|Y ns |2ds

]+

1

2E[ ∫ T

t|Zns |2ds

]+ε−1E

[sup

0≤t≤T((St)

+)2]

+ εE[(Kn

T −Knt )2],

où ε est une constante réelle positive universelle. Maintenant, pour tout t ∈ [0, T ] on a

KnT −Kn

t = Y nt − ξ −

∫ T

tg(s, Y n

s , Zns )ds+

∫ T

tZns dWs.

Par conséquent,

E[(Kn

T −Knt )2]≤ CE

[ξ2 + |Y n

t |2 + (

∫ T

tg(s, Y n

s , Zns )ds)2 + (

∫ T

tZns dWs)

2]

≤ CE[1 + ξ2 + |Y n

t |2 +

∫ T

t|Ys|2ds+

∫ T

t|Zns |2dWs

].

où C est une constante réelle . Injectons cette inégalité dans la précédente et choisissons

εC = 14 pour obtenir

E[|Y nt |2 +

∫ T

t|Zns |2ds

]≤ C

(1 + E

[ ∫ T

t|Y ns |2ds

]), t ≤ T.

Page 64: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 56

Avec une constante C bien appropriée, en vertu du lemme de Gronwall, il vient que

E[|Y nt |2 +

∫ T

0|Zns |2 + (Kn

T )2]≤ C,

Soit la suite

gn(t, y, z) = g(t, y, z) + n(y − St)−,

on a pour tout ∈ N,

gn(t, y, z) ≤ gn+1(t, y, z).

Alors, en tenat compte du théorème de comparaison, il vient que Y nt ≤ Y n+1

t ,

pour tout 0 ≤ t ≤ T, p.s. D’où,

Y nt converge vers Yt en croissant, 0 ≤ t ≤ T, p.s.

À partir de l’estimation (5?) et du lemme de Fatou, on aura

E[

sup0≤t≤T

((Yt))2]≤ C.

En vertu du théorème de la convergence dominée, on a

E[ ∫ T

0(Yt − Y n

t )2dt]→ 0 p.s. quand n→∞

Étape 2 :

Montrons à ce stade la propriété clé de la preuve entière soit

limn→∞

E[

sup0≤T≤T

|(Y nt − St)−|2

]= 0.

Soit (Ynt , Z

nt ) la solutionde l’EDSR standard suivante :

Ynt = ξ +

∫ T

tg(s, Y

ns , Z

ns )ds− n(Y

ns − Ss) ds−

∫ T

tZns dWs, t ∈ [0, T ].

Par le théorème de comparaison, ona

Y nt ≥ Y

nt , P− p.s.∀ n ∈ N, t ∈ [0, T ].

Posons τ un Ft-temps d’arrêt borné par T . Ainsi,

Ynτ = E

[ξe−n(T−t) +

∫ T

τe−n(T−t)g(s, Y n

s , Zns ) + nSs|Fτ

].

Puisque S est un processus continu alors

ξe−n(T−t) +

∫ T

τe−n(T−t)g(s, Y n

s , Zns ) + nSs → ξ1[τ=T ]Sτ1[τ<T ] P− p.s. et dans L2(P).

D’autre part,

|∫ T

τe−n(s−τ)g(s, Y n

s , Zns )ds| ≤ 1√

2

[ ∫ T

0(g(s, Y n

s , Zns ))2ds

] 12.

Page 65: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 57

Par conséquent, Ynτ → ξ1[τ=T ]Sτ1[τ<T ] dans L

2(Ω, P ) si n→∞,

parsuite, Yτ ≥ Sτ , p.s.

En vertu d’un théorème de section( théorème 86 dans [25], p. 220), il en découle que ∀t ∈ [0, T ], Yt ≥ St, P p.s.

et (Y nt − St)− converge vers 0 en décroissant P− p.s.

Le théorème de Dini implique que sup0≤t≤T

(Y nt − St)− → 0 quand n→∞.

Finallement, le résultat se déduit par application du théorème de convergence dominée

puisque pour tout n ∈ N, (Y nt − St)− ≤ [(Y 0

t − St)−)]+ ≤ |St|+ |Y 0t |.

Étape 3 :

Démontrons que limn→∞ E[

sup0≤T≤T

|Y nt − Yt|2

]→ 0 et qu’il existe deux processus ; Z :=

(Zt)0≤t≤T et autre continu croissant K := (Kt)0≤t≤T telsque K0 = 0 et

E[ ∫ T

0|Zns − Zs|2ds+ sup

0≤T≤T|Kn

t −Kt|2]→ 0, si n→∞.

Pour tout p ≥ n ≥ 0 et t ≤ T , la formule d’Itô appliquée à (Y nt − Y

pt )2

aboutit à

(Y nt − Y

pt )2 +

∫ T

t|Zns − Zps |2ds ≤

∫ T

tC|Y n

s − Y ps |2 +

1

2|Zns − Zps |2ds

+2

∫ T

t(Y ns − Y p

s )(dKns − dKp

s )

−2

∫ T

t(Y ns − Y p

s )(Zns − Zps )dWs. (3.3.2)

Comme p ≥ n, alors ∫ T

t(Y ns − Y p

s )(dKns − dKp

s ) ≤ sup0≤t≤T

(Y nt − St)−K

pT .

En prenant l’ésperance de deux cotés dans (3.3.2) et en tenant compte des estimations dans

les étapes 1 et 2, il en découle que

E[ ∫ T

t|Zns − Zps |2ds

]≤ CE

[ ∫ T

t|Y ns − Y p

s |2ds]

+ 2E[

sup0≤t≤T

(Y nt − St)−K

pT

]→ 0 si n→∞.

Revenons une autre fois à l’inégalité (3.3.2) si on applique la borne supérieure puis l’éspé-

rance en tenant compte de l’inégalité Burkholder- Davis-Gundy, on obtient

E[

supt≤s≤T

(Y nt − Y

pt )2 +

∫ T

t|Zns − Zps |2ds

]≤ 2E

[supt≤s≤T

(Y nt − Y

pt )−.Kp

T

]+αE

[supt≤s≤T

|Y nt − Y

pt |2]

+α−1E[ ∫ T

t|Zns − Zps |2ds

]+CE

[ ∫ T

t‖Y n

s − Y ps |2ds

],

Page 66: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 58

avec α est une constante réelle positive. Un choix de α < 12 nous garantit que :

E[

sup 0 ≤ t ≤ T (Y nt − Y

pt )2]→ 0 quand p, n→∞,

E[

sup 0 ≤ t ≤ T (Y nt − Yt)2

]→ 0 quand n→∞,

Y = (Yt)t≤T est un processus continu.

A présent puisque pour tout n ≥ 0, et t ≤ T, on a :

Knt = Y 0

t − Y nt −

∫ T

tg(s, Y n

s , Zns )ds−

∫ T

tZns dWs.

et E[

sup0≤t≤T

(Y nt − Y

pt )2]→ 0 quand p, n → ∞. Alors, il existe un Ft processus Kt(K0 = 0)

continu et croissant tel que E[

sup0≤t≤T

|Knt −Kt|2

]→ 0 quand n→∞.

Étape 4 :

Le processus limite (Y,Z,K) = (Yt, Zt,Kt)t≤T est la solution de l’EDSR réfléchie associée

aux paramètres (g, ξ, S). Clairement, le processus (Yt, Zt,Kt)t≤T satisfait :

Yt = ξT +

∫ T

tg(s,Ys,Zs) ds+KT −Kt −

∫ T

tZs dWs, 0 ≤ t ≤ T.

Or par l’Étape 2 limn→∞ E[

sup0≤T≤T

|(Y nt − St)−|2

]= 0 alors

P− p.s.∀t ≤ T, Yt ≥ St.

Finallement, on a∫ T

0(Yt−St) dKt = 0 car en premier lieu les suites de processus (Y n)n≥0 et(K

n)n≥0

convergent uniformément (au moins pour une sous suite) respectivement vers Y et Z et en

second lieu on a l’égalité suivante :∫ T

t(Y ns − Ss)dKn

s = −n∫ T

0((Y n

s − Ss)−)2ds ≤ 0.

B. Existence via la méthode de l’enveloppe de Snell

Avant de donner les détails de la preuve, rappelons d’abord ce qu’on appelle envellope de

Snell.

Apparue dans les anées 50 par J.L. Snell, la notion d’envellope de Snell était d’abord consa-

crée à la résolution du problème d’arrêt optimal dans le cas discret. Des multiples travaux

ultérieurs ont étendu l’usage de cette notion au cas continu, notament ceux de J. Neveu,

J.F. Merton et plus récement J.Bismut, El Karoui [Elk81] entre autres.

Notons par = l’ensemble des temps d’arrêt par rapport à la filtration (Ft), posons =t l’en-

semble suivant défini comme suit :

=t = ν ∈ = : P[ν ∈ [t, T ]] = 1.

Définition 3.3.5 (Envellope de Snell)

Soit X := (Xt)t≤T un processus Ft-adapté à valeurs réelles vérifiant :

Page 67: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 59

i) X est càdlàg (continu à droite et admet une limite à gauche),

ii) X est de classe [D], i.e. la famille des variables aléatoires Xν ; ν ∈ =0 est unifor-

mément intégrable.

L’envellope de Snell de X est la plus petite surmartingale continue à droite majorant X,

définie par :

∀t ≤ T, SN(Xt) = esssupν∈=tE[Xν |Ft], SN(XT ) = XT .

De plus,

∀t ∈ [0, T ], E[SN(Xt)] = supν∈=t

E[Xν ].

Une propriété intéressante et caractérisant l’envellope de Snell c’est son utilisation pour

les problèmes de temps d’arrêt optimaux. Soit ν ∈ =t un temps d’arrêt ν∗ est dit optimal

après ν si

SN(Xt) = E[Xν∗ |Ft].

Revenons, maintenant à l’accomplissement de notre preuve qui sera faite sur deux étapes.

Étape 1 :

D’abord supposons que le générateur g ne dépend ni de y ni de z c’est à dire que g(t, w, y, z) =

g(t, w) = gt(ω).

Considérons le processus η := (ηt)0≤t≤T défini par :

ηt = ξ1[t=T ] + St1[t<T ] +

∫ t

0gsds, t ≤ T.

Clairement, le processus η est continu sur l’intervalle [0,T[, et admet un éventuel saut

positif pour t = T (on a supposé dès le début que ξ ≥ ST p.s.) et vérifie

E[

sup0≤t≤T

((ηt)+)2]< +∞.

Maintenat, l’enveloppe de Snell du processus η que l’on désignera par (R(η)t)0≤t≤T satisfait

la formule suivante : ∀0 ≤ t ≤ T, R(η)t = esssupτ≥tE[ητ |Ft],

R(η)T = ηT .

la propriété d’intégrabilité du processus η implique que E[

sup0≤t≤T

(R(ηt))2]< +∞. Par

ailleurs, puisque η peut admettre un unique saut positif alors R(η) est continue. Par consé-

quent, par la décomposition de Doob-Meyer pour le processus R(η) il vient qu’il existe une

martingale continue (Mt)0≤t≤T et un processus continu croissant positif (Kt)0≤t≤T (K0 = 0)

telsque

∀t ≤ T, R(η)t = Mt −Kt.

Page 68: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 60

On constate que le processus R(η) appartient à l’ensemble S21(0, T ) ainsi par le théorème de

la projection duale des processus croissants (cf [DM8O], p.221) il en découle que E[K2T ] et

(Mt)0≤t≤T appartient à S21(0, T ).

Par suite, à travers la propriété de repésentation des martingales browniennes, il existe un

processus (Zt)t≤T appartenant à H2d(0, T ) tel que :

Mt = M0 +

∫ t

0Zs dWs, t ≤ T.

Maintenant, soit Y = (Yt)0≤t≤T le processus défini par :

Yt = R(η)t −∫ t

0gsds.

Par définition, le processus Y appartient à S21(0, T ) et on a d’une part,

Yt = ξ +

∫ T

tgs ds+KT −Kt −

∫ T

tZs dWs, 0 ≤ t ≤ T,

et d’autre part,

Yt = esssupτ≥tE[ ∫ τ

tgs ds+ ξ1[τ=T ] + Sτ1[τ<T ]|Ft

], 0 ≤ t ≤ T.

Pour terminer cette étape on doit prouver que∫ T

0(Yt − St) dKt = 0. Pour cela soit pour

tout t ∈ [0, T ] le temps d’arrêt suivant τt = infs ≥ t, R(η)t = St ∧ T. Pour le problème de

temps d’arrêt optimal avec un payoff η, τt est optimal après t. Par suite, (R(η)s)s∈[t,τt] est

une martingale et R(η)τt = ηt, d’ou (R(η)s − ηs)dKs = 0 pour tout t ∈ [t, τt]. Comme t est

choisi arbitrairement, alors (R(η)s− ηs)dKs = 0 pour tout s ∈ [0, T ]. Ainsi, (Ys−Ss)dKs = 0

pour tout s ∈ [0, T ]. D’ou le résultat voulu pour cet étape.

Étape 2 :

À ce stade on va traiter le cas général pour un générateur g qui peut dépendre de (y, z).

Pour montrer que (3.3.1) admet une solution unique, on va proposer une fonction bien

déterminée et prouver qu’elle est une contraction dans un espace de Banach approprié et

donc elle a un unique point fixe qui est solution de notre EDSR réfléchie.

Posons D := H21(0, T )×H2

d(0, T ) muni de la norme suivante

‖(Y, Z)‖α =

(E[ ∫ T

0eαs(|Ys|2 + ‖Zs‖2) ds

])1/2

; α > 0.

Soit Φ l’application de D dans lui même qui à tout (Y,Z) on associe Φ(Y,Z) = (Y , Z) avec

(Y , Z) est la solution de l’EDSR réfléchie associée aux paramètres (g(t, Yt, Zt), ξ, S). Soit

(Y ′, Z ′) un autre couple de D et Φ(Y ′, Z ′) = (Y ′, Z ′). Par application de la formule d’Itô sur

l’intervalle [0, T ] on obtient

Page 69: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 61

eαt(Yt − Y ′t )2 + α

∫ T

teαs(Ys − Y ′s )2ds+

∫ T

teαs|Zs − Z ′s|2ds = (MT −Mt)+

2

∫ T

teαs(Ys−Y ′s )(dKs−dK ′s)+2

∫ T

teαs(Ys−Y ′s )(g(s, Ys, Zs)−g(s, Y ′s , Z

′s))ds, avec (MT )t≤T

est une martingale.

Mais, en tenant compte du lemme (3.3.3) on a :∫ T

teαs(Ys − Y ′s )(dKs − dK ′s) ≤ 0 et puisque le générateur g est lipchitzien alors,

αE[ ∫ T

teαs(Ys − Y ′s )2ds

]+ E

[ ∫ T

teαs|Zs − Z ′s|2ds

]≤ kεE

[ ∫ T

teαs(Ys − Y ′s )2ds

]+k

εE[ ∫ T

teαs|Ys − Y ′s |2 + |Zs − Z ′s|2ds,

où k est une constante bien appropriée. Et ceci implique que

(α−kε)E[ ∫ T

teαs(Ys−Y ′s )2ds

]+E[ ∫ T

teαs|Zs−Z ′s|2ds

]≤ k

εE[ ∫ T

teαs|Ys−Y ′s |2+|Zs−Z ′s|2ds

].

Pour un choix de α et ε suffisament grands de sorte à avoir k < ε < α−1k φ est une contraction

sur D. Désormais, il existe une paire de processus (Y, Z) telle que Φ(Y,Z) = (Y, Z) qui forme

avec K l’unique solution de l’EDSR réfléchie associée aux paramètres (g, ξ, S), en outre le

processus Y appartient à l’ensemble S21(0, T ).

Remarque 3.3.6 Le processus Y vérifie :

Yt = esssupτ≥tE[ ∫ τ

tg(s, Ys, Zs)ds+ ξ1[τ=T ] + Sτ1[τ<T ]|Ft

], 0 ≤ t ≤ T.

Commentaire : cette expression du processus Y nous servira beaucoup dans la recherche

du prix d’une option américaine qui sera le but du chapitre prochain.

Théorème de Comparaison pour EDSRs réfléchies

Théorème 3.3.7 Soient (Y,Z,K) et (Y ′, Z ′,K ′) les solutions associées aux paramètres (g, ξ, S)

et (g′, ξ′T , S′)) respectivement .

[i]. si on a ξ ≤ ξ′,

g(s, Y ′s , Z′s) ≤ g′(s, Y ′s , Z ′s), pour tout t ∈ [0, T ],

St ≤ S′t, pour tout t ∈ [0, T ],

Alors, Y ≤ Y ′, P− p.s.

[ii]. si de plus ona g′ est lipschitizien en (y, z),

S ≡ S′.

Alors, Kt −Ks ≥ K ′t −K ′s, pour tout s ≤ t.

Preuve. Par la formule de Tanaka appliquée au processus (Yt−Y ′t )+ dans l’intervalle [0, T ]

Page 70: Mémoire de Magistère en Mathématiques

3.3 EDSRs réfléchies sur une barrière continue 62

on obtient

(Yt − Y ′t )+ = (ξ − ξ′)+ +

∫ T

t1[Ys−Y ′s ]>0[g(s, Ys, Zs)− g′(s, Y ′s , Z ′s)]ds

+

∫ T

t1[Ys−Y ′s ]>0(dKs − dK ′s)− 2

∫ T

t1[Ys−Y ′s ]>0(Zs − Z ′s)dWs, t ≤ T.

Par ailleurs, (ξ − ξ′)+ = 0,

1[Ys−Y ′s ]>0(dKs − dK ′s) ≤ 0,

g(s, Ys, Zs)− g′(s, Y ′s , Z ′s) = as(Ys − Y ′s ) + bs(Zs − Z ′s).

ce qui conduit à

(Yt − Y ′t )+ ≤∫ T

tas(Ys − Y ′s )+ds+

∫ T

t1[Ys−Y ′s ]>0(Zs − Z ′s)dW ∗s .

Par application de l’espérance sous la probabilité P∗ par les deux membres de l’inégalité

précédente avec le lemme de Gronwall on obtient (Yt − Y ′t )+ = 0 pour tout t ≤ T . Ainsi

Y ≤ Y ′. D’où le résultat voulu pour [i].

Examinons maintenant le deuxième point. Puisque le générateur g′ est lipschitizien alors

la solution (Y ′t , Z′t,K

′t) est unique. Par ailleurs, via la méthode de pénalisation, pour tout

t ≤ T, Kt = limn→+∞

∫ t

0(Y ns − Ss)−ds,

K ′t = limn→+∞

∫ t

0(Y′ns − Ss)−ds.

avec (Y n, Zn) et (Y′n, Z

′n) sont les suites approximantes par la méthode de pénalisation des

processus (Y,Z) et (Y′, Z′) respectivement. En tenant compte, du théorème de comparaison

des EDSRs standards il en découle que Y n ≤ Y ′n et

Kt −Ks = limn→+∞

∫ t

s(Y ns − Ss)−ds ≤ K ′t −K ′s = lim

n→+∞

∫ t

s(Y′ns − Ss)−.

ainsi le résultat voulu pour [ii].

Page 71: Mémoire de Magistère en Mathématiques

Chapitre 4

EDSRs et Mathématiques

Financières

4.1 Présentation de la finance mathématique

Les origines de la mathématisation de la finance moderne remontent à la thèse de Louis

Bachelier [Bac00] intitulée Théorie de la spécualtion et soutenue à la Sorbonne en 1900, où

il a découvert l’objet mathématique appelé aujourd’hui "mouvement brownien". Mais elle

a pris une dimension nouvelle à partir de 1973 avec les travaux de Black et Scholes [BS73]

sur l’évaluation ("pricing" en anglais). Ils sont les premiers à avoir proposé une méthode

rigoureuse permettant aux banques de vendre à moindre risques les produits financiers

appelés options. Qu’est ce qu’une option ?

Considérons une entreprise européenne, par exemple Airbus, qui vend des avions. Sa comp-

tabilité s’effectue en euros. Cependant les avions sont réglés le plus souvent en dollars à

la date de livraison T . Les sommes mises en jeu étant considérables, cette entreprise doit

savoir de combien d’euros elle disposera à cette date. Or l’évolution incertaine de taux

d’échanges euros/dollars peut provoquer des lourdes pertes (ou des gains importants). Si

à la date T = 0, Airbus vend un avion à 1 milliard de dollars et si, à cette date 1 euro =

1 dollar, l’entreprise espère alors gagner 1 milliard d’euros. Supposons qu’à la livraison,

deux ans plus tard (T = 2ans), le cours ayant évolué, on ait 1 euros = 2 dollars, l’entreprise

ne perçoit que 1/2 milliards d’euros, soit deux fois moins que la somme espérée deux ans

plut tôt.

Les options servent à palier ce genre d’inconvénient. Ce sont des contrats qui donnent à

leur possesseur le droit et non pas l’obligation de vendre ou d’acheter une certaine quantité

d’actifs à une date future T à un prix fixe K appelé le strike, négocié à T ′ antérieure à T .

Le possesseur de cette option a le choix de l’exercer ou non.

Page 72: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 64

Reprenons le cas de l’exemple ci-dessus. L’option négociée entre Airbus et la banque offre

la possibilité à l’acheteur de l’option de changer à la date T = 2, 1 milliard de dollars à un

cours fixé K négocié à la date T = 0 (on parle alors d’options " at the money"). A la date

T = 2ans, deux situations sont possibles :

• le cours est avantageux pour Airbus (par exemple 2 euros = 1 dollar). L’entreprise

choisit donc de ne pas exercer son option et change son argent au cours actuel. Elle

perçoit deux milliards d’euros.

• L’évolution du cours est néfaste à Airbus (1 euro = 2 doallars). L’entreprise choisit

d’exercer son option et récupére ainsi 1 milliard d’euros au lieu de 1/2 milliard.

La banque fait payer un prix pour cette option, prix que l’on peut comparer à une prime

d’assurance. Ce prix est déterminé à la date T ′ et dépend de K, de T et d’autres paramètres

visant à modéliser l’évolution du cours dollar/euro.

La banque cherche à se couvrir contre une évolution défavorable des cours. Black et Scholes

ont introduit une méthode d’évaluation des prix d’options utilisant un modèle aléatoire

mais permettant, en principe, à la banque de se couvrir.

Leurs hypothèses sont les suivantes : ils considèrent un mouvement brownien ( c’est un

processus aléatoire qui évoque souvent le chaos), et supposent que le cours obéit à une

dynamique décrite par une exponentielle d’un brownien. Si P est le prix de l’actif, ils ob-

tiennent qu’il existe un choix de processus (Ht; t ≥ 0) telque ( on suppose ici que le taux

d’intérêt sans rique est nul).

f(PT ) = E[f(PT )] +

∫ T

0HtdPt.

La fonction f dépend du type d’options et pour l’option évoquée plus haut on prendra

f(x) = (K − x)+ ( on appelle cette fonction payoff). Ce payofff rend compte du fait que

si le cours est supérieur à K Airbus aura intérêt à vendre ces dollars sur le marché et donc

à ne pas exercer son option. Le premier terme de la somme est déterministe, c’est le prix de

l’option. Le deuxième terme est une intégrale stochastique. L’intégrant représente la quan-

tité d’actifs à détenir à chaque instant reproduire exactement ce que promet l’option, que

l’on appelle la couverture. Les problèmes essentiels sont de calculer le prix et la couverture

de l’option.

4.2 Terminologie financière

Notre étude est principalement centrée sur le problème des options, qui a été le moteur

de la théorie et reste l’exemple le plus frappant de la pertinence des méthodes du calcul

stochastique en finance.

Page 73: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 65

4.2.1 Options

une option est un titre ( produit dérivé en finance de marché) donnant à son détenteur

le droit, et non l’obligation d’acheter ou de vendre (selon qu’il s’agit d’une option d’achet ou

de vente) une quantité d’un actif financier, à une date convenue et à un prix fixé d’avance,

dans une optique de spéculation ou d’assurance.

La description précise d’une option se fait à partir des éléments suivants :

• la nature de l’option : on parle, suivant la termonologie anglo-saxone, de

call : pour une option d’achat.

put : pour une option de vente.

• l’actif sous-jacent, sur lequel porte l’option : dans la pratique, il peut s’agir d’une

action, obligation, indice boursier, devise, matière première, autre produit dérivé,

etc. On note Pt le prix de l’actif jous-jacent à l’instant t.

• le montant, c’est à dire la quantité d’actif sous jacent à acheter ou à vendre.

• Le prix d’exercice (strike en anglais), noté K, qui est le prix fixé d’avance auquel se

fait la transaction en cas d’exercice de l’option.

• L’échéance ou date d’expiration, notée T , qui limite la durée de vie de l’option ; si

l’option peut etre exercée qu’à l’échéance , on parle d’une option européenne et

si l’option peut être exercée à n’importe quel instant précédent l’échéance, on parle

d’une option américaine.

La problèmatique des Options

L’option, elle même, a un prix, appelé la prime (ou premium en anglais). Lorsque l’option

est cotée sur un marché organisé, la prime est donnée par le marché. En l’absence de cota-

tion, le probléme du calcul du prime se pose. Et, même pour une option cotée, il peut etre

intéressant de disposer d’une formule ou d’un modèle permettant de détecter d’éventuelles

anomalies du marché.

Examinons pour fixer les idées, le cas d’un call européen, d’échéance T , sur une action dont

le cours à la date t est donné par Pt. Soit K le prix de l’exercice. Il est clair que si, à lé-

chéance T , le prix K est supérieur au cours PT , le détenteur de l’option n’a pas interêt à

exercer. Par contre, si Pt > K, l’exercice de l’option permet à son détenteur de réaliser un

profit égal à PT −K, en achetant l’action au prix K et la revendant sur le marché au cours

PT . On voit qu’à l’échéance, la valeur du call est donnée par la quantité :

(PT −K)+ = max(PT −K, 0).

Pour le vendeur de l’option, il s’agit, en cas d’exercice, d’être en mesure de fournir une

action au prix K, et, par conséquent de pouvoir produire à l’échéance une richesse égale

Page 74: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 66

à (PT −K)+. Au moment de la vente de l’option, qu’on prendra pour origine des temps, le

cours PT est inconnu et deux questions se posent :

1. Combien faut-il faire payer à l’acheteur de l’option, autrement dit comment évaluer

à l’instant t = 0 une richesse (PT − K)+ disponible à la date T ? C’est le problème

du pricing.

2. Comment le vendeur, qui touche la prime à l’instant 0, parviendra-t-il à produire la

richesse (PT −K)+ à la date T ? C’est le problème de couverture.

4.2.2 Modélisation mathématique : le modèle de Black et Scholes

La réponse aux deux questions qui précèdent ne peut se faire qu’à aprtir d’un minimum

d’hypothèses de modélisation. l’hypothèse de base, retenue dans tous les modèles, est que,

dans un marché suffisamment fluide, il n’ya pas d’opportunité d’arbitrage, c’est à dire qu’il

est impossible de faire des profits sans faire face à des risques ; on le note souvent (AOA)

pour désigner Absence d’Opportunité d’Arbitrage. De plus, on a besoin de modéliser de

façon plus précise l’évolution des cours. Black et Scholes ont été les premiers à proposer un

modèle conduisant à une formule explicite pour le prix d’un call européen sur une action

ne donnant pas de dividendes et à une stratégie de gestion qui, dans le cadre de modèle,

permet au vendeur de l’option de se couvrir parfaitement, c’est à dire d’éliminer totalement

le risque. Le prix du call est, dans le modèle de Black-Scholes, la somme d’argent dont on

doit disposer intialement pour pouvoir suivre la stratégie de couverture et produire ainsi

exactement la richesse (PT −K)+ à l’échéance.

Le modèle d’incertain

Précisons la structure aléatoire qui affecte la dynamique des titres. L’espace de proba-

bilité de référence est constitué de :

— l’espace de probabilité (Ω,F, (Ft)t≤T ,P).

— l’ensemble Ω, qui représente tous les états du monde.

— la tribu F, qui représente la structure d’information globale disponible sur le

marché.

— une filtration croissante, (continue à droite si nécessaire), qui décrit l’informa-

tion disponible à tous les agents du marché à la date t. ( le caractère croissant

de cette filtration traduit le fait que le marché n’oublie rien).

— la classe N de tous les événements de F que le marché considère comme impos-

sibles.

Page 75: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 67

— une probabilité P, qui donne les probabilités à priori des événemetns considérés.

C’est la probabilité historique ou objective.

— une constante positive T dite l’horizon de gestion du marché (échéance).

Nous supposons que (m+ 1) actifs, les titres de bases P 0, P 1, ...,Pm sont négociés entre les

dates 0 et T . P it désigne le prix de l’actif i à la date t. Tous les processus prix sont supposés

positifs et continus en temps.

— L’actif P 0 est souvent le cash, c’est à dire le produit fiancier qui décrit la valeur

de 1 Euro, capitalisé au jour à la banque. Il est alors considéré comme sans risque

puisque son rendement rtdt dans un intervalle de temps [t, t+dt] est connu à la date

t de l’opération.

— L’information disponible à la date t englobe la connaissance du mouvement des ac-

tifs entre 0 et t : les prix des titres sont adaptés à la filtration (Ft), (P it est Ft mesu-

rable).

— En général, nous supposerons que les aléas de l’économie (Ω,F,P) sont engendrés

par un brownien (Wt) d-dimensionnel, dont les composantes W jt sont des browniens

réels indépendants.

— Nous supposons aussi que le titre sans risque P 0 vérifie

dP 0t = P 0

t rtdt.

— les actifs risqués (P i)1≤i≤m sont supposés être des fonctions aléatoires d’Itô satisfai-

sant :

dP it = P it

[µitdt+

d∑j=1

σij(t)dWjt

]Nous désignons par

— (µt)t≤T le vecteur de Rm, processus adapté , de composantes µit ; c’est le vecteur des

taux de rendement des titres de base.

— la matrice des volatilités des actifs est la matrice (σt)t≤T de dimension m × d, pro-

cessus adapté, de terme général σij(t).

Nous supposerons en général que ces procesus sont bornés. Cette même hypothèse est aussi

souvent faite sur le processus (rt)t≤T .

4.2.3 Portefeuille autofinançant

a) Stratégie de portefeuille

Nous modélisons le comportement d’un invistisseur, qui dispose d’un capital initial de x

Euros, l’investit dans les actifs de base du marché. À la date t, son portefeuille se compose

de δit parts de l’actif i (i = 0, 1, ...,m) ; où δ = (δ0t , δ

1t , ..., δ

mt )t≤T . Les parts peuvent être

Page 76: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 68

positives ou négatives suivant qu’elles correspondent à un achat ou à une vente.

Une stratégie de portefeuille est la donnée des processus (δit)t≤T ; i ∈ [0,m], représentant

les quantités investies dans chacun des titres. Nous allons définir pour commencer les

stratégies simples, pour lesquelles la composition du portefeuille ne change qu’un nombre

fini de dates appellées dates de trading. En temps discret, une stratégie quelconque est

une stratégie simple ; dans le cas général, ce sont les stratégies qui permettent de faire la

transition entre le discret et le continu.

Définition 4.2.1 Une stratégie simple de portefeuille écrite sur les titres de base est la

donnée d’un ensemble fini de dates de trading :

Θ = (ti)ni=0; 0 = to < t1 < t2 < ... < tn = T

et de m + 1 processus (δit)t≤T ; i ∈ [0,m] qui donnent la répartition des titres dans le

portefeuille au cours du temps

δt = ni01[0,t1](t) + ...+ nik1]tk,tk+1](t) + ...+ nin−11]tn−1,tn](t)

où les variables nik sont Ftk -mesurables.

La valeur financière (liquidative) du portefeuille δ est notée V δ = (V δt )t≤T . A la date t, elle

vaut

V δt =< δt, Pt >=

m∑i=0

δitPit .

Remarque 4.2.2 Pour tout t de l’intervalle ]tk, tk+1], δit = δitk+1= nik ; la partie investie de

l’actif i est donc Ftk -mesurable, c’est à dire ne dépend que des informations disponibles à la

date de négociation précédente. On dit que le processus (δit)t≤T est prévisible. Le processus

(V δt )t≤T est adapté. En temps continu, comme les prix des actifs sont continus par hypo-

thèse, et que les stratégies simples de portefeuille sont des processus continus à gauche, la

valeur financière d’un portefeuille simple est continue à gauche.

b) Autofinancement

Entre les dates tk et tk+1, un investisseur qui suit la stratégie δ place nik unités dans

l’actif P i. Juste avant une renégociation, à la date tk+1, la valeur du portefeuille vaut :

< nk, Ptk+1> . A l’instant tk+1, l’investissuer forme un nouveau portefeuille, c’est à dire

une répartition différente des poids des différents actifs, à partir des informations dispo-

nibles à la date tk+1. Supposons qu’aucune somme n’est investie (ou désinvestie) de manière

exogène à l’instant tk+1 ; la condition d’autofinacement se traduit par :

< nk, Ptk+1>=< nk+1, Ptk+1

>,

Page 77: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 69

soit encore en mettant en évidence la variation des actifs entre les deux dates de renégo-

ciation

V δtk+1− V δ

k=< nk, Ptk+1

− Ptk > .

Les variations d’un portefeuille autofinançant sont exclusivement dues aux variations du

prix des actifs.

Remarque 4.2.3 La condition d’autofiancement implique que la valeur du portefeuille n’a

pas de sauts aux instants de renégociation. Dans un modèle en temps continu, cela en-

traîne que c’est un processus continu. Notons d’ailleurs que la condition d’autofinancement

est une condition nécessaire et suffisante pour la continuité du processus de valeur d’un

portefeuille. Ces propriétés sont synthétisées ci-dessous.

c) Condition d’autofinancement

Définition 4.2.4 (i) Soit (Θ, δ) une stratégie simple de trading autofinançante. La valeur

du portefeuille s’écrit alors comme l’intégrale stochastique par rapport aux pris des actifs

de base (P i)0≤i≤m de la stratégie simple de trading δ. Elle est caratérisée par : V δt =< δt, Pt >,

V δt − V δ

0 =∫ t

0 < δs, dPs > .

(ii) Extension

Si nous supposons maintenant que les prix des actifs de base sont des processus d’Itô

et que δ est un processus vectoriel adapté, pour lequel l’intégrale stochastique (vectorielle)

par rapport aux actifs de base est bien définie, le processus δ est une stratégie de porte-

feuille autofiançante, de valeur V δt si la condition d’autofinacement est satisfaite.

Le cas des processus d’Itô

Nous avons une description plus précise de la valeur de la dynamique d’un portefeuille

autofinançant en termes de vecteur rendement et de matrice de volatilité.

dV δt =

m∑i=0

δitdPit

= δ0tP

0t rtdt+

m∑i=1

δitPitµ

itdt+

m∑i=1

d∑j=1

δitPitσ

i,jt dW

jt

= δ0tP

0t rtdt+ < (δP )t, µt > dt+ < (δP )t, σtdWt > .

Il reste à éliminer δ0t en utilisant l’équation d’autofinancement pour en déduire que la

valeur du portefeuille est solution de l’équation suivante :

dVt = Vtrtdt+ < (δP )t, µt − rt1 > dt+ < (δP )t, σtdWt > .

Page 78: Mémoire de Magistère en Mathématiques

4.2 Terminologie financière 70

Posons πt = (δP )t le vecteur de composants (δitPit )mi=1, soit le vecteurs qui décrit les montants

investis dans les titres risqués.

1 est le vecteur dont toutes les composantes sont égales à 1.

Par conséquent,

dVt = dV πt = rtVtdt+ < πt, µt − rt1 > dt+ < πt, σtdWt > . (4.2.1)

Réciproquement, un processus (Vt)t≤T , solution de l’équation (4.2.1) est la valeur financière

d’un portefeuille autofinançant, correspondant à un investissement de (δit)mi=1 dans les ac-

tifs risqués et de 1P 0t

(V δt −

∑mi=1 δ

itP

it ) dans le titre sans risque.

Remarque 4.2.5 L’équation différentielle linéaire (4.2.1) ayant une unique solution, la

connaissance de l’investissement initial et de la quantité investie dans les actifs risqués

suffit à caractériser complétement la valeur d’un portefeuille.

d) Stratégie admissible et arbitrage

Nous n’avons pas imposé de condition sur les signes des quantités δit. Dire que δit < 0, si-

gnifie qu’on a des dettes libellées en actifs à risques (par suite de ventes à découvert). Les

emprunts et les ventes à découvert sont donc permis, mais nous imposerons à la valeur du

portefeuille d’être positive ou nulle à tout instant.

Définition 4.2.6 Une stratégie de portefeuille (V, π) est dite admissible si elle est auto-

financée et si P-p.s. pour tout i ∈ 1, ...,m,∫ T

0|πis|2ds < ∞ et Vt ≥ 0 pour tout t dans

l’interval [0, T ].

L’investisseur doit étre en mesure de rembourser ses emprunts à tout instant.

Une opportunité d’arbitrage ou plus simplement un arbitrage est un moyen de gagner

de l’argent sans aucun risque en particulier sans mise initiale. Cela se traduit par la défi-

nition suivante lorsqu’on suppose que l’investisseur intervient durant la période [0, T ].

Définition 4.2.7 Une stratégie d’opportunité d’arbitrage est une stratégie de porte-

feuille admissible de valeur initiale nulle et de valeur finale non nulle.

V π

0 = 0,

P[V πT ≥ 0] = 1,

P[V πT > 0] > 0.

La première condition signifie que l’on part de rien, la seconde que l’on est sûr de ne pas

perdre d’argent et la troisième qu’avec une probabilité strictement positive on fait un réel

profit.

On imagine sans peine que les gens qui tendent de réguler le marché cherchent à tout prix

Page 79: Mémoire de Magistère en Mathématiques

4.3 Évaluation des options européennes via les EDSRs 71

à proscrire les opportunités d’arbitrage. En effet, si de telles opportunités sont admises le

marché ne tardera pas à «exploser». Une hypothèse commune faite est donc celle d’absence

d’oppotunité d’arbitrage.

Dans les modèles continus, des hypothèses supplémentaires d’intégrabilité sont néces-

saires pour garantir l’absence d’opportunité d’arbitrage, car il existe des intégrales sto-

chastiques qui sont des arbitrages.

Nous supposons que l’ensemble A des stratgies admissibles est un espace vectoriel, qui

contient les stratégies constantes, et qui est stable par recollement au sens ou deux stra-

tégies peuvent être recollées sur un même ensemble A de Ft en une stratégie admissible.

Il faut que l’ensemble A soit assez riche pour permettre l’évaluation de nombreux produits

dérivés, et pas trop gros pour éviter les opportunités d’arbitrage. Des hypothèses de type

carré intégrable, sur la valeur de portefeuille et les martingales associées sont en général

suffisantes.

4.3 Évaluation des options européennes via les ED-

SRs

Mathématiquement parlant, une option européenne(ou droit conditionnel européen) est

une variable aléatoire ξ positive et FT -mesurable cette dernière condition est motivée par

le fait que le dit droit conditionnel, représentant le profit que permet l’exercice du droit,

ne peut être exercé qu’à l’échéance, soit au temps T . Par conséquent le détenteur d’une

telle option est passif dans le sens où il n’a aucune décision à prendre au cours de la vie de

l’option.

Ainsi, pour une option d’achat ou "call" sur une unité d’actif 1, au prix d’exercice K on a

ξ = (P 1T −K)+ et pour une option de vente ou "put" sur une unité d’actif 1 au prix d’exercice

K : ξ = (K − P 1T )+. Dans ces deux exemples ( les plus importants dans la pratique), la

variable aléatoire ξ est une fonction de PT seulement.

Le prix d’un droit conditionnel de type européen peut être étudié sous deux angles :

celui du vendeur et celui de l’acheteur du droit conditionnel :

• Point de vue du vendeur : Le but premier du vendeur est d’être assuré que s’il investit

le montant x obtenu lors de la vente du droit conditionnel ξ d’une façon adéquate alors à

l’instant T si l’acheteur exerce son droit il sera en mesure de respecter son obligation. Le

prix minimal acceptable pour le vendeur du droit conditionnel ξ est donc

℘v(ξ) = infx ≥ 0;∃(V, π) tel que π ∈ A, tel que Vo = x et VT ≥ ξ.

Page 80: Mémoire de Magistère en Mathématiques

4.3 Évaluation des options européennes via les EDSRs 72

• Point de vue de l’acheteur : Si l’acheteur s’endette d’un montant x à l’instant t = 0 afin

d’acheter le droit conditionnel ξ alors au moment T où il exerce son droit, il désire pouvoir

s’acquitter de sa dette, c’est à dire qu’il doit exister une stratégie d’investissement π tel-

leque V π0 = −x. et V π

T + ξ ≥ 0. Ainsi, le prix maximal que l’acheteur du droit conditionnel ξ

qui est prêt à débourser est

℘a(ξ) = supx ≥ 0; ∃(V, π) tel que π ∈ A, tel que Vo = −x et VT + ξ ≥ 0.

Définition 4.3.1 On dit que l’actif conditionnel défini par ξ est simulable( ou atteingable)

s’il existe une stratégie admissible dont la valeur à l’instant T est égale à ξ.

Dans un marché viable (c’est à dire sans opportuité d’arbitrage) pourque l’option soit simu-

lable, il suffit qu’il existe une stratégie autofiancée de valeur égale à ξ.

Définition 4.3.2 On dit q’un marché est complet si tout actif conditionnel est simulable.

Supposer qu’un marché est complet est une hypothèse restrictive dont la justification éco-

nomique est moins claire que celle de l’hypothèse de viabilité. L’intérêt des marchés com-

plets est qu’ils se prêtent à une théorie très simple de l’évaluation et la couverture des

actifs conditionnels.

Si le marché complet, l’infinimum (℘v(ξ)) étant attient pour une stratégie (V, π) simulant le

droit conditionnel ξ. De même la stratégie (−V,−π) réalise le supremum (℘a(ξ)), on parle

souvent de prix équitable ou « fair price » pour le prix de l’option. Par suite, celui-ci est

donné par ℘v(ξ) = X0 = ℘a(ξ) avec

X0 = infx ≥ 0; ∃(V, π) tel que π ∈ A, tel que Vo = x et VT = ξ.

En d’autres termes ceci est expliqué par le fait que le point de vue de l’acheteur rejoint celui

du vendeur, d’ou l’expression « prix équitable ». Maintenant, avec des hypothèses (AOA) et

la complétude du marché, ce qui est équivalent à dire approximativement que la matrice

de volatilité (σt)t≤T est inversible et son inverse est borné. La valeur du droit conditionnel

ξ = (P 1t −K)+ est donnée par la solution d’une EDSR linéaire.

Théorème 4.3.3. (El Karoui, Peng et Quenez [ElkPQ97])

Suppose que m=d et que la matrice de volatilité (σt)t≤T = (σ1t , σ

2t , ..., σ

mt )t≤T est inversible,

bornée avec un inverse borné. Suppose que ξ ∈ L21(FT ) un droit conditionnel positif. La

valeur X0 est égale à Y0 avec (Yt, πtσt)t≤T est la solution de l’EDSR linéaire suivante :dYt = rtYt + πtσtθt dt+ πtσt dWt,

θt = (µt − rt1)(σt)−1,

YT = ξ.

(Yt)t≤T est la valeur du même actif contingent à t et (πt)t≤T les montants investits dans les

titres risqués. De plus Y est une valeur minimale de portefeuilles admissibles c’est à dire, si

Page 81: Mémoire de Magistère en Mathématiques

4.3 Évaluation des options européennes via les EDSRs 73

(V π, π) est solution de l’équation telle que (V π, π) ∈ A, alors ∀t ∈ [0, T ], Yt ≤ V πt P-p.s.

Soit (Γr,θt,s )s≥t la solution de l’EDS suivante, appellée "state price density" dΓr,θt,s = Γr,θt,s (−rs ds− θs dWs),

Γr,θt,t = 1.

Alors

Yt = E[Γr,θt,T ξ|Ft

].

Preuve.

Méthode 1 :

Considérnos l’EDSR de générateur g(t, y, z) = rty+z(σt)−1(µt−rt) et de condition terminale

ξ, à savoir : dYt = rtYt + Zt(σt)−1(µt − rt)dt+ ZtdWt, t ≤ T.

YT = ξ.

On constate que cette EDSR est linéaire, de plus puisque les coefficients (rt)t≤T , (µT )t≤T

et (σt)−1 sont bornés d’où d’après le théorème des EDSRs linéaires, on a l’existence d’un

couple de processus (Yt, Zt)t≤T solution de l’EDSR précedente, et en fait les deux processus

sont dans H2m(0, T ). Par le théorème de comparaison, puisque g(t, 0, 0) = 0 et la condition

terminale est positive, le processus Y est également positif, et la solution est la valeur

d’un portefeuille autofinancé admissible. Venons à exhiber une méthode universelle pour

calculer explicetement le processus. Pour cela, posons πt = Ztσ−1t , t ≤ T alors∫ T

0|πsσs|2 ds =

∫ T

0|Zs|2 ds <∞,

et (Y, πσ) satifait l’équation du théorème (4.3.3). En utilisant un changement de probabi-

lité, on peut écrire dYt = rtYtdt+ ZtdBt.

YT = ξ.

où B est un mouvement brownien sous une nouvelle probabilité P. Maintenant, en utili-

sant la formule dItô pour exp−∫ t

0 rsdsYt et en appliquant l’espérance conditionnelle sous

la probabilté P , on en déduit que Yt ≥ 0, pour tout t ≤ T . Il en découle que le portefeuille

défini par (π0, π), avec π0 =∑m

i=1 πmt , est admissible.

Posons π = (π0, π), un portefeuille tel que V πT = ξ. Par conséquent, on aura d(Yt − V π

t ) = rt(Yt − V πt ) + (π1

t − π1t )σt(µt − rt)dt+ (π1

t − π1t )σtdWt, t ≤ T.

YT − V πT = 0.

Page 82: Mémoire de Magistère en Mathématiques

4.3 Évaluation des options européennes via les EDSRs 74

Par conséquent, (exp−∫ t

0 rsds(Yt − Vπt ))t≤T est une martingale locale sous la probabilté

P. D’autre part,il existe une suite de temps d’arrêt (τn)n≥0 telle que :

Y0 − V π0 = E[exp−

∫ τn

0rsds(Yτn − V π

τn)]

En vertu du lemme de Fatou, il en découle que Y0 − V π0 ≤ 0, ainsi le résultat voulu.

Méthode 2 :

Au lieu de refaire entièrement la démenstration, on va brièvement décrire les idées à ajou-

ter à la preuve de la proposition (2.4.1).

Les hypothèses de ce théorème assurent l’existence et l’unicité d’un couple de processus

(Y,Z) solution de l’EDSR (4.2.1). Il suffit de poser g(t, y, z) = −rty − θtz.

Comme la valeur finale ξ est positive, alors Y est un processus positif, de plus dYt =

rtYt + θtZt dt+ Zt dWt , d’après la proposition 2.4.1.

Donc, en posant πt = Ztσ−1t

On a, ∫ T

0|πsσs|2 ds =

∫ T

0|Zs|2 ds <∞,

et

dYt = rtYt dt+ θtZt dt− Zt dWt = rtYt dt+ πtσtθt dt− πtσt dWt.

On considèrera π = (π0, π) le portefeuille admissible tel que V πT = ξ.

On supposera dans la suite que V π vérifie l’équation (4.2.1). Appliquons la formule d’inté-

gration par partie d’Itô a la fonction (x, y)→ xy,

d(Γr,θt,sVπs ) = V π

t dΓr,θt,s + Γr,θt,s dVtπ + d < Γr,θ, V π >t

= −V πt Γr,θt,s (rs ds+ θs dWs) + Γr,θt,s (rsV

πs ds+ πs(µs − rs) ds+ πsΓ

r,θt,sθs ds

= (−V πs Γr,θt,sθs + Γr,θt,sπsΓ

r,θt,s (µs − rs) ds− πs(µs − rs)Γr,θt,s ds

= (V πs + πsσs)Γ

r,θt,s dWs.

(Γr,θt,sVπt )t≤s≤T est donc une semimartingale locale positive (par rapport à la variable t).

D’où

Γr,θt,sVπt ≥ E[Γr,θs,TV

πT ] = E[Γr,θs,T ξ|Ft].

Or, encore une fois par le proposition 2.4.1, (Γr,θs,tYt)t≤s≤T est une martingale uniformément

intégrable (par rapport à la variable t).

Donc,

Γr,θt,sVπt ≥ E[Γs,T ξ|Ft] = Γr,θs,tYt.

Ce qui entraîne, pour s = t, que V πt ≥ Yt.

Pour finir, on vérifie que Yt =1

Γr,θ0,t

E[Γr,θ0,T ξ|Ft] = E

[Γr,θ0,T

Γr,θ0,t

|Ft

].

Page 83: Mémoire de Magistère en Mathématiques

4.4 Évaluation des options américaines via les EDSRs 75

4.4 Évaluation des options américaines via les ED-

SRs

Un droit conditionnel de type américain se représente par un processus stochastique

(Xt)t≤T F-adapté où Xt est la valeur du droit conditionnel au temps t s’il exerce à ce mo-

ment. Le détenteur d’un droit conditionnel de type américain doit donc se demander, à

chaque période de temps durant la durée de vie du droit conditionnel s’il doit exercer son

droit ou s’il est préférable d’attendre.

Le temps ν : Ω −→ [0, T ], représentant le moment où le détenteur du droit conditionnel

exerce son droit, doit vérifier :

∀t ∈ [0, T ], w ∈ Ω; ν(w) = t ∈ Ft,

puisque la décision d’exercer le droit au temps t ne peut être prise que sur la base de

l’information disponible à ce moment. C’est donc un temps d’arrêt.

Dans ce que suit, l’ensemble des temps aléatoires représentant le moment d’exercice est

représenté par :

=t = ν; Ω −→ [0, T ] tel que νest un temps d’arrêt.

Dans le cas d’étude classique du cas convexe des EDSRs et le problème de fixation

des prix (pricing) pour une option européenne sous certaines contraintes, la stratégie de

richesse-portefeuille que l’on note par (Xt, πt)t≤T est un couple de processus dans H21(0, T )×

H2m(0, T ) satisfaisant l’EDSR suivante :

−dXt = b(t,Xt, πt)dt− πtσtdWt.

Dans ce cas b représente une fonction à valeurs réelles définie sur l’ensemble[0, T ]×Ω×R×

Rn convexe qui vérifie les hypothèses standards d’un génératuer par rapport aux variables

x et π. En outre, on va toujours supposer que la matrice de volatilité (σt)t≤T des m actifs

risqués est inversible et son inverse (σ)−1 est uniformément borné.

Le cas classique pour une telle fonction b correspond à l’application linéaire suivante :

b(t, x, π) = −rtx− πtσtθt,

avec, θ est le vecteur de la prime du risque. On peut supposer sans perte de généralité que

σt = Id.

On est concerné par le problème de fixation du prix, en temps t, d’un actif conditionnel

américain qui consiste à la séléction d’un temps d’arrêt ν ∈ =t et un payoff Sν lors de l’exer-

cice si ν < T et égal à ξ si ν = T .

Page 84: Mémoire de Magistère en Mathématiques

4.4 Évaluation des options américaines via les EDSRs 76

Le processus St : 0 ≤ t ≤ T satisfait les hypothèses d’un obstacle. Notons

Ss = ξ1[s=T ] + Ss1[s<T ], 0 ≤ t ≤ T.

Supposons pour le moment que le choix du temps d’arrêt ν ∈ =t est effectué, alors il existe

une unique stratégie (Xs(ν, Sν), πs(ν, Sν)) ∈ H21(0, T ) notée (Xν

s , πνs ) qui réplique Sν . En

d’autres termes c’est la solution de l’EDSR classique associée au générateur b, à l’horizon

ν et à la condition terminale Sν .

Soit −dXνs = b(s,Xν

s , πνs )ds− πνsdWs, 0 ≤ s ≤ T,

Xνν = Sν .

Par conséquent le prix au temps t de l’actif conditionnel américain (Ss)0≤s≤T est donné par

le processus adapté continu à droite X satisfaisant pour tout t dans l’interval [0, T ]

Xt = esssupν∈=tXt(ν, Sν).

Par ailleurs, en appliquant les résultats des EDSRs réfléchies, il en découle que le prix

(Xt, 0 ≤ t ≤ T ) correspond à la solution d’une EDSR refléchie associée aux paramètres

(ξ, b, S). Ce qui est le but de la proposition suivante.

Proposition 4.4.1 Il existe π = (πt)t≤T ∈ H21(0, T ) et un processus continu croissant

K = (Kt)t≤T tels que K0 = 0 et−dXt = b(t,Xt, πt)dt+ dKt − πtdWt,

XT = ξ,

∀t ≤ T, Xt ≥ St et (Xt − St)dKt = 0.

De plus, le temps d’arrêt Dt = infs ≥ t,Xs = Ss ∧ T est optimal après t c’est à dire que

Xt = Xt(Dt, SDt).

Preuve. L’existence est assurée par l’étude faite pour les EDSRs réfléchies théorème

(3.3.4). Maintenant, soit un temps d’arrêt ν ≥ t. Il vient que −dXνs = b(s,Xν

s , πνs )ds− πνsdWs, s ≤ ν,

Xνν = Sν .

Par le théorème de comparaison, il en découle que Xνt ≤ Xt et puisque −dXt = b(t,Xt, πt)dt+ dKt − πtdWt,

Xν ≥ Sν .

Alors,

Xt ≥ esssupν≥tXt(ν, Sν).

Page 85: Mémoire de Magistère en Mathématiques

4.4 Évaluation des options américaines via les EDSRs 77

D’autre part, on a −dXs = b(s,Xs, πs)ds− πsdWs, ∀s ∈ [t,Dt],

XDt = SDt .

Finallement, Xt = Xt(Dt, SDt) et par suite Xt = esssupν≥tXt(ν, Sν).

En conclusion, nous avons essayé de valoriser des options européennes et américaines

à l’aide des EDSRs tout en restreignant l’étude dans le cadre d’un marché complet. L’uti-

lisation des EDSRs peut être étendue à des marchés incomplets (voir [Yon99] et [Yon01]).

Le modèle qui nous permet de décrire la dynamique du marché reste, par exellence, celui

de Black-Scholes, qui était créé en 1973, et qui conduit à des formules aujourd’hui cou-

ramment utilisée par les praticiens, malgré le caractère simplificateur du modèle, qu’on

pas abordé dans ce mémoire vue que notre objectif c’est d’utiliser l’aspect théorique qu’on

a présenté au début. Nous reviendrons encore sur les chemins d’applications pour les ED-

SRs, il ne se restreint pas au problème d’évaluation des options mais ils s’étenduent vers

d’autres notamment le contrôle stochastique, la résolution des EDPs, les jeux différentielles

etc...

"Le livre n’est pas terminé.

La fin n’a pas été écrite, elle n’a jamais été trouvée."

M. Duras, L’été 80. Editions de Minuit.

Page 86: Mémoire de Magistère en Mathématiques

Références

[Bac00] Bachelier L. (1900) : "Théorie de la spéculation", Ann. Sci. École Norm. Sup.,

17, 21-86.

[BBP97] Barles. G, R. Buckdahn et E. Pardoux (1997) : "Backward stochastic differantial

equations and integral-partial differantial equations", Stochastics and Stochas-

tics Reports, 60.

[BE97] Barles G. et E. Lesigne (1997) : "SDE, BSDE and PDE" Pitman Research Notes

in Mathematics Series 364, 47-80.

[Ben84] Bensoussan A. (1984) : "On the Theory of Option Pricing", Acta Applicandae

Mathematicae, 2, 139-158.

[Bis73] Bismut J.P. (1973) : "Conjugate Convex Functions in Optimal Stochastic

Control", J. Math. Anal. Appl., 44, 384-404.

[BS73] Black F. et M. Scholes (1973) : "The Pricing of Options and Corporate Liabili-

ties", J. Polit. Econ., 81, 637-659.

[Bog07] Bogachev V.I. (2007) : Measure Theory, Berlin : Spgringer-Verlag.

[BH06] Briand P. et Y. Hu (2006) : "BSDE with quadratic growth and unbounded ter-

minal value", Probab. Theory Related Fields, 136, 604-618.

[Chr02] Christopeit N. (2002) : "A Note on the Pricing of American Options", Theory

Probab. Appl., 48 (1), 131-140.

[CJ96] Cvitanic J. et I. Karatzas (1996) : "Backward Stochaastic Differntial Equations

with reflection and Dynkin Games", Ann. Proba., 24, 4, 2024-2056.

[DP97] Darling R.W.R. et E. Pardoux (1997) : "Backward SDE with random terminal

time and applications to semilinear elliptic PDE", Ann. Proba., 25 (3), 1135-

1159.

[DM75] Dellacherie C. et P.A. Meyer (1975) : Probabilités et Potentiel, Chap. I-IV, Her-

man, Paris.

[DM80] Dellacherie C. et P.A. Meyer (1980) : Probabilités et Potentiel, Chap. V-VIII,

Herman, Paris.

Page 87: Mémoire de Magistère en Mathématiques

Références 79

[DE92] Duffie D. et L.G. Epstein (1992) : "Stochastic differential utility and asset pri-

cing", Econometrica, 60, 53-394.

[Elk81] El Karoui N. (1981) : "les Aspects probabilistes du Contrôle Stochastique", Ecole

d’été de Saint-Flour. Lecture Notes in Mathematics, 876, 73-238, Springer Ver-

lag Berlin.

[ElkB04] El Karoui N. et M. Benaim (2004) : Promenade aléatoire Chaînes de Markov et

simulations : martingales et stratégie, edition Ecole Polytechnique de Paris.

[ElkH03] El Karoui N. et S. Hamadène (2003) : "BSDE and risk-sentive control, zero-sum

and non-zero-sum game problems of stochastic functional differential equa-

tions", Stochastic Process and their Applications,107, 145-169.

[ElkHM09] El Karoui N., S. Hamadène et A. Matoussi (2009) : "Backward SDEs and Ap-

plications", dans Indifference Pricing : Theory and Applications, René Carmona

edt. , Princeton Series in Financial Engineering, 267-320.

[ElkKPPQ97] El Karoui N., C. Kapoudjian, E. Pardoux, S. Peng et M.C. Quenez (1997) :

"Reflected Solutions of Backward SDE and Related Obstacle Problems for

PDEs", Ann. Probab., 25, 2, 702-737.

[ElkQ95] El Karoui N. et M.C. Quenez (1995) : "Dynamic Programming and Pricing of

Contingent Claims in an incomplete Market", SIAM Journal of Control and

Optimisation, 33, 29-66.

[ElkQ96] El Karoui N. et M.C. Quenez (1996) : "Non-linear Pricing Theory and Backward

Stochastic Differential Equations", Financial Mathematics (ed : W.J. Runggal-

dier), Lectures Notes in Mathematics 1656, Springer Verlag, 191-246.

[ElkPQ97] El Karoui N., E. Pardoux et M.C. Quenez (1997) : "Reflected backward sto-

chastic differential equations and American Options", in Numerical Methods

in Finance (L. Robers and D. Talay eds.), Cambridge U.P., 215-231.

[ElkPQ97] El Karoui N., S. Peng et M.C. Quenez (1997) : "Backward Stochastic Differential

Equations in Finance", Mathematical Finance, 7, 1-71

[ElkR00] El Karoui N. et R. Rouge (2000) : "Pricing via Utility Maximization and En-

tropy", Mathematical Finance, 10, 259-276.

[Ham96] Hamadène S. (1996) : "Equations différentielles stochastiques rétrogrades : le

cas localement lipschitzien", Ann. Inst. Henri Poincaré,32 (5), 645-659.

[Ham02] Hamadène S. (2002) : "Reflected Backward Stochastic Differential Equations

with discontinous Barrier and Applications", Stoch. and Stoc. reports,74, 571-

596.

Page 88: Mémoire de Magistère en Mathématiques

Références 80

[HL95] Hamadène S. et J.P. Lepeltier (1995) : "Zero-sum stochastic differential games

and backward equations", Systems and Control letters, 24, 259-263.

[HL95] Hamadène S. et J.P. Lepeltier (1995) : "Backward equations, stochastic control

and zero-sum stochastic differential games", Stochastic and Stochastic Reports,

54, 221-231.

[HLM97] Hamadène S., J.P. Lepeltier et A. Matoussi (1997) : "Double barrier backward

SDEs with continuous coefficient", Pitman Research Notes in Mathematics Se-

ries 364 (N. El Karoui and L. Mazliak eds.).

[HLP97] Hamadène S., J.P. Lepeltier et S. Peng (1997) : "BSDE with continious co-

efficients and applications to Markovan nonzero sum stochastic differential

games", Pitman Research Notes in Mathematics Series 364 (N. El Karoui and

L. Mazliak eds.).

[HP81] Harrison J.M. et S.R. Pliska (1981) : "Martingales and Stochastic Integrals

in the Theory of Continuous Trading", Stochastic Process and their applica-

tions,11 (3), 215-260.

[HIM00] Hu Y., P. Imkeller et M. Müller (2000) : "Utility Maximization in Incomplete

Markets", Working Paper.

[Kar88] Karatzas I. (1988) : "On the pricing of Americans Options", Appl Math Optim,

17, 37-60.

[Kob00] Kobylanski M. (2000) : "Backward Stochastic Differential Equations and Par-

tial Differential Equations with Quadratic Growth", Annals of Probability, 28,

558-602.

[Kol95] Kolb R. (1995) : Understanding Options, Wiley.

[KS87] Karatzas I. et S.E. Shreve (1987) : Brownian Motion and Stochastic Calculus,

New York : Springer-Verlag.

[KS98] Karatzas I. et S.E. Shreve (1998) : Methods of Mathematical Finance, New

York : Springer-Verlag.

[Kuo06] Kuo H.H. (2006) : Intoduction to Stochastic Integration, New York : Springer-

Verlag.

[LL97] Lapeyre B. et D. Lamberton (1997) : Introduction au calcul Stochastique appli-

qué à la finance, Ellipses.

[LMX05] Lepeltier J.P, A. Matoussi et M. Xu (2005) : "Reflected BSDEs under Monotono-

city and General increasing Growth Conditions", Adv. Appl. Prob, 37, 1-26.

Page 89: Mémoire de Magistère en Mathématiques

Références 81

[LS97] Lepeltier J.P. et J. San Martin (1997) : "Backward stochastic differential equa-

tions with continuous coef- cient", Statist. Probab. lett., 32, 425-430.

[LS97] Lepeltier J.P. et J. San Martin (1997) : "Backward SDEs with two barriers and

continuous coefficient : An existence result", Stat. Prob. Lett., 32 (4), 425-430.

[LS98] Lepeltier J.P. et J. San Martin (1998) : "Existence of BSDE with Superlinear

Quadratic Coefficient", Stochastics and Stochastic Report, 63, 227-240.

[Mat97] Matoussi A. (1997) : "Reflected solutions of Backward Stochastic Differential

Equations", Statist. and Proba. Lett., 34, 347-354 .

[Myn92] Myneni R. (1992) : "The pricing of American Options, The Annals of Applied

Probability", 2 (1), 1-23.

[Par99] Pardoux E. (1999) : "BSDE’s, weak convergence and homogenization of semili-

near PDE’s in Nonlinear analysis", Differential Equations and Control, (F. H.

Clarke & R. J. Stern eds.), 503-549.

[Par08] Pardoux E. (2008) : Markov Processes and Applications : Algorithms, Networks,

Genome and Finance, Wiley Series in Probability and Statistics.

[PP90] Pardoux E. et S. Peng (1990) : "Adapted Solutions of Backward Stochastic Dif-

ferential Equations", Systems and Control Letters, 14, 55-61.

[PP92] Pardoux E. et S. Peng (1992) : "Backward Stochastic Differential Equations and

Quasilinear Parabolic Partial Différential Equations", Stochastic Différential

Equations and their Applications (B. Rozovskii and R. Sowers, eds.), Lect. Not.

Cont. Inf. Sci., 176, Springer, 200-217.

[PT99] Pardoux E. et S. Tang (1999) : "Forward-Backward Stochastic Differential

Equations and quasilinear parabolic PDEs", Probab. Theory Related Fields, 114

(2), 123–150.

[Pha07] Pham H. (2007) : Optimistation et contôle stochastique appliqués à la finance,

Berlin : Springer-Verlag.

[RY99] Revuz D. et M. Yor (1999) : Continuous Martingales and Brownian Motion, 3rd

Edition, Berlin : Springer-Verlag.

[Sit05] Situ R. (2005) : Theory of Stochastic Differential Equations with Jumps and

Applications, New York : Springer-Verlag.

[TY07] Tang S., J. Yong (2007) : Control Theorey and Related Topics, World Scientific.

[Yon99] Yong J. (1999) : "European-type contingent claims in an incomplete market with

constrained wealth and portfolio", Mathematical Finance, 9, 387-412.

Page 90: Mémoire de Magistère en Mathématiques

Références 82

[Yon01] Yong J. (2001) : "Replication of American contingent claims in incomplete mar-

kets", International Journal of Theoretical and Applied Finance, 4, 439-466.

Page 91: Mémoire de Magistère en Mathématiques

RÉSUMÉ : Ce travail de mémoire porte sur les équations différentielles stochastiques

rétrogrades (EDSRs en abrégé). Dans la première partie, nous nous intéressons à des ED-

SRs standards avec des générateurs nonlinéaires lipschitziens en espace uniformément en

temps, puis on a traité le cas linéaire et on a fini par énoncer le principe de comparai-

son. Ce dernier est à forte utilité pour les EDSRs unidimensionnelles qui font l’objectif de

la seconde partie. D’abord, nous avons raffiné le critère lipschitizien pour les générateurs

pour le remplacer par d’autres tels que la croissance linéaire et quadratique. Ensuite, on a

étudié le type d’EDSRs réfléchies sur une barrière continue. Le dernier axe de notre étude

décrit comment les EDSRs apparaissent comme un outil puissant pour examiner des pro-

blèmes d’évaluation des options européenes et américaines.

MOTS-CLES : EDSRs , théorème de comparaison, EDSRs linéaires, croissance linéaire et

quadratique, EDSRs réfléchies, options européennes, options américaines.

DISCIPLINE : MATHÉMATIQUES

Faculté des Sciences de Gabès,

Département de Mathématiques,

Cité Erriadh, 6072 Zrig Gabès, Tunisie.