Jean-Fran˘cois LE GALL Notes de Cours de DEA 1994jflegall/DEA... · 2011. 3. 15. ·...

115
MOUVEMENT BROWNIEN PROCESSUS DE BRANCHEMENT ET SUPERPROCESSUS Jean-Fran¸ cois LE GALL Notes de Cours de DEA 1994

Transcript of Jean-Fran˘cois LE GALL Notes de Cours de DEA 1994jflegall/DEA... · 2011. 3. 15. ·...

  • MOUVEMENT BROWNIENPROCESSUS DE BRANCHEMENT

    ET SUPERPROCESSUS

    Jean-François LE GALL

    Notes de Cours de DEA 1994

  • Chapter 0

    Introduction

    Le but de ce cours est d’abord de décrire certaines relations existant entre marchesaléatoires ou mouvement brownien et processus de branchement, ensuite d’appliquerces relations à une construction trajectorielle des processus de branchement à valeursmesures appelés superprocessus, dans le cas particulier du super-mouvement brow-nien. Cette construction repose sur l’introduction d’un processus de Markov àvaleurs dans un espace de trajectoires, appelé ici le serpent brownien, qui présenteun intérêt propre. Elle a aussi l’avantage de rendre plus évidentes certaines pro-priétés du super-mouvement brownien et, bien que ces applications ne soient pasdéveloppées ici, elle fournit des méthodes efficaces pour l’étude fine de ce proces-sus et de ses liens avec les équations aux dérivées partielles. Le présent cours aété conçu de façon à exiger un minimum de connaissances préalables. En parti-culier, nous donnons une approche complète des temps locaux et de la théorie desexcursions du mouvement brownien, qui constituent deux outils importants. Nousdécrivons ci-dessous le contenu des huit chapitres de ce cours en mettant l’accentsur les liens entre les différents thèmes abordés.

    Le point de départ du présent exposé est une correspondance remarquable,découverte par Harris, entre l’excursion positive de la marche aléatoire simple etl’arbre associé à un processus de Galton-Watson critique de loi de reproductiongéométrique. On décrit cette correspondance de façon imagée en disant que ledéplacement d’une particule qui monte et descend le long des branches de l’arbrefournit une excursion de marche aléatoire. Dans cette correspondance, le nombre debranches à un niveau k donné cöıncide avec le nombre de montées de k à k+1 pourla marche aléatoire. On sait bien que le mouvement brownien réel apparâıt commelimite de marches aléatoires de pas petit, ce qui suggère d’étudier les applicationsau mouvement brownien de la correspondance de Harris. Dans le chapitre 2, nousintroduisons la notion importante de temps local du mouvement brownien, qui cons-titue le “bon” analogue des nombres de montées pour les marches aléatoires. Nousétudions aussi certaines propriétés fondamentales des temps locaux. Ensuite, le

    1

  • chapitre 3 développe, surtout en vue d’applications ultérieures, les liens entre tempslocaux d’un mouvement brownien et nombres de montées pour certaines marchesaléatoires plongées dans ce mouvement brownien. Grâce à ces liens, on obtientcomme conséquence directe de la correspondance de Harris un théorème importantde Ray-Knight sur la loi des temps locaux browniens considérés comme processusen la variable d’espace.

    Le chapitre 4 introduit les superprocessus, dans le cas particulier fondamental dusuper-mouvement brownien. On décrit la construction traditionnelle, par approxi-mation discrète, de ces processus. Pour cela on part de l’arbre de Galton-Watsonévoqué ci-dessus, ou plus généralement d’un nombre fini de tels arbres, qu’on in-terprète comme arbres généalogiques d’un système de particules se déplaçant selondes mouvements browniens indépendants dans Rd. Le processus de Markov qui vautà chaque instant la somme des masses de Dirac aux positions des particules en vieest le processus de branchement brownien. Par un passage à la limite lorsque le nom-bre de particules présentes à l’instant initial tend vers l’infini, et la durée de vie dechaque particule vers 0, on aboutit à un processus de Markov à valeurs dans l’espacedes mesures finies sur Rd, qui est le super-mouvement brownien. Cette approcheassez élémentaire donne aussi la fonctionnelle de Laplace du semi-groupe du super-mouvement brownien. Grâce à cette fonctionnelle de Laplace, nous développonsdans le chapitre 5 certains calculs de moments qui conduisent rapidement à des ap-plications intéressantes. Nous étudions en particulier la dimension de Hausdorff dusupport du super-mouvement brownien, ainsi que des conditions suffisantes assurantque le support rencontre un ensemble donné.

    De façon schématique, le processus de branchement brownien, qui est la formediscrète du super-mouvement brownien, est construit en ajoutant des déplacementsspatiaux (browniens) à un arbre de Galton-Watson. En pensant à la correspondancede Harris, on est amené à chercher un processus aléatoire qui serait à l’excursion de lamarche aléatoire simple ce que le processus de branchement brownien est à l’arbre deGalton-Watson. Ce processus, le serpent (brownien) discret du chapitre 6, prend sesvaleurs dans l’espace des trajectoires arrêtées dans Rd. A chaque instant, la valeur duserpent discret est une trajectoire brownienne dans Rd, issue d’un point fixé, dont lalongueur (le temps de vie) est la valeur à l’instant considéré d’une marche aléatoiresimple réfléchie sur N. Si à l’instant suivant la marche aléatoire saute de +1 onprolonge d’autant la trajectoire brownienne, si au contraire la marche aléatoire sautede −1, on raccourcit la trajectoire brownienne en effaçant son extrémité. Ensuite, lemême passage à la limite qui fait passer de la marche aléatoire simple au mouvementbrownien conduit du serpent discret au serpent brownien, processus de Markovcontinu fortement markovien à valeurs dans l’espace des trajectoires arrêtées. Achaque instant, la valeur du serpent brownien est une trajectoire brownienne arrêtéedans Rd, dont le temps de vie évolue comme un mouvement brownien réfléchi dansR+.

    2

  • L’ensemble des valeurs prises par un serpent discret est exactement l’ensembledes trajectoires historiques d’un processus de branchement brownien. Comme lepassage à la limite du processus de branchement brownien vers le super-mouvementbrownien correspond au passage à la limite du serpent discret vers le serpent brow-nien, on s’attend aussi à ce que les valeurs prises par le serpent brownien soient lestrajectoires historiques des “particules individuelles” d’un super-mouvement brow-nien. Une telle affirmation n’a a priori guère de sens puisqu’il n’y a pas de par-ticules individuelles dans le super-mouvement brownien, mais seulement à chaqueinstant la donnée d’une mesure qui représente la distribution des particules en vieà cet instant. Néanmoins, cette idée peut être formalisée rigoureusement et con-duit à la construction du super-mouvement brownien, à partir du serpent brownien,développée dans le chapitre 7. Cette construction a de multiples avantages. Elledonne immédiatement accès au “processus historique” rendant compte des trajec-toires individuelles des particules. Elle permet aussi de compléter rapidement les in-formations trajectorielles obtenues dans le chapitre 5. Dans le chapitre 8 enfin, nousappliquons la construction du chapitre 7 à la décomposition de Lévy-Khintchine dusuper-mouvement brownien. Cette décomposition revient dans l’évolution du super-mouvement brownien à classer les particules en fonction de leur ancêtre à l’instantinitial. En termes du serpent brownien, on distingue les différentes excursions endehors de 0 du processus des temps de vie, qui est rappelons-le un mouvementbrownien réfléchi dans R+. La mesure d’excursion obtenue en considérant le serpentbrownien (ou le super-mouvement brownien par la correspondance du chapitre 7)sur une seule de ces excursions joue un rôle important dans de multiples applicationsque nous ne développons pas ici.

    Il est sans doute regrettable que le cours s’arrête à ce point, puisque les ou-tils introduits sont susceptibles de nombreuses applications. Un exemple typiqued’application du serpent brownien aux propriétés trajectorielles du super-mouvementbrownien est fourni par l’article [28], qui complète les résultats antérieurs obtenusdans [33] et [8] notamment. Une introduction aux liens entre le serpent brow-nien et les équations aux dérivées partielles se trouve dans l’article [26], motivépar les travaux de Dynkin [11], [12] pour les superprocessus. Voir aussi [27] et lesréférences de cet article pour des développements plus récents. Enfin, il faut si-gnaler que plusieurs versions “browniennes” de la correspondance de Harris ont étéétudiées par divers auteurs, en commençant par Neveu et Pitman [31]. Aldous [2]introduit un arbre aléatoire continu qui est à l’excursion brownienne ce que l’arbrede Galton-Watson est à l’excursion de la marche aléatoire simple. L’article [25]donne une approche simplifiée, reposant sur la théorie des excursions, du résultatprincipal d’Aldous. L’idée d’associer un arbre aléatoire infini à l’excursion brow-nienne est aussi exploitée par Abraham [1]. Tous ces travaux n’étudient pas directe-ment les super-processus mais n’en sont pas moins étroitement liés à leur structuregénéalogique ainsi qu’à celle du serpent brownien.

    3

  • Chapter 1

    Arbres de Galton-Watson etExcursions de Marches Aléatoires

    L’objet principal de ce chapitre est d’établir une correspondance bijective simple,préservant la mesure, entre l’excursion positive de la marche aléatoire simple sur Zet l’arbre associé à un processus de Galton-Watson géométrique de paramètre 1/2.Cette correspondance a été observée pour la première fois par Harris [19] et a ensuiteété retrouvée ou exploitée par de nombreux auteurs. Notre formulation utilise unformalisme d’arbre emprunté à Neveu [30]. En application de ce résultat, nousétablirons un théorème limite pour les nombres de visites d’une marche aléatoiresimple sur N en différents niveaux positifs.

    1.1 Arbres de Galton-Watson

    1.1.1 Formalisme d’arbres

    Avant d’introduire la notion d’arbre, nous commençons par définir les arêtes del’arbre. L’ensemble des arêtes est par définition

    U =

    ∞⋃

    n=0

    Nn∗

    où N∗ = {1, 2, 3, ...} est l’ensemble des entiers (strictement) positifs et par conventionN0∗ = {∂} est réduit à un seul élément ∂ qu’on interprète comme étant la suite vide,et qui dans notre formalisme d’arbre sera l’ancêtre de la population.

    Un élément de U autre que ∂ est donc un n-uplet u = (i1, ..., in) que poursimplifier on notera u = i1...in. La longueur (la génération) de u est alors |u| = n,et par convention |∂| = 0.

    4

  • Si j ∈ N∗, on note uj = i1...inj qui est donc une arête de longueur n + 1. Leséléments de la forme uj sont les “enfants” de l’arête u. Plus généralement, pourv = k1...km ∈ U , on note uv = j1...jnk1...km. En particulier, on a u∂ = u.Définition. Un arbre A est un sous-ensemble fini de U qui satisfait les propriétéssuivantes:

    (i) ∂ ∈ A;

    (ii) si uj ∈ A, alors u ∈ A;

    (iii) si u ∈ A, il existe un entier ku(A) ∈ N tel que uj ∈ A si et seulement si1 ≤ j ≤ ku(A).

    On note ∆ l’ensemble de tous les arbres.

    On notera simplement ku à la place de ku(A) quand il n’y aura pas ambigûıté.La propriété (i) exprime que l’ancêtre appartient à l’arbre, pour tout arbre A. Lapropriété (ii) signifie que le “père” d’une arête de l’arbre appartient aussi à l’arbre.Enfin, la propriété (iii) indique qu’une arête u de l’arbre a exactement ku enfantsdans l’arbre qui sont les arêtes uj pour j ∈ {1, ..., ku}.

    Dans la définition précédente, nous nous sommes limités aux arbres finis. Celasera suffisant pour nos applications qui concernent le cas de processus de branche-ment critiques ou sous-critiques.

    Soit u ∈ A un arbre. Pour toute arête u ∈ A, on note TuA le “sous-arbre” issude l’arête u défini par

    TuA = {v ∈ U, uv ∈ A}.Il est immédiat que TuA est encore un arbre.

    1.1.2 L’arbre associé à un processus de Galton-Watson.

    Soit ν une mesure de probabilité sur N. On appelle processus (de branchement) deGalton-Watson de loi de reproduction ν une châıne de Markov (Zn)n∈N à valeursdans N telle que, pour tout n ≥ 0, la loi conditionnelle de Zn+1 sachant que Zn = zest la loi de

    z∑

    i=1

    ξi,

    où les variables ξi sont indépendantes et de loi ν. Le processus de Galton-Watsonrend compte de l’évolution au cours du temps d’une population où le nombred’enfants de chaque individu suit la loi ν.

    Il est bien connu que dans les cas sous-critique (i.e.∑

    k ν(k) < 1) et critique(∑

    k ν(k) = 1), il y a extinction de la population, c’est-à-dire

    Zn = 0, pour tout n assez grand, p.s.,

    5

  • sauf dans le cas trivial où ν est la mesure de Dirac en 1, que nous excluons systéma-tiquement dans la suite.

    La proposition suivante permet dans les cas critique et sous-critique d’associerau processus de Galton-Watson de loi de reproduction ν un arbre aléatoire quireprésente la généalogie de la population.

    Proposition 1.1 Supposons que∑∞

    i=1 k ν(k) ≤ 1. Il existe une unique probabilitéΠ(dA) sur ∆ qui vérifie les deux propriétés suivantes:

    (i) Π(k∂ = p) = ν(p), ∀p ∈ N;

    (ii) pour tout p ≥ 1, sous la probabilité conditionnelle Π(· | k∂ = p), les sous-arbresT1A, ..., TpA sont indépendants et de loi Π.

    SoitZn(A) = Card {u ∈ A; |u| = n}.

    La loi sous Π du processus (Zn) est la loi du processus de Galton-Watson de loi dereproduction ν, avec valeur initiale Z0 = 1.

    Preuve. On commence par construire la probabilité Π. Pour cela, on se donne unefamille (ξu)u∈U de variables aléatoires indépendantes de loi ν, indexée par U . Ondéfinit ensuite un sous-ensemble aléatoire A de U en posant

    A = {u = k1...kn ∈ U ; ∀j ∈ {1, ..., n}, kj ≤ ξk1...kj−1}.

    Par convention, ∂ ∈ A. Vérifions d’abord que A est fini p.s. Posons

    Yn = Card {v ∈ A; |v| = n}.

    Alors Y0 = 1 et pour tout n ≥ 1, Yn est mesurable par rapport à la tribu σ(ξu; |u| <n}. De plus, par construction,

    Yn+1 =∑

    |v|=n

    1{v∈A} ξv,

    et lorsque |v| = n, 1{v∈A} est mesurable par rapport à la tribu σ(ξu; |u| < n}, alorsque les variables ξv sont indépendantes de cette même tribu. Il en découle quela loi conditionnellement à σ(ξu; |u| < n} de Yn+1 est la loi de la somme de Ynvariables aléatoires indépendantes de loi ν. Finalement, (Yn) est un processus deGalton-Watson de loi de reproduction ν.

    Comme on sait que Yn = 0 pour n assez grand, p.s., on obtient que l’ensembleA est p.s. fini. Il est ensuite clair que A est un arbre. La probabilité Π est définiecomme étant la loi de A. La propriété (i) est immédiate puisque k∂(A) = ξ∂. Pour lapropriété (ii), on observe que, sur l’ensemble {ξ∂ = p}, les sous-arbres T1A, ..., TpA

    6

  • sont construits respectivement à partir des familles (ξ1u, u ∈ U), ..., (ξpu, u ∈ U)de la même façon que A est construit à partir de (ξu, u ∈ U). Enfin la propriétéconcernant (Zn) a déjà été établie.

    Il reste à vérifier que les propriétés (i) et (ii) caractérisent Π. Soit Π′ une autreprobabilité sur ∆ satisfaisant les mêmes propriétés. Pour voir que Π = Π′, il suffitde vérifier que, pour tous u1, ..., up ∈ U , on a

    Π(u1 ∈ A, · · · , up ∈ A) = Π′(u1 ∈ A, · · · , up ∈ A).On raisonne par récurrence sur max(|uj|). Le résultat est trivial si max(|uj|) = 0.Ensuite, on peut supposer uj 6= ∂ pour tout j, et choisir l’indexation de façon queu1 = i1v1, ..., up = ipvp avec

    i1 = i2 = · · · = ip1 , ip1+1 = · · · = ip2 , · · · , ipr−1+1 = · · · = ipr (pr = p)et ip1 , ..., ipr sont distincts. Alors, en utilisant (ii),

    Π(u1 ∈ A, · · · , up ∈ A)= Π(max(il) ≤ k∂, v1 ∈ Ti1A, · · · , vp ∈ TipA)= Π(max(il) ≤ k∂) Π(v1 ∈ A, · · · , vp1 ∈ A) · · ·Π(vpr−1+1 ∈ A, · · · , vpr ∈ A)

    et, d’après (i) et l’hypothèse de récurrence, cette quantité cöıncide avec celle quel’on obtiendrait en remplaçant Π par Π′. Cela termine la preuve. �

    Remarque. La propriété (ii) est un cas particulier de la propriété de branchement:voir Neveu [30] pour la généralisation naturelle aux sous-arbres issus des arêtes dela nieme génération.

    1.2 Excursions de la marche aléatoire simple.

    1.2.1 Notations

    On note E l’ensemble des applications ω : N → Z telles que ω(0) = 0, σ(ω) =inf{n > 0, ω(n) = 0} 0, Sn = 0}.La loi de (Sn∧T )n∈N est une probabilité sur E, notée P(dω). On note aussi P+(dω) =P(dω |w(1) = 1), qui est donc la loi de (Sn∧T )n∈N conditionnellement à {S1 > 0}.

    7

  • 1.2.2 Un résultat préliminaire

    Sur l’espace E+ des excursions positives définissons une suite de temps aléatoiresρ0, ..., ρk, ... en posant

    ρ0(ω) = 1, ρk+1(ω) = inf{n > ρk(ω), ω(n) = 1},avec la convention habituelle inf ∅ = ∞. Les instants ρk tels que ρk

  • 1.3 La correspondance entre arbre et excursion

    Dans ce paragraphe, nous notons Π la probabilité sur ∆ définie par la Proposition1 avec le choix

    ν(p) = 2−p−1, ∀p ∈ N.Remarquons que

    ∑∞p=0 pν(p) = 1. On note aussi ω0 l’unique élément de E+ tel que

    ω0(1) = 1, σ(ω0) = 2.

    Théorème 1.3 Il existe une unique bijection J : E+ → ∆ qui vérifie les deuxpropriétés suivantes:

    (i) J(ω0) = {∂};

    (ii) pour tout ω ∈ E+, k∂(J(ω)) = N(ω) et, pour p ∈ {1, · · · , N(ω)},

    J(τpω) = TpJ(ω).

    De plus, J(P+) = Π.

    Si l’on représente l’arbre verticalement, chaque arête correspondant à un segmentde longueur 1 et les descendants d’une arête étant placés au-dessus de l’arête enquestion, l’application J−1 revient à associer à l’arbre A le trajet d’une particule sedéplaçant sur cet arbre en partant de la base, en montant et descendant les branchesrencontrées successivement.

    Preuve. On commence par construire J(ω), ce qui montrera aussi que J est unique-ment déterminée par (i) et (ii). On procède par récurrence sur σ(ω). Le cas σ(ω) = 2est donné par (i). Supposons donc qu’on a défini J(w) lorsque σ(ω) ≤ 2p, et soitω tel que σ(ω) = 2p + 2. Alors, pour tout p ∈ {1, ..., N(ω)}, σ(τpω) ≤ 2p. Onpeut donc définir J(ω) = A comme étant l’unique arbre tel que k∂(A) = N(ω) etTpA = J(τpω) pour 1 ≤ p ≤ N(ω). Par construction, (i) et (ii) sont satisfaites.

    Pour établir que J est bijective, on se donne A ∈ ∆ et on vérifie par récurrencesur CardA qu’il existe un unique ω ∈ E tel que J(ω) = A. Si A = {∂}, on voit qu’ondoit avoir ω = ω0. Ensuite, en utilisant (ii) et l’hypothèse de récurrence appliquéeaux arbres TpA, on voit que ω est l’élément (unique) de E tel que N(ω) = k∂(A)et, pour p = 1, · · · , N(ω), τpω = ωp, où ωp est l’unique élément de E+ tel queJ(ωp) = TpA.

    Il reste à montrer que J(P+) = Π. Posons Π′ = J(P+). On vérifie que Π

    ′ possèdeles deux propriétés caractéristiques de Π, énoncées dans la Proposition 1. D’abord,d’après la Proposition 2,

    Π′(k∂ = p) = P+(N = p) = 2−p−1 = ν(p).

    9

  • Ensuite, en utilisant toujours la Proposition 2, on a pour tout p ≥ 1 et pour tousa1, ..., ap ∈ ∆,

    Π′(k∂ = p, T1A = a1, ..., TpA = ap) = P+(N = p, J(τ1ω) = a1, ..., J(τpω) = ap)= P+(N = p)P+(J(ω) = a1)...P+(J(ω) = ap)

    = Π′(k∂ = p)Π′(A = a1)...Π′(A = ap)

    et on obtient bien que Π′ vérifie la deuxième propriété de la Proposition 1. �

    Remarques. (a) Rappelons la notation Zp(A) = Card {u ∈ A, |u| = p}. Onvérifie facilement par récurrence sur p que, si J(ω) = A,

    Zp(A) = Card {n; ω(n) = p, ω(n+ 1) = p+ 1},

    qui représente le nombre de montées de ω du niveau p au niveau p + 1, ou demanière équivalente le nombre d’excursions de ω au-dessus du niveau p. Commeconséquence du théorème ci-dessus, on voit donc que le nombre de montées de p àp + 1, pour l’excursion positive de la marche aléatoire simple, est un processus deGalton-Watson de loi de reproduction géométrique.

    (b) Toujours si J(ω) = A, on a aussi, pour tout p ≥ 1,

    Card {n, ω(n) = p} = Zp(A) + Zp−1(A).

    Cette égalité peut aussi être vérifiée par récurrence, ou en utilisant (a) ci-dessus enobservant que si ω(n) = p on a ou bien ω(n + 1) = p + 1 (et alors n est le débutd’une excursion au-dessus de p) ou bien ω(n+ 1) = p− 1, dans quel cas n+ 1 est lafin d’une excursion au-dessus de p− 1.

    (c) En utilisant (b), on trouve

    σ(ω) = 1+

    ∞∑

    p=1

    Card {n, ω(n) = p} = Z0(A)+∞∑

    p=1

    (Zp−1(A)+Zp(A)) = 2∞∑

    p=0

    Zp(A).

    A l’aide de cette formule, il est facile de retrouver la fonction génératrice de σ:

    E+(rσ) = 1 −

    √1 − r2.

    Cette formule peut bien sûr être rapidement obtenue par d’autres méthodes. Cepen-dant, il est intéressant d’avoir une interprétation probabiliste du fait que la loi sousP+ de σ/2 est la loi de la population totale d’un processus de Galton-Watson.

    10

  • 1.4 Théorèmes limites

    1.4.1 Approximation de diffusion pour les processus de Galton-Watson critiques

    Nous nous proposons d’établir un théorème limite dû à Feller [17] qui décrit l’évolu-tion d’un processus de branchement critique partant avec un grand nombre d’indivi-dus à l’instant 0. Nous considérons une mesure de probabilité ν sur N telle que∑

    k ν(k) = 1 et∑

    k2 ν(k) < ∞. Ces deux propriétés sont vérifiées par la loigéométrique ν(k) = 2−k−1. Soit α > 0 une constante fixée. Pour tout k ≥ 1,on note (Zkn)n∈N un processus de Galton-Watson de loi de reproduction ν tel queZk0 = [αk] ([x] désigne la partie entière de x). On sait que p.s. pour n assez grandon a Zk0 = 0. Notre but est d’étudier l’évolution de ce processus entre l’instant0 et l’instant d’extinction, lorsque la population initiale est grande. Pour cela unchangement d’échelle approprié dans la variable de temps est nécessaire.

    Théorème 1.4 Soit ρ2 =∑

    k2ν(k) − 1 = var ν. Pour tout t ≥ 0, posons

    Y kt =1

    kZk[kt]

    Alors, pour tous 0 = t0 < t1 < ... < tp, on a

    limk→∞

    (

    Y kt0 , · · · , Y ktp)

    =(

    Y ∞t0 , · · · , Y∞tp)

    ,

    où la convergence a lieu en loi, et la loi du vecteur limite est caractérisée par lesdeux propriétés suivantes:

    (i) Y ∞t0 = α;

    (ii) pour tout j ≥ 1 et tout λ ≥ 0,

    E[

    exp−λY ∞tj | Y ∞t0 , · · · , Y∞tj−1]

    = exp−λY∞tj−1

    1 + ρ2

    2λ(tj − tj−1)

    .

    Remarques. On peut traduire le résultat du théorème en disant que la suite deprocessus (Y kt , t ≥ 0) converge, au sens de la convergence des lois marginales de di-mension finie, vers le processus (Y ∞t , t ≥ 0) dont les lois marginales sont caractériséespar (i) et (ii). L’existence de ce processus découle du théorème d’extension de Kol-mogorov (la condition de compatibilité nécessaire est obtenue par passage à la limitepuisqu’elle est bien sûr satisfaite par les processus (Y kt )).

    La formule (ii) montre que le processus limite (Y ∞t ) est markovien homogène,à valeurs dans R+. Comme conséquence de résultats des chapitres suivants, nous

    11

  • verrons aussi que ce processus a une version continue et est p.s. identiquement nulpour t assez grand (cela correspond à la propriété d’extinction des processus debranchement). On peut montrer par le calcul stochastique que (Y ∞t ) est solutiond’une équation différentielle stochastique de la forme

    {

    dY∞t = ρ√Y ∞t dBt

    Y∞0 = α .

    Lorsque ρ = 2, le processus (Y ∞t ) est appelé carré de processus de Bessel de di-mension 0 (voir le chapitre XI de [35]). Dans les travaux traitant de processus debranchement, (Y ∞t ) est connu sous le nom de diffusion de Feller.

    Nous pouvons dès à présent donner une description des noyaux de transition de(Y ∞t ), que nous interpréterons plus tard. Le noyau de transition Pt(x, dy) de (Y

    ∞t )

    est tel que∫

    Pt(x, dy) e−λy = E[exp−λY ∞t | Y∞0 = x] = exp−

    λx

    1 + ρ2

    2λt.

    Or, on vérifie facilement que cette transformée de Laplace est celle de la mesure deprobabilité µxt sur R+ définie comme étant la loi de

    e1 + e2 + · · ·+ eM ,

    où les variables e1, · · · , ej, · · · sont indépendantes de loi exponentielle de moyenneρ2

    2t, et M est une variable de loi de Poisson de paramètre ( ρ

    2

    2t)−1x, indépendante

    des variables ej.

    Preuve. On raisonne par récurrence sur p. Le cas p = 0 est trivial. En supposantle résultat acquis à l’ordre p− 1, il faut montrer que, si ϕ est une fonction continuebornée sur Rp et λ ≥ 0,

    limk→∞

    E[

    ϕ(Y kt0 , ..., Yktp−1

    ) exp−λY ktp]

    = E[

    ϕ(Y∞t0 , ..., Y∞tp−1

    ) exp−λY∞tp−1

    1 + ρ2

    2λ(tp − tp−1)

    ]

    .

    (1.1)En effet, cela entrâıne que la transformée de Laplace conjointe de (Y kt0 , ..., Y

    ktp) con-

    verge vers celle de (Y ∞t0 , ..., Y∞tp ), ce qui suffit pour conclure.

    Ensuite, soit g la fonction génératrice de ν,

    g(r) =

    ∞∑

    k=1

    ν(k) rk, r ∈ [0, 1],

    et soient gn les itérées de g définies par récurrence par

    g1 = g, gn+1 = g ◦ gn.

    12

  • Si Z est un processus de Galton-Watson de loi de reproduction ν, on a pour toutn ≥ 1

    E[rZn | Z0 = k] = gn(r)k.Nous utilisons cette égalité, avec la propriété de Markov à l’instant [ktp−1], dans lecalcul suivant:

    E[

    ϕ(Y kt0 , · · · , Y ktp−1) exp−λY ktp]

    = E[

    ϕ(1

    kZk[kt0], · · · ,

    1

    kZk[ktp−1]) exp−

    λ

    kZk[ktp]

    ]

    = E[

    ϕ(Y kt0, · · · , Y ktp−1) g[ktp]−[ktp−1](e−λ/k)kY ktp−1

    ]

    .

    Lemme 1.5 On a

    limm→∞

    1

    m

    (

    1

    1 − gm(r)− 1

    1 − r

    )

    =ρ2

    2,

    uniformément pour r ∈ [0, 1[.Nous renvoyons au livre d’Athreya et Ney [3], p.19, pour une preuve de ce lemme.Dans le cas de la loi géométrique, qui est celui que nous utiliserons, on calculefacilement

    g(r) =1

    2 − r , gm(r) =m− (m− 1)rm+ 1 −mr = 1 −

    1 − rm + 1 −mr, ρ

    2 = 2,

    et le résultat du lemme est immédiat.On déduit du lemme que

    1

    1 − gm(r)=

    1

    1 − r +ρ2r

    2+ o(m),

    le reste o(m) étant uniforme en r ∈ [0, 1[. On applique ceci en prenant

    m = [ktp] − [ktp−1], r = e−λ/k

    et on trouve

    (1 − g[ktp]−[ktp−1](e−λ/k))−1 = k( 1

    λ+ρ2(tp − tp−1)

    2

    )

    + o(k),

    soit encore

    g[ktp]−[ktp−1](e−λ/k) = 1 − λ

    1 + ρ2

    2λ(tp − tp−1)

    1

    k+ o(

    1

    k).

    Il en découle que

    g[ktp]−[ktp−1](e−λ/k)

    kY ktp−1 =

    (

    exp(

    − λ1 + ρ

    2

    2λ(tp − tp−1)

    )

    + o(1)

    )Y ktp−1

    .

    13

  • La formule (1.1) est une conséquence de ce dernier résultat et de l’hypothèse derécurrence. �

    Dans le sous-paragraphe suivant, nous aurons besoin d’un petit résultat tech-nique qu’on peut par exemple déduire facilement de la preuve ci-dessus. Pour toutt > 0, on a

    limk→∞

    1

    k(Zk[kt]−1 − Zk[kt]) = 0, (1.2)

    avec convergence en probabilité. Pour obtenir ce résultat, on peut raisonner commedans la preuve ci-dessus et obtenir, pour tous λ, λ′ ≥ 0,

    limk→∞

    E[exp(

    − λkZk[kt]−1 −

    λ′

    kZk[kt]

    )

    ] = E[exp(

    − (λ+ λ′)Y∞t)

    ].

    Cela montre que le couple (k−1Zk[kt]−1, k−1Zk[kt]) converge en loi vers (Y

    ∞t , Y

    ∞t ), d’où

    (1.2).

    1.4.2 Un théorème limite pour les temps de séjour d’unemarche aléatoire

    Dans ce paragraphe, nous considérons une marche aléatoire simple sur N, notée(Xn)n∈N, avec X0 = 0. Cela signifie que (Xn) a la loi de la valeur absolue d’unemarche aléatoire simple sur Z, ou de manière équivalente que (Xn) est une châıne deMarkov sur N avec probabilités de transition Q(0, 1) = 1, Q(k, k+1) = Q(k, k−1) =1/2 pour k ≥ 1. On pose τ0 = 0 puis, pour tout k ≥ 1,

    τk = inf{n > τk−1, Xn = 0}.

    Les processus (X(τk−1+n)∧τk)n∈N sont indépendants de loi P+.Pour tout k ≥ 1, pour tout j ∈ N, posons

    Nkj =

    τk∑

    n=0

    1{Xn=j},

    qui représente le nombre de passages en j avant le kieme retour en 0. On appellediffusion de Feller le processus limite du théorème 1.4.

    Corollaire 1.6 Les processus ( 1kNk[ks], s > 0) convergent, au sens de la convergence

    en loi des marginales de dimension finie, vers une diffusion de Feller avec valeurinitiale α = 1 et ρ2 = 2.

    Preuve. Notonsωk(n) = X(τk−1+n)∧τk ,

    14

  • de sorte que les variables ωk sont indépendantes de loi P+. Avec les notationsintroduites ci-dessus, on a pour j ≥ 1

    Nkj =

    k∑

    l=1

    Card {n, wl(n) = j} =k∑

    l=1

    (

    Zj(J(ωl) + Zj−1(J(ω

    l)))

    = Zkj + Zkj−1,

    où, d’après le théorème 1.3 le processus (Zkj )j∈N est un processus de Galton-Watsonde loi de reproduction géométrique, avec Zk0 = k. Il suffit ensuite d’appliquer lethéorème 1.4 en utilisant aussi (1.2). Remarquons qu’il faut exclure la valeur s = 0dans le corollaire puisque 1

    kNk0 = (k + 1)/k converge vers 1 et non pas vers 2. �

    Remarque. Grâce à la forme des noyaux de transition du processus (Y ∞s ), discutéeci-dessus, on voit que, pour tout s > 0, 1

    kNk[ks] converge en loi vers e1 + · · · + eM ,

    où M suit une loi de Poisson de paramètre 1/s et les variables ej sont des variablesexponentielles de moyenne 2s, indépendantes (entre elles) et indépendantes de M .Interprétons ce résultat. Chacune des excursions ωj a une probabilité [ks]

    −1 devisiter [ks] (cela se voit très facilement par un argument de martingale). Le nombred’excursions qui visitent le point [ks] suit donc une loi binômiale B(k, [ks]−1), quiconverge quand k tend vers ∞ vers une loi de Poisson de paramètre s.

    De plus, conditionnellement au fait qu’une excursion donnée visite [ks], le nombrecorrespondant de visites en [ks] suit une loi géométrique de paramètre 1− 1/(2[ks])(i.e. µ(j) = (2[ks])−1(1− (2[ks])−1)j). Ce résultat découle facilement de la propriétéde Markov forte (un résultat analogue est valable pour n’importe quelle châıne deMarkov). Normalisée par 1/k, cette loi géométrique converge vers une loi exponen-tielle de paramètre 2s.

    En termes de processus de branchement, l’ordre de grandeur à l’instant [ks]d’une population initialement de k individus est encore k. Cependant, le nombre desindividus de la population initiale qui ont des descendants à l’instant [ks] reste petit(même quand k est grand) puisqu’il se comporte comme une variable de Poisson deparamètre 1/s. Inversement, pour chacun de ces individus qui ont des descendants àl’instant [ks], le nombre des descendants en question est grand puisqu’il se comportecomme k fois une variable exponentielle de moyenne 2s.

    L’interprétation précédente en termes de processus de branchement n’a été obte-nue que pour le processus de Galton-Watson géométrique (de paramètre 1/2). Ce-pendant elle est valable pour tout processus de Galton-Watson de loi de reproductioncritique et de variance finie: voir l’exercice 1.5 ci-dessous.

    Exercices

    Exercice 1.1 En utilisant le théorème 1.3 calculer la loi de l’instant d’extinctiond’un processus de Galton-Watson de loi de reproduction géométrique de paramètre

    15

  • 1/2, avec population initiale k individus. On note Hk cet instant. Etudier la con-vergence en loi de 1

    kHk.

    Exercice 1.2 Soit Y ∞ une diffusion de Feller (processus limite du théorème 1.4).On admet que Y ∞ a des trajectoires continues et que, si

    T = inf{t ≥ 0, Y ∞t = 0},

    on a Y∞t = 0, ∀t ≥ T , p.s. Montrer que T est fini p.s. et calculer la loi de T(calculer P (Y∞t = 0)). Comparer avec la loi limite de l’exercice précédent.

    Exercice 1.3 Soient U 1, U2 deux diffusions de Feller indépendantes, issues respec-tivement de α1 et α2. Vérifier sur les fonctionnelles de Laplace que U

    1 + U2 estencore une diffusion de Feller, avec valeur initiale α1 + α2. Interpréter ce résultatà l’aide du théorème 1.4

    16

  • Exercice 1.4 Soit Sn une marche aléatoire simple sur Z, avec valeur initiale S0 =0. Soit Tk l’instant du k

    ieme retour en 0 de cette marche aléatoire et pour tout p ≥ 0,soit

    Mkp = Card {1 ≤ n ≤ Tk;Sn = p}.Montrer que la suite de processus ( 1

    kMk[kt], t ≥ 0) converge en loi, au sens des

    marginales de dimension finie, vers une diffusion de Feller de valeur initiale 1(généraliser, un peu, le théorème 1.4).

    Exercice 1.5 Soit ν une mesure de probabilité satisfaisant les hypothèses du théorè-me 1.4 et soit (Zn) un processus de Galton-Watson de loi de reproduction ν, avecZ0 = 1. Montrer à l’aide du lemme 1.5 que, quand n→ ∞,

    P (Zn > 0) ∼2

    ρ2n,

    puis que la loi conditionnelle de 1nZn sachant que Zn > 0 converge vers une loi

    exponentielle.

    17

  • Chapter 2

    Temps Locauxdu Mouvement Brownien

    L’une des applications du chapitre précédent concernait l’étude asymptotique desnombre de visites d’une marche aléatoire simple en différents points. Le théorèmed’invariance de Donsker, selon lequel le mouvement brownien est limite en loi demarches aléatoires discrètes convenablement renormalisées, suggère fortement l’exis-tence d’une version “brownienne” de ce résultat. Notre objectif dans ce chapitre estde construire l’analogue pour le mouvement brownien des nombres de visites pourune marche aléatoire. Cela nous conduira à la notion de temps local du mouvementbrownien, dont nous étudierons aussi quelques propriétés importantes.

    2.1 Construction des temps locaux

    Dans tout ce chapitre, (Bt, t ≥ 0) désigne un mouvement brownien réel issu de 0 et(Ft) est la filtration canonique de B (Ft est la tribu engendrée par (Bu, 0 ≤ u ≤ t),complétée par les ensembles négligeables de la “grande” tribu sous-jacente, on saitque la filtration (Ft) est continue à droite). La plupart des résultats qui suiventpeuvent être immédiatement étendus au cas d’une valeur initiale B0 générale.

    Pour tous t ≥ 0, a ∈ R, on a

    E

    (∫ t

    0

    1(Bs=a) ds

    )

    =

    ∫ t

    0

    P (Bs = a) ds = 0,

    ce qui montre que∫ t

    01(Bs=a) ds = 0, p.s. Si l’on cherche à mesurer le nombre de

    visites du mouvement brownien en a, il ne sert donc à rien de considérer le tempspassé en a,

    ∫ t

    01(Bs=a) ds. La bonne approche sera d’étudier la densité de temps

    d’occupation en a, définie comme la limite

    limε→0

    1

    ∫ t

    0

    1(a−ε

  • L’existence de cette limite découle du théorème suivant.

    Théorème 2.1 Il existe un processus aléatoire (Lat , a ∈ R, t ≥ 0) à valeurs dansR+, unique à indistinguabilité près, tel que

    (i) p.s., l’application (t, a) −→ Lat est continue, et croissante en la variable t;

    (ii) p.s., pour toute fonction ϕ : R −→ R+ mesurable, pour tout t ≥ 0,∫ t

    0

    ϕ(Bs) ds =

    daϕ(a)Lat .

    La variable Lat est appelée temps local au niveau a, à l’instant t du mouvementbrownien B.

    Remarque. En prenant (formellement) ϕ = δx dans (ii), on trouve

    Lxt =

    ∫ t

    0

    δx(Bs) ds, (2.1)

    expression formelle qui nous guidera dans la construction des temps locaux.

    Preuve. Nous partons de l’expression formelle (2.1) et remplaçons la mesure deDirac δx par une approximation. On pourrait comme cela a été suggéré ci-dessusutiliser la fonction (2ε)−11]x−ε,x+ε[. Cependant, pour la commodité des calculs, ilsera préférable d’utiliser le noyau gaussien:

    pε(x) =1√2πε

    exp(−x2

    2ε), ε > 0, x ∈ R.

    Rappelons la formule d’inversion de Fourier

    pε(x) =1

    R

    dξ exp(ixξ − 12ε|ξ|2).

    Pour tous ε ∈]0, 1], t ≥ 0, a ∈ R, on pose

    L(ε, t, a) =

    ∫ t

    0

    pε(Bs − a) ds.

    Le lemme suivant est l’ingrédient essentiel de la preuve.

    Lemme 2.2 Soit p ≥ 1 un entier et soient K > 0, γ ∈]0, 1/4[. Il existe uneconstante C = C(K, γ, p) telle que, pour tous ε, ε′ ∈]0, 1], t, t′ ∈ [0, K], a, a′ ∈ R,

    E[

    (L(ε, t, a) − L(ε′, t′, a′))2p]

    ≤ C |(ε, t, a) − (ε′, t′, a′)|2γp.

    19

  • Nous admettons provisoirement le résultat du lemme et nous montrons comment onen déduit le théorème. La première étape consiste à appliquer le classique lemmede Kolmogorov (bien que ce résultat soit très souvent appliqué, il est difficile d’entrouver une référence satisfaisante: on peut adapter les preuves données dans [29],p.116 ou dans [35], p.25).

    Lemme 2.3 (Kolmogorov) Soit I un pavé borné (i.e. un produit d’intervallesbornés, ouverts, fermés ou semi-ouverts) dans Rd et soit (Y (x), x ∈ I) une famillede variables aléatoires indexée par x ∈ I. Supposons qu’il existe un réel p > 0 etdeux constantes C0, β > 0 telles que

    ∀ x, x′ ∈ I, E[|Y (x) − Y (x′)|p] ≤ C0|x− x′|d+β.

    Alors le processus (Y (x), x ∈ I) a une version continue, qui est même globalementhöldérienne d’exposant α, pour tout α < β/p.

    Lorsque l’on sait déjà que le processus (Y (x), x ∈ I) est p.s. continu, ce qui est lecas dans notre application, la preuve du lemme de Kolmogorov consiste simplementà appliquer l’inégalité de Markov puis le lemme de Borel-Cantelli pour vérifier quep.s. pour tout n assez grand, pour tout l ∈ {1, . . . , d},

    |Y (x1, . . . , xd) − Y (x1, . . . , xl + 2−n, . . . , xd)| ≤ 2−nα,

    dès que (x1, . . . , xd), (x1, . . . , xl + 2−n, . . . , xd) ∈ I et xj est un multiple de 2−n pour

    tout j ∈ {1, . . . , d}. Une fois cette estimation acquise, un argument analytiqueélémentaire donne le caractère höldérien d’exposant α de (Y (x), x ∈ I).

    Nous appliquons le lemme 2.3 au processus (L(ε, t, a), ε∈ ]0, 1], t ∈ [0, K], a ∈[−K,K]). En utilisant le lemme 2.2 avec p assez grand, on voit que l’hypothèsedu lemme de Kolmogorov est vérifiée. Comme il est clair par construction que leprocessus (L(ε, t, a)) est continu, on obtient précisément que, pour tout α < 1/4,la fonction (ε, t, a) −→ L(ε, t, a) est p.s. globalement höldérienne d’exposant α, sur]0, 1] × [0, K] × [−K,K].

    En conséquence, cette fonction admet un unique prolongement continu à l’adhé-rence du pavé, c’est-à-dire à [0, 1] × [0, K] × [−K,K]. On pose

    Lat = L(0, t, a) = limε↓0

    L(ε, t, a), a ∈ [−K,K], t ∈ [0, K].

    Evidemment, en considérant une suite Kn convergeant vers +∞, on peut étendrecette définition à tous a ∈ R, t ∈ R+. La fonction (a, t) → Lat est localementhöldérienne d’exposant α, ce qui donne (i).

    Soit maintenant ϕ une fonction continue à support compact de R dans R+. Alors,

    ∫ t

    0

    ϕ(Bs) ds = limε→0

    ∫ t

    0

    ϕ ∗ pε(Bs) ds.

    20

  • Or,∫ t

    0

    ϕ ∗ pε(Bs) ds =∫

    dxϕ(x)

    ∫ t

    0

    ds pε(Bs − x) =∫

    dxϕ(x)L(ε, t, x),

    qui par convergence dominée converge vers∫

    dxϕ(x)Lxt .

    On a donc obtenu (ii) lorsque ϕ est continue à support compact, ce qui suffit.L’unicité est aussi facile. En utilisant (i) et (ii) on a en effet, p.s. pour tous

    t ≥ 0, a ∈ R,

    Lat = limε↓0

    1

    ∫ a+ε

    a−ε

    dxLxt = limε↓0

    1

    ∫ t

    0

    1(|Bs−a|

  • Or, en notant ηj = ξj + · · ·+ ξ2p, on a

    var

    2p∑

    j=1

    ξjBsj = var

    2p∑

    j=1

    ηj(Bsj − Bsj−1) =2p∑

    j=1

    η2j (sj − sj−1),

    où par convention s0 = 0. Enfin, pour tout γ ∈]0, 1], il existe une constante c = c(γ)telle que, pour tous y, y′ ∈ R,

    ∣e−iy − e−iy′∣

    ∣ ≤ c |y − y′|γ.

    Compte-tenu de ces remarques, on peut majorer

    E[(L(ε, t, x) − L(ε, t, x′))2p]

    ≤ Cp∫

    dξ1 . . . dξ2p

    ∆p

    ds1 . . . ds2p e− 1

    2

    P2pj=1 η

    2j (sj−sj−1)

    2p∏

    j=1

    |ξj(x− x′)|γ

    ≤ Cp|x− x′|2pγ∫

    dξ1 . . . dξ2p

    2p∏

    j=1

    |ξj|γ2p∏

    j=1

    (

    1 − exp(−η2j t/2)η2j/2

    )

    ,

    la dernière égalité étant obtenue en intégrant sur l’ensemble {sj − sj−1 ≤ t, ∀j ∈{1, ..., 2p}} qui contient ∆p. Il reste maintenant à voir que l’intégrale en dξ1 . . . dξ2pest finie. Pour cela, on fait le changement de variables (ξ1, . . . , ξ2p) → (η1, . . . , η2p),et on utilise l’inégalité simple |ηj−ηj+1| ≤ (1+|ηj|)(1+|ηj+1|) qui permet de majorercette intégrale par

    (∫

    dη (1 + |η|)2γ 1 − exp(−η2t/2)

    η2/2

    )2p

    .

    Cette dernière intégrale est finie si 2γ < 1.Le traitement des deux autres termes est tout à semblable. Les mêmes calculs

    montrent

    E[(L(ε, t, x) − L(ε′, t, x))2p]

    = cp

    dξ1 . . . dξ2p

    2p∏

    j=1

    (

    e−εξ2j /2 − e−ε′ξ2j /2

    )

    (

    ∆p

    ds1 . . . ds2pE[

    eiP

    ξjBsj

    ]

    )

    e−ixP

    ξj

    ≤ Cp |ε− ε′|2pγ∫

    dξ1 . . . dξ2p

    2p∏

    j=1

    |ξj|2γ∫

    ∆p

    ds1 . . . ds2p e− 1

    2

    P

    η2j (sj−sj−1)

    ≤ C ′p |ε− ε′|2pγ

    grâce aux mêmes arguments que ci-dessus, qui nécessitent cette fois de supposer4γ < 1.

    22

  • Enfin, en supposant par exemple t < t′, et en utilisant l’égalité∫

    dη exp(−rη2) =C/

    √r, on a

    E[(L(ε, t, x) − L(ε, t′, x))2p]

    = cp

    dξ1 . . . dξ2p e−ix

    P

    ξj−ε2

    P

    ξ2j

    ∆p∩[t,t′]2pds1 . . . ds2pE

    [

    eiP

    ξjBsj

    ]

    ≤ cp∫

    dξ1 . . . dξ2p

    {t≤s1≤···≤s2p≤t′}

    ds1 . . . ds2p e− 1

    2

    P

    η2j (sj−sj−1)

    = Cp

    {t≤s1≤···≤s2p≤t′}

    ds1 . . . ds2p

    2p∏

    j=1

    (sj − sj−1)−1/2

    ≤ C ′p (t′ − t)p.Cela termine la preuve du lemme. �

    La preuve ci-dessus fournit des renseignements précis sur la régularité de lafonction (a, t) → Lat , que nous énonçons dans la proposition suivante.Proposition 2.4 Pour tout δ > 0, la fonction (a, t) → Lat est p.s. localementhöldérienne d’exposant 1

    2− δ. De plus, pour tout K > 0 et tout p > 0,

    supa∈R,t≤K

    E ((Lat )p)

  • Le résultat recherché en découle, puisque l’application a→ E(Lat ) est continue grâcepar exemple à (2.3). �

    La méthode que nous avons utilisée pour construire les temps locaux est asseztechnique, bien que relativement élémentaire. On peut lui préférer les méthodesde calcul stochastique reposant sur la formule de Tanaka, qui s’appliquent plusgénéralement aux semimartingales continues (voir le chapitre VI de [35]). Remar-quons cependant que notre approche pourrait être étendue à d’autres processusgaussiens et surtout à d’autres types de temps locaux comme les “temps locauxd’intersection” du mouvement brownien en dimension supérieure (voir par exemple[18]).

    2.2 Propriétés des temps locaux

    Nous établissons dans ce paragraphe plusieurs propriétés des temps locaux browniensqui nous seront utiles dans la suite. Comme nous aurons à considérer d’autresmouvements browniens que B, nous noterons Lat (B) au lieu de L

    at quand il y aura

    risque d’ambigûıté. En particulier, soit T un temps d’arrêt de la filtration canoniquede B. Le processus BTt = BT+t − BT est encore un mouvement brownien réel issude 0, et on peut donc considérer ses temps locaux. A l’aide de la formule de densitéde temps d’occupation, on vérifie immédiatement que p.s. pour tous t ≥ 0, a ∈ R,

    Lat (BT ) = LBT +aT+t (B) − LBT +aT (B). (2.4)

    De même, pour tout λ > 0, le processus B(λ)t = λ

    −1Bλ2t est encore un mouvementbrownien réel et p.s. pour tous t ≥ 0, a ∈ R,

    Lat (B(λ)) = λ−1 Lλaλ2t(B). (2.5)

    Le résultat suivant généralise (2.2).

    Proposition 2.5 Soit (gn) une suite de fonctions positives intégrables sur R tellesque la suite de mesures gn(x) dx converge étroitement vers la mesure de Dirac δ0(dx).Alors, p.s. pour tous t ≥ 0, a ∈ R,

    Lat = limε→0

    ∫ t

    0

    gn(Bs − a) ds.

    Preuve. Immédiate à partir de (i) et (ii). �

    Pour tout a ∈ 0 fixé, le processus (Lat , t ≥ 0) est un processus croissant, continuadapté à la filtration de B (cette dernière propriété découle, par exemple, de laproposition ci-dessus). On peut associer à ce processus croissant continu une mesure

    24

  • aléatoire sans atomes sur R+, notée dtLat (par définition,

    ]u,v]dtL

    at = L

    av − Lau pour

    u < v). La construction des temps locaux suggère que cette mesure est portée parl’ensemble des instants où le mouvement brownien est en a. La proposition suivanteétablit et précise cette propriété.

    Proposition 2.6 Pour tout a ∈ R, le support de la mesure dtLat cöıncide p.s. avecl’ensemble {t ≥ 0, Bt = a}.Preuve. En utilisant l’approximation (2.2) du temps local on voit facilement que,si [p, q] est un intervalle de R+, la propriété

    ∀s ∈ [p, q], Bs 6= a

    entrâıne Laq = Lap. On en déduit que le support de dtL

    at est contenu dans l’ensemble

    {t ≥ 0, Bs = a}.La réciproque est un peu plus délicate. On remarque d’abord qu’il suffit de traiter

    le cas a = 0. En effet, en introduisant le temps d’arrêt Ta = inf{t ≥ 0, Bt = a} eten utilisant la propriété (2.4) on voit que p.s. pour tout t ≥ 0, on a

    LaTa+t(B) = L0t (B

    Ta).

    Donc, la propriété recherchée pour a quelconque découle du cas particulier a = 0appliqué au mouvement brownien BTa.

    Ensuite, on commence par montrer que p.s. L0t > 0 pour tout t > 0. Si (tn)est une suite décroissant strictement vers 0, l’événement A = lim ↓ {L0tn > 0} estmesurable par rapport à la tribu asymptotique F0+ = ∩t>0Ft. La loi du tout ourien affirme que la tribu F0+ est grossière, donc P (A) = 0 ou 1. D’autre part, enutilisant la propriété d’invariance par changement d’échelle (2.5), on voit facilementque la quantité P (L0t > 0) ne dépend pas de t > 0, donc

    P (A) = limn→∞

    ↓ P (L0tn > 0) = P (L01 > 0).

    Cette dernière quantité est strictement positive puisque E(L01 > 0) > 0, d’après laproposition 2.4. On conclut donc que P (A) = 1, ce qui était le résultat recherché.

    Pour tout rationnel q ≥ 0, posons ensuite

    σq = inf{t ≥ q, Bt = 0} 0 pour tout t > 0, p.s. On trouve immédiatement que

    L0σq+t > L0σq , ∀t > 0, p.s.

    Donc les instants de la forme σq, q rationnel, appartiennent au support de dtL0t . Or

    ces instants forment un sous-ensemble dense de {t ≥ 0, Bt = 0}. �

    25

  • Remarque. L’ensemble exceptionnel de probabilité nulle de la Proposition 6 dé-pend de a. Il existe p.s. des niveaux a dépendant de ω tels que le support dedtL

    at soit strictement contenu dans {t, Bt = a} (voir exercice 2.1). En revanche,

    l’inclusion supp dtLat ⊂ {t, Bt = a} est vraie simultanément pour tout a, p.s.

    Pour tout s ≥ 0, on poseτs = inf{t ≥ 0, L0t > s}.

    On remarque que L0∞ = ∞ p.s., ce qui assure que les instants τs sont finis p.s. Eneffet, la propriété (2.5) montre que pour tout λ > 0, L0∞ a même loi que λL

    0∞.

    Comme on sait que L0∞ > 0 p.s., cela n’est possible que si L0∞ = ∞ p.s.

    La fonction s −→ τs est par construction croissante et continue à droite. Deplus, la limite à gauche de cette fonction en s > 0 est

    τs− = inf{t ≥ 0, L0t = s}.Proposition 2.7 Le processus (τs, s ≥ 0) est un subordinateur (i.e. un processus àaccroissements indépendants stationnaires croissant) stable d’indice 1/2. On a p.s.

    {t ≥ 0, Bt = 0} = {τs, s ≥ 0} ∪ {τs−, s ∈ D},où D désigne l’ensemble (dénombrable) des instants de discontinuité de l’applications → τs. Enfin, les composantes connexes de R+\{t ≥ 0, Bt = 0} sont exactementles intervalles ]τs−, τs[ pour s ∈ D.Preuve. La propriété de support du temps local entrâıne que Bτs = 0, pour touts ≥ 0, p.s. On peut aussi remarquer que les instants τs (ou τs−) sont des tempsd’arrêt. En effet, pour tout t > 0, {τs < t} = {L0t > s} est Ft mesurable.

    Soit maintenant s > 0 fixé. Alors, τs, et plus géralement (τu, u ≤ s), sontmesurables par rapport à la tribu Fτs. Soit s′ > s. En appliquant la propriété (2.4)avec T = τs, on voit que, pour tout t ≥ 0

    L0τs+t(B) = L0t (B

    τs).

    Il en découle que τs′ − τs = τ ′s′−s, oùτ ′s′−s = inf{t ≥ 0, L0t (Bτs) > s′ − s}

    a même loi que τs′−s. Puisque le mouvement brownien Bτs est indépendant de la

    tribu Fτs, on obtient aussi que τs′ − τs est indépendant de (τu, u ≤ s). On a montréque (τs, s ≥ 0) est un subordinateur. En utilisant la propriété (2.5), on obtient queles processus (L0λ2t, t ≥ 0) et (λL0t , t ≥ 0) ont même loi, ce qui entrâıne aussi que lesprocessus (τλs, s ≥ 0) et (λ2τs, s ≥ 0) ont même loi, donc que (τs, s ≥ 0) est stabled’indice 1/2.

    Il est clair que Bt = 0 si t est de la forme τs ou τs−. Inversement, si Bt = 0, laproposition 2.6 entrâıne que t est un point de croissance de l’application t → L0t .Alors,

    26

  • · ou bien L0t+ε > L0t , pour tout ε > 0, dans quel cas il est facile de vérifier quet = τL0t ;

    · ou bien il existe ε0 > 0 tel que L0t+ε0 = L0t , alors L0t > L0t−ε, pour tout ε > 0, d’oùt = τL0t−; de plus, τL0t ≥ t+ ε0 ce qui montre que L0t = s ∈ D.

    La dernière assertion est maintenant facile. D’abord un intervalle de la forme]τs−, τs[ ne contient pas d’instant t tel que Bt = 0, toujours à cause de la proposition2.6. Inversement si ]a, b[ est une composante connexe de R+\{t ≥ 0, Bt = 0}, ondoit avoir L0a = L

    0b = s, et on vérifie immédiatement que a = τs−, b = τs. �

    Remarque. Soit H = {t ≥ 0, Bt = 0} l’ensemble des zéros de B. L’ensemble Hest p.s. fermé, totalement discontinu et sans point isolé. (cette dernière propriétédécoule par exemple de la proposition 2.6 qui montre que H est exactement lesupport d’une mesure sans atomes). L’intersection de H avec un intervalle compact[0,M ], M > 0 est donc homéomorphe à l’ensemble de Cantor. Les composantesconnexes de R+\H, les intervalles de la forme ]τs−, τs[, s ∈ D sont les intervallesd’excursion de B en dehors de 0. Le but de la théorie des excursions est de décrirele comportement du mouvement brownien sur ces intervalles.

    Proposition 2.8 Pour a ∈ ]0,∞[, soient Ta = inf{t ≥ 0, Bt = a}, Ra = inf{t ≥0, |Bt| = a}. Les variables L0Ta et L0Ra suivent des lois exponentielles de moyennesrespectives 2a et a.

    Preuve. Nous allons vérifier que, pour tout s > 0, la loi de L0Ta − s condition-nellement à {L0Ta > s} cöıncide avec la loi (non conditionnée) de L0Ta. On sait qu’ils’agit d’une propriété caractéristique des lois exponentielles. D’après la propriété(2.4) appliquée avec T = τs, on a p.s. pour tout t ≥ 0

    L0t (Bτs) = L0τs+t(B) − L0τs(B) = L0τs+t(B) − s.

    De plus, sur l’ensemble {L0Ta > s} = {sup{t≤τs}Bt < a} = {Ta > τs} on a

    T ′a := inf{t, Bτst = a} = Ta − τs.

    On voit donc que sur l’ensemble {L0Ta > s}, qui est Fτs-mesurable, on a L0Ta − s =L0T ′a(B

    τs), qui est une variable aléatoire indépendante de Fτs de même loi que L0Ta .On a obtenu la propriété caractéristique recherchée. Exactement le même argumentmontre aussi que L0Ra suit une loi exponentielle.

    Il reste à calculer les moyennes de ces lois exponentielles. Soit ϕ une fonctioncontinue de R dans R+ à support compact contenu dans [0, a]. On pose ϕ(x) = 0 six ≤ 0, et pour x ≥ 0,

    ϕ(x) = 2

    ∫ x

    0

    dy

    ∫ y

    0

    du g(u) = 2

    ∫ x

    0

    du (x− u) g(u) = 2∫ ∞

    0

    du (x− u)+ g(u),

    27

  • de façon que 12ϕ′′ = g. En appliquant le théorème d’arrêt à la martingale ϕ(Bt) −

    ∫ t

    0ds g(Bs), on trouve

    ∫ a

    0

    db g(b)E(

    Lbt∧Ra)

    = E

    (∫ t∧Ra

    0

    ds g(Bs)

    )

    = E(

    ϕ(Bt∧Ra))

    = 2

    ∫ a

    0

    db g(b)E(

    (Bt∧Ra − b)+)

    .

    L’application b → E(

    Lbt∧Ra)

    est continue, grâce à la continuité p.s. du temps localet aux bornes de la proposition 2.4. On trouve donc que, pour tous b ∈ [0, a], t ≥ 0,

    E(

    Lbt∧Ra)

    = 2E(

    (Bt∧Ra − b)+)

    ,

    et, en faisant tendre t vers ∞,

    E(

    LbRa)

    = 2E(

    (BRa − b)+)

    = a− b,

    en distinguant les deux cas BRa = a, BRa = −a. Le même argument donne pourb ∈ [0, a]

    E(

    LbTa)

    = 2E(

    (BTa − b)+)

    = 2(a− b).�

    Remarque. La proposition ci-dessus est un analogue brownien du résultat facile,déjà mentionné dans le chapitre 1, selon lequel le nombre de visites en x d’unechâıne de Markov partant de x, avant d’atteindre un autre point (ou un ensembled’autres points), suit une loi géométrique. Le calcul des moyennes dans la preuveprécédente serait immédiat si nous avions utilisé l’approche du calcul stochastiquepour construire les temps locaux. C’est un petit inconvénient de notre méthode.

    Exercices

    Exercice 2.1 Soient u < v deux réels positifs et soit M = supt∈[u,v]Bt. Vérifier

    que M > sup(Bu, Bv) p.s. puis que le support de la mesure dtLMt est strictement

    contenu dans {t ≥ 0, Bt = M}.

    Exercice 2.2 Montrer que, p.s. pour tout t ≥ 0,

    · ou bien τL0t− < t < τL0t et alors Bt 6= 0, et ]τL0t−, τL0t [ est l’intervalle d’excursion deB hors de 0 qui contient t;

    · ou bien τL0t− = t < τL0t et alors Bt = 0 et t est l’extrémité gauche d’une composanteconnexe de R+\{u,Bu = 0};

    28

  • · ou bien τL0t− < t = τL0t et alors Bt = 0 et t est l’extrémité droite d’une composanteconnexe de R+\{u,Bu = 0};

    · ou bien τL0t− = t = τL0t et tout intervalle de la forme ]t− ε, t[, ou ]t, t+ ε[ contientdes zéros de B.

    Vérifier que p.s. pour tout t > 0,

    τL0t = inf{u > t, Bu = 0}, τL0t− = sup{u < t, Bu = 0}.

    Exercice 2.3 Avec les notations de la proposition 2.8, calculer la loi de LbRa pourb ∈]−a, a[, puis celle de LbTa pour b ∈]−∞, a[ (calculer d’abord la probabilité pour lemouvement brownien partant de 0 d’atteindre un point u > 0 avant un point v < 0).

    29

  • Chapter 3

    Marches Aléatoires Plongéesdans le Mouvement Brownien etApplications aux Temps Locaux

    L’objectif principal de ce chapitre est de mettre en place les outils généraux quipermettent de faire le lien entre les résultats concernant les marches aléatoires établisau chapitre 1 et l’étude du mouvement brownien. Dans ce but, nous montronsd’abord comment l’on plonge des marches aléatoires de pas de plus en plus petitdans la trajectoire d’un mouvement brownien réel. Ce plongement conduit ensuiteà des approximations des temps locaux browniens par les nombres de montées desmarches aléatoires plongées. En combinant ces approximations avec un théorèmelimite du chapitre 1, on aboutit à un théorème important sur la loi du processus destemps locaux browniens vu comme fonction de la variable d’espace. Comme autreapplication, nous calculons la dimension de Hausdorff de l’ensemble des zéros dumouvement brownien.

    3.1 Marches aléatoires plongées

    dans le mouvement brownien

    Nous considérons à nouveau un mouvement brownien réel (Bt, t ≥ 0) avec B0 = 0,et nous conservons les notations introduites dans le chapitre 2. Pour tout entiern ≥ 0 fixé, on définit une suite de temps d’arrêt (T nk , k = 0, 1, 2, . . .) en posant

    T n0 = 0 , Tnk+1 = inf{t > T nk , |Bt − BT nk | = 2

    −n}.

    On pose aussiSnk = 2

    nBT nk .

    30

  • Proposition 3.1 Pour tout n ≥ 0, la suite (Snk , k = 0, 1, . . .) est une marchealéatoire simple sur Z, issue de 0. De plus, pour tout K > 0,

    limn→∞

    supt≤K

    |2−nSn[22nt] − Bt| = 0, p.s.

    Remarque. Le théorème d’invariance de Donsker entrâıne que si (Sk) est unemarche aléatoire simple sur Z, la suite de processus (2−nS[22nt], t ≥ 0) converge enloi vers le mouvement brownien réel issu de 0. La proposition précédente réalisecette convergence comme une convergence presque sûre sur l’espace de probabilitédu mouvement brownien.

    Preuve. La première assertion est facile. On a Snk+1 − Snk = 2n(BT nk+1 − BT nk ). Onapplique alors la propriété de Markov forte à l’instant T nk . La variable BT nk+1 −BT nkest la valeur du mouvement brownien BT

    nk au premier instant où il sort de l’intervalle

    ] − 2−n, 2−n[, donc prend les valeurs −2−n et 2−n chacune avec probabilité 1/2. Deplus, toujours grâce à la propriété de Markov forte, cette variable est indépendantede la tribu FT nk , donc en particulier des variables Snj = 2nBT nj pour j ≤ k.

    Cet argument montre aussi que, pour n fixé, les variables T nk+1 −T nk , k = 0, 1, . . .sont indépendantes et de même loi. Cette loi commune est la loi de T n1 qui parun argument de changement d’échelle est aussi la loi de 2−2nT 01 . En appliquant lethéorème d’arrêt à la martingale B2t − t, on trouve E(T 01 ) = 1. De plus, pour toutentier p ≥ 1,

    P (T 01 ≥ p) ≤ P (∀j ∈ {1, . . . , p}, |Bj − Bj−1| ≤ 2}) = cp,

    avec c = P (|B1| ≤ 2) < 1. Il en découle que T 01 a des moments exponentiels (i.e.E(exp(λT 01 )) 0 assez petit) et en particulier que E((T 01 )2)

  • 3.2 Approximations du temps local brownien

    Notre but dans ce paragraphe est de donner des approximations du temps localde B faisant intervenir les marches aléatoires plongées Sn. L’idée, déjà évoquée enmotivation du chapitre 2, est que le temps local est l’analogue brownien du nombrede visites en un point donné k par une marche aléatoire simple. Plutôt que d’utiliserles nombres de visites, il sera commode de travailler avec les “nombres de montées”de la marche aléatoire de k à k + 1, qui sont déjà intervenus dans le chapitre 1.

    Pour tout a ∈ 2−nZ(= {k2−n; k ∈ Z}) et tout s ≥ 0, on pose

    la,ns = 2−nCard {k ≤ [22ns] − 1; Snk = 2na, Snk+1 = 2na+ 1},

    l̃a,ns = 2−nCard {k ∈ N; T nk+1 ≤ s, Snk = 2na, Snk+1 = 2na + 1}.

    La quantité 2nl̃a,ns s’interprète comme le nombre de montées du niveau a au niveaua + 2−n effectuées par le mouvement brownien avant l’instant s.

    Théorème 3.2 Pour tout n ≥ 0, soit an ∈ 2−nZ. Supposons que la suite (an)converge vers a ∈ R. Alors,

    (

    lan,ns , s ≥ 0)

    −→(1

    2Las , s ≥ 0

    )

    (

    l̃an,ns , s ≥ 0)

    −→(1

    2Las , s ≥ 0

    )

    où dans les deux cas la convergence a lieu uniformément sur tout compact de R+,p.s.

    Remarque. Le résultat concernant l̃an,ns correspond à une approximation dutemps local par les nombres de montées du mouvement brownien. En revanche,le résultat concernant lan ,ns conduit plutôt à un “principe d’invariance” pour lesmarches aléatoires (voir la discussion à la fin de ce paragraphe).

    Preuve. Remarquons que le processus limite est continu et croissant (en la variables) et que les processus (lan,ns , s ≥ 0) et (l̃an,ns , s ≥ 0) sont aussi croissants. D’aprèsun argument déjà utilisé dans le paragraphe précédent, il suffit donc de montrer quela convergence a lieu p.s. pour tout s fixé. Remarquons ensuite que le résultat pourl découle du résultat pour l̃. En effet, d’après (3.1), on a p.s. pour tout ε > 0, pourtout n assez grand,

    (1 − ε) s ≤ T n[22ns] ≤ (1 + ε) s,ce qui entrâıne

    l̃an ,n(1−ε)s ≤ lan,ns ≤ l̃an ,n(1+ε)s.

    32

  • On introduit alors les temps d’arrêt Mnk , Nnk , k = 1, 2, . . . définis par récurrence

    par

    Mn1 = inf{t ≥ 0; Bt = an},Nnk = inf{t ≥Mnk ; Bt = an + 2−n},Mnk+1 = inf{t ≥ Nnk ; Bt = an}.

    Alors,l̃an,ns = 2

    −n sup{j ≥ 1; Nnj ≤ s} (sup ∅ = 0)et donc

    Nn2n l̃an,ns

    ≤ s < Nn2n l̃an,ns +1

    . (3.2)

    Lemme 3.3 Pour tout t ≥ 0,

    limn→∞

    LanNn[2nt]

    = 2t, p.s.

    Preuve. Grâce à la propriété de support des temps locaux browniens (proposition2-6), on a

    LanNn[2nt]

    =

    [2nt]∑

    k=1

    (

    LanNnk− LanMnk

    )

    .

    Les variables LanNnk−LanMnk sont indépendantes, à cause de la propriété de Markov forte

    aux instants de la forme Mnk . De plus, toujours à cause de la propriété de Markovforte et en utilisant la proposition 2-8, ces variables suivent la loi exponentielle demoyenne 2 · 2−n. Il en découle que

    E(

    LanNn[2nt]

    )

    = 2 · 2−n [2nt] −→ 2tvarLanNn

    [2nt]= C 2−2n [2nt] ≤ C t 2−n

    d’où le résultat du lemme. �

    Revenons à la preuve du théorème. Par des arguments déjà utilisés ci-dessus, laconvergence du lemme a lieu uniformément pour t variant dans un compact de R+,p.s. On peut donc en particulier prendre t = 1

    2Las + ε, avec ε > 0. Alors, pour tout

    n assez grand,2t = Las + 2ε > L

    ans ,

    grâce à la continuité de Lbs en la variable b. D’après le lemme, on a p.s. pour n assezgrand,

    LanNn[2nt]

    > Lans ,

    et doncNn[2nt] > s ≥ Nn2n l̃an,ns ,

    33

  • d’après (3.2). Cela entrâıne aussi

    [2n(1

    2Las + ε)] = [2

    nt] ≥ 2n l̃an,ns .

    On a donc obtenu que p.s. pour tout n assez grand

    l̃an,ns ≤1

    2Las + ε.

    Un raisonnement analogue, en prenant maintenant t = 12Las − ε, montre qu’on a

    aussi p.s. pour tout n assez grand,

    l̃an,ns ≥1

    2Las − ε.

    Cela termine la preuve du théorème. �

    Remarque. Il existe d’autres résultats d’approximation des temps locaux par lesnombres de montées, dont certains sont valables pour des semimartingales générales(voir notamment le chapitre III de [4]). L’énoncé ci-dessus est adapté aux applica-tions qui seront développées dans les chapitres suivants.

    Discutons quelques conséquences de la deuxième assertion du théorème. Soit(Sn, n ∈ N) une marche aléatoire simple sur Z avec S0 = 0. Pour tous n ≥ 1, p ∈ Z,notons

    λnp = Card {j ≤ n− 1; Sj = p, Sj+1 = p+ 1}qui représente le nombre de montées de la marche aléatoire de p à p + 1 avantl’instant n. Alors, pour tous a1, . . . , ak ∈ R,

    (

    2−nλ[2na1]22n , . . . , 2

    −nλ[2nak ]22n

    )

    (loi)−→(1

    2La11 , . . . ,

    1

    2Lak1)

    .

    Cela découle du théorème précédent, puisque d’après la proposition 1 on a pour toutn ≥ 1,

    (

    2−nλ[2na1]

    22n , . . . , 2−nλ

    [2nak]

    22n

    )

    (loi)=(

    l[a1]n,n1 , . . . , l

    [ak]n,n1

    )

    ,

    avec la notation [a]n = 2−n[2na]. Un raisonnement de symétrie montre que le résultat

    du théorème est aussi valable si on remplace nombres de montées par nombres dedescentes. En combinant les deux, on obtient que, si

    νnp = Card {j ≤ n, Sj = p},

    on a(

    2−nν[2na1]22n , . . . , 2

    −nν[2nak ]22n

    )

    (loi)−→(

    La11 , . . . , Lak1

    )

    .

    34

  • Il n’est pas nécessaire dans les convergences précédentes de se limiter à des in-stants de la forme 22n. On montre facilement à partir des résultats précédents (voirl’exercice 3.1) qu’on a aussi, par exemple,

    ( 1√nν [n

    1/2a1]n , . . . ,

    1√nν [n

    1/2ak ]n

    )

    (loi)−→(

    La11 , . . . , Lak1

    )

    . (3.3)

    Cette convergence a lieu conjointement avec la convergence en loi de(

    n−1/2S[nt], t ≥0)

    vers le mouvement brownien (Bt, t ≥ 0). C’est le résultat “naturel” qui relienombres de visites de la marche aléatoire simple et temps locaux browniens (il est

    facile de généraliser encore un peu en regardant les processus (n−1/2ν[n1/2aj ]

    [nt] , t ≥ 0),qui convergent en loi vers (L

    ajt , t ≥ 0)).

    3.3 Théorème de Ray-Knight

    Nous allons maintenant utiliser le théorème limite pour les processus de branchementdémontré dans le chapitre 1 pour établir un résultat important concernant les tempslocaux browniens. Comme dans le chapitre 2, on note

    τs = inf{t ≥ 0; L0t > s}.

    L’application s → τs est alors continue à droite. De plus, pour tout s0 fixé, p.s.l’application s → τs est aussi continue à gauche en s = s0 (l’ensemble négligeabledépend ici bien sûr de s0 puisque sinon s → τs serait p.s. continue !). Pour établirce dernier résultat on peut utiliser la proposition 2-7 et un résultat général surles processus à accroissements indépendants. Ou alors on applique la propriété deMarkov forte au temps d’arrêt

    τs0− = inf{t ≥ 0; L0t = s0}

    et en utilisant la proposition 2-6 on trouve immédiatement que τs0 = τs0−, p.s.Rappelons qu’on appelle diffusion de Feller le processus limite du théorème 1-4.

    Théorème 3.4 (Ray-Knight) Pour tout s > 0, le processus (Laτs , a ≥ 0) est unediffusion de Feller de valeur initiale s et de paramètre ρ2 = 4.

    Remarques. On énonce habituellement le théorème 3.4 en disant que le processus(Laτs , a ≥ 0) est un carré de processus de Bessel de dimension 0 issu de s (voir parexemple [35]). Une conséquence importante de ce résultat est le caractère markovienhomogène du processus (Laτs , a ≥ 0), qui était loin d’être évident a priori.Preuve. On traite seulement le cas s = 1 (le cas général est analogue, et onpeut aussi se ramener au cas s = 1 par un changement d’échelle). Soit σn l’instant

    35

  • terminal de la 2n−1-ème excursion positive de la marche aléatoire (Sn) au-dessus de0. Par construction,

    l0,n2−2nσn =1

    2.

    Le théorème 3.2 entrâıne alors que la suite (2−2nσn) est bornée p.s., et de plus

    limn→∞

    (

    l0,n2−2nσn −1

    2L02−2nσn

    )

    = 0 , p.s.

    On a donclim

    n→∞L02−2nσn = 1 , p.s.

    En utilisant la continuité de l’application s→ τs en s = 1 (ou de manière équivalentele fait que L0τ1−ε < 1 < L

    0τ1+ε pour tout ε > 0, p.s.), on obtient que

    limn→∞

    2−2nσn = τ1 , p.s. (3.4)

    Notons ωn1 , . . . , ωn2n−1 les excursions positives de S

    n jusqu’à l’instant σn. Alors, pourtout p ∈ N,

    2nl2−np,n

    2−2nσn=

    2n−1∑

    j=1

    Card {k; ωnj (k) = p, ωnj (k + 1) = p+ 1} = Z(n)p ,

    où d’après le théorème 1-3, le processus (Z(n)p , p ∈ N) est un processus de branche-

    ment de Galton-Watson de loi de reproduction géométrique de paramètre 1/2, avec

    Z(n)0 = 2

    n−1. En utilisant le théorème 1-4, on trouve que la suite de processus

    (l[a]n,n2−2nσn

    , a ≥ 0)

    converge en loi, au sens des marginales de dimension finie, vers une diffusion deFeller issue de 1/2 avec paramètre ρ2 = 2. D’autre part, d’après le théorème 3.2 et(3.4), on a pour tout a ≥ 0,

    limn→∞

    l[a]n,n2−2nσn

    =1

    2Laτ1 , p.s.

    Le théorème 3.4 en découle. �

    Remarques. L’existence d’une version continue pour le processus que nous ap-pelons diffusion de Feller découle de la continuité du processus (Laτ1 , a ≥ 0). Demême, la propriété d’extinction de ce processus, également mentionnée au chapitre1, correspond au fait que Laτ1 = 0 pour tout a ≥ sups≤τ1 Bs. L’interprétation donnéedans le chapitre 1 du noyau de transition de la diffusion de Feller peut aussi être

    36

  • formulée, de manière même plus éclairante, en termes du mouvement brownien: voirexercice 3.3.

    L’idée de voir le théorème de Ray-Knight comme conséquence de théorèmeslimites pour les processus de branchement apparâıt dans Kawazu et Watanabe [21](voir aussi [22]). Cette idée s’applique aussi à un autre théorème de Ray-Knight,également important, qui donne la loi du processus (LaT1 , a ≤ 1), où T1 = inf{t ≥0, Bt = 1}.

    3.4 Résultats analogues pour le mouvement

    brownien réfléchi

    Le processus (βt, t ≥ 0) défini par βt = |Bt| est appelé mouvement brownien réfléchi.Le caractère symétrique des densités de transition pt(x) du mouvement brownien réelentrâıne facilement que (βt) est un processus de Markov homogène. En effet, pourtoute fonction f mesurable positive sur R+

    E(

    f(βt+s)∣

    ∣Ft)

    =

    R

    f(|y|) ps(y − Bt) dy

    =

    R+

    f(y) (ps(y − βt) + ps(y + βt)) dy,

    ce qui montre que les densités de transition de (βt) sont données par

    p(t, x, y) = pt(y − x) + pt(y + x).

    On peut reformuler la plupart des résultats de ce chapitre, et du chapitre précédent,en termes du processus (βt). Pour commencer, les temps locaux de (βt) sont définispar

    Lat (β) = Lat (B) + L

    −at (B) , a, t ∈ R+,

    de façon que la formule de densité d’occupation

    ∫ t

    0

    f(βs) ds =

    f(a)Lat (β) da

    reste valable pour toute fonction f mesurable positive sur R+. L’application (a, t) →Lat (β) est p.s. continue sur (R+)

    2.En notant comme dans la proposition 2-8

    Ra = inf{t ≥ 0, βt = a}, (a > 0)

    la variable L0Ra(β) suit une loi exponentielle de moyenne 2a (remarquer que L0t (β) =

    2L0t (B)).

    37

  • Il est aussi facile d’étendre le résultat du théorème 3.2. Posons pour a ∈ 2−nNet s ≥ 0

    l̄a,ns = 2−nCard {k ≤ [22ns] − 1; |Snk | = 2na, |Snk+1| = 2na + 1}.

    Alors 2nl̄a,ns est le nombre de montées, de 2na à 2na + 1 avant l’instant [22ns], du

    processus (|Snk |, k ∈ N) qui est une marche aléatoire simple sur N. Le théorème 2, etle résultat analogue en remplaçant nombres de montées par nombres de descentes,entrâınent que si an ∈ 2−nN converge vers a ∈ R+,

    (

    l̄an,ns , s ≥ 0)

    −→(1

    2Las(β), s ≥ 0

    )

    (3.5)

    p.s. uniformément sur tout compact de R+.Enfin, on a aussi une version du théorème de Ray-Knight en termes du mouve-

    ment brownien réfléchi. Si

    τ̄s = inf{t ≥ 0, L0t (β) > s} = τs/2,

    le processus (Laτs(β), a ≥ 0) est encore une diffusion de Feller avec valeur initiales et paramètre ρ2 = 4. Pour obtenir ce résultat, on peut soit reprendre la preuvedu théorème 3.4 en utilisant maintenant (3.5) au lieu du théorème 3.2, soit utiliserdirectement le théorème 3.4 en observant que les deux processus

    (Laτs(B), a ≥ 0) , (L−aτs (B), a ≥ 0)

    sont indépendants et de même loi (cf exercice 3.4).

    3.5 Dimension de Hausdorff de l’ensemble des zéros

    En application des résultats précédents, nous allons maintenant calculer la dimensionde Hausdorff de l’ensemble {t ≥ 0, Bt = 0}. Nous rappelons d’abord la définition dela dimension de Hausdorff. Soit A un sous-ensemble quelconque de Rd. Pour toutα > 0, on pose

    xα −m(A) = limε↓0

    inf(Di)i∈I∈Rε(A)

    i∈I

    (diamDi)α,

    où Rε(A) désigne l’ensemble des recouvrements dénombrables de A par des boulesde rayon inférieur à ε, et diamDi est le diamètre de la boule Di. Remarquons quel’infimum ci-dessus est une fonction croissante de ε, et donc que la limite existe dans[0,∞]. Il est facile de voir qu’il existe une valeur critique α0(A) telle que

    xα −m(A) ={

    0 si α > α0(A),∞ si α < α0(A).

    38

  • Le nombre α0(A) est noté dimA et appelé dimension de Hausdorff de A. On vérifieaisément sur la définition que la dimension de Hausdorff d’une réunion dénombrabled’ensembles An est sup dimAn.

    Lemme 3.5 Soient ν une mesure sur Rd et α > 0. Supposons qu’il existe uneconstante C telle que pour toute boule D dans Rd,

    ν(D) ≤ C (diamD)α.Alors, si A est un sous-ensemble mesurable de Rd tel que ν(A) > 0, on a dimA ≥ α.

    Preuve. Soit (Di) un recouvrement dénombrable de A par des boules. Alors,

    i

    (diamDi)α ≥ 1

    C

    i

    ν(Di) ≥1

    Cν(A).

    Cela entrâıne xα −m(A) ≥ C−1ν(A) > 0 et donc dimA ≥ α. �Théorème 3.6 On a p.s.

    dim {t ≥ 0, Bt = 0} =1

    2.

    Preuve. Notons H = {t ≥ 0, Bt = 0}. Pour minorer dimH, on applique le lemmeprécédent à la mesure 1[0,1](t) dtL

    0t (B). D’après la proposition 2-4, il existe p.s. pour

    tout ε ∈]0, 1/2[ une constante Cε (dépendant de ω) telle que, pour tous u, v ∈ [0, 1],|L0v(B) − L0u(B)| ≤ Cε |v − u|1/2−ε.

    Cela montre que la mesure 1[0,1](t) dtL0t (B) satisfait l’hypothèse du lemme avec α =

    1/2 − ε. Comme d’après la proposition 2-6 cette mesure est non triviale et portéepar H on conclut que dimH ≥ 1/2 − ε pour tout ε > 0, p.s.

    Pour majorer dimH, il suffit de majorer dimH ∩ [0, T ] pour tout T > 0. Unargument de changement d’échelle permet de se ramener à dimH ∩ [0, 1]. Soitα > 1/2. Nous devons montrer que dimH ∩ [0, 1] ≤ α p.s. Pour cela, on construitdes recouvrements explicites. Pour tout entier n ≥ 1, considérons les deux suites detemps d’arrêt (Unk ), (V

    nk ) définies par récurrence par

    Un1 = 0

    V nk = inf{t ≥ Unk , |Bt| = 2−n}Unk+1 = inf{t ≥ V nk , Bt = 0}.

    Soit Nn = sup{k ≥ 1, Unk ≤ 1}. Alors Nn est la somme du nombre de montéesde −2−n à 0 et du nombre de descentes de 2−n à 0 effectuées par le mouvementbrownien avant l’instant 1. Le théorème 3.2 entrâıne donc

    limn→∞

    2−nNn = L01(B) p.s. (3.6)

    39

  • Observons que(

    H ∩ [0, 1])

    ⊂⋃

    k∈{1,...,Nn}

    [Unk , Vnk ], (3.7)

    et qu’on peut majorer

    Nn∑

    k=1

    (V nk − Unk )α ≤ Nn supk∈{1,...,Nn}

    (V nk − Unk )α.

    Le problème est donc maintenant de majorer ce dernier supremum. Grâce à lapropriété de Markov forte, les variables V nk −Unk , k = 1, 2, . . ., sont indépendantes etde même loi, cette loi commune étant la loi de 2−2nT 01 , où T

    01 = inf{t ≥ 0, |Bt| = 1}

    comme dans la partie 1 ci-dessus. Rappelons qu’on peut choisir λ > 0 assez petitde façon que E(expλT 01 ) = C 2−n)

    ≤ K2n P(

    2−2nα(T 01 )α > 2−n

    )

    = K2n P(

    T 01 > 2n(2−1/α)

    )

    ≤ KC2n exp(

    − λ2n(2−1/α))

    .

    Puisque 2 − 1/α > 0, le lemme de Borel-Cantelli montre que p.s. pour tout n assezgrand

    supk∈{1,...,K2n}

    (V nk − Unk )α ≤ 2−n.

    Finalement, en utilisant (3.6), on a sur l’ensemble {L01(B) < K} p.s. pour toutn assez grand, Nn ≤ K2n et

    Nn∑

    k=1

    (V nk − Unk )α ≤ K2n × 2−n = K,

    ce qui compte-tenu de (3.7) et de la définition même des quantités xα−m(A) entrâıneque xα−m(H∩[0, 1]) ≤ K. On a donc obtenu dim (H∩[0, 1]) ≤ α p.s. sur l’ensemble{L01(B) < K}. Comme cela est vrai pour tout entier K, la preuve est terminée. �Remarque. Des résultats beaucoup plus précis sur la mesure de Hausdorff del’ensemble des zéros de B ont été établis par Perkins [32]

    Exercices

    Exercice 3.1 Soit mn une suite d’entiers croissant vers l’infini et εn = 1/mn. Onmodifie les définitions de ce chapitre en posant T nk+1 = inf{t ≥ T nk , |Bt−BT nk | = εn},Snk = mnBT nk , et pour a ∈ εnZ,

    la,ns = εnCard {k ≤ [m2ns] − 1; Snk = mna, Snk+1 = mna + 1}.

    40

  • Vérifier alors que sous l’hypothèse∑

    εn < ∞, le résultat concernant la,ns dans lethéorème 3.2 reste vrai. En déduire une preuve de la convergence (3.3) (on pourraremarquer que pour qu’une suite (Um) de variables aléatoires converge en loi versune variable U , il suffit que pour toute suite d’entiers (mn) croissant “assez vite”vers l’infini la sous-suite (Umn) converge en loi vers U).

    Exercice 3.2 Pour tout ε > 0, soit Nε le nombre de montées du mouvement brown-ien B de 0 à ε sur l’intervalle de temps [0, 1]. Montrer à l’aide du théorème 3.2 eten s’inspirant de l’exercice précédent qu’on a

    limε→0

    εNε =1

    2L01, p.s.

    (on prendra d’abord ε = εm = m−2).

    Exercice 3.3 Soient a > 0 et (Un), (Vn) les deux suites de temps d’arrêt définiespar récurrence par

    U1 = 0

    Vk = inf{t ≥ Uk, Bt = a}Uk+1 = inf{t ≥ Vk, Bt = 0}.

    Pour tout s ≥ 0, soit aussi Ms = Card {k, Vk ≤ τs}. Montrer que les variablesaléatoires LaUk+1 − LaUk sont indépendantes de même loi exponentielle de moyenne2a, et indépendantes du processus (Ms, s ≥ 0). Montrer aussi que le processus(Ms, s ≥ 0) est un processus de Poisson de paramètre (2a)−1. En écrivant

    Laτs =

    Ms∑

    k=1

    (LaUk+1 − LaUk

    )

    retrouver ainsi l’interprétation, décrite dans le chapitre 1, du noyau de transitionde la diffusion de Feller .

    Exercice 3.4 En utilisant l’indépendance des excursions positives et négatives pourune marche aléatoire simple sur Z, et la méthode de preuve du théorème 3.4, montrerque les deux processus (Laτ1 , a ≥ 0) et (L−aτ1 , a ≥ 0) sont indépendants et de mêmeloi. En combinant ce résultat avec l’exercice 1-3, donner une preuve du théorème deRay-Knight pour le mouvement brownien réfléchi.

    41

  • Chapter 4

    Processus de BranchementBrownienet Super-Mouvement Brownien

    Nous introduisons dans ce chapitre de nouveaux objets probabilistes qui rendentcompte de l’évolution d’un système de “particules” soumises à un double phénomènede branchement et de déplacement spatial aléatoire. Nous supposerons que cedéplacement spatial est gouverné par la loi du mouvement brownien en dimensiond, mais on pourrait par les mêmes méthodes traiter le cas d’un processus de Markovbien plus général. Le modèle dans lequel le phénomène de branchement ne se pro-duit qu’à des instants discrets est le processus de branchement brownien, que nousdéfinissons rigoureusement à l’aide de la notion d’arbre introduite dans le Chapitre1. Un passage à la limite convenable conduit ensuite au super-mouvement brown-ien, processus à valeurs dans l’espace des mesures finies sur Rd, qui grossièrementreprésente l’évolution d’un système infini de particules, où les particules ont cha-cune un poids infinitésimal et sont continuellement soumises à un phénomène debranchement critique.

    4.1 Processus de branchement brownien

    On se propose d’étudier un système de particules dont l’évolution est régie par lesrègles suivantes. On se fixe un entier N ≥ 1, un réel T > 0 et une loi de probabilitéν sur N qui est une loi de branchement critique de variance finie (i.e.

    kν(k) = 1et∑

    k2ν(k)

  • aussi indépendants des déplacements spatiaux. Les particules nées à l’instant Tse déplacent à leur tour entre les instants T et 2T selon des mouvements brown-iens indépendants, puis meurent à l’instant T en donnant naissance à de nouvellesparticules, toujours selon la loi de branchement ν, etc.

    Pour donner une description mathématique précise du système décrit ci-dessus,on utilise la notion d’arbre introduite au chapitre 1. Sur un espace de probabilité,on se donne

    – N arbres aléatoires indépendants A1, . . . ,AN de loi Π(dA), la loi de l’arbre deGalton-Watson de loi de reproduction ν définie dans la proposition 1-1;

    – une famille (Bj,u, j ∈ {1, . . . , N}, u ∈ U} de mouvements browniens dans Rdissus de 0, indépendants entre eux et aussi indépendants des arbres aléatoires Aj.

    Ensuite, pour tous j ∈ {1, . . . , N}, u = u1 . . . up ∈ Aj, on pose

    V j,ut = xj +

    |u|−1∑

    k=0

    Bj,u1...ukT +Bj,ut−pT , ∀t ∈ [pT, (p+ 1)T [.

    Cette définition s’interprète de la manière suivante. L’arbre Aj est l’arbre généalogi-que des descendants de la j-ième particule présente à l’instant 0. Le mouvementbrownien Bj,u gouverne pendant l’intervalle de temps [|u|T, (|u|+1)T [ le déplacementde la particule descendant de la j-ième particule ancêtre correspondant à l’arête ude Aj. Une particule en vie à l’instant t ∈ [pT, (p + 1)T [ est associée à un entierj ∈ {1, . . . , N} et une arête u ∈ Aj telle que |u| = p. Sa position à l’instant t estobtenue en faisant la somme des déplacements successifs de ses ascendants et de sonpropre déplacement entre les instants pT et t.

    Les positions des particules en vie à l’instant t ∈ [pT, (p+ 1)T [ sont donc les

    (V j,ut , j ∈ {1, . . . , N}, u ∈ Aj, |u| = p)

    Dans la suite, nous nous intéresserons surtout à l’état de la population aux instantsde la forme t = kT , k ∈ N. A cette fin, on pose pour tout k ∈ N

    Zk =N∑

    j=1

    u∈Aj ,|u|=k

    δV j,ukT

    et on a en particulier

    Z0 =N∑

    j=1

    δxj .

    Le processus (Zk, k ∈ N) est appelé processus de branchement brownien de loide reproduction ν, de durée de vie T , issu de λ =

    ∑Nj=1 δxj (cette terminologie

    n’est pas “canonique”, il existe de nombreux autres modèles voisins de processus de

    43

  • branchement brownien). Le processus Z prend ses valeurs dans l’espace Mp(Rd) des

    mesures ponctuelles sur Rd, i.e. des sommes finies de masses de Dirac, muni de latopologie de la convergence étroite.

    Dans toute la suite, la loi de reproduction ν restera fixée, et nous noteronsP Tλ la loi du processus (Zk)k∈N (il est facile de voir que cette loi ne dépend dex1, . . . , xN que par l’intermédiaire de la mesure λ). La probabilité P

    Tλ est définie sur

    l’espace canonique des processus à valeurs dans Mp(Rd) et, par abus de notation,

    nous noterons encore Z le processus canonique sur cet espace.

    Proposition 4.1 (i) Soient Z, Z ′ deux processus indépendants de lois respectivesP Tλ , P

    Tλ′ . Alors Z + Z

    ′ a pour loi P Tλ+λ′.(ii) Le processus (Zk, k ∈ N) est une châıne de Markov à valeurs dans Mp(Rd).(iii) Soit ϕ une fonction mesurable positive sur Rd. Alors,

    ETλ (< Zk, ϕ >) =< λ,QkTϕ >,

    où (Qt, t ≥ 0) désigne le semigroupe du mouvement brownien dans Rd. Pour t > 0,

    Qtϕ(y) =∫

    dz qt(z − y)ϕ(y) ,qt(z) = (2πt)

    −d/2 exp− |z|22t.

    Preuve La propriété (i) est presque évidente par construction: on peut supposerque Z et Z ′ sont construits à partir d’arbres Aj, A′j et de mouvements browniensBj,u, B

    ′j,u indépendants, et alors il est clair que Z + Z ′ est construit comme leprocessus de loi P Tλ+λ′.

    Etablissons (iii). On a

    E(< Zk, ϕ >) =N∑

    j=1

    |u|=k

    P (u ∈ Aj)E(ϕ(V j,ukT ))

    =N∑

    j=1

    QkTϕ(xj)∑

    |u|=k

    P (u ∈ Aj)

    =

    N∑

    j=1

    QkTϕ(xj)

    = < λ,QkTϕ >

    en utilisant le caractère critique de la loi de branchement (qui entrâıne que Card {u ∈Aj, |u| = k} est une martingale) et le fait que, V j,ukT = xj +

    ∑k−1l=0 B

    j,u1...ulT a la loi

    d’un mouvement brownien issu de xj, à l’instant kT .Il reste à établir la propriété (ii). Cette propriété est claire intuitivement, puisque

    si l’on connait la mesure Zk donnant les positions des particules qui viennent de

    44

  • nâıtre à l’instant kT , l’évolution future du processus ne fait intervenir que des quan-tités indépendantes du passé. De plus, le processus (Zk+n, n ∈ N) est construitcomme (Zn, n ∈ N) au changement de valeur initiale près. Pour rendre ces con-sidérations plus précises, introduisons pour tout j ∈ {1, . . . , N} et tout k ∈ Nl’arbre tronqué

    A(k)j = Aj ∩ {u ∈ U ; |u| ≤ k}.Soit Gk la tribu

    Gk = σ(Bj,u, j ∈ {1, . . . , N}, |u| < k} ∨ σ(A(k)j , j ∈ {1, . . . , N}).

    Remarquons que Zk est Gk-mesurable. On vérifie ensuite que la loi conditionnelledu processus (Zk+n, n ∈ N) connaissant Gk est P TZk . Pour cela on écrit

    Zk+n =

    N∑

    j=1

    u∈Aj ,|u|=k

    v∈TuAj ,|v|=n

    δV j,uv(k+n)T

    .

    Or en utilisant la propriété de branchement des arbres de Galton-Watson (établiedans le chapitre 1 pour la première génération et facilement généralisable à la k-ièmepar la même preuve) et l’indépendance des mouvements browniens Bj,u, on vérifieaisément que conditionnellement à Gk les processus

    v∈TuAj ,|v|=n

    δV j,uv(k+n)T

    , n ∈ N

    pour u ∈ Aj, |u| = k, sont indépendants et de loi conditionnelle

    P TδV

    j,ukT

    .

    On termine en utilisant (i). �