Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de...

113
Mémoire de Magistère de Mathématiques Une rétrospective sur trois années de Magistère Pierre B OUTAUD Université Paris-Sud 2013-2017

Transcript of Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de...

Page 1: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Mémoire de Magistère de MathématiquesUne rétrospective sur trois années de Magistère

Pierre BOUTAUD

Université Paris-Sud

2013-2017

Page 2: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Sommaire

1 Mes années de magistère 11.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.2 L3 MFA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11.3 M1 MFA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.4 M2 FESup, ENS Cachan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.5 M2 MdA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.6 La suite des aventures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

2 Marche aléatoire branchante et renouvellement implicite 62.1 Un bref historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62.2 Présentation de la marche aléatoire branchante . . . . . . . . . . . . . . . . 72.3 Le cas affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82.4 Application à la MAB et l’équation générale . . . . . . . . . . . . . . . . . . 112.5 Autres résultats à explorer . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

3 Rapport du stage de L3 183.1 Le Challenge HiggsML . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3.1.1 Aspect physique et mise en équations . . . . . . . . . . . . . . . . . 193.1.2 Machine Learning . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

3.2 Etudes de quelques algorithmes . . . . . . . . . . . . . . . . . . . . . . . . . 223.2.1 Simplest python . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 223.2.2 TMVA et eval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3.3 Introduction au bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.3.1 Le bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.3.2 Une alternative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.4 Stabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.4.1 AMS dans TMVA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283.4.2 Leaderboard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

4 TER de Master 1 374.1 Graphe d’Erdös-Rényi et notions essentielles . . . . . . . . . . . . . . . . . 38

4.1.1 Le graphe d’Erdös-Rényi . . . . . . . . . . . . . . . . . . . . . . . . 384.1.2 Processus de branchement et résultats essentiels . . . . . . . . . . . 38

i

Page 3: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

ii SOMMAIRE

4.1.3 Preuves des résultats essentiels . . . . . . . . . . . . . . . . . . . . . 414.1.4 Exploration des composantes du graphe . . . . . . . . . . . . . . . 484.1.5 Probabilité de survie des processus de branchement . . . . . . . . . 49

4.2 Régime sur-critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504.2.1 Existence et unicité de la composante géante . . . . . . . . . . . . . 504.2.2 Preuve des résultats sur-critiques . . . . . . . . . . . . . . . . . . . . 53

4.3 Régime sous-critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.3.1 Ordre des composantes maximales sous-critiques . . . . . . . . . . 634.3.2 Preuves des résultats sous-critiques . . . . . . . . . . . . . . . . . . 64

4.4 Régime critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 674.5 Simulations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

4.5.1 Code R pour les simulations . . . . . . . . . . . . . . . . . . . . . . 694.5.2 Présentation de simulations . . . . . . . . . . . . . . . . . . . . . . . 71

5 Mémoire de Master 2 745.1 Préliminaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 765.2 Théorie du renouvellement implicite . . . . . . . . . . . . . . . . . . . . . . 77

5.2.1 Résultats généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 775.2.2 Application à des équations particulières . . . . . . . . . . . . . . . 795.2.3 Relaxation des hypothèses et ce qu’il en résulte . . . . . . . . . . . 825.2.4 Preuves et heuristiques . . . . . . . . . . . . . . . . . . . . . . . . . 86

5.3 Lois de puissance sur des arbres pondérés . . . . . . . . . . . . . . . . . . . 935.3.1 Modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 945.3.2 Résultats généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 955.3.3 Queues des solutions de l’équation non-homogène . . . . . . . . . 965.3.4 Cas homogène critique . . . . . . . . . . . . . . . . . . . . . . . . . . 985.3.5 Preuves . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

5.4 Application à la marche aléatoire branchante . . . . . . . . . . . . . . . . . 1045.4.1 Une première approche par les arbres pondérés . . . . . . . . . . . 1055.4.2 Une seconde approche par réduction de l’équation . . . . . . . . . 1065.4.3 Discussion sur les deux approches . . . . . . . . . . . . . . . . . . . 108

Page 4: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Chapitre 1

Mes années de magistère

1.1 Introduction

Avant même d’entrer en classes préparatoires, je savais déjà que je me destinaisà l’enseignement ou la recherche ou les deux en mathématiques. Mon professeur demaths et mon professeur de spé math de terminale avaient tous les deux fait un magis-tère de mathématiques après une classe préparatoire au lycée Clemenceau de Nantes etm’en avaient vantés les mérites. En arrivant donc en classe prépa à Clemenceau, mesobjectifs étaient clairs : "ingénieur ? très peu pour moi", je voulais faire des maths donc ilfallait soit décrocher une ENS, soit être pris en magistère de maths. En MP, mon profes-seur de physique m’a particulièrement parlé du magistère d’Orsay qui était très bien, àla fois en physique et en mathématiques. Notamment, les statistiques à l’agrégation demathématiques étaient réputées excellentes, ce qui m’a d’autant plus motivé. J’ai doncpostulé à tous les magistères que je connaissais et j’arrivais à la rentrée suivante à Orsay.Devant moi, des bonnes années, de l’amitié, du travail et bien plus encore...

1.2 L3 MFA

L’année de L3 fut riche en découvertes. Tout d’abord l’accueil réservé aux nouveauxmagistériens était parfait : que ce soit l’investissement du BDE grâce auquel nous avonsappris à nous connaître ou la bienveillance de Nathalie Carrière qui nous a chouchoutépendant tout notre parcours au magistère, on se sentait heureux d’avoir choisi Orsay.Ce fut l’occasion de forger de belles amitiés qui persistent et persisteront encore !

Les cours étaient également plaisants dans leur ensemble (petit malus pour ma bêtenoire : le cours de calcul différentiel). Quel plaisir de ne plus faire que des maths et depouvoir enfin laisser de côté la thermochimie et la mécanique du solide ! J’ai particuliè-rement apprécié le cours d’intégrales de Lebesgue de Jean-Michel Bismut, parsemé detribus et de tableaux relevés à une vitesse folle en appuyant sur un bouton. Peut-être un

1

Page 5: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2 CHAPITRE 1. MES ANNÉES DE MAGISTÈRE

signe précurseur de mon intérêt pour les probabilités.

Ce qui m’a marqué le plus durant cette année vis-à-vis des cours, c’est le changementradical avec le mode de fonctionnement de la classe prépa. En prépa, les colles hebdo-madaires et les devoirs surveillés à répétitions créent une obligation de travailler. Stres-sant me direz-vous. En revanche, cette année je découvrais le piège de la fac : seulementun examen et peut-être un partiel suivant les matières, comment se motiver pour tra-vailler sans la nécessité constante d’apprendre le cours qui existait en prépa ? Il m’aurafallu quelques notes désatreuses aux partiels pour commencer à comprendre la mé-thode...

Le programme du magistère en L3 m’a poussé à choisir le cours de Maths et Bio aupremier semestre, qui me permettait de faire des maths à l’interface d’autres domainesscientifiques, et le cours d’informatique théorique au second semestre. Il ne faut pas ou-blier bien sûr le cours de topologie générale spécifique magistère. A l’époque je détestaisvéritablement la topologie, mais avec le temps et l’agrégation approchant, j’ai appris àne plus avoir peur de la topologie et je me rends compte que ce cours m’a donné desbases solides dans ce domaine. Si j’avais eu la leçon sur la notion de compacité à l’oralde l’agrégation, je l’aurais pris sans hésiter, chose impensable quand j’étais en L3.

A la fin de l’année scolaire, il fût temps de penser au stage. Je me suis dit que j’allaiscontinuer sur ma lancée et le faire cette année. J’ai donc cherché dans les laboratoiresprésents sur le campus pour finalement trouver un stage au Laboratoire de l’accéléra-teur linéaire d’Orsay, encadré par David Rousseau, et portant sur le boson de Higgs(sujet extrêmement tendance à l’époque !) et quelques notions de statistiques. Il s’agis-sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyserdes données de collisions de particules et à apprendre à un programme comment repé-rer la présence de bosons de Higgs avec quasi-certitude (pour plus de détails, consulterla section dédiée au rapport de stage). Ce stage de 3 semaines m’a apporté beaucoup dechoses. D’abord une certaine autonomie car mon maître de stage me donnait quelquesgrandes lignes mais j’apprenais à coder en python et à analyser les programmes des can-didats au challenge seul ou éventuellement avec un de mes deux camarades stagiairesdu magistère de physique. J’ai aussi appris à utiliser Latex, sans lequel un mathémati-cien serait bien embêté. D’un point de vue mathématiques, la notion la plus importante(à mon sens) que j’aurais apprise durant ce stage est la méthode de bootstrap, une tech-nique de rééchantillonage en statistiques. Je suis particulièrement content d’avoir apprisles rudiments de ce concept car j’ai pu m’en servir à mon oral de modélisation à l’agré-gation quand j’étais confronté à un manque de donnée pour faire mes graphiques, alorsque cette notion n’est à ma connaissance pas au programme.

Page 6: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

1.3. M1 MFA 3

1.3 M1 MFA

Cette année a vraiment jouer pour moi un rôle charnière dans mon parcours de ma-gistérien et jeune mathématicien. Déjà, ne pas refaire les erreurs de la L3 : direction laBU pour faire des fiches ! Ensuite, choisir une orientation. L’agrégation étant mon projetphare et ma principale raison de faire le magistère, le choix du cours d’Analyse et Mathsgénérales était tout fait ; restait maintenant à choisir entre probabilités et distributions.Le cours de probabilités de L3 de Pascal Massart m’avait semblé intéressant mais jen’avais pas autant cartonné que ce que j’espérais. En allant assister au premier cours dedistributions, pour voir, je me suis vite rendu compte que les probabilités me tendaientles bras.

Le premier semestre fut le plus intéressant du point de vue de l’apport mathéma-tiques et je pense que je n’aurais pas pu mieux choisir mes cours. Tout d’abord, le coursde probabilité d’Edouard Maurel-Segala était un régal : on y découvrait des belles mathsprésentées d’une manière difficilement plus interactive et dynamique. Les TD de proba-bilités furent aussi l’occasion de rencontrer Pascal Maillard, chargé de TD fraichementarrivé à Orsay et très sympathique, avec qui j’allais faire mon TER, mon mémoire de M2et ma thèse. Il aurait été dommage de passer à côté des probas.Le cours d’Analyse et Maths générales du premier semestre avec Laurent Moonenset Pierre-Guy Plamondon était aussi formidable. Ayant apprécié les intégrales de Le-besgue en L3, j’étais ravi d’apprendre la théorie de la mesure avec un Laurent Moonenspassionné qui poussait le cours très loin, jusqu’aux intégrales de Kurzweil-Henstock etle lemme de Cousin. Bien que plus analyste qu’algébriste, les cours de Pierre-Guy Pla-mondon ne m’ont pas laissés indifférents, m’ont laissés des bases solides et ont fait queje me rappelle de la formule de Burnside avec un accent québecois.Vient aussi le cours spécifique de magistère du premier semestre avec Frédéric Paulin.Des trois cours spécifiques de magistères que j’ai pu avoir, je pense que c’est celui quim’a le plus servi pour l’agrégation. En effet, peu de camarades osaient parler de dia-gonalisation d’opérateurs auto-adjoints compacts dans une base hilbertienne mais avectout le travail effectué dans ce cours, j’aurais été sot de me priver d’en parler dans lesleçons où je pouvais caser ce sujet.

Le second semestre m’a permi de poursuivre la seconde partie du cours d’Analyseet Maths générales. Stéphane Fischler avait clairement en tête de nous préparer à l’agré-gation avant l’heure et je l’en remercie.Je poursuivais mon orientation proba-stats en suivant le cours de statistiques d’Eliza-beth Gassiat. Ce cours me semblait assez difficile au début car la vision est bien diffé-rente de celle des probas mais j’ai fini par m’y faire, grâce aussi aux TD de Yohann DeCastro. Ce cours m’a vraiment permi de ne pas avoir peur des textes de statistiques àl’oral de modélisation de l’agrégation ; j’ai même compris que du point de vue des exi-gences du jury, c’était un choix stratégique vis-à-vis des candidats ayant eu des moinsbons cours de stats que celui-ci.

Page 7: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4 CHAPITRE 1. MES ANNÉES DE MAGISTÈRE

Le cours spécifique du magistère de Frederic Bourgeois au second semestre m’a sembléun peu particulier. C’était une initiation à plein de domaines des mathématiques dont jen’ai pas vraiment vu les liens qui pouvaient exister entre eux, la partie sur les fractalesétait cependant assez intéressante.

J’ai effectué mon TER en binôme avec Jérémy Davail et encadré par Pascal Maillard.Il s’agissait d’étudier la transition de phase dans le graphe d’Erdös-Rényi, l’occasiond’apprendre quelques résultats de grandes déviations et à découvrir les graphes aléa-toires en se basant essentiellement sur un livre de Remco Van der Hofstad.

1.4 M2 FESup, ENS Cachan

Mon changement dans ma manière de travailler les maths durant le M1 m’a permide me réveiller et mes résultats m’ont mis assez en confiance pour que je passe les se-conds concours des ENS Cachan et Rennes, chose que je n’aurais pas tenté en prépaà l’époque, faute de résultats. J’ai eu le plaisir d’être accepté aux deux et j’ai ainsi puchoisir Cachan, plus près d’Orsay et donc plus près de mes amis.

L’année a été consacré à la préparation de l’agrégation. C’est là où je me suis renducompte que les choix de certains cours durant mes deux premières années de magistèreavaient été judicieux, notamment le cours d’Analyse et Maths générales et le cours demagistère de Théorie spectrale et analyse harmonique. Le choix de l’option a été vitefait, avec la formation que j’avais eu en probabilités et en statistiques, l’option proba-stats était le meilleur choix et un choix de coeur. Le seul soucis a été de se remettre àfaire du Scilab que j’avais appris en L3 pour ensuite l’abandonner au profit de R en M1pour y revenir au moment de l’agreg.

J’ai obtenu l’agrégation avec un rang qui me donne l’espoir de pouvoir enseigner enclasses préparatoires une fois ma thèse terminée.

1.5 M2 MdA

Le choix de mon M2 Recherche était fait depuis mon M1. J’aime les probas, la facd’Orsay, les profs de probas/stats que j’ai eu à Orsay : M2 Maths de l’aléatoire de l’Uni-versité Paris-Sud Paris-Saclay, me voilà !Ne sachant pas en début d’année vers qui me tourner pour obtenir une thèse, j’hésitaisun peu sur les cours à choisir. Nicolas Curien nous avait sagement conseillé de ne pasnégliger les stats car les postes en probabilités sont plus rares qu’en statistiques. Mêmesi je me destine à aller en prépa, j’ai suivi ce conseil, aussi car je n’ai pas particulièrement

Page 8: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

1.6. LA SUITE DES AVENTURES 5

de dent contre les stats comme certains étudiants en probas peuvent en avoir.

Finalement, j’ai appris que je pouvais faire une thèse avec un chercheur sans HDRs’il la passait pendant ma thèse. Je n’ai donc pas hésité et je me suis tourné vers PascalMaillard, mon encadrant de TER de M, sachant qu’il enseignerait le cours de marchesbranchantes du second semestre. Je me suis donc retrouvé avec un encadrant de M2 etun futur directeur de thèse très tôt dans l’année scolaire.

Mon mémoire a donc été encadré par Pascal Maillard et il portait sur des équationsde renouvellement implicite sur des arbres. J’ai étudié des théorèmes de renouvelle-ment implicite énoncés par Goldie dans les années 80 et des versions plus récentes avecdes équations différentes traitées par exemple par Jelenkovic et Olvera-Cravioto et deshypothèses plus souples traitées par Kevei. Enfin j’ai pu commencer à appliquer cesrésultats à la marche aléatoire branchante, l’objet d’intérêt de ma thèse.

1.6 La suite des aventures

Le mémoire a été une expérience intéressante car j’ai appris des techniques qui mesont actuellement utiles dans ma thèse et j’ai aussi appris que je pouvais faire de larecherche. Chose qui ne me semblait pas si évidente avant mon mémoire. Ma motiva-tion pour mon mémoire et la recherche a été à son paroxisme cet été quand je suis alléà l’école d’été de probabilité de Saint-Flour. Je continue donc sereinement dans cettelancée en commençant ma thèse dans la continuité même de mon mémoire. L’objec-tif : réexprimer certains théorèmes de Jelenkovic et Olvera-Cravioto avec des hypo-thèses plus souples à la manière de Kevei pour espérer se débarasser des contraintesE[X log(X)] < ∞ qui fourmillent dans les théorèmes sur les processus de branchement.Ensuite, il s’agira de s’attaquer à d’autres théorèmes avec des hypothèses du même typeque je chercherai à faire tomber.

Sans le magistère, mon bagage mathématique serait bien plus léger et je ne sais passi j’en serais où je suis aujourd’hui. Par exemple, je suis à peu près certain que je n’auraispas réussi l’oral d’admission à l’ENS Cachan si je n’avais pas suivi le cours spécifiquede magistère du premier semestre de M1.J’ai déjà fait par le passé de la publicité pour le magistère de maths d’Orsay dans monancienne classe prépa et je continuerai à dire à bon entendeur que la formation proposéey est excellente et qu’il serait dommage de passer à côté.

Page 9: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Chapitre 2

Marche aléatoire branchante etrenouvellement implicite

Présentons maintenant une thématique de recherche qui nous intéresse en ce débutde thèse. Nous commencerons par énoncer rapidement les thèmes déjà présents dans lemémoire de M2 pour ensuite passer à quelques améliorations possibles de ces résultatset les objectifs suivants que nous nous fixons pour la suite.

Il s’agit d’étudier les propriétés asymptotiques de certaines variables aléatoires ca-ractéristiques de la marche aléatoire branchante. Par exemple, le comportement de lalimite presque sûre des martingales de la marche aléatoire branchante nous intéressefortement. En effet, sous quelques hypothèses, sa queue est polynômiale, tandis quesous des hypothèses plus souple, un terme à variations lentes viendra se glisser. La plu-part des résultats tourneront autour de la théorie du renouvellement implicite, traitéepar exemple par Goldie dans les années 80 pour des équations à une variable. Keveiayant réussi récemment à affaiblir les hypothèses de Goldie, nous nous efforçons d’ap-pliquer des hypothèses similaires à des équations multi-variées.

2.1 Un bref historique

Entre 1950 et 1970, Sévastyanov, Ikeov-Nagasawa et Watanabe s’intéressent aux pro-cessus de Markov branchants. Entre 1970 et 1980, Hammersley, Kingman et Bigginsgénéralisent les processus de branchement avec âge. Au même moment et indépen-damment, Mandelbrot, Kahane et Peyrière travaillent sur les cascades multiplicatives(exponentielle d’une marche aléatoire branchante (MAB)). Toujours indépendamment,vers 1975, McKean s’intéresse à la dualité entre un mouvement brownien branchant(MBB) et une certaine équation aux dérivées partielles (FKPP). De 1980 à 1990, Branson,Neveu, Chauvin et Rouault exploitent le lien entre le MBB et l’équation FKPP.Entre 1995 et 2005, Biggins et Kyprianou, en s’appuyant sur la décomposition épinale

6

Page 10: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2.2. PRÉSENTATION DE LA MARCHE ALÉATOIRE BRANCHANTE 7

pour les processus de branchement de Lyons, Pemantle et Peres (1997), font le lien entreles cascades multiplicatives, la MAB et le MBB. Enfin, de nos jours, Hu, Shi et d’autresse consacrent à l’étude fine des particules extrémales de la MAB, motivés par le lienentre la MAB et les marches aléatoires en milieu aléatoire sur un arbre.

La théorie du renouvellement, quant à elle, se développe à partir des années 1970avec notamment Kesten et Goldie. L’ouvrage principal sur lequel nous nous appuye-rons est "Implicit renewal theory and tails of solutions of random equations" par Goldie[2], sorti en 1991. Les thématiques abordées, en particulier le comportement des queuesdes points fixes en loi de certaines équations, sont encore d’actualité car des articles ré-cents de Jelenkovic et Olvera-Cravioto [3](2013) ou encore Kevei [4] (2016) en parlent.Citons enfin le livre "Stochastic models with power-law tails : the equation X = AX + B"de 2016 par Buraczewski, Damek et Mikosch [1], qui fait une synthèse générale des ré-sultats dans ce domaine.

2.2 Présentation de la marche aléatoire branchante

De manière informelle, la marche aléatoire branchante est un processus de parti-cules sur la droite réelle. Plus précisément, on considère un individuparticule initial enposition 0, cet individu meurt au temps 1 et donne naissance à un nombre aléatoired’enfants (potentiellement infini) qui se dispersent autour de la position de leur parentsuivant une même loi de probabilité et indépendamment entre eux. Chacun de ces nou-veaux individus évolue alors comme ses ancêtres. Les instants de mort/naissance sontdes points de branchement sur l’arbre généalogique aléatoire associé, d’où le nom demarche aléatoire branchante.Pour une définition plus formelle, notons U =

⋃n≥0(N

∗)n l’arbre d’Ulam (avec laconvention (N∗)0 = ∅), un élément u ∈ U sera appelé individu et s’écrira u = u1...unavec ui ∈ N∗ et la longueur de u valant |u| = n. uv désigne la concaténation des motsu et v. Cet arbre est muni d’une relation d’ordre partiel : u ≤ v si u est un ancêtre dev, i-e ∃w : v = uw. La marche aléatoire branchante (MAB) est un processus aléatoirede particules X = (Xu)u∈U où Xu est la position de la particule u. On écrira Xu = ∂en cas d’absence de particules. Le processus est donc à valeurs dans R

⋃∂. La loi dela MAB est déterminée par sa loi de reproduction Ξ à support sur (R

⋃∂)N∗ . Notantξ = (ξ(i))i≥1 ∼ Ξ, donnons-nous des copies indépendantes et identiquement distri-buées (iid) (ξu)u∈U de la loi de ξ, nous avons alors

X∅ = 0, et ∀u ∈ U , i ∈N∗, Xui = Xu + ξu(i)

Notons maintenant ϕ(θ) = log E[∑∞i=1 eθXi ], la martingale W(θ)

n = ∑|u|=n eθXu−nϕ(θ),converge p.s. et sa limite vérifie

W(θ)∞ =

∑i=1

eθXi−ϕ(θ)W(θ)∞,i (2.1)

Page 11: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

8CHAPITRE 2. MARCHE ALÉATOIRE BRANCHANTE ET RENOUVELLEMENT IMPLICITE

où les W(θ)∞,i sont des copies iid de W(θ)

∞ .Cette équation est une équation de point fixe en loi. Dans la suite, nous allons détermi-ner l’asymptotique de la queue de la solution sous diverses hypothèses, notamment surles moments des variables aléatoires intervenant dans l’équation. L’intérêt de connaîtrela queue de W∞ est que cette variable apparaît dans le comportement asymptotique dela MAB comme énoncé dans le théorème suivant :

Théorème 2.1 (Croissance de la MAB dans une direction donnée, Biggins). Supposonsqu’il existe κ > 1 tel que E[(W(θ)

1 )κ] < ∞ et ϕ(κθ) < κϕ(θ). Soit µ la mesure définie comme

∀A, µ(A) =∞

∑i=1

P(Xi ∈ A). (2.2)

Soit f : R → R une fonction continue bornée, xθ = ϕ′(θ) et σ2θ =

∫R(y− xθ)eθy−ϕ(θ)µ(dy).

Alors

e−nϕ(θ) ∑|u|=n

eθXu f

Xu − xθn√σ2

θ n

loi→W(θ)∞ E[ f (N )], (2.3)

où N est une variable gaussienne centrée réduite.

Il nous faut maintenant énoncer des résultats classiques, d’autre plus récent, venantde la théorie du renouvellement implicite qui permettent de traiter certaines équationsde point fixe en loi. Nous nous cantonnerons au cas affine dans le cadre univarié et àl’équation R = ∑ CiRi + Q pour le cadre multi-varié.

2.3 Le cas affine

Nous étudions l’équation R loi= MR + Q, avec M, Q des variables aléatoires réelles, le

couple (M, Q) étant indépendant de R.

Considérons (Qk, Mk)k≥1 des copies iid de (Q, M). Notant Πn = M1...Mn, on ob-

serve que R loi= ∑k≥1 QkΠk−1 par itérations successives de l’équation de point fixe, sous

réserve que la somme converge. Les questions d’existence et d’unicité ne posent pasproblème (principe de Letac, théorème 2.1 dans [2]).

Commençons par énoncer un lemme :

Lemme 2.2 (Moments de M, C.M.Goldie [2]). Soit M une variable aléatoire telle qu’il existeun κ > 0 pour lequel on a :

E[|M|κ] = 1

E[|M|κ log+ |M|] < ∞.

Page 12: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2.3. LE CAS AFFINE 9

Supposons que la loi conditionnelle de log |M| sachant que M 6= 0 est non-arithmétique, c’est-à-dire qu’elle n’est pas supportée par un réseau cZ + λ. Alors

−∞ ≤ E[log |M|] < 0

et en posant m = E[|M|κ log |M|], nous avons m ∈]0, ∞[.

Nous avons alors le résultat suivant sur la queue de la solution :

Théorème 2.3 (C.M.Goldie [2]). Soient Q et M des variables aléatoires réelles définies sur unmême espace probabilisé. Supposons que M vérifie les hypothèses du lemme 2.2 et que

E[|Q|κ] < ∞.

Alors il existe une unique loi solution de l’équation affine. Pour R suivant cette loi, nous avons

P(R > t) ∼ C+t−κ(t→ ∞) (2.4)

P(R < −t) ∼ C−t−κ(t→ ∞). (2.5)

Si M ≥ 0 p.s. alors

C+ =1

κmE[((Q + MR)+)κ − ((MR)+)κ

], (2.6)

C− =1

κmE[((Q + MR)−)κ − ((MR)−)κ

], (2.7)

tandis que dans l’autre cas,

C+ = C− =1

2κmE[|Q + MR|κ − |MR|κ]. (2.8)

De plus, C+ + C− > 0 si et seulement si

∀c ∈ R, P(Q = (1−M)c) < 1. (2.9)

Remarquons la présence d’une hypothèse récurrente dans l’étude des processus debranchement, à savoir E[|M|κ log+ |M|] < ∞, hypothèse d’une nature assez forte. Ce-pendant, si nous relaxons cette hypothèse et prenons à la place quelques hypothèsesmoins fortes, un résultat persiste comme l’a démontré Kevei [4].

Nous supposons maintenant que M ≥ 0 p.s..Nous noterons Pκ pour κ > 0, la probabilité définie par

Pκ(log(M) ∈ C) = E[1log(M)∈C Mκ

], (2.10)

probabilité qui intervient déjà comme changement de mesure dans les preuves de Gol-die [2]. Nous ferrons ici l’hypothèse selon laquelle E[Mκ] = 1, afin que Pκ soit bien une

Page 13: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

10CHAPITRE 2. MARCHE ALÉATOIRE BRANCHANTE ET RENOUVELLEMENT IMPLICITE

probabilité.Si F désignait la fonction de répartition de log(M) sous P, nous désignerons par Fκ cellesous Pκ. Plus précisément,

Fκ(x) = Pκ(log(M) ≤ x) =∫ x

−∞eκyF(dy). (2.11)

Nous supposerons que log(M), sous Pκ, est dans le domaine d’attraction d’une loistable d’indice α ∈]0, 1], log(M) ∈ D(α). Comme Fκ(−x) ≤ e−κx, log(M) appartient àD(α) sous Pκ si et seulement si

1− Fκ(x) = Fκ(x) =l(x)xα

, (2.12)

où l est une fonction à variations lentes (∀c > 0, l(cx)l(x) → 1 quand x → ∞).

Définissons la fonction de renouvellement de log(M) sous Pκ par

U(x) =∞

∑n=0

F(∗n)κ (x)

où F(∗n)κ désigne la fonction de répartition d’une somme Vn de n variables iid de même

loi que log(M). Comme cette marche aléatoire Vn dérive vers l’infini sous Pκ (d’après leshypothèses faites sur ses incréments), nous pouvons montrer que ∀x ∈ R, U(x) < ∞.Posons

m(x) =∫ x

0

(Fκ(−u) + Fκ(u)

)du ∼

∫ x

0Fκdu ∼ l(x)x1−α

1− α, (2.13)

les équivalents étant valables seulement quand α 6= 1.

Pour que les résultats tiennent, nous aurons besoin de la convergence suivante

∀h > 0, limx→∞

m(x) (U(x + h)−U(x)) = hCα où Cα =1

Γ(α)Γ(2− α). (2.14)

Cette convergence sera vérifiée sous réserve d’avoir (2.11) quand 12 < α ≤ 1. Pour le cas,

α ≤ 12 , nous aurons besoin d’une condition équivalente (pour voir que cette condition

équivaut à (2.13), consulter le théorème 3.1 de [4] dû à Caravenna et Doney) : si (2.11)est vérifiée avec α ≤ 1

2 pour une variable positive de fonction de répartition H, alors(2.13) est vérifiée si et seulement si nous avons

limδ→0

lim supx→∞

xH(x)∫ δx

1

1yH(y)2

H(x− dy) = 0. (2.15)

Page 14: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2.4. APPLICATION À LA MAB ET L’ÉQUATION GÉNÉRALE 11

Toutes ces notations et hypothèses en place, les suppositions que nous ferons dansce premier cadre de travail seront donc résumées par

E[Mκ] = 1, ∃κ > 0 et α ∈]0, 1] tels que (2.11) et (2.14) tiennent pour Fκ, (2.16)et log(M) conditionné sur M 6= 0 est non-arithmétique.

Il vient alors le résultat suivant :

Théorème 2.4 (Kevei[4]). Supposons (2.15). Supposons également qu’il existe ν > κ tel que

E[|Q|ν] < ∞. Alors la queue de l’unique solution R de l’équation R loi= MR + Q vérifie

limx→∞

m(log(x))xκP(R > x) =Cα

κE [(MR + Q)κ

+ − (MR)κ+] , (2.17)

limx→∞

m(log(x))xκP(R ≤ −x) =Cα

κE [(MR + Q)κ

− − (MR)κ−] .

De plus, si ∀x ∈ R, P(Mx + Q = x) < 1, alors

E [(MR + Q)κ+ − (MR)κ

+] + E [(MR + Q)κ− − (MR)κ

−] > 0. (2.18)

A noter qu’il existe aussi un résultat si E[Mκ] < 1 quitte à renormaliser la nouvelleproba et à reformuler certaines hypothèses (consulter la partie dédiée dans le mémoirede M2 ou l’article de Kevei [4]).Ainsi, sans l’hypothèse E[|M|κ log+ |M|] < ∞, on peut toujours énoncer un résultatmais l’asymptotique n’est plus polynômiale car un terme à variations lentes est apparu.

Les théorèmes 2.3 et 2.4 vont nous permettre de traiter l’équation de point fixe de lalimite des martingales de la MAB.

2.4 Application à la MAB et l’équation générale

Les résultats de Jelenkovic et Olvera-Cravioto dans [3] permettent d’énoncer unthéorème sur la queue de la limite des martingales de la MAB. Cependant, nous allonsprésenter une autre approche, celle de Liu [5], certes plus compliquée car elle nécessitel’introduction d’une nouvelle mesure mais sa méthode de réduction de l’équation serautile pour énoncer un résultat avec des hypothèses plus faibles.

Commençons par fixer un θ à l’intérieur du domaine de définition de ϕ(θ) = log E[∑∞i=1 eθXi ]

et par noter Cu = eθXu−|u|ϕ(θ). L’équation qui nous intéresse est

W loi=

N

∑i=1

CiWi, (2.19)

Page 15: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

12CHAPITRE 2. MARCHE ALÉATOIRE BRANCHANTE ET RENOUVELLEMENT IMPLICITE

où nous avons abrégé W = W(θ)∞ et Wi = W(θ)

∞,i . Pour rappel, les (Wi)i≥1 sont iid demême loi que W et supposés indépendants de (N, (Ci)i≥1). Dans le cas de la marchealéatoire branchante, pour coller avec nos notations, N = ∞ ps.Nous posons

Y∅ = 1 (2.20)

∀u ∈ U , Yu = eθXu−|u|ϕ(θ) = Cu1Cu1u2 ...Cu (2.21)

où Cu = eθξu−ϕ(θ). Nous gardons là-encore la convention que si la marche prend lavaleur ∂ sur un noeud, les termes correspondants s’annulent (Liu ne fait pas cette hypo-thèse car il se place directement sur l’arbre aléatoire T(ω) sur lequel vit la MAB plutôtque U tout entier).Avec ces notations, nous avons W(θ)

n = ∑|u|=n Yu. Au même titre que les Wn convergentpresque sûrement vers W, nous avons pour tout u l’existence presque sûre de la limite

Wu := limn→∞ ∑

|v|=nCuv1Cuv1v2 ...Cuv. (2.22)

On remarquera que W∅ = W.

On note ∂U le bord de l’arbre d’Ulam constitué des mots de longueur infinie. Défi-nissons pour tout u ∈ ∂U les quantités suivantes

W(ω, u) := W∅(ω) = W(ω), (2.23)

C1(ω, u) := Cu1(ω), (2.24)

W1(ω, u) := Wu1(ω). (2.25)

Ce sont des applications mesurables définies sur Ω× ∂U muni de la tribu produit F ×B(∂U ) où B(∂U ) désigne la tribu borélienne de ∂U (pour la métrique sur ∂U utilisée parLiu [5]).

Toutes ces définitions nous donnent l’égalité suivante

W(ω, u) = C1(ω, u)W1(ω, u) + B1(ω, u) (2.26)

où B1(ω, u) := ∑∞j=1 CjWj1u1 6=j.

Introduisons Q la mesure de Peyrière (ou mesure épinale du point de vue de la MAB)sur Ω× ∂U définie par

∀A ∈ F × B(∂U ), Q(A) = E

[∫∂U

1A(ω, u)µω(du)]

(2.27)

où µω est l’unique mesure de Borel (aléatoire) sur ∂T(ω) (bord de l’arbre engendré parla MAB) telle que µω(v ∈ ∂T(ω) : u ≤ v) = YuWu, prolongée à ∂U par restriction à

Page 16: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2.4. APPLICATION À LA MAB ET L’ÉQUATION GÉNÉRALE 13

∂T(ω).Comme E[W] = 1, Q est une probabilité.

Nous sommes alors en mesure d’appliquer les résultats de Goldie et Kevei dans lecadre affine à cette équation réduite, sous la probabilité Q. Via deux lemmes de Liu, nouspouvons ensuite tout retraduire sous la probabilité initiale. Tout d’abord en appliquantle théorème de Goldie,

Théorème 2.5 (B., Queue de la martingale limite). Supposons que la loi de reproduction dela MAB soit non-arithmétique. Supposons de plus qu’il existe κ > 1 tel que

W(θ)1 ∈ Lκ, (2.28)

E

[∞

∑i=1

Cκi log+(Ci)

]< ∞, (2.29)

ϕ(κθ) = κϕ(θ) (2.30)

AlorsP(W > t) ∼ Ht−κ(t→ ∞), (2.31)

où H ∈]0, ∞[ est donnée par

H =

∫ ∞0 vκ−1

(P(W > v)−E

[∑∞

i=1 1eθXi−ϕ(θ)W>v

])dv

E[∑∞

i=1 eθκXi−ϕ(κθ) log(eθXi−ϕ(θ)

)] (2.32)

=E[(

∑∞i=1 eθXi−ϕ(θ)Wi

)κ−∑∞

i=1 eκθXi−ϕ(κθ)Wκi

]κE[∑∞

i=1 eθκXi−ϕ(κθ) log(eθXi−ϕ(θ)

)] (2.33)

Le théorème qui va suivre reste vrai peu importe l’expression des Cu (la réductionse fait de la même manière) tant que la structure branchante est préservée et découle del’application du théorème de Kevei à l’équation réduite :

Théorème 2.6 (B.). Supposons qu’il existe κ > 0 et α ∈ (0, 1] tels que

E

[∑

i1NCκ+1

i

]= 1 = E

[N

∑i=1

Ci

], (2.34)

E

[N

∑i=1

1log(Ci)>xCκ+1i

]= l(x)x−α, (2.35)

limδ→0

lim supx→∞

xE

[N

∑i=1

Cκ+1i 1log(Ci)>x

] ∫ δx

1

E[∑N

i=1 Cκ+1i 1log(Ci)≤x−dy

]yE[∑N

i=1 Cκ+1i 1log(Ci)>y

]2 = 0. (2.36)

Page 17: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

14CHAPITRE 2. MARCHE ALÉATOIRE BRANCHANTE ET RENOUVELLEMENT IMPLICITE

Supposons aussi qu’il existe j ≥ 1 tel que P(N ≥ j, Cj > 0) > 0 et log(Cj) conditionnellementà Cj > 0 et N ≥ j est non-arithmétique.Enfin, supposons qu’il existe ν > κ tel que

E

[N

∑i=1

(N

∑k=1

CkRk

Ci

]< ∞. (2.37)

Alors la queue de la solution W vérifie l’asymptotique suivante :

limx→∞

m(log(x))xκ+1P(W > x) =Cα

κ + 1E

( N

∑i=1

CiWi

)κ+1

−N

∑i=1

(CiWi)κ+1

, (2.38)

où m(x) =∫ x

0

(Pκ(log(C1) ≤ −u) + Pκ(log(C1) > u)

)du et Cα = 1

Γ(α)Γ(2−α).

De plus, si α 6= 1, nous avons

P(W > x) ∼ (1− α)Cα

κ + 1E

( N

∑i=1

CiWi

)κ+1

−N

∑i=1

(CiWi)κ+1

x−κ−1(log(x))α−1

l(log(x))(x → ∞).

(2.39)

Dans un soucis de complétude, nous souhaiterions appliquer les résultats de Kevei

pour traiter l’équation non-homogène R loi= ∑N

i=1 CiWi + Q déjà traitée dans un cadresimilaire à celui de Goldie par Jelenkovic et Olvera-Cravioto.Comme la méthode de réduction de Liu nous a été bien utile pour établir les résultatsprécédents, nous allons aussi introduire une nouvelle mesure afin de réduire l’équationen une équation affine à une variable. Cependant, le terme Q qui s’ajoute va compliquerles choses si l’on veut définir la mesure exactement de la même manière que précédem-ment. Nous utiliserons alors une mesure introduite par Buraczewski, Damek et Mikoschdans [1] qui s’intéressent non pas au bord de l’arbre mais à la première génération.

Notons Ω = Ω×N et introduisons la mesure définie par

∀U ∈ B(Ω), P(U) = E

[N(ω)

∑i=1

1U(ω, i)Ci(ω) + 1U(ω, 0)Q(ω)

]. (2.40)

Pour que cette mesure soit une probabilité, nous demandons E[R] = 1 = E[∑ Ci + Q].

Page 18: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

2.4. APPLICATION À LA MAB ET L’ÉQUATION GÉNÉRALE 15

Introduisons alors

C(ω, i) =Ci(ω)1i 6=0

R(ω, i) =R(ω)

R1(ω, i) =Ri(ω)1i 6=0 + R(ω)1i=0

Q(ω, i) =

(∑j 6=i

Cj(ω)Rj(ω) + Q(ω)

)1i 6=0

+

(∑

jCj(ω)Rj(ω) + Q(ω)

)1i=0.

Nous avons R et R1 de même loi et R1 est indépendant sous P de (C, Q).Enfin, définissons R∗ par E

P[g(R∗)] = E[g(R)R]. R∗ est solution de l’équation de point

fixe R∗ = CR∗ + Q.Nous sommes en mesure de calculer toutes les espérances sous P pour les réexprimersous P, donc nous pouvons énoncer le théorème suivant :

Théorème 2.7 (B., Cas inhomogène). Supposons qu’il existe κ > 0, α ∈ (0, 1] et ν > κ telsque

E

[N

∑i=1

Cκ+1i

]= 1, (2.41)

E

[N

∑i=1

Cκ+1i 1log(Ci)>x

]= l(x)x−α, (2.42)

limδ→0

lim supx→∞

xE

[∑i=1

NCκ+1i 1log(Ci)>x

] ∫1

δxE[∑i=1 NCκ+1

i 1log(Ci)≤x−dy

]yE[∑i=1 NCκ+1

i 1log(Ci)>y

]2 = 0, (2.43)

E

[N

∑i=1

Ci∣∣∑

j 6=iCjRj + Q

∣∣ν + Q∣∣∑

jCjRj + Q

∣∣ν] < ∞, (2.44)

où l est à variations lentes. Supposons aussi qu’il existe j ≥ 1 tel que P(N ≥ j, Cj > 0) > 0 etlog(Cj) sachant Cj > 0, N ≥ j est non-arithmétique.Alors la queue de la solution R vérifie

limx→∞

m(log(x))xκ+1P(R > x) =Cα

κ + 1E

( N

∑i=1

CiRi + Q

)κ+1

−N

∑i=1

(CiRi)κ+1

, (2.45)

où m(x) =∫ x

0

(Pκ(log(C) ≤ −u) + Pκ(log(C > u)

)du.

Page 19: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

16CHAPITRE 2. MARCHE ALÉATOIRE BRANCHANTE ET RENOUVELLEMENT IMPLICITE

De plus, si α 6= 1, nous avons

P(R > x) ∼ (1− α)Cα

κ + 1x−(κ+1)(log(x))α−1

l(log(x))E

( N

∑i=1

CiRi + Q

)κ+1

−N

∑i=1

(CiRi)κ+1

(x → ∞).

(2.46)

2.5 Autres résultats à explorer

Rappelons-nous la définition de ϕ pour la MAB : ϕ(θ) = log E[∑i eθξi

]où ξ ∼ Ξ.

Sans perte de généralité, fixons θ dans l’intervalle où la fonction convexe ϕ est définieet supposons ϕ(θ) = 0. Nous avons le théorème suivant

Théorème 2.8 (Lyons). La martingale (W(θ)n ) est uniformément intégrable si et seulement si

ϕ′(θ) < 0 et E[(∑ ξi) log+(∑ ξi)

]< ∞.

Il s’agit d’un résultat pour avoir la convergence L1 en plus de la convergence ps de lamartingale W(θ)

n . Comme nous l’avons vu, la deuxième condition revient assez souventmais il subsiste toujours des résultats si on l’oublie. En effet :

Théorème 2.9 (Biggins, Kyprianou). Si ϕ′(θ) < 0 et quelques hypothèses techniques sontvérifiées, il existe une suite (cn) à variation lente, telle que cnW(θ)

n converge presque sûrementvers une limite non-dégénérée W(θ).

Des questions naturelles vis-à-vis de ce résultat sont les suivantes :

Question 1. De quelles hypothèses techniques du théorème 2.9 peut-on s’affranchir, etquel résultat avons-nous dans ce cas ?

Question 2. Peut-on obtenir explicitement la suite (cn) en fonction de la loi Ξ de laMAB ?

Pour cette deuxième question, on present que la connaissance du comportement dela queue de W(θ) jouera un rôle dans l’expression de la suite (cn), c’est pourquoi il était

crucial d’étudier l’équation R loi= ∑ CiRi + Q dans le cadre le moins contraignant pos-

sible.

Enfin, on peut aussi se poser la question suivante :

Question 3. Que se passe-t-il si ϕ′(θ) = 0 ?

La réponse est connue grâce à un théorème d’Aïdékon et Shi si l’on rajoute unehypothèse du type L log(L) et ϕ′′(θ) < ∞. Dans ce cas,

√nW(θ)

n converge vers unelimite non-dégénérée. Le cas général est encore ouvert...

Page 20: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Bibliographie

[1] D. Buraczewski, E. Damek & T. Mikosch. Stochastic models with power-law tails : theequation X= AX+ B, Springer, (2016).

[2] C. M. Goldie, "Implicit Renewal Theory and Tails of Solutions of Random Equa-tions", The Annals of Applied Probability (February 1991), Vol 1, No.1, 126-166.

[3] P. R. Jelenkovic & M. Olvera-Cravioto, "Implicit Renewal Theory and Power Tailson Trees", Applied Probability Trust (December 25, 2013).

[4] P. Kevei, "A note on the Kesten-Grincevicius-Goldie theorem", Electronic Communi-cations in Probability 21 (2016), 1-12.

[5] Q. Liu, "On generalized multiplicative cascades", Stochastic Process. Appl. (2000),86 :263-286.

17

Page 21: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Chapitre 3

Rapport du stage de L3

Introduction

Mon stage s’est déroulé du 23 juin au 11 juillet 2014 au Laboratoire de l’AccélérateurLinéaire (LAL) d’Orsay, sous la direction de David ROUSSEAU, mon maître de stage.Ce laboratoire abritait un des tout premiers accélérateurs linéaires, précurseur du LargeHadron Collider (LHC) du CERN. Bien que l’accélérateur linéaire n’existe plus aujour-d’hui, le laboratoire mène encore activement des recherches en physique des particulesen partenariat avec le CERN, plus particulièrement, je travaillais avec des physiciens del’équipe ATLAS, du nom d’un des détecteurs du LHC. ATLAS et CMS sont des détec-teurs à l’origine de la découverte le 4 juillet 2012 du boson de Higgs, découverte quia bien agité le monde de la physique des particules. La recherche se concentre actuel-lement à obtenir le plus de mesures possibles sur le Higgs (masse, couplages(force lareliant aux autres particules)...) mais ce n’est pas une chose aisée car cette particule estrarement produite.

Présentation du problème

Le détecteur ATLAS est un cylindre 40 mètres de long pour 22 de diamètre et unemasse équivalente à celle de la tour Eiffel. En son sein, des collisions proton-proton ontlieu, qu’on appelle des événements, générant de nouvelles particules, pouvant éven-tuellement se désintégrer en particules plus légères, qui vont rencontrer les différentescouches du détecteur où leur énergie et leur direction (entre autres) sont enregistrées.Les physiciens utilisent alors ces données pour remonter jusqu’au particules originelleset obtenir leurs données à partir de celles mesurées par le détecteur. Un des modes dedésintégration intéressants du Higgs est celui en deux τ : τ+τ− (que l’on appelera H-tau-tau dans la suite). En effet, à cause de sa haute énergie (environ 125 GeV), le Higgsse désintègre rapidement en d’autres particules : le cas qui nous intéresse dans ce stageest la chaîne Higgs-tau-tau. Si le Higgs était la seule particule avec ce mode de dés-intégration, tout irait pour le mieux dans le meilleur des mondes, mais il y a d’autres

18

Page 22: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.1. LE CHALLENGE HIGGSML 19

particules, comme le boson Z, qui ont le même mode de décomposition. Le problèmemajeur est donc de savoir identifier le signal Higgs-tau-tau du bruit de fond Z-tau-tau(il en existe d’autres mais est largement majoritaire (dans le challenge, il y a en fait deuxautres bruits de fond)).

C’est ainsi qu’arrive la nécessité de pouvoir distinguer pour chaque événement avecune certitude suffisamment grande signal et bruit de fond (que l’on appelera parfoisaussi background). Pour ce faire, le challenge HiggsML a été créé par ATLAS, en par-tenariat avec le LAL, le CERN, l’Université Paris-Sud (entre autres) et le site kaggle [1],l’objectif étant la création d’un algorithme, par des participants de tous les horizons(pas uniquement des physiciens), permettant de faire cette distinction avec précision.Une récompense de 7000, 4000 et 2000 dollars récompensera les 3 meilleurs.

Objectifs du stage

Dans ce stage, j’ai dû étudier quelques algorithmes de machine learning de base, ob-server l’importance et l’influence de toutes les variables les unes sur les autres. Puis j’aidû observer la stabilité de certains paramètres sur diverses soumissions des meilleursparticipants du challenge en découvrant et utilisant la méthode du bootstrap.

3.1 Le Challenge HiggsML

3.1.1 Aspect physique et mise en équations

Voir [2]Pour étudier la chaîne Higgs-tau-tau, il faut pouvoir différencier avec une certitude

suffisament grande le signal du background Z-tau-tau. Pour évaluer cette certitude, onutilise une quantité appellée « significance » (ce qui se traduirait en français par « signi-fication statistique », on conservera cet anglicisme dans la suite) : plus elle est grande,plus l’algorithme que l’on a créé est fiable. Il s’agit donc pour les participants du chal-lenge de télécharger sur le site de kaggle deux fichiers (training et test) contenant desdonnées d’ATLAS prises sur l’année 2012 (voir [3]), training.csv contenant en plusun label signal/background. Ces fichiers .csv consistent en une première ligne avec lenom des différentes variables : EventId (numéro d’identification de l’événement), 13 va-riables DER dérivées de 16 variables PRI primitives (i-e celle mesurées sur le détecteurpermettent de calculer les variables dérivées) ; les autres lignes correspondant aux va-leurs des variables pour chaque événement (550000 pour le fichier training.csv conten-tant les labels, 300000 pour le fichier test.csv). De plus, chaque événement se voieattribuer un poids, inconnu des participants, dénotant l’importance de l’événement auxyeux d’ATLAS.

L’objectif est la réalisation d’un nouveau fichier .csv contenant EventId, Rang (clas-sement en terme de fiabilité) et Label pour chacune des 300000 entrées du fichier test.Une fois ce fichier construit par le programme, les participants le soumettent sur kaggle

Page 23: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

20 CHAPITRE 3. RAPPORT DU STAGE DE L3

qui calcule alors la significance pour effectuer un classement des participants. Pour cefaire, kaggle utilise la formule d’Asimov pour l’AMS (approximation of the median si-gnificance). Avant de donner cette formule, nous devons poser quelques définitions etnotations :

Soit D =(x1, y1, w1), . . . , (xn, yn, wn)

l’échantillon de training, où xi ∈ Rd est un

d-uplet correspondant aux valeurs des variables pour le i-ème événement, yi ∈ b, sle label, et wi ∈ R+ un poids positif (inconnu du public). Soient S = i : yi = s etB = i : yi = b les indices des signaux et bruits de fonds, et soient ns = |S| et nb = |B|le nombre de signaux et bruits de fonds simulés.

Il y a deux propriétés qui font que notre échantillon de training simulé diffère de cequ’on pourrait obtenir avec des données naturelles ou provenant du distribution p(x, y).Premièrement, on peut simuler autant d’événements que nécessaire (pourvu que l’in-formatique suive), de manière à ce que le rapport ns/nb du nombre de points dans lesdeux classes ne reflète pas le rapport des probabilités P(y = s)/P(y = b). Cela nousarrange : puisque P(y = s) P(y = b), l’échantillon de training serait très déséquili-bré si le nombre de signaux et backgrounds, ns and nb, étaient proportionnel à P(y = s)et P(y = b). Deuxièmement, les simulateurs produisent des poids pour l’importancedes événements. Puisque l’AMS découlera de la somme non-normalisée des poids, afind’obtenir une invariance par rapports aux nombres d’événements simulés ns et nb, lessommes pour chaque échantillon (training, public test, private test, etc.) et chaque label(signal et background) seront fixées, à savoir,

∑i∈S

wi = Ns et ∑i∈B

wi = Nb. (3.1)

Les constantes de normalisation Ns et Nb ont un sens physique : elles sont le nombretotal attendu d’événements signal et background, respectivement, durant l’intervallede temps où les données sont enregistrées (l’année 2012 dans le cas du challenge). Lespoids individuels sont proportionnels à la densité conditionnelle divisée par la densitéeinstrumentale utilisée par le simulateur :

wi ∼

ps(xi)/qs(xi), si yi = s,pb(xi)/qb(xi), si yi = b,

(3.2)

oùps(xi) = p(xi|y = s) et pb(xi) = p(xi|y = b)

sont les densités conditionnelles du signal et du bakground, respectivement, et qs(xi)and qb(xi) sont les densités instrumentales.

Soit g : Rd → b, s un classificateur arbitraire (ce que l’on veut construire pour lechallenge avec les méthodes du machine learning). Soit la zone de sélection G = x :g(x) = s l’ensemble des points classés comme signaux, et soit G l’ensemble d’indicesdes points que g sélectionne (terminologie physique) ou classe comme signal (termino-logie machine learning), à savoir,

G = i : xi ∈ G =

i : g(xi) = s

.

Page 24: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.1. LE CHALLENGE HIGGSML 21

D’après ce qui précède, il vient alors que la quantité

s = ∑i∈S∩G

wi (3.3)

est un estimateur non-biaisé du nombre attendu de signaux sélectionnés par g,

µs = Ns

∫G

ps(x)dx, (3.4)

et, de même,b = ∑

i∈B∩Gwi (3.5)

est un estimateur non-biaisé du nombre attendu de backgrounds sélectionnés par g,

µb = Nb

∫G

pb(x)dx. (3.6)

En physique, le nombre estimé d’événements s et b sélectionnés par g sont aussi ap-pellés traditionnellement signal et background. 1 Pour ce qui est de la terminologie dumachine learning, s et b sont des taux positifs vrai et faux (respectivement). 2

Pour un classificateur g donné, une réalisation d’un n-échantillon d’événements ob-servés sélectionnés par g (positifs), la significance (gaussienne) de découverte serait ap-proximativement (n− µb)/

√µb écart-type (sigma) puisque la fluctuation de Poisson du

background a un écart-type de√

µb. Comme on peut estimer n par s + b et µb par b, celasuggère une fonction de s/

√b pour entrainer g. Pour améliorer cette approximation, on

utilise l’approximate median significance (AMS) définie par la formule d’Asimov [4] :

AMS =

√2((s + b + b′) ln

(1 +

sb + b′

)− s)

(3.7)

où s et b sont définis précédemment, et b′ est un terme de régularisation constant fixé àb′ = 10 pour le challenge. L’équation précédente avec b′ = 0, est fréquemment utilisépar les physiciens des particules pour optimiser la zone de sélection pour la significancede découverte ; le terme b′ a été introduit ici afin de réduire la variance de l’AMS.

Quand sb est petit, on confond l’AMS avec son équivalent s√

b.

1. En physique des particules, suivant le contexte, le terme signal signifie s, µs, ou s. Dans ce rapport,comme on utilise les trois, le s romain désigne le label et ce qui à trait au signal (ex : ns), µs désigne lenombre attendu d’événements signaux dans une zone choisie par le classificateur, et s pour le nombreestimé de signaux sélectionnés par le classificateur. Même principe pour les trois termes b, µb, and b, quise réfèrent au background.

2. s et b sont non-normalisés, plus précisément, des taux positifs vrai et faux normalisés à la luminositéde l’équation sur Ns et Nb.

Page 25: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

22 CHAPITRE 3. RAPPORT DU STAGE DE L3

3.1.2 Machine Learning

Le principe du challenge trouve naissance dans les principes machine learning, uneméthode de traitement de données qui s’adapte parfaitement à notre problème.

En machine learning, on veut apprendre à une machine comment reconnaître telleou telle propriété inconnue sur un échantillon après lui avoir montré un grand nombred’échantillons comportant en plus l’information sur la propriété qui nous intéresse (ici,le label s ou b). L’échantillon de training comporte donc toutes les valeurs pour toutesles variables PRI et DER, l’EventId et le label tandis que l’échantillon de test comportetoutes les variables PRI et DER et l’EventId (mais pas le label !). Le poids des événementsne figure pas dans ces fichiers car il pourrait être utilisé (à tort) comme variable discri-minante. Les algorithmes des participants au challenge doivent donc lire les fichiers detraining et de test afin de créer et entraîner un classificateur g qui sera ensuite lancé surle fichier test ; on constitue ainsi un nouveau fichier appelé en général submission quicomporte trois variables uniquement : EventId, rang et label, le rang servant à classernos événements en fonction de la certitude que l’on a sur le label que g a sélectionné.

Une méthode possible est d’utiliser des arbres de décisions boostés, ou de l’analysemulti-variée.

3.2 Etudes de quelques algorithmes

Entrons maintenant dans le vif du sujet avec quelques algorithmes de bases et regar-dons leurs avantages et limites quant à nos objectifs.

3.2.1 Simplest python

Dans un premier temps, ne connaissant pas le python, j’étais incapable de modifierle corps des programmes fournis par kaggle qui sont par défauts des fichiers .py : j’avaisdonc prévu de programmer en scilab. Or cette tâche s’est avérée assez ardue car il fal-lait d’abord traduire les programmes du python où les matrices sont vues comme deslistes de listes, donc plus aptes à se voir ajouter un élément sur une ligne seulement(donc à ne plus être une matrice), vers scilab où presque tout est matrice et où il estdonc hors de question d’avoir une ligne avec un élément de plus ou de moins. Ce pro-blème des matrices a été un obstacle majeur car les détours nécessaires à prendre pour lecode scilab allongeaient considérablement le temps d’exécution du programme et l’es-pace mémoire nécessaire. Le programme higgsml_simplest.py tournait en effet enmoins d’une minute et la version scilab ne finissait pas au bout de 30 minutes, faute demémoire. Il m’a donc fallu apprendre le python.

Le programme higgsml_simplest.py est le premier que j’ai étudié et, commeson nom l’indique, le plus simple. Il s’agit ici de faire une sélection signal/backgroundbasée sur l’observation d’une seule variable sur une certaine fenêtre : si l’événement setrouve dans la fenêtre, c’est un signal, sinon un bruit de fond. La variable que l’on a

Page 26: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.2. ETUDES DE QUELQUES ALGORITHMES 23

choisie pour ce programme est DER_mass_MMC que l’on veut proche de 125 GeV (lamasse théorique du Higgs) avec une tolérance ou seuil ou threshold arbitraire, ici unthreshold de 22 GeV.

Le principe est assez simple vu que l’on ne fait pas vraiment de training : on se faitjuste une idée de ce que sera notre AMS en appliquant la même méthode aux fichierstraining et test puis en calculant l’AMS du fichier training, évidemment la significanceobtenue de 1.54451 pour le fichier test est assez faible mais proche de celle trouvée pourle training. Il s’agit juste d’ajouter une colonne à la matrice qu’est le fichier et y ajouterà chaque fois myscore = |DER_mass_MMC− 125|, classer la matrice en fonction de lacolonne myscore (ce qui donnera le rang) et tester ensuite si myscore < threshold = 22auquel cas on a un signal.

Bien évidemment, ce programme n’est qu’un exercice pour se mettre dans l’espritdu challenge et du machine learning. Les participants se contentant de ce programmese situent aux environs de la millième place du classement. Il est donc nécessaire depasser à d’autres programmes, plus compliqués mais plus efficaces.

3.2.2 TMVA et eval

Maintenant, on s’intéresse à un nouveau type de programmes utilisant root (logicieldu CERN nécessitant de passer sur Mac car l’installation sous Windows est extrême-ment ardue) et le kit TMVA (Tool for Multi-Variate Analysis) disponible sur kaggle. Làencore, un programme de base, higgsmltmva.py, est fourni sur kaggle et j’ai pu lefaire tourner et lui appliquer divers tests.

higgsmleval.py est un programme similaire à celui utilisé par kaggle pour calcu-ler l’AMS du fichier soumission et pour pouvoir faire un classement entre les meilleuressoumissions des participants. J’ai dû apporter des modifications à ce programme afinqu’il puisse afficher en plus certaines courbes intéressantes quand au comportement dufichier soumission : (malheureusement notée Graphe sur les figures qui suivent).

TMVA_reference

Le programme de base, que l’on appelera TMVA_reference, se base sur la théoriede l’analyse multi-variée [5] et sur l’utilisation d’arbre de décisions boostés permettantd’obtenir une significance de 3.24954, nous propulsant ainsi aux seuil du top 500 dansle classement (sujet à variations entre le moment de la rédaction et de la lecture de cerapport). TMVA_reference est donc bien plus efficace que higgsml_simplest.py !

On observe alors que les histogrammes de Nb et Ns en fonction du rang (à renorma-lisation des axes près) ressemble à des fonctions de répartition empiriques. Elles sontd’ailleurs calculées comme tel : on regarde le poids (contenu dans solution.csv, in-accessible aux participants), le rang et label de chaque événement, puis on ajoute lepoids dans l’intervalle de rang correspondant à l’histogramme du label.

La valeur maximale de l’AMS est celle que kaggle retiendra pour son classement.

Page 27: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

24 CHAPITRE 3. RAPPORT DU STAGE DE L3

FIGURE 3.1 – TMVA_referencecourbes de Nb et Ns en fonction du rang (noir et rouge) : fonctions de répartition em-pirique, courbe de l’AMS en fonction du rang (vert) par Asimov en intégrant signal etbackground et courbe de Nb en fonction de Ns (bleu)

La dernière courbe cherche juste à montrer l’évolution très rapide du rapport NbNs

pour les rangs faibles et pour les rangs élevés. A la fin de la brusque augmentation deNs, on se trouve au pic de l’AMS.

TMVA avec variables PRI uniquement

Une fois le programme de départ exécuté, j’ai dû regarder l’utilité des différentes va-riables. En effet, les variables PRI (primitives car mesurées directement par le détecteurATLAS) sont indépendantes et servent à elles seules à recalculer les variables DER (dé-rivées des primitives), il serait donc logique qu’on gagne en efficacité en n’utilisant queles variables PRI. Or, après modification du code de higgsmltmva.py, on remarque,comme le suggère la figure 3.2, que la significance obtenue, aux alentours de 2.22, estplus faible que précédemment.

Page 28: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.2. ETUDES DE QUELQUES ALGORITHMES 25

FIGURE 3.2 – TMVA_PRIcourbes de Nb et Ns en fonction du rang (noir et rouge), courbe de l’AMS en fonctiondu rang (vert) et courbe de Nb en fonction de Ns (bleu)

C’est la conséquence des limites du programme de base : TMVA ne parvient pas àobtenir toutes les informations sur les variables manquantes en se servant des variablesPRI uniquement.

TMVA avec variables DER et PRI_jet_num uniquement

De même, on peut se demander si TMVA serait capable de n’utiliser que les va-riables DER pour obtenir un résultat de meilleur qualité que TMVA_reference. Cepen-dant, une variable PRI est indispensable, c’est la variable entière PRI_jet_num, qui dé-signe le nombre de jets produit lors de l’événement et qui a son importance vis-à-vis desvariables DER contenant des informations sur les jets. Là encore, même si la différenceest moins frappante que dans le cas précédent, la figure 3.3 montre que la significanceest légèrement plus faible à 3.18 contre 3.25 pour la référence.

Il y a une perte d’information si on se passe des variables primitives, donc un résultat

Page 29: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

26 CHAPITRE 3. RAPPORT DU STAGE DE L3

FIGURE 3.3 – TMVA_DERcourbes de Nb et Ns en fonction du rang (noir et rouge), courbe de l’AMS en fonctiondu rang (vert) et courbe de Nb en fonction de Ns (bleu)

de moindre qualité.

TMVA invariances

Une autre approche pour augmenter l’efficacité de l’algorithme TMVA, en utilisantla totalité des variables (ce qui est nécessaire comme on l’a vu ci-dessus), est de consi-dérer les invariances du problème par rapport à certains paramètres.

En effet, la disposition du détecteur et la direction des protons avant la collision im-pliquent une invariance par rotation en φ (coordonnées sphériques) et une invariance enz. La première invariance va permettre de remplacer 5 variables fonctions de φ par 4, enayant soustrait la première aux autres et en prenant le résultat dans l’intervalle [−π, π[.La seconde va permettre de remplacer toutes les variables concernées par elles-mêmesque multiplie leur signe, donnant ainsi des variables positives. Il est intéressant de noterque ces simplifications nécessitent des connaissances en physique afin d’être légitimées

Page 30: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.3. INTRODUCTION AU BOOTSTRAP 27

et donc que si le challenge était moins dans une optique de partage, les participantsnon-physiciens seraient ici désavantagés bien que plus habiles en machine learning.

On s’attend donc en toute logique à ce que ces simplifications augmentent la signi-ficance. Hélas, après programmation on obtient une significance inférieure à celle deTMVA_reference (3.19992<3.24954). Le résultat n’est pas bien compris, une des hypo-thèses est que la légère asymétrie du détecteur à un effet significatif.

3.3 Introduction au bootstrap

On aimerait maintenant avoir accès à des données comme la variance de l’AMS de lasoumission. Mais, on ne connait pas la loi que suit notre échantillon. Il faut alors trouverune approximation de cette loi. La solution : le bootstrap.

3.3.1 Le bootstrap

Le bootstrap [6] consiste à partir d’un échantillon de variables aléatoires indépen-dantes et identiquement distribuées selon une loi inconnue à créer un certain nombresd’échantillons générés par tirages avec remise dans l’échantillon initial (appelés échantillonsbootstrappés ou échantillons bootstrap), desquels on obtiendra une approximation dela statistique qui nous intéresse de l’échantillon de départ.

Soit X1, ..., Xn un n-échantillon de variables aléatoires indépendantes et identique-ment distribuées selon une loi inconnue P. On souhaite estimer la statistique θ = T(P)grâce au bootstrap. Si on note F la fonction de répartition de P, on estimera θ parθ = T(F), où F est une estimation de F.

Si P fait partie d’une famille de lois paramétriques, une fois les paramètres estimés,on dispose d’une estimation paramétrique de P. On parle de bootstrap paramétrique.

Sinon, on estime F avec la fonction de répartition empirique. On parle de bootstrapnon-paramétrique.

On crée ensuite B échantillons bootstrap en tirant avec remise dans l’échantillon ini-tial jusqu’à obtenir un échantillon de même taille. On calcule alors pour chaque échan-tillon bootstrap b la statistique θb et, en prenant la moyenne sur tous les échantillonsbootstrappés, on obtient l’estimation θ recherchée :

θ =1B

B

∑b=1

θb (3.8)

3.3.2 Une alternative

En pratique, il peut être parfois compliqué de coder un tirage avec remise sur leséchantillons que l’on manipule, surtout quand n=550000 comme dans le fichier training.csv.Alors, on remplace le tirage avec remise par une multiplication des fréquences par uneloi de Poisson d’espérance 1, car l’ordre n’importe pas mais les fréquences si.

Page 31: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

28 CHAPITRE 3. RAPPORT DU STAGE DE L3

Un des inconvénients éventuels de cette méthode est que l’on a pas réellement decontrôle sur la taille de notre échantillon. En effet, le bootstrap donnera un échantillondont la somme des poids sera la même que celle de l’échantillon de départ tandis quela méthode alternative peut donner une somme de poids différente de la valeur initiale.Une complication supplémentaire est que les participants n’ont pas accès au poids desévénements.

Cependant, le nombre d’événements étant tellement grand, on considère que la dif-férence entre le bootstrap et la méthode du bootstrap « à la mode de Poisson » est négli-geable.

3.4 Stabilités

3.4.1 AMS dans TMVA

Nous allons pouvoir utiliser la méthode de Poisson introduite au chapitre précédentpour calculer la variance de l’AMS sur les algorithmes TMVA depuis higgsmleval.pyen générant 100 échantillons.

TMVA_reference

FIGURE 3.4 – Bootstrap de l’AMS dans TMVA_referenceNombre d’échantillons en ordonnées, AMS en abscisse

L’histogramme de la figure 3.4 présente une flèche sur l’AMS de l’échantillon initial(non-bootstrappé donc) et cette valeur correspond à un pic de fréquence. L’indicationRMS = 0.07228 correspond à la variance de l’AMS, qui est donc plutôt stable.

Page 32: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.4. STABILITÉS 29

TMVA avec variables PRI uniquement

FIGURE 3.5 – Bootstrap de l’AMS dans TMVA_PRINombre d’échantillons en ordonnées, AMS en abscissePlus stable que TMVA_reference

On a vu que TMVA n’arrivait pas à extraire toutes les informations des variables PRIen comparant l’AMS de TMVA_PRI avec TMVA_reference. En revanche, si cette diffé-rence persiste sur les échantillons bootstrappés, les variations de l’AMS sont plus faible,comme le montre l’allure plus resserrée de l’histogramme 3.5. Une tentative d’explica-tion serait que le nombre réduit de variables implique un nombre réduit de variations.

TMVA avec variables DER et PRI_jet_num uniquement

Enfin, comme dans l’échantillon initial, TMVA_DER reste proche mais moins perfor-mant que TMVA_reference et l’allure de son histogramme de bootstrap 3.6 est prochede celle de l’histogramme de TMVA_reference 3.4. Les valeurs ne sont pas les seules àêtre proche de celles de référence, en effet les variations sont à peu près équivalentesbien que le nombre de variables utilisées soit inférieur à celui de TMVA_reference.

Cependant, on avait déjà remarqué que TMVA n’arrivait pas à extraire toutes lesinformations des variables PRI et que les variables DER ne contenaient pas toutes lesinformations des variables PRI. Donc, les informations PRI étant essentielles, il est nor-mal d’obtenir de telles variations.

3.4.2 Leaderboard

Aux vues des variations de l’AMS suite au bootstrap et des scores rapprochés dansle leaderboard (voir figure 3.7), on est en droit de se demander si le classement va rester

Page 33: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

30 CHAPITRE 3. RAPPORT DU STAGE DE L3

FIGURE 3.6 – Bootstrap de l’AMS dans TMVA_DERNombre d’échantillons en ordonnées, AMS en abscissePlus stable que TMVA_reference mais moins que TMVA_PRI

le même sur chaque bootstrap. On a maintenant accès (grâce à mon maître de stage quiest un des organisateurs du challenge) aux soumissions des meilleurs participants duclassement public et privé (en fonction des données auxquelles ils ont accès).

Pour des raisons de rigueur évidentes, il faut que pour un bootstrap donné, le tiragesoit le même pour tous les participants : i-e il faut que les mêmes fréquences de boots-trap soient appliquées aux différents participants. On a également décidé d’utiliser lefichier de solutions correspondant au privé, compte tenu du nombre de données.

Pour ce faire, on va créer, pour chaque étape du bootstrap, un vecteur contenantles nouvelles "fréquences" (0 si l’événement n’a pas été tiré, 1 si il a été tiré une fois...)qui sera alors multiplié aux poids des événements et on pourra ainsi avoir le mêmebootstrap pour chaque participant, afin que les comparaisons effectuées aient du sens.

On modifie alors higgsmleval.py en higgsmlmultiple.py afin de créer pourchacun des 11 meilleurs participants un histogramme montrant le rang occupé pourchaque bootstrap et un histogramme équivalent montrant la fréquence à laquelle cha-cun occupe tel rang. Le premier bootstrap est l’échantillon initial. Comme le suggèreles histogrammes et la figure 3.7, les scores étant très rapprochés, le classement variemais conserve une certaine cohérence. En effet, les meilleurs ont tendance à être plussouvent dans le haut du top 11 que dans le bas, avec cependant une mention spécialepour "Lubo" qui est uniquement dans le leaderboard public et pâtit donc du fait qu’onait sélectionné les données du privé.

Page 34: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.4. STABILITÉS 31

FIGURE 3.7 – Leaderboard public du challenge HiggsML sur kaggle, au 4 juillet 2014

Conclusion

La physique des particules nécessitant l’étude d’un grand nombre de données, unetrentaine de variables pour 550000 événements dans le cas du challenge HiggsML, l’ap-plication de la thérorie des probabilités et statistiques est essentielle. On a pu voir enparticulier l’utilité du bootstrap, outil formidable d’approximation des statistiques pourdes lois inconnues à partir d’une seule réalisation d’un échantillon. De même, bien quel’on ne l’aie pas détaillé plus avant, l’analyse multi-variée use également des méthodesmathématiques. Le physicien des particules se doit donc de maîtriser la physique, l’in-formatique pour le traitement de ses données (machine learning par exemple) et lespoints essentiels des probabilités et statistiques.

Remerciements et apports du stage

Je tiens à remercier l’ensemble du personnel du LAL pour leur accueil sympathiquedurant ce stage et plus particulièrement David ROUSSEAU, mon maître de stage, tant

Page 35: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

32 CHAPITRE 3. RAPPORT DU STAGE DE L3

FIGURE 3.8 – Rang pour chaque bootstrap pour les 4 meilleurs

FIGURE 3.9 – Fréquence du rang pour les 4 meilleurs

Page 36: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.4. STABILITÉS 33

FIGURE 3.10 – Rang pour chaque bootstrap pour les 4 suivants

FIGURE 3.11 – Fréquence du rang pour les 4 suivants

Page 37: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

34 CHAPITRE 3. RAPPORT DU STAGE DE L3

FIGURE 3.12 – Rang pour chaque bootstrap pour le reste du top 11

FIGURE 3.13 – Fréquence du rang pour le reste du top 11

Page 38: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

3.4. STABILITÉS 35

pour sa disponibilité malgré un emploi du temps chargé durant la première semaineque pour ses explications de qualité et les activités qu’il m’a proposé. J’ai grandementapprécié les différentes conférences auxquelles j’ai pu assister (jour 1 du workshop surle Higgs-tau-tau, soutenance de thèse) ou participer (réunion ATLAS). Cela m’a donnéun bon aperçu du monde professionel, en particulier celui des chercheurs et doctorants.Je remercie également mes camarades stagiaires du magistère de physique pour leursympathie et pour les astuces qu’ils ont pu me fournir afin de mener à bien mon stage.

J’ai eu un grand plaisir à aller à Genève les 9 et 10 juillet pour visiter la cavernedu détecteur ATLAS et une partie de l’immense complexe du CERN. Cela m’a permisde renouer avec la physique, que j’appréciais beaucoup en classes préparatoires et quej’avais abandonné cette année.

Ce stage m’a apporté de nouvelles compétences en mathématiques, physique et in-formatique à la fois. J’ai en effet pu découvrir les méthodes du bootstrap (et rapidementdu jacknife), les bases de la physique des particules (une bonne connaissance du mo-dèle standard par exemple) et du machine learning, l’utilisation de python ou LATEX(réalisation de ce rapport).

Page 39: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Bibliographie

[1] "Higgs Boson Machine Learning Challenge" 12 May 2014 - 15 Sep 2014, https://www.kaggle.com/c/higgs-boson

[2] https://higgsml.lal.in2p3.fr/documentation

[3] "Evidence for Higgs Boson Decays to the τ+τ− Final State with the AT-LAS Detector" The ATLAS Collaboration, ATLAS NOTE, ATLAS-CONF-2013-108, November 28, 2013, http://cds.cern.ch/record/1632191/files/ATLAS-CONF-2013-108.pdf

[4] G. Cowan, K.Cranmer, E.Gross, and O. Vitells, "Asymptotic formulae forlikelihood-based tests of new physics", The European Physical Journal C, vol.71,pp. 1554-1573, 2011

[5] TMVA 4 Users Guide http://tmva.sourceforge.net/docu/TMVAUsersGuide.pdf

[6] Bootstrap (statistique), Wikipédia, http://fr.wikipedia.org/wiki/Bootstrap_(statistiques)

36

Page 40: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Chapitre 4

TER de Master 1

Introduction

Ce TER a été réalisé en binôme avec Jérémy DAVAIL, sous la direction de PascalMAILLARD (Université Paris-Sud).

L’objectif de ces travaux d’études et de recherches est l’étude du comportement descomposantes connexes de grandes tailles (c’est-à-dire maximale) d’un graphe aléatoireet de leur éventuelle unicité. On se place dans le cas particulier du graphe d’Erdos-Rényiavec n sommets et distribution d’arêtes p en prenant n arbitrairement grand. C’est ungraphe où il existe une arête entre deux sommets quelconques du graphes avec probabi-lité p, indépendamment pour chacun des n sommets. Ce modèle de graphes aléatoiresa été l’objet d’études de Paul Erdos et Alfréd Rényi [6] durant les années 1960. Ils seconsacrent notamment à l’étude des composantes connexes du graphe.

Il s’agira donc par la suite de présenter proprement le graphe d’Erdos-Rényi ainsique les processus de branchement, outils essentiels pour l’exploration d’un graphe etdonc l’étude de ses composantes connexes.On rappelera aussi quelques résultats généraux qui s’avèreront utiles pour notre déve-loppement.

On s’intéressera alors au cas où n est grand et où p = λ/n pour un certain λ > 0.Suivant les valeurs de ce λ, les composantes de taille maximale vont alors avoir despropriétés fort intéressantes.

En effet, trois cas principaux ont été distingués lors des études d’Erdos et Rényi :- le régime sur-critique lorsque λ > 1 : la taille de la composante maximale est d’ordre n.- le régime critique lorsque λ = 1 : la taille de la composante maximale est d’ordre n2/3.- le régime sous-critique lorsque λ < 1 : la taille de la composante maximale est d’ordrelog(n).

37

Page 41: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

38 CHAPITRE 4. TER DE MASTER 1

Nous allons énoncer et prouver ces résultats en suivant Van der Hofstadt [1] maisnous allons généraliser ces trois cas en regardant l’évolution de la taille de la compo-sante maximale lorsque λ > 1 ( resp λ < 1 ) tend vers 1 , il s’agira de la fenêtre critiquepar le haut ( resp fenêtre critique par le bas ). Nous pousserons et adapterons donc lespreuves de Van der Hofstadt pour approcher la fenêtre critique. Les preuves que nousferrons utiliseront des calculs de premier et second moments, ainsi que des couplages.

Enfin, nous ferons quelques simulations afin de concrétiser et vérifier les résultatsénoncés.

4.1 Graphe d’Erdös-Rényi et notions essentielles

4.1.1 Le graphe d’Erdös-Rényi

Définition 4.1 (Graphe d’Erdös-Rényi). Le graphe aléatoire d’Erdös-Rényi à n sommets dans[n] et distribution d’arêtes p, noté ERn(p), est un graphe aléatoire où tous sommets v et v′

distincts sont reliés avec probabilité p de manière indépendante, i.-e. :

∀v, v′ ∈ [n], P(v↔ v′) = p (4.1)

Définition 4.2 (Matrice de correspondance).La matrice de correspondance du graphe ERn(p) est

(Bi,j)1≤i,j≤n (4.2)

où les Bi,j sont des variables aléatoires de loi Ber(p) valant 1 si i ↔ j et 0 sinon. Elles sontindépendantes.

Remarque. Les (Bi,j)1≤i<j≤n sont i.i.d. mais pas les (Bi,j)1≤i,j≤n car ∀i, j , Bi,j = Bj,i.

Dans la suite, on désignera par C(v) la composante d’un sommet v du graphe et|Cmax| la taille d’une composante maximale.

4.1.2 Processus de branchement et résultats essentiels

Afin d’obtenir la taille de toutes les composantes de notre graphe ERn(p), nous al-lons devoir utiliser une certaine vision des processus de branchement : les processusd’exploration. Nous commencerons par quelques rappels et autres énoncés sur les pro-cessus de branchement en général avant d’aller plus avant en explorant ERn(p).

Dans le cadre que nous nous sommes fixé pour l’étude du graphe d’Erdos-Rényi, lesprocessus considérés sont tout simplement des processus de branchement de Galton-Watson avec loi de reproduction binomiale Bin(n, p).

Page 42: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 39

Définition 4.3 (Processus de Galton-Watson). Un processus Z de Galton-Watson avec loi dereproduction µ est tel que si on se donne une famille de variables aléatoires i.i.d. (Xn,i)n,i≥1 ∼ Xde loi µ alors

Z0 = 1 et ∀n ≥ 1, Zn =Zn−1

∑i=1

Xn,i (4.3)

On désignera la probabilité d’extinction d’un processus de Galton-Watson Z par

η = P(∃n : Zn = 0) (4.4)

et la probabilité de survie parζ = 1− η (4.5)

Pour un processus de branchement de Galton-Watson quelconque Z admettant unmoment d’ordre 1 fini, on a le résultat suivant :

Théorème 4.4. Considérons un processus de Galton-Watson Z de loi de reproduction µ enemployant les notations de la définition 4.3.Si E[X] < 1 alors η = 1.Si E[X] > 1 alors η < 1.Si E[X] = 1 et P(X = 1) < 1 alors η = 1.De plus, η est le plus petit point fixe dans [0, 1] de la fonction génératrice Gx de X.

Nous allons maintenant énoncer quelques résultats bien connus donnant des bornesqui nous servirons souvent dans la suite :

Théorème 4.5 (Inégalité de Markov).Soit X une variable aléatoire positive telle que E[X] < ∞. Alors,

P(X ≥ a) ≤ E[X]

a. (4.6)

Théorème 4.6 (Inégalité de Chebychev). Soit X une variable aléatoire intégrable. Alors,

P(|X−E[X]| ≥ a) ≤ Var(X)

a2 . (4.7)

Proposition 4.7 (Borne de Chernoff). Soit X une variable aléatoire intégrable, a ∈ R. Alors,

P(X ≥ a) ≤ exp (−φ∗(a)) (4.8)

oùφ∗(a) = sup

λ≥0(λa− log (E[eλX]) (4.9)

Page 43: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

40 CHAPITRE 4. TER DE MASTER 1

Nous allons maitenant énoncer et démontrer la formule de Kemperman qui inter-viendra plus d’une fois dans la suite.

Soit (Yi)i≥1 une suite de variables aléatoires i.i.d. de loi à support dans −1, 0, 1, 2, 3, . . ..On note Pk pour la loi d’une marche aléatoire partant de k. Soit Sn = k + Y1 + · · ·+ Ynla position de la marche partant de k après n étapes. Enfin notons

H0 = inf n : Sn = 0 (4.10)

le premier temps d’atteinte de 0 de la marche aléatoire.

Théorème 4.8 (Théorème du Temps d’Atteinte ou Formule de Kemperman). Avec lesnotations ci-dessus, on a

Pk(H0 = n) =kn

Pk(Sn = 0). (4.11)

On démontrera ce théorème dans la partie qui suit.Aussi, voici la formule de Stirling qui s’avère toujours bien utile.

Théorème 4.9 (Formule de Stirling).

n! ∼ nn

en

√2πn (4.12)

Voici maintenant quelques résultats sur les processus binomiaux et de Poisson :

Lemme 4.10 (Grande déviation pour la loi binomiale).Soit Xn une variable aléatoire de loi binomiale de paramètres n et p. Alors, pour tout a ∈ (p, 1],

P(Xn ≥ na) ≤ e−nI(a) (4.13)

oùI(a) = a log (

ap) + (1− a) log (

1− a1− p

) (4.14)

De plus, en posantIp(a) = p− a− a log (p/a), (4.15)

on aI(a) ≥ Ip(a) (4.16)

Proposition 4.11 (Loi de la progéniture totale d’un processus de branchement de Pois-son). La progéniture totale T∗ d’un processus de branchement de Poisson de paramètre λ esttelle que pour tout n,

P∗λ(T∗ = n) =

(λn)n−1

n!e−λn. (4.17)

Page 44: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 41

Théorème 4.12 (Processus de branchement de Poisson et binomial). On considère un pro-cessus de branchement binomial de paramètres n et p et un processus de branchement de Poissonde paramètre λ = np. Notons T et T∗ les progénitures totales respectives de ces processus. On apour tout k ≥ 1,

Pn,p(T ≥ k) = P∗λ(T∗ ≥ k) + en(k), (4.18)

|en(k)| ≤λ2

n

k−1

∑s=1

P∗λ(T∗ ≥ s). (4.19)

En particulier, |en(k)| ≤ kλ2/n.

4.1.3 Preuves des résultats essentiels

Preuve du théorème 4.4.Notons

ηn = P(Zn = 0). (4.20)

Par croissance des événements (Zn = 0)n, on a ηn ↑ η. Soit

∀s, Gn(s) = E[sZn ], (4.21)

la fonction génératrice du nombre d’individus de la n-ième génération. Comme Zn estune variable aléatoire entière, on a

ηn = Gn(0). (4.22)

En conditionnant par rapport à Z1, on a

∀s, Gn(s) = E[sZn ] =∞

∑i=0

µ(i)E[sZn |Z1 = i] =∞

∑i=0

µ(i)Gn−1(s)i (4.23)

Alors, en notant GX = G1 la fonction génératrice de X1,1, il vient

∀n ∈N∗, ∀s, Gn(s) = GX(Gn−1(s)). (4.24)

En particulier, pour s = 0, on obtient

∀n ∈N∗, ηn = GX(ηn−1) (4.25)

En passant à la limite quand n −→ ∞ et par continuité de GX

η = GX(η). (4.26)

Si P(X = 1) = 1 alors Zn = 1 p.s. donc le résultat est immédiat. Si P(X ≤ 1) = 1 etP(X = 0) > 0 alors P(Zn = 0) = 1− (1−P(Zn = 0))n → 1 et le résultat est immédiat.On se contentera donc dans la suite de la preuve de supposer que P(X ≤ 1) < 1.

Page 45: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

42 CHAPITRE 4. TER DE MASTER 1

Soit ψ ∈ [0, 1] un autre point fixe de GX et montrons que ∀n ∈ N, ηn ≤ ψ doncη ≤ ψ en passant à la limite quand n → ∞. Procédons par récurrence. On a déjà queη0 = 0 ≤ ψ. Puis si ηn−1 ≤ ψ alors par croissance de GX et comme ψ est un point fixe deGX on a bien

ηn = GX(ηn−1) ≤ GX(ψ) = ψ, (4.27)

ce qui achève la récurrence. Donc η est le plus petit point fixe dans [0, 1] de GX.On remarque que GX est une fonction croissante et deux fois dérivable. On a d’après lethéorème de dérivabilité sous le signe intégral ∀s ≥ 0

G′′X(s) = E[X(X− 1)sX−2] ≥ 0, (4.28)

ainsi GX est convexe sur R+.De plus, quand P(X ≤ 1) < 1, GX est strictement croissante et strictement convexesur R∗+. Ainsi il y a au plus deux points fixes de GX dans [0, 1] et 1 est toujours unpoint fixe de GX. Comme de plus GX(0) > 0, il y a exactement un point fixe quandG′X(1) = E[X] < 1 donc η = 1 et deux quand G

′X(1) > 1 donc η < 1. Enfin, quand

G′X(1) = 1, si P(X = 1) < 1, il y a exactement un point fixe. Ceci termine la preuve.

Preuve du théorème 4.5. L’inégalité 4.6 provient directement de

aP(X ≥ a) ≤ E[X1X≥a] ≤ E[X]. (4.29)

Preuve du théorème 4.6. Il suffit de remarquer que

P(|X−E[X]| ≥ a) = P((X−E[X])2 ≥ a2). (4.30)

On conclut ensuite par l’inégalité de Markov 4.6.

Preuve de la proposition 4.7.D’après Markov, on a :

∀λ ∈ R+, P(X ≥ a) = P(eλX ≥ eλa)

≤ E[eλX]e−λa

≤ infλ≥0

exp (log (E[eλX])− λa)

≤ exp ( infλ≥0

(log (E[eλX])− λa))

≤ exp (−φ∗(a))

Pour démontrer le théorème 4.8, nous aurons besoin du lemme suivant (cf. [2] page122) :

Page 46: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 43

Lemme 4.13 (Temps d’atteinte par rotations cycliques). Soit Y = (Y1, . . . , Yn) une suitede variables aléatoires de loi à support dans −1, 0, 1, 2, 3, . . . telle que ∑n

i=1 Yi = −k pour uncertain k ∈ 1, . . . , n. Alors il existe exactement k termes dans 1, . . . , n notés i1, . . . , ik telsque n soit le Premier Temps d’Atteinte de −k pour Y(ij) ∀j ∈ 1, . . . , k.

Preuve du théorème 4.8.On note, pour tout i ∈N et l ∈ 1, . . . , n, Y(i)

l = Yl+i1i+l≤n + Yl+i−n1i+l>n.

Aussi, on note S(i)m = k + Y(i)

1 + . . . + Y(i)m .

On aPk(H0 = n) = 1

n ∑ni=1 Pk(H(i)

0 = n)= 1

n Ek[∑ni=1 1

H(i)0 =n

]

(d’après le lemme 4.13) = 1n Ek[k.1Sn=0].

On a doncPk(H0 = n) =

kn

Pk(Sn = 0) (4.31)

ce qui démontre le théorème 4.8.

Preuve du lemme 4.13. Considérons sk = ∑ki=1 Yi et notons s(l)k = ∑k

i=1 xl+i.

Alors notons i = m le plus petit i tel que si = min1≤j≤n sj

Tout d’abord, remplaçons Y par Y(m) = (Ym+1, . . . , Yn, Y1, . . . , Ym).On a donc que n est le Premier temps d’Atteinte de -k pour Y(m).

En effet, supposons que ∃ j < n tel que s(m)j = −k. Alors supposons dans un premier

temps que j ≤ n−m.Dans ce cas :

s(m)j = sn − sm − (sn − sm+j)

= sm+j − sm≥ 0

car sm = min1≤j≤nsj.

Ceci est une contradiction car s(m)j = −k.

Supposons maintenant que j > n−m.Alors

s(m)j = sn − sm + sj−n+m

= −k− sm + sj−n+m> −k

car m est le plus petit indice tel que sm = min1≤j≤n sj or j−n+m < m donc sm < sj−n+m.

Ceci est aussi une contradiction car s(m)j = −k.

Page 47: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

44 CHAPITRE 4. TER DE MASTER 1

Donc n est bien le Premier temps d’Atteinte de −k pour Y(m).

Montrons maintenant qu’il y a exactement k rotations cycliques telles que le Premiertemps d’Atteinte de −k est n. Soit Y = (Y1, . . . , Yn) une suite telle que n soit le Premiertemps d’Atteinte de −k. Notons α1, . . . , αk les Premiers temps d’Atteinte respectifs de−1, . . . ,−k. Nous avons par conséquent n = αk.

Montrons que pour tout 1 ≤ t < α1, le Premier temps d’Atteinte de −k pour Y(t) estplus petit que n mais que n est le Premier temps d’Atteinte de −k pour Y(α1).

Soit 1 ≤ t < α1. On a st ≥ 0 d’où s(t)n−t = sn − st ≤ −k. Donc s(t) atteint −k avant letemps n. On a bien que pour tout 1 ≤ t < α1, n n’est pas le Premier temps d’Atteinte de−k pour Y(t).

Soit m ≤ n− α1. Alors

s(α1)m = sα1+m − sα1 ≥ −k + 1 (4.32)

car α1 + m ≤ n donc sα1+m ≥ −k et sα1 = −1.

Soit n− α1 ≤ m < n. Alors

s(α1)m = s(α1)

n−α1+ sm−(n−α1)

≥ −k + 1 (4.33)

car s(α1)n−α1

= −k + 1 et sm−(n−α1)≥ 0.

On a donc que pour tout m < n, s(α1)m ≥ −k + 1. Donc n est bien le Premier temps

d’Atteinte de −k pour Y(α1).Maintenant il suffit de réitérer le procédé en montrant que pour tout 1 ≤ i ≤ k, n est

le Premier temps d’Atteinte de −k pour Y(αi) et que pour tout αi < m < αi+1, n n’estpas le Premiers temps d’Atteinte de −k pour Y(m).

On a donc bien qu’il existe exactement k rotations cycliques ( qui sont les rotationsde αi pour tout 1 ≤ i ≤ k) telles que n soit le Premier temps d’Atteinte de −k pour lasuite.

Preuve du lemme 4.10.En reprenant la preuve de la proposition 4.7, et avec X1 ∼ Ber(p),

I(a) = supt≥0

(ta− log (E[etX1 ])) = supt≥0

(ta− log (pet + (1− p)))

= a log (ap) + (1− a) log (

1− a1− p

). (4.34)

Page 48: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 45

On remarque que pour t ≥ 0,

pet + (1− p) = 1 + p(et − 1) ≤ ep(et−1), (4.35)

doncI(a) ≥ sup

t≥0(ta− p(et − 1)) = p− a− a log (p/a) = Ip(a). (4.36)

On conclut par Chernoff (proposition 4.7).

Preuve de la proposition 4.11.Cette propositon découle du théorème 4.8 en prenant k = 1 et ∀i, Yi = X∗i − 1. On a

P(T∗ = n) = P1(H0 = n)

=1n

P1(Sn = 0)

=1n

P1(1 + Y1 + ... + Yn = 0)

=1n

P(1 + X∗1 + ... + X∗n − n = 0)

=1n

P(X∗1 + ... + X∗n = n− 1). (4.37)

Or, les X∗i étant des variables i.i.d. de loi de Poisson de paramètre λ, leur somme suitune loi de Poisson de paramètre λn. Donc

P(T∗ = n) =1n(λn)n−1

(n− 1)!e−λn =

(λn)n−1

n!e−λn. (4.38)

Afin de prouver le théorème 4.12, énonçons la proposition suivante, que l’on démon-trera un peu plus loin.

Proposition 4.14 (Limite de Poisson pour des variables binomiales). De manière générale,

soient des variables aléatoires indépendantes (Ii)1≤i≤n telles que Ii ∼ Ber(pi) et λ =n∑

i=1pi. Soit

X =n∑

i=1Ii et Y une variable aléatoire de loi de Poisson de paramètre λ. Il existe alors un couplage

(X, Y) de X et Y tel que

P(X 6= Y) ≤n

∑i=1

p2i . (4.39)

En particulier, cela s’applique lorsque X suit une loi binomiale de paramètres n et λ/n. En cecas :

P(X 6= Y) ≤ λ2

n. (4.40)

Page 49: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

46 CHAPITRE 4. TER DE MASTER 1

Preuve du théorème 4.12.Nous allons faire une preuve par couplage grâce aux arguments de la proposition 4.14(prouvée ci-après). On décrit les processus de branchement par leur loi de reproduction,à savoir des variables binomiales et de Poisson respectivement. On applique le couplagede la proposition 4.14 pour chacune des variables Xi et X∗i qui caractérisent les processusde branchement , avec Xi ∼ Bin(n, λ/n), X∗i ∼ Poi(λ) et

P(Xi 6= X∗i ) ≤λ2

n. (4.41)

Les vecteurs (Xi, X∗i )1≤i sont i.i.d.. P désignera la loi jointe du couplage obtenu ci-dessus.

On observe en premier lieu que

Pn,p(T ≥ k) = P(T ≥ k, T∗ ≥ k) + P(T ≥ j, T∗ < k), (4.42)

etP∗λ(T

∗ ≥ k) = P(T ≥ k, T∗ ≥ k) + P(T < k, T∗ ≥ k). (4.43)

En soustrayant, il vient

|Pn,p(T ≥ k)−P∗λ(T∗ ≥ k)| ≤ maxP(T ≥ k, T∗ < k), P(T < k, T∗ ≥ k). (4.44)

On va alors appliquer la proposition 4.14 et le fait que T ≥ k ne dépend que deX1, ..., Xk−1. Ainsi T est un temps d’arrêt pour la filtration σ(X1, ..., Xk), de même, T∗ estun temps d’arrêt pour la filtration σ(X∗1 , ..., X∗k ).

Quand T ≥ k et T∗ < k, ou quand T < k et T∗ ≥ k, il existe nécessairement un s < ktel que Xs 6= X∗s . On obtient alors une borne en considérant le premier tel s :

P(T ≥ k, T∗ < k) ≤k−1

∑s=1

P(Xi = X∗i ∀i ≤ s− 1, Xs 6= X∗s , T ≥ k). (4.45)

On observe que quand Xi = X∗i pour tout i ≤ s− 1 et T ≥ k alors pour tout i ≤ s− 1,X∗1 + ... + X∗i ≥ i d’où T∗ ≥ s. De plus, T∗ étant un temps d’arrêt pour σ(X∗1 , ..., X∗k ),T∗ ≥ s est indépendant de Xs 6= X∗s . On obtient alors

P(T ≥ k, T∗ < k) ≤k−1

∑s=1

P(T∗ ≥ s, Xs 6= X∗s )

=k−1

∑s=1

P(T∗ ≥ s)P(Xs 6= X∗s ). (4.46)

D’après la proposition 4.14, on a donc

P(T ≥ k, T∗ < k) ≤ λ2

n

k−1

∑s=1

P(T∗ ≥ s). (4.47)

Page 50: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 47

Par un raisonnement similaire, il vient

P(T < k, T∗ ≥ k) ≤k−1

∑s=1

P(T∗ ≥ s)P(Xs 6= X∗s )

≤ λ2

n

k−1

∑s=1

P(T∗ ≥ s). (4.48)

On applique ceci à (4.44)

|Pn,p(T ≥ k)−P∗λ(T∗ ≥ k)| ≤ λ2

n

k−1

∑s=1

P∗λ(T∗ ≥ s). (4.49)

Ceci achève la preuve.

Preuve de la proposition 4.14.Soient (Ii)1≤i≤n des variables indépendantes de loi Ber(pi) et (Ji)1≤i≤n des variablesindépendantes de loi Poi(pi). On abrégera

pi,x = P(Ii = x) et qi,x = P(Ji = x). (4.50)

Soit ( Ii, Ji) un couplage maximal (i.-e. maximisant P( Ii = Ji)) de Ii et Ji, ( Ii, Ji)i indépen-dants. Voir [1] page 59-60 pour de plus amples explications sur ce couplage maximal. Ona

P( Ii = Ji = x) = min pi,x, qi,x= (1− pi)1x=0 + pie−pi1x=1 (4.51)

car pour x = 0, 1− pi ≤ e−pi . On va maintenant utiliser le fait que 1− e−pi ≤ pi :

P( Ii 6= Ji) = 1−P( Ii = Ji) = 1− (1− pi)− pie−pi = pi(1− e−pi) ≤ p2i . (4.52)

On pose ensuite X =n∑

i=1Ii et Y =

n∑

i=1Ji. X a même loi que X et Y a même loi que

Y ∼ Poi(p1 + ... + pn). Par σ-additivité et l’inégalité précédente, il vient

P(X 6= Y) ≤ P(n⋃

i=1

Ii 6= Ji) ≤n

∑i=1

P( Ii 6= Ji) ≤n

∑i=1

p2i . (4.53)

Page 51: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

48 CHAPITRE 4. TER DE MASTER 1

4.1.4 Exploration des composantes du graphe

On s’inspirera ici de [4].Nous sommes maintenant en mesure de décrire le processus d’exploration dans le

graphe ERn(p) qui, on le verra plus loin, pourra être couplé au processus de branche-ment dans l’arbre binomial de paramètres n et p. Il y a en fait deux processus d’ex-ploration possibles : le Breadth-First Search (BFS) et le Depth-First Search (DFS), ou enfrançais recherche en largeur et recherche en profondeur. Les deux processus sont assezsimilaires, à ceci près que le premier repose sur une structure de liste (First In First Out)et le second sur une structure de pile (First In Last Out).

Dans les deux cas, on commence par définir 3 états possibles pour les sommets dugraphe lors de son exploration : inactif, actif et neutre. On désignera par It, At et Ntles ensembles des sommets respectivement inactifs (explorés), actifs et neutres à l’étapet ∈N de l’exploration. Ces trois ensembles sont toujours disjoints et recouvrent [n].

Considérons maintenant le cas DFS et explorons la composante d’un sommet v ∈ [n],par exemple le sommet 1. Ici, At sera vu comme une pile. Au temps t = 0, I0 est vide,A0 = 1 et N0 = 2, ..., n. Pour passer de l’étape t à l’étape t + 1, on considère ledernier sommet vt ajouté à At, appelé sommet courant, et on teste pour des voisinsdans Nt. Si vt admet des voisins dans Nt, alors on les déplace dans At et on passe àl’étape suivante, sinon on déplace vt dans It. On ne passe à l’étape t + 1 que quand Itcomporte t sommets. L’exploration de la composante s’arrête quand At est vide, elle estalors de taille T = inft : |At| = 0 (T est un temps d’arrêt).

Remarque. Il est important d’observer qu’à la fin de l’étape t, juste avant de passer à l’étapet + 1, It comporte t sommets et on est assuré que la composante contient au moins t + |At|sommets. Dans la suite, on notera souvent St = |At| à la fin de l’étape t.

Pour explorer le graphe entièrement avec la méthode DFS, il suffit de prendre unnouveau sommet neutre (par exemple le plus petit restant pour l’ordre défini sur [n]) etde le placer dans At, on explore alors la composante de ce sommet et on recommencejusqu’à ce que At et Nt soient tous les deux vides. On explore ainsi une à une chaquecomposante connexe du graphe en profondeur. C’est-à-dire que quand un sommet aplusieurs enfants, on regarde une par une la descendance de chaque enfant plutôt quede faire un comptage génération par génération.

La méthode BFS explore elle aussi la composante connexe d’un sommet v donnémais en regardant ce qui se passe génération par génération : i.-e. on explore entièrementl’ensemble des sommets à distance de graphe k de v avant de regarder les sommets pluséloignés. L’initialisation est la même que dans le cas DFS ; ensuite, pour passer de l’étapet à t+ 1, on regarde les voisins dans Nt du premier élément vt de la liste At, on les ajouteà la queue de la liste At, puis on enlève vt de At pour le placer dans It. Ainsi, là encoreIt contient exactement t sommets à la fin de la t-ième étape et la composante de v est detaille T = inft : |At| = 0.

Page 52: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.1. GRAPHE D’ERDÖS-RÉNYI ET NOTIONS ESSENTIELLES 49

Pour explorer tout le graphe, on relance l’algorithme BFS sur un nouveau sommetneutre jusqu’à épuiser tous les sommets.

Dans les deux cas, quand on dira à l’avenir "à l’étape t", on sous-entendra en fait "àla fin de l’étape t juste avant de passer à t + 1".

Le choix de la méthode DFS ou BFS n’importe pas car la donnée intéressante est lenombre de sommets actifs à chaque étape et il est le même peu importe la méthode.Dans la suite, quand nous ferrons référence à l’exploration du graphe, nous ne préfère-rons donc pas une méthode à l’autre, à l’exception des simulations où il a fallut faire unchoix pour le codage de l’exploration.

4.1.5 Probabilité de survie des processus de branchement

On suivra [3].Pour la démonstration de la taille de la composante maximale dans la fenêtre cri-

tique, nous aurons besoin de résultats sur les processus de branchement de Galton-Watson avec une distribution Z sur la progéniture d’un arbre construit comme suit :Nous avons un unique sommet à la génération 0. Chaque sommet de la génération ta un nombre aléatoire d’enfants à la génération t+1 avec la distribution Z. Le nombred’enfants de chaque élément est indépendant des autres éléments de l’arbre. On saitque si E[Z] > 1 alors la probabilité de survie q est l’unique solution dans (0,1] de1− q = gZ(1− q) où gZ est la fonction génératrice de Z. Lorsque E[Z] < 1 l’espérancedu nombre total de sommets dans le processus de branchement est

1 + E[Z] + E[Z]2 + · · · = 11−E[Z]

, (4.54)

et en particulier, la probabilité de survie du processus est 0. Notons maintenant Tn,ple processus de branchement binomial de paramètres n et p, c’est à dire un processusde branchement où la progéniture suit une loi Bin(n,p). Alors la fonction génératricegBin(n,p) satisfait à

gBin(n,p)(x) =n

∑k=0

(nk

)pk(1− p)n−kxk = (1− p(1− x))n,

lorsque np > 1 la probabilité de survie q = qn,p satisfait à

1− q = (1− pq)n.

On vérifie alors que si ε = np− 1 ∼ 0 avec ε > 0 alors

q ∼ 2ε (4.55)

De même, la probabilité de survie ζλ d’un processus de branchement de Poisson deparamètre λ est équivalent à 2ε quand λ = 1 + ε ou λ = 1− ε et 0 < ε = ε(n) −→

n→+∞0.

Démontrons ce dernier résultat :

Page 53: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

50 CHAPITRE 4. TER DE MASTER 1

la probabilité d’extinction ηλ d’un processus de branchement de Poisson de para-mètre λ est l’unique point fixe dans [0, 1[ de la fonction génératrice d’où

ηλ = e−λ(1−ηλ)

1− ζλ = e−λζλ .

Or quand λ −→ 1, ζλ −→ 0 donc on peut faire un développement limité de l’exponen-tielle :

1− ζλ = 1− λζλ +λ2ζ2

λ

2+ o(λ2ζ2

λ)

λ− 1 =λ2ζλ

2(1 + o(1))

ε =λ2ζλ

2(1 + o(1))

et comme λ −→ 1, on a bienζλ ∼ 2ε (4.56)

4.2 Régime sur-critique

4.2.1 Existence et unicité de la composante géante

On suivra [1].On note ζλ = 1 − ηλ la probabilité de survie d’un processus de branchement de

Poisson de paramètre λ. Dans tout ce chapitre, on prendra λ = λ(n) = 1 + ε(n) > 1 telque ε n−1/3(log (n))1/2, avec la notation f g pour f

g −→ ∞ quand n −→ ∞.

Théorème 4.15 (Loi des grands nombres pour la composante géante).

|Cmax|nζλ

P−→ 1 (4.57)

Un sommet quelconque du graphe ayant une probabilité ζλ d’être dans une grandecomposante (i-e de taille maximale), le nombre de sommets dans une grande compo-sante est de l’ordre de ζλn. Le Théorème 4.15 implique alors que tous les sommetsqui appartiennent à des grandes composantes sont en fait dans une unique composanteconnexe, que l’on appelle la composante géante.

Avant de prouver le théorème 4.15, crucial pour l’étude du régime sur-critique, nousallons énoncer les propositions (temporairement admises) suivantes qui représententles points essentiels de la démonstration.

Page 54: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 51

PosonsIλ = λ− 1− log (λ). (4.58)

On remarquera que

Iλ ∼ε2

2(n −→ ∞) (4.59)

si ε(n) −→ 0.Soit

J(α, λ) = I(1−e−λα)/α (4.60)

On remarquera que quand ε −→ 0, comme ζλ ∼ 2ε, en prenant α = c′ζ, c′ < 1,

J(α, λ) =12(

1− e−λα

α− 1)2 + o(

1− e−λα

α− 1)

∼ (1− c′)2ε2

2(4.61)

Théorème 4.16 (Il n’y a pas de composante intermédiaire). Prenons kn = cIλ

log (n) etα = c′ζλ où c > 1 et c′ < 1 sont tels que c(1− c′)2 ≥ 1, et posons δ = 1− c

IλJ(α; λ) où

J(α; λ) est défini en (4.60). Alors il existe δ′ < δ qui ne dépend pas de λ tel qu’il n’y a pas decomposante connexe de taille comprise entre kn et αn avec probabilité supérieure à 1−O(n−δ′).

Remarque. Cela implique donc que, en notant C2 la deuxième plus grande composante dugraphe, Pλ(kn ≤ |C2|) −→ 0 quand n −→ ∞.

Lemme 4.17 (Couplage). (1) Pour tous n et p, les arbres aléatoires Tv et Tn,p correspondantrespectivement au processus d’exploration de C(v) et à l’arbre binomial de paramètres n et ppeuvent être couplés de sorte que Tv ⊂ Tn,p.(2) Pour tous n, k et p, il existe un couplage entre les variables entières |C(v)| et |Tn−k,p| de tellesorte que soit |C(v)| ≥ |Tn−k,p|, soit les deux sont de taille au moins k.

Théorème 4.18 (Borne inférieure pour la queue de la composante connexe). Pour toutk ∈ [n],

Pn,p(|C(1)| ≥ k) ≥ Pn−k,p(T≤ ≥ k), (4.62)

où T≤ est la progéniture totale d’un processus de branchement avec distribution binômiale deparamètres n− k et p = λ

n .

Commençons par montrer que |C(v)| ≥ kn, pour kn = cIλ

log (n) avec c > 1, estproche de la probabilité de survie d’un processus de branchement de Poisson de para-mètre λ.

Proposition 4.19 (La queue de la composante est la probabilité de survie du processusde branchement). Soit c > 1, posons kn = c

Iλlog (n). Pour n assez grand, on a :

Pλ(|C(v)| ≥ kn) = ζλ + O(kn/n) (4.63)

Page 55: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

52 CHAPITRE 4. TER DE MASTER 1

Notonsχ<k(λ) = E[|C(v)|1|C(v)|<k] (4.64)

et remarquons que cette quantité ne dépend pas du sommet v choisi.

DéfinissonsZ≥k = ∑

v∈[n]1|C(v)|≥k. (4.65)

Un argument de second moment va être nécessaire dans la preuve du théorème 4.15,c’est pourquoi il nous faut contrôler la variance de Z≥k :

Proposition 4.20 (Une estimation sur la variance de Z≥k). Pour tout n et k ∈ [n],

Varλ(Z≥k) ≤ (λk + 1)nχ<k(λ) (4.66)

Corollaire 4.21 (Concentration du nombre de sommets dans les grandes composantes).Soit c > 1, posons kn = c

Iλlog (n) et soit ν ∈ (2

3 , 1). Alors pour chaque δ < 2ν− 1, pour ngrand qui ne dépend pas de λ,

Pλ(|Z≥kn − nζλ| > nν) = O(n−δ) (4.67)

Proposition 4.22 (Borne exponentielle pour les composantes sur-critiques de taille infé-rieure à ζλn). Soit c > 1, c′ < 1, tels que c(1− c′)2 ≥ 2

3 . Posons kn = cIλ

log (n) et α = c′ζλ.Alors, pour n ≥ 2λ,

Pλ(kn ≤ |C(v)| ≤ αn) ≤ e−kn J(α,λ)/[1− e−J(α,λ)]. (4.68)

De plus, si ε −→ 0 quand n −→ ∞, alors la borne tend vers 0 plus vite que n2/3−c(1−c′)2

log (n) .

Pour la suite, fixons ν ∈ [23 ; 1], α = c′ζλ avec c′ ∈ [1

2 ; 1[ et prenons kn = cIλ

log (n)avec c > 1, de telle sorte que c(1− c′)2 ≥ 1. Soit En l’évènement tel que :(1) |Z≥kn − nζλ| ≤ nν

(2) Il n’existe pas de v ∈ [n] tel que kn ≤ |C(v)| ≤ αn.

Lemme 4.23 (La taille de la composante géante est égale à Z≥kn). L’événement En a lieuavec grande probabilité, i.e., si δ0 est le minimum entre δ′ du Théorème 4.16 et δ du Corollaire4.21, alors Pλ(E c

n) = O(n−δ0). De plus, |Cmax| = Z≥kn .

Page 56: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 53

Soit St le nombre de sommets actifs dans le Graphe d’Erdos-Rényi. Posons, commepour le processus de branchement,

S0 = 1, St = St−1 + Xt − 1, (4.69)

où Xt est le nombre de sommets qui deviennent actifs à la tieme étape après l’explorationdu sommet vt, celui-ci devenant inactif.

Nous avons donc à la tieme étape dans un graphe d’Erdos-Rényi à n sommets, Stsommets actifs, t sommets inactifs et n− t− St sommets neutres.

Chaque couple de sommets ayant une probabilité p d’être relié, on a donc :

Xt ∼ Bin(n− (t− 1)− St−1, p). (4.70)

Proposition 4.24 (La loi de St). Pour tout t ∈ [n], et (St)t≥0 satisfaisant les relations 4.69 et4.70, on a :

St + (t− 1) ∼ Bin(n− 1, 1− (1− p)t). (4.71)

On restreindra l’usage de cette proposition au cas où |C(v)| ≥ t, car on ne s’intéresse pas à cequ’il advient une fois l’exploration terminée.

Proposition 4.25 (Unicité de la solution dans l’équation de la survie de la probabilitéde Poisson). L’unique solution dans (0,1] de l’équation 1− e−λα = α est α = ζλ où ζλ est laprobabilité de survie pour un processus de Poisson de paramètre λ.

4.2.2 Preuve des résultats sur-critiques

Preuve du théorème 4.15.Ce théorème se montre en quelques étapes découlant chacune des propositions et autrescorollaires énoncés plus hauts. Tout repose ici sur Z≥k, défini en (4.65), le nombre desommets dans les composantes de taille au moins k.

Soient c > 1 et 12 ≤ c′ < 1 tels que c(1− c′)2 ≥ 1. Dans un premier temps, on prend

kn = cIλ

log (n) et on calcule

Eλ[Z≥kn ] = nPλ(|C(v)| ≥ kn). (4.72)

On évalue alors Pλ(|C(v)| ≥ kn) à l’aide la proposition 4.19 :

Pλ(|C(v)| ≥ kn) = ζλ + O(kn/n)

= ζλ(1 + O(c log (n)

Iλn))

= ζλ(1 + o(1)) (4.73)

car log (n)Iλn n−1/3.

Page 57: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

54 CHAPITRE 4. TER DE MASTER 1

Dans un deuxième temps, on utilise le corollaire 4.21 pour contrôler l’écart entreZ≥kn et son espérance :

∀ν ∈ (23

, 1), ∀δ < 2ν− 1, Pλ(|Z≥kn − nζλ| > nν) = O(n−δ). (4.74)

Cette quantité tend donc vers 0 quand n −→ +∞ On a donc avec grande probabilitépour

∀ν ∈ (23

, 1), |Z≥kn − nζλ| ≤ nν, (4.75)

or ∑v∈[n]

Pλ(|C(v)| ≥ kn) = Eλ[Z≥kn ] = nζλ(1 + o(1)), donc, avec grande probabilité :

∀ν ∈ (23

, 1), |Z≥kn −Eλ[Z≥kn ]| ≤ nν. (4.76)

Dans un troisième temps, on montre à l’aide du théorème 4.16 qu’avec grande pro-babilité il n’y a pas de composante de taille intermédiaire, i.-e. pour kn = c

Iλlog (n),

α = c′ζλ avec c > 1, c′ ∈ [12 , 1[ tels que c(1 − c′)2 ≥ 1, il n’y a pas de composante

connexe de taille comprise entre kn et αn.Dans un quatrième temps, on applique le lemme 4.23, c’est-à-dire que conditionnel-

lement à l’événement En défini dans ce lemme,

Z≥kn = |Cmax|. (4.77)

Ainsi, en combinant les résultats obtenus à chacune des quatre étapes de la preuve,on obtient bien le résultat du théorème 4.15.

Preuve du lemme 4.17.(1) Notons

S0 = 1 et ∀t ∈N∗, St = St−1 +n−(t−1)−St−1

∑i=1

Bt,i − 1 (4.78)

le nombre de sommets actifs dans le processus d’exploration où les Bt,i sont des va-riables aléatoires de Bernoulli de paramètre p codant pour l’existence d’une arête entrele sommet courant vt du processus d’exploration et le i-ème sommet neutre à l’étapet. Les Bt,i sont indépendantes car l’existence d’une arête entre vt et le i-ème sommetneutre à l’étape t ne dépend ni des autres sommets actifs ou inactifs, ni des autres som-mets neutres. On peut donc coupler ce processus au processus d’exploration de l’arbreTn,p et le résultat est alors immédiat.

(2) D’après le point précédent, on peut également coupler St avec S(k)t , nombre de

sommets actifs dans l’exploration de Tn−k,p :

S(k)0 = 1 et ∀t ∈N∗, S(k)

t = S(k)t−1 +

n−k

∑i=1

Bt,i − 1 (4.79)

Page 58: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 55

Pour prouver (2), il suffit alors de montrer que pour tout t, on a presque sûrement soitS(k)

t ≤ St soit St + t ≥ k et S(k)t + t ≥ k. Procédons par récurrence sur t.

Le cas t = 1 est clair.Supposons que notre prédicat est vérifié pour un certain t fixé. Notons At = S(k)

t ≤ St,Bt = St + t ≥ k et Ct = S(k)

t + t ≥ k.Sur l’événement Bt ∩ Ct on a

S(k)t+1 + t + 1 = S(k)

t + t +n−k

∑i=1

Bt,i ≥ k (4.80)

St+1 + t + 1 = St + t +n−(t−1)−St−1

∑i=1

Bt,i ≥ k (4.81)

donc Bt+1 et Ct+1 sont vérifiés.Sur At ∩ Bt on somme moins de Bernoulli dans l’expression de S(k)

t+1 que dans celle deSt+1 donc on obtient At+1.Reste à voir ce qui se passe sur At ∩ Bt ∩ Ct. En ce cas, on a immédiatement Bt+1presque sûrement (conditionnellement à At ∩ Bt ∩ Ct) de par l’expression de St+1. Si onse place sur l’événement At+1 , on obtient alors Ct+1 presque sûrement donc le prédicatest vérifié au rang t + 1. Dans le cas contraire, on est sur At+1 ce qui donne trivialementle prédicat au rang t + 1.Dans tous les cas, on a réussi à montrer l’hérédité, donc le prédicat est vrai pour tout tce qui achève la preuve de ce lemme.

Preuve du théorème 4.18.Pour prouver ce théorème, nous allons utiliser une approche par couplage. Soit Nt lenombre de sommets non explorés au temps t. Définissons un temps d’arrêt Tk

Tk = mint : Nt ≤ n− k. (4.82)

Puisque Nk−1 ≤ n− (k− 1)− 1 = n− k on a Tk ≤ k− 1. On a donc trivialement

Pn,p(|C(1)| ≥ k) = Pn,p(St > 0 ∀t ≤ Tk). (4.83)

Soit (X≤i )i≥1 une suite de variables aléatoires i.i.d. ( indépendantes et identiquementdistribuées ) de loi Bin(n − k, p). Pour i ≤ Tk, et conditionnellement à Ni−1, soit Yi ∼Bin(Ni−1 − (n− k), p) distribuée indépendemment de toutes les autres variables aléa-toires évoquées. Définissons

Xi = X≤i + Yi. (4.84)

De manière évidente on a Xi ≤ X≤i presque sûrement pour tout i ≤ Tk, tandis que,conditionnellement à Ni−1, Xi ∼ Bin(Ni−1, p) ce qui est nécessaire pour la relation 4.70.Soit

S≤i = X≤1 + · · ·+ X≤i − (i− 1). (4.85)

Page 59: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

56 CHAPITRE 4. TER DE MASTER 1

Alors pour tout t ≤ Tk on a S≤t ≤ St. En utilisant le couplage ci-dessus et le fait queTk ≤ k− 1, on a

St > 0 ∀t ≤ Tk ⊇ S≤t > 0 ∀t ≤ Tk ⊇ S≤t > 0 ∀t ≤ k− 1 = T≤ ≥ k, (4.86)

où T≤ = mint : S≤t = 0 est la progéniture totale d’un processus de branchement avecdistribution binômiale de paramètres n− k et p. Pour prouver le théorème 4.18, il suffitmaintenant de passer aux probabilités dans l’équation 4.86.

Preuve de la proposition 4.19.Pour la borne supérieure de Pλ(|C(v)| ≥ kn), on utilise le lemme 4.17 ainsi que le théo-rème 4.12 pour obtenir que

Pλ(|C(v)| ≥ kn) ≤ Pn,λ/n(T ≥ kn) ≤ P∗λ(T∗ ≥ kn) + knλ2/n, (4.87)

or λ2 = (1 + ε2), donc il existe une constante C qui ne dépend pas de λ telle que

Pλ(|C(v)| ≥ kn) ≤ P∗λ(T∗ ≥ kn) + Ckn/n, (4.88)

où T et T∗ désignent respectivement la progéniture totale d’un processus de branche-ment binomial de paramètres n et λ/n et d’un processus de branchement de Poisson deparamètre λ respectivement.

On précise cette majoration avec une inégalité exponentielle sur la loi de la progéni-ture totale découlant de la propostion 4.11 :

P∗λ(T∗ ≥ kn) = P∗λ(T

∗ = ∞) + P∗λ(kn ≤ T∗ < ∞) (4.89)

= ζλ + O(e−kn Iλ)

= ζλ + O(n−aIλ)

= ζλ + o(1/n)

car kn = cIλ

log (n). A noter que le n grand, ne dépendra pas de λ, car il provient de laformule de Stirling, que et que l’on a supposé ε n−1/3(log (n))1/2. En réinjectant cecidans l’égalité précédente, on obtient la borne supérieure de la Proposition 4.19.

Pour la borne inférieure, en utilisant les mêmes théorèmes que précédemment ainsique le théorème 4.18 et en posant λn := λ(1− kn/n), il vient :

Pλ(|C(v)| ≥ kn) ≥ Pn−kn,λ/n(T ≥ kn) ≥ P∗λn(T∗ ≥ kn)− C

kn

n, (4.90)

où T et T∗ sont respectivement les progénitures totales d’un processus de branchementbinomial de paramètres n − kn et λ/n et un processus de branchement de Poisson deparamètre λn respectivement. On sait que

P∗λn(T∗ ≥ kn) = ζλn + O(e−kn Iλn ) = ζλn + o(1/n), (4.91)

Page 60: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 57

pour n grand, ne dépendant pas de λ. Par le Théorème des accroissements finis, onobtient alors :

ηλn = ηλ + (λn − λ)d

dληλ|λ=λ∗n = ηλ + O(kn/n), (4.92)

pour un λ∗n ∈ (λn, λ), len grand ne dépendant pas de λ.Ainsi, puisque ζλ = 1− ηλ, on a aussi ζλn = ζλ +O(kn/n). En rassemblant ces résultats,on obtient la borne inférieure de la Proposition 4.19.La borne inférieure et supérieure ainsi obtenues achèvent la preuve de cette proposition.

Preuve de la proposition 4.20.Définissons

Z<k = ∑v∈[n]

1|C(v)|<k (4.93)

Puis, comme Z<k = n− Z≥k,

Varλ(Z≥k) = Varλ(Z<k). (4.94)

Ceci prouve que Varλ(Z<k) ≤ (λk + 1)nχ<k(λ). En effet, il suffit d’observer que

Varλ(Z<k) = Eλ[Z2<k]−Eλ[Z<k]

2

= ∑i,j∈[n]

P(|C(i)| < k, |C(j)| < k)− ∑i,j∈[n]

P(|C(i)| < k)P(|C(j)| < k)

= ∑i,j∈[n]

[Pλ(|C(i)| < k, |C(j)| < k)−Pλ(|C(i)| < k)2] (4.95)

On fait alors une disjonction de cas dépendant de la communication entre i et j :

Varλ(Z<k) = ∑i,j∈[n]

[Pλ(|C(i)| < k, |C(j)| < k, i = j)−Pλ(|C(i)| < k)2] (4.96)

+ ∑i,j∈[n]

Pλ(|C(i)| < k, |C(j)| < k, i↔ j)

De plus, on sait que quand i↔ j on a |C(i)| = |C(j)|, ce qui permet de calculer :

∑i,j∈[n]

Pλ(|C(i)| < k, |C(j)| < k, i↔ j) = ∑i,j∈[n]

Eλ[1|C(i)|<k1i↔j]

= ∑i∈[n]

Eλ[1|C(i)|<k ∑j∈[n]

1i↔j]

= ∑i∈[n]

Eλ[|C(i)|1|C(i)|<k]

= nχ<k(λ). (4.97)

Page 61: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

58 CHAPITRE 4. TER DE MASTER 1

Simplifions maintenant la somme correspondant au cas où i = j et écrivons que,pour l < k, on a :

Pλ(|C(i)| = l, |C(j)| < k, i = j) (4.98)

= Pλ(|C(i)| = l)Pλ

(i = j

∣∣ |C(i)| = l)

Pλ(|C(j) < k|i = j, |C(i)| = l)

Quand |C(i)| = l et i = j, la loi de |C(j)| est la même que celle de |C(1)| dans ungraphe aléatoire à n− l sommets et probabilités d’arêtes p = λ/n, i.e.,

Pn,λ(|C(j)| < k∣∣i = j, |C(i)| = l) = Pn−l,λ(|C(1)| < k), (4.99)

où Pm,λ désigne la probabilité d’existence des arêtes du graphe ERm(λ/n).Ainsi,

Pn,λ(|C(j)| < k∣∣i = j, |C(i)| = l) (4.100)

= Pn−l,λ(|C(1)| < k) = Pn,λ(|C(1)| < k) + Pn−l,λ(|C(1)| < k)−Pn,λ(|C(1)| < k)

On peut coupler ERn−l(p) et ERn(p) en rajoutant les l sommets manquants n − l +1, ..., n et en occupant les arêtes st avec s ∈ n− l + 1, ..., n et t ∈ [n] indépendemmentavec probabilité p.On remarque que dans ce couplage Pn−l,λ(|C(1)| < k)−Pn,λ(|C(1)| < k) est égal à laprobabilité de l’événement |C(1)| < k dans ERn−l(p), mais aussi à la probabilité del’événement |C(1)| ≥ k dans ERn(p).Si |C(1)| < k dans ERn−l(p), mais |C(1)| ≥ k dans ERn(p), alors au moins un dessommets n − l + 1, ..., n est relié presque sûrement à un des au plus k sommets deC(1) dans ERn−l(p). Ceci avec probabilité au plus lkp :

Pλ(|C(j)| < k, i = j∣∣|C(i)| = l)−Pλ(|C(j)| < k) ≤ lkλ/n (4.101)

Ainsi,

∑i,j∈[n]

[Pλ(|C(i)| < k, |C(j)| < k, i = j)−Pλ(|C(i)| < k)Pλ(|C(j)| < k)]

≤k−1

∑l=1

∑i,j∈[n]

λkln

Pλ(|C(i)| = l) =λkn ∑

i,j∈[n]Eλ[|C(i)|1|C(i)|<k]

= nkλχ<k(λ) (4.102)

Ceci, combiné avec (4.96) et (4.97) conclut la preuve.

Preuve du corollaire 4.21.D’après la Proposition 4.19,

Eλ[Z≥kn ] = nPλ(|C(v)| ≥ kn) = nζλ + O(kn), (4.103)

Page 62: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 59

et ainsi, pour n assez grand (qui ne dépend pas de λ) et puisque kn = o(nν), il vient :

|Z≥kn −Eλ[Z≥kn ]| ≤ nν/2 ⊆ |Z≥kn − nζλ| ≤ nν (4.104)

Comme χ<kn(λ) ≤ kn, d’après l’inégalité de Chebychev (Théorème 4.6 ) et la Proposi-tion 4.20,

Pλ(|Z≥kn − nζλ| > nν) ≤ Pλ(|Z≥kn −Eλ[Z≥kn ]| > nν/2)

≤ 4n−2νVarλ(Z≥kn)

≤ 4n1−2ν(λk2n + kn)

≤ n−δ, (4.105)

ceci pour tout δ < 2ν− 1 et n assez grand (qui ne dépend pas de λ), étant donné quekn = c

Iλlog (n).

Preuve de la proposition 4.22.On a :

Pλ(kn ≤ |C(v)| ≤ αn) =αn

∑t=kn

Pλ(|C(v)| = t) ≤αn

∑t=kn

Pλ(St = 0), (4.106)

où St = St−1 + Xt − 1. On a St ∼ Bin(n− 1, 1− (1− p)t) + 1− t, où p = λn , d’après la

Proposition 4.24. Par conséquent, pour p = λn ,

Pλ(St = 0) = P(Bin(n− 1, 1− (1− p)t) = t− 1), (4.107)

où, par abus de langage, P(Bin(m, q) = s) désigne la probabilité qu’une variable aléa-toire de loi Binomiale de paramètres m et q prenne une valeur s.Pour comprendre l’apparition d’exponentielles dans l’inégalité (4.68), remarquons quepour p = λ

n et t = bαnc,

1− (1− p)t = 1− (1− λ

n)bαnc = (1− e−λα)(1 + o(1)) pour n ≥ 2λ. (4.108)

En effet, pour n ≥ 2λ, (1− λn )bαnc ≥ e−λα− λ2α

n . De plus, l’unique solution dans (0,1] del’équation 1− e−λα = α est α = ζλ ( Proposition 4.25 ).

Si α < ζλ, alors α < 1− e−λα, et donc g(α; λ) := (1− eλα)/α < 1. Par conséquent,J(α; λ) = Ig(α;λ) > 0, et donc, la probabilité dans l’égalité (4.107) est exponentiellementpetite.

Page 63: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

60 CHAPITRE 4. TER DE MASTER 1

Par l’égalité (4.107) et en remarquant que 1− p ≤ e−p et donc que 1− (1− p)t ≥1− e−pt,

Pλ(St = 0) = Pλ(Bin(n− 1, 1− (1− p)t) = t− 1)≤ Pλ(Bin(n− 1, 1− (1− p)t) ≤ t− 1)≤ Pλ(Bin(n, 1− (1− p)t) ≤ t) ≤ Pλ(Bin(n, 1− e−pt) ≤ t)= Pλ(e−sBin(n,1−e−pt) ≥ e−st)

On a donc :Pλ(St = 0) ≤ Pλ(e−sBin(n,1−e−pt) ≥ e−st) (4.109)

et ceci quelque soit s>0.On a de plus grâce à l’inégalité de Markov ( Théorème 4.5 ) :

Pλ(St = 0) ≤ estE[esBin(n,1−e−pt)] = est((1− e−pt)e−s + e−pt)n

= est(1 + (1− e−pt)(e−s − 1))n ≤ est+n(1−e−pt)(1−e−s)

= est+n(1−e−λt/n)(1−e−s),

Où on utilise le fait que 1− x ≤ e−x dans la dernière égalité. Donc on a :

Pλ(St = 0) ≤ est+n(1−e−λt/n)(1−e−s), (4.110)

Soits∗ = log(n(1− e−λt/n)/t), (4.111)

le minimisateur de la fonction s 7→ st + n(1− e−pt)(1− e−s).

Soit t = βn et g(β; λ) = (1− e−λβ)/β. Remarquons que limβ↓0g(β; λ) = λ > 1, etque g(ζλ; λ) = 1 d’après la Proposition 4.25.De plus, la fonction β 7→ g(β; λ) est décroissante, donc :

∂βg(β; λ) =

g(β; λ)

β[(βλ)e−βλ − 1] < 0. (4.112)

Par conséquent, s∗ ≥ 0 lorsque t = bαnc avec α ≤ ζλ. L’inégalité 4.110 pour s = s∗ =log(n(1− e−λt/n)/t) nous donne :

Pλ(St = 0) ≤ e−t(log g(t/n;λ)−1−g(t/n;λ)) = e−tIg(t/n;λ) . (4.113)

De plus, comme λ 7→ Iλ décroît et que t/n ≤ α < ζλ, alors :

Pλ(St = 0) ≤ e−tIg(α;λ) = e−tJ(α;λ). (4.114)

On a donc pour finir :

Pλ(kn ≤ |C(v)| ≤ αn) ≤ ∑αnt=kn

Pλ(St = 0) ≤ ∑αnt=kn

e−tJ(α;λ)

≤ e−kn J(α;λ)/[1− e−J(α;λ)].

Page 64: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.2. RÉGIME SUR-CRITIQUE 61

On a bien :Pλ(kn ≤ |C(v)| ≤ αn) ≤ e−kn J(α,λ)/[1− e−J(α,λ)]. (4.115)

Supposons maintenant que ε −→ 0 quand n −→ ∞ et observons le comportementde la borne.

On sait que J(α, λ) ∼ (1−c′)2ε2

2 et que Iλ ∼ ε2

2 , donc

e−kn J(α,λ) = e−c

Iλlog (n)J(α,λ) ∼ n−c(1−c′)2

. (4.116)

D’autre part,1− e−J(α,λ) ∼ J(α, λ) ∼ ε2. (4.117)

Ainsi, la borne est équivalente à n−c(1−c′)2ε−2. Or on sait que ε n−1/3(log (n))1/2,

donc n−c(1−c′)2ε−2 n2/3−c(1−c′)2

log (n) .Ceci conclut la démonstration de la Proposition 4.22.

Preuve du théorème 4.16.Par union et indépendance des sommets, on a :

Pλ(∃v : kn ≤ |C(v)| ≤ αn) ≤ nPλ(kn ≤ |C(1)| ≤ αn) ≤ne−kn J(α,λ)

1− e−J(α,λ), (4.118)

la deuxième inégalité découlant de la Proposition 4.22.Si λ > 1 ne tend pas vers 1, alors J(α, λ)/Iλ est borné. Le terme de droite étant dans cecas un O(n−δ) où δ = c

IλJ(α, λ)− 1, il existe alors un 0 < δ′ < δ, ne dépendant pas de λ

tel que le terme de droite soit un O(n−δ′). Si maintenant ε −→ 0, i.-e. λ −→ 1, on a

ne−kn J(α,λ)

1− e−J(α,λ)∼ n1−c(1−c′)2

. (4.119)

Donc on a bien le résultat dans ce cas-ci également.

Preuve du lemme 4.23.Pour montrer que En a lieu presque sûrement, notons E c

n le complémentaire de En etmontrons que celui-ci n’arrive jamais avec grande probabilité.D’après le Corollaire 4.21, Pλ(|Z≥kn − nζλ| > nν) = O(n−δ) et d’après le Théorème4.16, Pλ(∃v ∈ [n] : kn ≤ |C(v)| ≤ αn) ≤ O(n−δ).Ces deux majorations impliquent donc Pλ(E c

n) = O(n−δ).

Il s’agit maintenant de prouver que |Cmax| = Z≥kn sur l’événement En. Pour ce faireremarquons d’abord que |Z≥kn − ζλ| ≤ nν ⊆ Z≥kn ≤ 1. Ceci implique que |Cmax| ≤Z≥kn lorsque l’événement En a lieu. De plus, |Cmax| < Z≥kn implique qu’il existe deuxcomposantes connexes de taille au moins kn.En outre, En implique qu’il n’existe pas de composante connexe de taille comprise entre

Page 65: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

62 CHAPITRE 4. TER DE MASTER 1

kn et αn. Par conséquent, il existe deux composantes connexes de taille au moins αn.On a donc Z≥kn ≥ 2αn. Lorsque 2α > ζλ et n suffisamment grand, on a alors unecontradiction avec Z≥kn ≤ ζλn + nν. On en déduit alors que |Cmax| = Z≥kn .

Preuve de la proposition 4.24. Soit Nt le nombre de sommets neutres au temps t ≥ 0. Ona donc

Nt = n− t− St. (4.120)

Remarquons que X ∼ Bin(m, p) lorsque Y = m− X ∼ Bin(m, 1− p). Pour montrer laProposition 4.24, il suffit alors de montrer que pour tout t ≥ 0,

Nt ∼ Bin(n− 1, (1− p)t). (4.121)

Pour prouver la relation (4.121), nous pouvons voir que chaque sommet de 2, ..., na une probabilité (1− p)t de rester neutre après t étapes (en supposant que l’on com-mence par le sommet 1). Par la relation (4.70) on a, conditionnellement à St−1, Xt ∼Bin(n− (t− 1)− St−1, p) = Bin(Nt−1, p). Sachant que N0 = n− 1, on a :

Nt = n− t− St = n− t− St−1 − Xt + 1 = Nt−1 − Xt ∼ Bin(Nt−1, 1− p). (4.122)

On conclut maintenant facilement par récurrence sur t.

Preuve de la proposition 4.25. La fonction génératrice d’une loi de Poisson de paramètreλ est :

gPoiss(s) = ∑∞k=0 skP(X = k)

= ∑∞k=0 ske−λ(λ)k/k!

= e−λ ∑∞k=0(sλ)k/k!

= e−λesλ

= eλ(s−1)

Or on sait que la probabilité d’extinction ηλ d’un processus de branchement de Poissonde paramètre λ est un point fixe de la fonction génératrice. Donc

ηλ = eλ(ηλ−1) (4.123)

Donc si on note ζλ = 1− ηλ la probabilité de survie, on a

1− ζλ = eλ(1−ζλ−1)

ζλ = 1− eλ(ζλ).

Ce qui conclut la démonstration.

Page 66: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.3. RÉGIME SOUS-CRITIQUE 63

4.3 Régime sous-critique

4.3.1 Ordre des composantes maximales sous-critiques

On se réferre ici à [1].Après avoir étudié pleinement le régime sur-critique λ > 1, nous nous tournons

maintenant vers le régime sous-critique λ = 1− ε < 1, où ε n−1/3 log (n)1/2. Si dansle cas sur-critique il existait une unique composante de taille maximale, géante, il n’enest rien dans le cas sous-critique. Nous allons voir que l’on a en fait le résultat suivant :

Théorème 4.26 (Ordre des composantes maximales sous-critiques).On a

Iλ|Cmax|log (n)

P−→ 1 (4.124)

où Iλ est défini en (4.58).

Les composantes maximales sont donc d’ordre log (n), ce qui est bien moins impres-sionnant que l’ordre n de la composante géante du régime sur-critique.

La preuve de ce théorème découle des deux théorèmes qui suivent :

Théorème 4.27 (Borne supérieure sur les composantes sous-critiques maximales).Pour tout c > 1, il existe δ > 0 tel que :

Pλ(|Cmax| ≥cIλ

log (n)) = O(n−δ). (4.125)

Théorème 4.28 (Borne inférieure sur les composantes sous-critiques maximales).Pour tout c′ < 1, il existe δ′ > 0 tel que :

Pλ(|Cmax| ≤c′

Iλlog (n)) = O(n−δ′). (4.126)

Proposition 4.29 (Une autre estimation sur la variance de Z≥k). Pour tout n, k ∈ [n] etpour tout λ > 0,

Varλ(Z≥k) ≤ nχ≥k(λ), (4.127)

oùχ≥k(λ) = E[|C(v)|1|C(v)|≥k]. (4.128)

Evidemment, par indépendance, χ≥k(λ) ne dépend pas du sommet v choisi.

Admettons temporairement ces résultats afin de prouver le théorème 4.26 dans lasection suivante.

Page 67: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

64 CHAPITRE 4. TER DE MASTER 1

4.3.2 Preuves des résultats sous-critiques

Preuve du théorème 4.26.Soit ι > 0. On a

Pλ(||Cmax|log (n)

− 1Iλ| ≥ ι) = Pλ(||Cmax| − log (n)/Iλ| ≥ ι log (n))

= Pλ(|Cmax| − log (n)/Iλ ≥ ι log (n))+ Pλ(|Cmax| − log (n)/Iλ ≤ −ι log (n))

= Pλ(|Cmax| ≥ (ι + 1/Iλ) log (n))+ Pλ(|Cmax| ≤ (1/Iλ − ι) log (n))

≤ Pλ(|Cmax| ≥ (ι + 1/Iλ) log (n))+ Pλ(|Cmax| ≤ (1/Iλ + ι) log (n))

Par les théorèmes 4.27 et 4.28, ces deux quantités sont respectivement O(n−δ) et O(n−δ′)pour δ > 0 et δ′ > 0 bien choisis, donc ceci tend bien vers 0 quand n→ ∞.

Preuve du théorème 4.27.Comme dans les sections précédentes, on considère la variable aléatoire Z≥ c

Iλlog (n) pour

c > 1. On pose kn = cIλ

log (n) et on a

Eλ[Z≥kn ] = nPλ(|C(1)| ≥ kn) (4.129)

On utilise alors le lemme 4.17 qui nous donne que

Pλ(|C(1)| ≥ kn) ≤ Pn,λ/n(T ≥ kn) (4.130)

où T désigne la progéniture totale d’un processus de branchement binomial de para-mètres n, λ/n.

On considère le processus St = X1 + ... + Xt − (t− 1) où (Xi)i≥1 est une famille devariables i.i.d. de loi binomiale de paramètres n et λ/n. Il vient alors :

Pn,λ/n(T > t) ≤ Pn,λ/n(St > 0) = Pn,λ/n(X1 + ... + Xt ≥ t) ≤ e−tIλ , (4.131)

l’inégalité découlant du fait que X1 + ... + Xt ∼ Bin(nt, λ/n) et du lemme 4.10.On a alors

Pλ(|C(1)| > kn) ≤ e−kn Iλ (4.132)

et donc on obtient

Pλ(|Cmax| >cIλ

log (n)) ≤ ne−c

Iλlog (n)Iλ = n1−c. (4.133)

On pose alors δ = c− 1 > 0.

Page 68: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.3. RÉGIME SOUS-CRITIQUE 65

Preuve du théorème 4.28.On vérifie aisément que Pλ(|Cmax| < k) = Pλ(Z≥k = 0). Il nous suffit alors de démon-trer que Pλ(Z≥kn = 0) = O(n−δ′), où kn = c′

Iλlog (n) avec c′ < 1. Nous allons dans ce

but appliquer l’inégalité de Chebychev.Commençons par alléger les notations

P≥k(λ) = Pλ(|C(v)| ≥ k). (4.134)

On a alorsEλ[Z≥k] = nP≥k(λ) (4.135)

Notons T un processus de branchement binomial de paramètres n − kn et p = λ/n.D’après le lemme 4.17, on a

P≥kn(λ) ≥ Pn−kn(T ≥ kn). (4.136)

Notons T∗ la progéniture totale d’un processus de branchement de Poisson de para-mètre λn = λ(n− kn)/n. Par le théorème 4.12 on a

Pn−kn,p(T ≥c′

Iλlog (n)) = P∗λn

(T∗ ≥ c′

Iλlog (n)) + O(

c′λ2 log (n)Iλn

). (4.137)

De plus, par la proposition 4.11,

P∗λn(T∗ ≥ c′

Iλlog (n)) =

∑k= c′

Iλlog (n)

P∗λn(T∗ = k) =

∑k= c′

Iλlog (n)

(λnk)k−1

k!e−λnk. (4.138)

La formule de Stirling nous donne

k! = (ke)k√

2πk(1 + o(1)), (4.139)

donc en utilisant les définitions de Iλ et λn, on observe que Iλn = Iλ + o(1) puis

P∗λn(T∗ ≥ c′

Iλlog (n)) =

∑k= c′

Iλlog (n)

1√2πk3

e−Iλn k(1 + o(1)) ≥ e−Iλc′Iλ

log (n)(1+o(1)).

(4.140)Il vient alors qu’avec kn = c′

Iλlog (n) et pour tout 0 < α < 1− c′,

Eλ[Z≥kn ] = nP≥kn(λ) ≥ n(1−c′)(1+o(1)) ≥ nα, (4.141)

pour n assez grand (qui ne dépend pas de λ car ceci vient de Stirling).On s’attaque maintenant à la variance de Z≥kn en utilisant la proposition 4.29. Pour

n’importe quelle variable aléatoire X à valeurs entières, on a

E[X1X≥k] = kP(X ≥ k) +∞

∑t=k+1

P(X = t). (4.142)

Page 69: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

66 CHAPITRE 4. TER DE MASTER 1

D’après l’inégalité 4.132 et par définition de χ≥kn(λ),

χ≥kn(λ) = knP≥kn(λ) +n

∑t=kn+1

P≥t(λ) ≤ kne−(kn−1)Iλ

n

∑t=kn

e−Iλ(t−1)

≤ kne−(kn−1)Iλ +e−kn Iλ

1− e−Iλ= O(knn−c′). (4.143)

En appliquant la proposition 4.29, on obtient

Varλ(Z≥kn) ≤ nχ≥kn(λ) ≤ O(knn1−c′), (4.144)

d’autre part, pour n assez grand,

Eλ[Z≥kn ] ≥ nα. (4.145)

Ainsi, par l’inégalité de Chebychev, pour n assez grand,

Pλ(Z≥kn) ≤Varλ(Z≥kn)

Eλ[Z≥kn ]2 ≤ O(knn1−c′−2α). (4.146)

On remarque que 2α− (1− c′) > 0 quand 0 < α < 1− c′ donc

∀ 0 < δ′ < 2α− (1− c′), Pλ(Z≥kn) = O(n−δ′). (4.147)

On conclut la preuve en utilisant le fait que

Pλ(|Cmax| < kn) = Pλ(Z≥kn = 0). (4.148)

Preuve de la proposition 4.29.La preuve ressemble assez à celle de l’estimation dans le cas sur-critique. Nous avons

Varλ(Z≥k) = ∑i,j∈[n]

[Pλ(|C(i)| ≥ k, |C(j)| ≥ k)−Pλ(|C(i)| ≥ k)2]. (4.149)

On conditionne par i↔ j

Pλ(|C(i)| ≥ k, |C(j)| ≥ k) =Pλ(|C(i)| ≥ k, i↔ j)+ P(|C(i)| ≥ k, |C(j)| ≥ k, i = j). (4.150)

D’autre part,

Pλ(|C(i)| = l, |C(j)| ≥ k, i = j)

= Pλ(|C(i) = l, i = j)Pλ(|C(j)| ≥ k∣∣|C(i)| = l, i = j). (4.151)

Page 70: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.4. RÉGIME CRITIQUE 67

Quand |C(i)| = l et i = j, tous les sommets dans des composantes autres que C(i), dontj en particulier, forment un graphe ERn−l(λ/n). Comme la probabilité de l’événement|C(j)| ≥ k dans ERn(p) croît avec n,

Pλ(|C(j)| ≥ k∣∣|C(i)| = l, i = j) ≤ Pλ(|C(j)| ≥ k). (4.152)

Pour tout l ≥ 1, il vient alors

Pλ(|C(i)| = l, |C(j)| ≥ k, i = j)−Pλ(|C(i)| = l)Pλ(|C(j)| ≥ k) ≤ 0, (4.153)

d’où

Varλ(Z≥k) ≤n

∑i,j=1

Pλ(|C(i)| ≥ k, i↔ j). (4.154)

Ainsi,

Varλ(Z≥k) ≤ ∑i∈[n]

∑j∈[n]

Eλ[1|C(i)|≥k1j∈C(i)]

= ∑i∈[n]

Eλ[1|C(i)|≥k ∑j∈[n]

1j∈C(i)]. (4.155)

Comme ∑j∈[n]

1j∈C(i) = |C(i)| et par indépendance des sommets,

Varλ(Z≥k) ≤ ∑i∈[n]

Eλ[|C(i)|1|C(i)|≥k] = nEλ[|C(1)|1|C(1)|≥k] = nχ≥k(λ). (4.156)

Ceci achève la preuve.

4.4 Régime critique

En vue des chapitres précédents, on est ammené à croire que pour le cas critique,λ = 1, la plus grande composante est d’ordre n2/3, et de plus, qu’il existe une fenêtrecritique de λ = 1 + O(n−1/3) dans laquelle cela reste vrai. Nous allons donc dans cechapitre donner des arguments heuristiques dans cette direction. Pour des argumentscomplets, on peut se référer à D. Aldous [5] qui étudie en détail la fenêtre critique.

Reprenons le graphe ERn(p) avec maintenant λ = 1 soit p = 1/n. Nous avons alorsle théorème suivant :

Théorème 4.30 (Taille de la composante maximale dans le cas critique). Soit ERn(p) legraphe d’Erdos-Rényi à n sommets avec une distribution d’arêtes de probabilité p=1/n. Alors

|Cmax| = Θ(n2/3). (4.157)

Page 71: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

68 CHAPITRE 4. TER DE MASTER 1

Preuve du théorème 4.30.Considérons une marche Sn = 1 + Y1 + . . . + Yn où Yi ∈ −1, 0, 1, . . . ∀i ∈ N. On adonc ∀i ∈ N, Yi ∼ (Bin(n, 1/n)− 1) et donc Sm ∼ (Bin(nm, 1/n)−m + 1). Or lorsquen est grand, d’après le théorème 4.12, on peut assimiler une loi Binomiale de paramètresn et p à une loi de Poisson de paramètre np.

D’oùP1(H0 ≥ k) = ∑m≥k P1(H0 = m)

(d’après la prop 4.8) = ∑m≥k1mP1(Sm = 0)

= ∑m≥k1mP(Bin(nm, 1/n) = m− 1)

∼ ∑m≥k1mP(Poiss(m) = m− 1).

Or1m

P(Poiss(m) = m− 1) =1m

e−m mm−1

(m− 1)!. (4.158)

Et d’après le théorème 4.9, on a

1mP(Poiss(m) = m− 1) = 1

m e−m mm−1

(m−1)m−1e−(m−1)√

2πm

∼ 1m e−m mm−1

(m)m−1e−m√

2πm= 1

m√

2πm

DoncP1(H0 ≥ k) ∼ ∑

m≥k

1m

1√2πm

∼ ∑m≥k

m−3/2 ∼ k−1/2. (4.159)

On cherche maintenant de manière non rigoureuse un α tel que |Cmax| = Θ(nα).Calculons donc E[Z≥nα ]. On a d’après le lemme 4.17

E[Z≥nα ] = E[ ∑v∈[n]

1|C(v)|≥nα] ∼ E[ ∑v∈[n]

1H0≥nα] = nP1(H0 > nα) = n.n−α/2.

Or on veut E[Z≥nα ] = Θ(nα) soit :

n.n−α/2 ∼ nα

n(3/2)α ∼ nα ∼ 2

3

Finalement on a bien|Cmax| = Θ(n2/3). (4.160)

On voit donc bien apparaître un n2/3. Il nous reste maintenant à le montrer de ma-nière plus rigoureuse. Pour cela, il suffit de majorer et de minorer |C(v)|.

Commencons par la majoration.

Page 72: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.5. SIMULATIONS 69

Montrons que ∀ε > 0, ∃C < ∞ tel que

P(∃v, |C(v)| > Cn2/3) < ε (4.161)

Soit ε > 0. Prenons un C < ∞ de manière arbitraire

P(∃v, |C(v)| > Cn2/3) = P(#C≥Cn2/3 ≥ 1)(d’après Markov) ≤ E(#C≥Cn2/3)

≤ E(Z≥Cn2/3)/Cn2/3

où #C≥Cn2/3 est le nombre de composantes de taille supérieure ou égale à Cn2/3.Or il existe C’ tel que

E(Z≥Cn2/3) ≤ C′n2/3 (4.162)

On a donc

P(∃v, |C(v)| > Cn2/3) ≤ C′

C. (4.163)

On peut donc choisir C afin de rendre C′C < ε et donc nous donner la majoration souhai-

tée.

Pour la minoration, il faut se référer à [1].

4.5 Simulations

4.5.1 Code R pour les simulations

La fonction Bernoulli génère un k-échantillon de Bernoulli de paramètre p.

Bernoulli=function(k,p)

u=runif(k)res=(u<p)return(res)

La fonction SimuleER génère la matrice du graphe ER(n, λ/n).

SimuleER=function(n,lambda)

ER=diag(n)X=Bernoulli(n*(n-1)/2,lambda/n)ER[lower.tri(ER,diag=F)]<-XER=(ER+t(ER))-diag(n)return(ER)

Page 73: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

70 CHAPITRE 4. TER DE MASTER 1

decoupefamille est une fonction esclave pour la fonction TailleCompoDFS, ellesert à supprimer les arêtes éventuelles dans ER reliant les sommets de f amille.

decoupefamille=function(ER,famille)

M=ERnb=length(famille)for (i in 1:(nb-1))

for (j in min(i+1,nb):nb)

M[famille[i],famille[j]]=0M[famille[j],famille[i]]=0

return(M)

La fonction TailleCompoDFS utilise la méthode Depth-First Search pour explo-rer la composante du sommet k étant donné la matrice ER du graphe. Cette fonctionretourne une liste de 3 éléments : la taille de C(k), la matrice ER actualisée pour la der-nière étape de la récursion (ceci a une utilité uniquement dans le programme codant lafonction) et la liste des sommets présents dans C(k).

TailleCompoDFS=function(k,ER)

X=ER-diag(dim(ER)[1])if (sum(X[k,]==1)==0)

return(list(1,ER,k))else

offsprings=which(X[k,]==1)nboffsprings=length(offsprings)DFS=1present=kERd=decoupefamille(ER,c(k,offsprings))for (i in offsprings) #récursion

if (!is.element(i,present))TCDFS=TailleCompoDFS(i,ERd)DFS=DFS+TCDFS[[1]]

Page 74: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

4.5. SIMULATIONS 71

ERd=TCDFS[[2]]present=c(present,TCDFS[[3]])

return(list(DFS,ERd,present))

La fonction TailleComposantes rend une matrice où la première colonne donneun représentant de chaque composante et la deuxième la taille de chacune de ces com-posantes.

TailleComposantes=function(ER)

n=dim(ER)[1]M=NULLdejavu=NULLfor (i in 1:n)

if (!is.element(i,dejavu))

TCDFS=TailleCompoDFS(i,ER)M=rbind(M,c(i,TCDFS[[1]]))dejavu=c(dejavu,TCDFS[[3]])

M=M[order(-M[,2]),]return(M)

On se contentera ici d’une approche DFS pour déterminer la taille des composantesde ERn(p), les résultats obtenus avec la méthode BFS seraient, rappelons-le, évidem-ment les mêmes.

4.5.2 Présentation de simulations

Quelques exemples de données retournées par le programme pour des valeurs dif-férentes de n et λ. On observe bien les régimes sous-critique, critique et sur-critiquedécrits plus haut de plus en plus prononcés quand n est grand. Notons que les taillesindiquées ici peuvent être répétées car il s’agit de ce que retourne les deux premièrestailles de TailleComposantes donc si il existe deux composantes disjointes de mêmetaille, il y aura répétition (voir dernière ligne du tableau par exemple).

Page 75: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

72 CHAPITRE 4. TER DE MASTER 1

λn = 100 n = 1000

|Cmax| |C2| |Cmax| |C2|2 81 2 785 5

1.2 37 13 396 241.1 31 28 124 1011 12 11 58 34

0.9 8 7 33 250.5 5 4 9 9

Page 76: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Bibliographie

[1] "Random Graphs and Complex Networks. Vol. I", Remco Van Der Hofstad, Octo-ber 20, 2014, Chapitres 2 à 5.

[2] "Combinatorial Stochastic Processes", J. Pitman, Ecole d’Eté de Probabilités deSaint-Flour XXXII, 2002.

[3] "A simple branching process approach to the phase transition in Gn,p", Béla Bol-lobás and Oliver Riordan, July 24, 2012.

[4] "The phase transition in random graphs - a simple proof", Michael Krivelevich andBenny Sudakov, September 25, 2012.

[5] "Brownian excursions, critical random graphs and the multiplicative coalescent",D. Aldous, 1997.

[6] "On the evolution of random graphs", P.Erdos et A.Rényi, 1960.

73

Page 77: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Chapitre 5

Mémoire de Master 2

Introduction

Ce mémoire a été réalisé sous la direction de Pascal MAILLARD avec en tête l’idéede poursuivre sur une thèse, dans la continuité des résultats abordés dans ce docu-ment, toujours sous sa direction. Nous profitons de l’occasion pour remercier chaleu-reusement Pascal MAILLARD pour ses éclaircissements et conseils divers, tant mathé-matiques que bibliographiques. C’est un plaisir de travailler sous sa direction.

Dans ce mémoire, nous nous intéresserons aux équations de renouvellement sur desarbres pondérés, en utilisant la théorie du renouvellement implicite de Goldie [6] eten l’élargissant aux arbres pondérés comme traité par Jelenkovic et Olvera-Cravioto[8][9]. Nous discuterons des contraintes posées par certaines hypothèses et regarderonsles résultats éventuels qui restent si ces hypothèses se font plus souples [11][12]. Nousverrons également les applications de ces résultats à la marche aléatoire branchante enutilisant des approches diverses (nous nous appuyerons sur [9],[13] et [6]).

Les équations qui nous intéressent ont la forme

R loi= ψ((Ri)i) (5.1)

où R et ψ sont indépendants, les (Ri) sont des copies iid de R et pour tout i, notantei le vecteur ayant un 1 en i-ème coordonnée et des 0 partout ailleurs, nous avonsψ(tei) ∼ tMi (|t| → ∞) où les Mi sont aléatoires. Si ψ est une fonction de la variableréelle, nous noterons simplement M le terme linéaire de l’asymptotique. Dans un pre-

mier temps, nous étudierons le cas R loi= ψ(R) avant de généraliser.

Les résultats que nous allons énoncer visent à donner une asymptotique précise dela queue des solutions de ces équations de point fixe en loi. Si les variables aléatoiresintervenant ont des moments d’ordre assez élevés, la queue de R sera de l’ordre de t−κ

quand t→ ∞ (résultats de Goldie et de Jelenkovic et Olvera-Cravioto), tandis que dansun cadre plus large, un terme à variations lentes viendra se glisser dans l’asymptotique

74

Page 78: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

75

(résultats dûs à Kevei). Les résultats de Goldie et Jelenkovic et Olvera-Cravioto sontd’ailleurs très similaires, la seule différence étant dans la formulation des hypothèsesdans le cadre multivarié, de la forme E[|(ψ(R)+)κ − ((MR)+)κ|] < ∞. Les idées despreuves sont toutefois globalement les mêmes : trouver une équation de renouvelle-ment vérifiée par des quantités d’intérêt pour les théorèmes et chercher une limite dansces équations.

Tout d’abord se posera la question de l’existence d’une solution à cette équation depoint fixe en loi et de l’unicité éventuelle de la loi solution. Une fois l’existence d’unesolution démontrée, notre objectif sera d’étudier la queue de R en faisant quelques hy-pothèses sur ψ et plus particulièrement les moments de M. Nous détaillerons en parti-

culier le cas R loi= Q + MR ainsi que le cas R loi

= Q∨

MR.

L’une des motivations principales pour l’étude de ces équations de point fixe (dansle cadre de ce mémoire) est d’obtenir des informations sur la queue des martingales dela marche aléatoire branchante. Définissons ici, quitte à le rappeler dans la partie dédiée,ce qu’est la marche aléatoire branchante. Démarrons avec une particule à une certaineposition, cette particule va vivre pendant une durée aléatoire puis mourir en donnantnaissance à un nombre aléatoire de particules (possiblement nul, possiblement infini) sedispersant aléatoirement et de manière iid autour de la position de la particule parente(c’est le branchement), chacune de ces particules se comporte alors de la même manière.Pour simplifier, nous oublions la durée de vie aléatoire et considérons qu’à chaque ins-tant n ∈N, il y a branchement pour toutes les particules vivantes et qu’elles ne peuventbrancher à aucun autre instant.Pour une définition plus formelle, notons U =

⋃n≥0(N

∗)n l’arbre d’Ulam (avec laconvention (N∗)0 = ∅), un élément u ∈ U sera appelé individu et s’écrira u = u1...unavec ui ∈ N∗ et la longueur de u valant |u| = n. uv désigne la concaténation des motsu et v. Cet arbre est muni d’une relation d’ordre partiel : u ≤ v si u est un ancêtre de v,i-e ∃w : v = uw. La marche aléatoire branchante (MAB) est un processus aléatoire departicules X = (Xu)u∈U à valeurs dans R

⋃∂ représentant la position des particules,où Xu = ∂ signifie qu’il n’y a pas de particule. La loi de la MAB est déterminée par sa loide reproduction Ξ à support sur (R

⋃∂)N∗ . Notant ξ = (ξ1, ξ2, ...) ∼ Ξ, donnons nous

des copies iid (ξu)u∈U de la loi de ξ, nous avons alors

X∅ = 0, et ∀u ∈ U , i ∈N∗, Xui = Xu + ξu,i

Notons maintenant ϕ(θ) = log E[∑∞i=1 eθXi ], la martingale W(θ)

n = ∑|u|=n eθXu−nϕ(θ),converge p.s. et sa limite vérifie

W(θ)∞ =

∑i=1

eθXi−ϕ(θ)W(θ)∞,i (5.2)

où les W(θ)∞,i sont des copies iid de W(θ)

∞ .Cette dernière équation est une équation de point fixe en loi du type que nous allons

Page 79: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

76 CHAPITRE 5. MÉMOIRE DE MASTER 2

étudier au long de ce mémoire et comme nous le verrons dans le dernier chapitre, laconnaissance du comportement de la queue de W(θ)

∞ donne des informations sur le com-portement asymptotique général de la MAB.

Nous conclurons par une comparaison entre les différentes approches possibles pourtraiter le cas de la marche aléatoire branchante. En effet, en voyant l’allure de l’équation(5.2) et en voyant les résultats développés par Jelenkovic et Olvera-Cravioto nous avonsune manière toute tracée de traiter le problème. Cependant, Liu [13] utilisait avant lesrésultats de Jelenkovic et Olvera-Cravioto une méthode de réduction de l’équation :en effet, plutôt que de traiter une équation de point fixe avec plusieurs variables iid, ilréduisait cette équation à une équation équivalente du type traité par Goldie. Ceci nousdonnera l’occasion de discuter des avantages et inconvénients des deux méthodes.

5.1 Préliminaires

Un concept qui reviendra beaucoup par la suite, car intervenant dans de nombreusespreuves sur le renouvellement, est la notion de loi non-arithmétique.

Définition 5.1 (Loi non-arithmétique). Une loi µ est dite non-arithmétique si elle n’est passupportée par un réseau. Plus précisément, il n’existe aucune mesure νλ = ∑n∈Z δnλ+c telleque µ << νλ.

Nous aurons aussi besoin de la notion de fonction directement Riemann-intégrable(voir Feller [5]) :

Définition 5.2. Soit z une fonction de la variable réelle à valeurs réelles. Définissons pour touth > 0, mn = min[(n−1)h,nh] z, mn = max[(n−1)h,nh] z, σ = h ∑n∈Z mn et σ = h ∑n∈Z mn.On dit que z est directement Riemann-intégrable si σ et σ convergent pour tout h > 0 et si pourtout ε > 0 il existe un h tel que σ− σ < ε.

Cette définition intervient notamment dans ce que nous appelerons ici le théorèmefondamental du renouvellement (voir [2], appelé key renewal theorem dans la littérature) :

Théorème 5.3. [Théorème fondamental du renouvellement] Soit (Sn)n∈N une marche aléatoirenon-arithmétique admettant un premier moment fini et strictement positif. Soit K : R→ R unefonction directement Riemann-intégrable. Alors

M(t) := E

[∞

∑n=0

K(t− Sn)

]→ 1

E[S1]

∫R

K(u)du. (5.3)

Les preuves des théorèmes que nous allons énoncer utiliseront souvent ce théo-rème et ses conséquences. La nature de l’hypothèse de directe Riemann-intégrabiliténécessitera donc des considérations techniques sur les fonctions intervenant dans les

Page 80: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 77

preuves, demandant parfois l’usage de transformations régularisantes (voir ci-dessous)sur ces fonctions. Nous verrons par ailleurs, que dans certains cas il nous faudra unpeu plus que des fonctions directement Riemann-intégrables pour obtenir des résul-tats satisfaisants : en effet, Kevei [12] observe qu’il est nécessaire de supposer z dRi etz(x) = O(1/x) pour pouvoir conclure dans son cadre de travail.

Définition 5.4 (Transformation régularisante). Nous définissons une transformation per-mettant de régulariser une fonction f :

∀t ∈ R, f (t) :=∫ t

−∞e−(t−u) f (u)du. (5.4)

L’intérêt de cette transformation est de pouvoir appliquer le théorème fondamentaldu renouvellement. En effet les quantités d’intérêt avec lesquelles nous démarrons lespreuves ne sont pas assez régulières pour appliquer le théorème 5.3 qui permet d’obte-nir les asymptotiques recherchées. Or une fois régularisées via cette transformation, onaboutit souvent à des quantités suffisament régulières pour pouvoir conclure.

5.2 Théorie du renouvellement implicite

La plupart des résultats qui vont suivre sont dûs à Goldie [6].Dans cette partie, nous considérons l’équation

R loi= ψ(R) (5.5)

où R et ψ sont indépendants et ψ est asymptotiquement linéaire.

La résolution de ces équations met en jeu des variables aléatoires dont les lois sontdéfinies implicitement par des équations du même type et l’utilisation de mesure derenouvellement pour les lois associées s’avère essentiel dans les preuves.

5.2.1 Résultats généraux

Asymptotique des queues

Comme annoncé précédemment, levons la question de l’existence d’une solution.

Théorème 5.5. [Principe de Letac] Donnons nous des copies iid ψ1, ψ2, ... de ψ et définissonsZn(t) = ψ1 ψ2 ... ψn(t) pour n ∈ N∗. Supposons que ψ est à trajectoires continues. Sila limite Z = limn→∞ Zn(t) existe presque sûrement et ne dépend pas de t alors la loi de Z estl’unique loi vérifiant l’équation (5.5). De plus, la suite Wn(t) := ψn ... ψ1(t) admet pour loilimite cette unique loi, ceci pour tout t.

Page 81: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

78 CHAPITRE 5. MÉMOIRE DE MASTER 2

Toutes les équations que nous considérons dans ce mémoire sont définies par unefonctionnelle à trajectoires continues. Il nous faudra juste s’assurer de la convergencepresque sûre de la suite Zn(t) pour obtenir existence et/ou unicité des solutions.

Attaquons nous maintenant au vif du sujet. Nous voulons obtenir un équivalentsur la queue des variables aléatoires ayant la loi de R, point fixe de ψ. Pour ce faire,nous avons besoin d’hypothèses sur les moments de M qui est, rappelons le, défini parψ(t) ∼ Mt (|t| → ∞) et d’un certain contrôle sur la queue de R.

Lemme 5.6. [Moments de M, C.M.Goldie] Soit M une variable aléatoire telle qu’il existe unκ > 0 pour lequel on a :

E[|M|κ] = 1

E[|M|κ log+ |M|] < ∞.

Supposons que la loi conditionnelle de log |M| sachant que M 6= 0 est non-arithmétique.Alors

−∞ ≤ E[log |M|] < 0

etm := E[|M|κ log |M|] ∈]0, ∞[.

Théorème 5.7. [Equivalent de la queue de R, C.M.Goldie] Soit M satisfaisant les hypothèsesdu lemme 5.6 et soit R une variable aléatoire (pas forcément solution de l’équation (5.5)) indé-pendante de M. Plusieurs cas se présentent :

1. Si M ≥ 0 p.s. et si ∫ ∞

0|P(R > t)−P(MR > t)|tκ−1dt < ∞ (5.6)

ou, respectivement, ∫ ∞

0|P(R < −t)−P(MR < −t)|tκ−1dt < ∞ (5.7)

alorsP(R > t) ∼ C+t−κ(t→ ∞), (5.8)

respectivementP(R < −t) ∼ C−t−κ(t→ ∞), (5.9)

où les constantes C+ et C− sont données par

C+ =1m

∫ ∞

0(P(R > t)−P(MR > t))tκ−1dt, (5.10)

C− =1m

∫ ∞

0(P(R < −t)−P(MR < −t))tκ−1dt. (5.11)

Page 82: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 79

2. Si P(M < 0) > 0 et si les hypothèses (5.6) et (5.7) tiennent alors (5.8) et (5.9) sontvérifiées avec

C+ = C− =1

2m

∫ ∞

0(P(|R| > t)−P(|MR| > t))tκ−1dt. (5.12)

Remarque. Si (5.6) et (5.7) sont satisfaites, peu importe le cas, on aura alors

C := C+ + C− =1m

∫ ∞

0(P(|R| > t)−P(|MR| > t))tκ−1dt. (5.13)

Remarque. Dans le cadre du théorème, si E[|R|κ] < ∞, C = 1κm (E[|R|κ]−E[|MR|κ]) = 0

par indépendance de M et R. On aura donc un petit o plutôt qu’un équivalent sur la queue de|R|, ce qui est moins intéressant. Il faut donc essayer de calibrer M et κ pour que E[|R|κ] = ∞.

Queue des solutions

Il est important de remarquer que le théorème 5.7 ne suppose pas que R est solutiond’une équation de point fixe. En fait c’est un résultat qui pourra être utile dans un cadrebien plus large que celui pris ici. Le corollaire suivant vise à préciser les conditions etles constantes obtenues lorsque R vérifie l’équation (5.5).

Corollaire 5.8 (C.M.Goldie). Supposons maintenant que R est solution de (5.5). Supposonsaussi que M vérifie les hypothèses du lemme 5.6 et est tel que R est indépendant de (ψ, M). Onpeut alors remplacer les conditions (5.6) et (5.7) respectivement par

E[|(ψ(R)+)κ − ((MR)+)κ|] < ∞, (5.14)

E[|(ψ(R)−)κ − ((MR)−)κ|] < ∞, (5.15)

et les formules (5.10), (5.11) et (5.12) respectivement par

C+ =1

κmE[(ψ(R)+)κ − ((MR)+)κ], (5.16)

C− =1

κmE[(ψ(R)−)κ − ((MR)−)κ], (5.17)

C+ = C− =1

κmE[|ψ(R)|κ − |MR|κ]. (5.18)

La preuve de ce corollaire découle de manière assez immédiate du précédent théo-rème en explicitant le fait que R est solution de l’équation de point fixe (5.5).

5.2.2 Application à des équations particulières

Il existe une multitude d’équations de point fixe en loi définies par une applicationasymptotiquement linéaire et pour lesquelles les théorèmes généraux pourront s’appli-quer. Cependant, nous nous concentrerons seulement sur deux cas que nous pourronsappliquer à la marche aléatoire branchante.

Page 83: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

80 CHAPITRE 5. MÉMOIRE DE MASTER 2

Cas affine

On considère ici le cas où ψ(t) = Q + Mt, t ∈ R où Q et M sont des variablesaléatoires réelles.L’équation de point fixe est donc

R loi= Q + MR. (5.19)

Les propriétés de cette équation sont décrites en détails dans le livre de Buraczewski,Damek et Mikosch [3].

Considérons (Qk, Mk)k≥1 des copies iid de (Q, M). Notant Πn = M1...Mn, on ob-

serve que R loi= ∑k≥1 QkΠk−1 par itérations successives de l’équation de point fixe, sous

réserve que la somme converge.En appliquant les résultats généraux de la théorie du renouvellement implicite, nous

sommes en mesure de préciser l’asymptotique des queues des solutions de notre équa-tion de point fixe en loi.

Théorème 5.9 (C.M.Goldie). Soient Q et M des variables aléatoires réelles définies sur unmême espace probabilisé. Supposons que M vérifie les hypothèses du lemme 5.6 et que

E[|Q|κ] < ∞.

Alors il existe une unique loi pour R solution de (5.19). Cette loi vérifie (5.8) et (5.9).Si M ≥ 0 p.s. alors

C+ =1

κmE[((Q + MR)+)κ − ((MR)+)κ

], (5.20)

C− =1

κmE[((Q + MR)−)κ − ((MR)−)κ

], (5.21)

tandis que dans l’autre cas,

C+ = C− =1

2κmE[|Q + MR|κ − |MR|κ]. (5.22)

De plus, C+ + C− > 0 si et seulement si

∀c ∈ R, P(Q = (1−M)c) < 1 (5.23)

Pour l’existence et l’unicité de la loi solution, c’est une conséquence du principede Letac. En effet, pour reprendre les notations du théorème 5.5, nous avons Z =∑k≥1 QkΠk−1 qui ne dépend pas de t et ψ est clairement à trajectoires continues. Pourprouver la dernière assertion, nous aurons besoin d’un résultat de Grincevicius :

Page 84: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 81

Proposition 5.10 (Grincevicius). Soient (Qn, Mn)n∈N∗ des copies iid de (Q, M). Posons

Πj :=j

∏k=1

Mk, Rn :=n

∑k=1

Πk−1Qk,

Πj,n :=n

∏k=j+1

Mk, Rj,n :=n

∑k=j+1

Πj,k−1Qk,

de sorte que Rn = Rj + ΠjRj,n. Alors pour tout x, y ∈ R, on a

P

(max

j∈[[1,n]]

(Rj + Πj med(Rj,n + Πj,ny)

)> x

)≤ 2P(Rn + Πny > x). (5.24)

Il est intéressant de noter que sous les hypothèses du principe de Letac, la suiteRn converge presque sûrement vers une variable R de même loi que R et, de la mêmemanière, les Rj,n convergent presque sûrement vers une variable de même loi que R.Ainsi on peut déduire de la proposition 5.10 que

∀x ≥ 0, P

(supj∈N

(Rj + Πj med R) > x

)≤ 2P(R > x), (5.25)

et

∀x ≥ 0, P

(supj∈N

|Rj + Πj med R| > x

)≤ 2P(R > x). (5.26)

Ces inégalités seront utiles dans les preuves.

Il est possible d’obtenir des bornes précises sur les constantes C+, C− et C+ + C−grâce au théorème 5.9. Pour plus d’informations à ce sujet, consulter [6].

Cas extrémal

Nous considérons maintenant le cas où ψ(t) = maxQ, Mt où Q et M sont desvariables aléatoires, M ≥ 0 p.s.. L’équation de point fixe étudiée est donc

R loi= Q ∨MR, (5.27)

où ∨ dénote le maximum.

A noter que spécifier Q = 1 donne des résultats sur le maximum d’une marche aléa-toire.

Si nous reprenons les notations du théorème 5.5 et que nous posons Πk := M1...Mkoù les (Mk, Qk) sont des copies iid de (M, Q), nous avons Zn(t) = max(tΠn,

∨nk=1 QkΠk−1).

Nous avons donc en appliquant le principe de Letac le résultat suivant :

Page 85: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

82 CHAPITRE 5. MÉMOIRE DE MASTER 2

Proposition 5.11 (Existence et unicité de la solution). Si M ≥ 0 p.s., E[log(M)] ∈ [−∞, 0[et E[log+(Q)] < ∞ alors R =

∨∞k=1 QkΠk−1 est fini p.s. et sa loi est l’unique solution de (5.27).

Théorème 5.12 (C.M.Goldie). Supposons que M ≥ 0 p.s. et vérifie les conditions du lemme5.6 et que E[(Q+)κ] < ∞. Alors il existe une unique loi pour R solution de (5.27) et elle vérifie

P(R > t) ∼ C+t−κ(t→ ∞), (5.28)

où C+ est donné par

C+ =1

κmE [(Q+ ∨MR+)

κ − (MR+)κ] . (5.29)

De plus C+ > 0 si et seulement si P(Q > 0) > 0.

5.2.3 Relaxation des hypothèses et ce qu’il en résulte

Nous exposons ici des résultats dûs à Kevei [11][12] qui visent à relaxer certainesdes hypothèses faites par Goldie sur les moments de M dans le cas affine (à noter qu’ilest aussi possible d’obtenir des asymptotiques en relachant certaines conditions sur Q,ce que nous ne ferrons pas ici). Nous verrons que les résultats sont alors légèrementmodifiés, mais qu’il est toujours possible d’obtenir des expressions précises pour lesconstantes qui apparaissent dans l’asymptotique des queues. Plus précisément, au lieud’obtenir des queues qui obéissent à des lois de puissances, un terme multiplicatif à va-riations lentes se glissera dans l’asymptotique.

Dans toute cette section, il sera supposé que M ≥ 0 p.s..

Un premier cadre

Nous allons nous donner deux cadres de travail différents, déterminés par les va-leurs de E[Mκ].

Nous noterons Pκ pour κ > 0, la probabilité définie par

Pκ(log(M) ∈ C) = E[1log(M)∈C Mκ

], (5.30)

probabilité qui intervient déjà comme changement de mesure dans les preuves de Gol-die [6]. Nous ferrons ici l’hypothèse selon laquelle E[Mκ] = 1, afin que Pκ soit bien uneprobabilité.Si F désignait la fonction de répartition de log(M) sous P, nous désignerons par Fκ cellesous Pκ. Plus précisément,

Fκ(x) = Pκ(log(M) ≤ x) =∫ x

−∞eκyF(dy). (5.31)

Page 86: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 83

Nous supposerons que log(M), sous Pκ, est dans le domaine d’attraction d’une loistable d’indice α ∈]0, 1], log(M) ∈ D(α). Comme Fκ(−x) ≤ e−κx, sous Pκ log(M) ap-partient à D(α) si et seulement si

1− Fκ(x) = Fκ(x) =l(x)xα

, (5.32)

où l est une fonction à variations lentes (∀c > 0, l(cx)l(x) → 1 quand x → ∞).

Définissons la fonction de renouvellement de log(M) sous Pκ par U(x) = ∑∞n=0 F(∗n)

κ (x)où F(∗n)

κ désigne la fonction de répartition d’une somme Vn de n variables iid de mêmeloi que log(M). Comme cette marche aléatoire Vn dérive vers l’infini sous Pκ (d’après leshypothèses faites sur ses incréments), nous pouvons montrer que ∀x ∈ R, U(x) < ∞(voir [10]). Posons

m(x) =∫ x

0

(Fκ(−u) + Fκ(u)

)du ∼

∫ x

0Fκdu ∼ l(x)x1−α

1− α, (5.33)

les équivalents étant valables seulement quand α 6= 1.

Dans les preuves, nous aurons besoin de la convergence suivante

∀h > 0, limx→∞

m(x) (U(x + h)−U(x)) = hCα où Cα =1

Γ(α)Γ(2− α). (5.34)

Cette convergence sera vérifiée sous réserve d’avoir (5.32) quand 12 < α ≤ 1. Pour le cas,

α ≤ 12 , nous aurons besoin d’une condition équivalente (pour voir que cette condition

équivaut à (5.34), consuter le théorème 3.1 de [12] dû à Caravenna et Doney) : si (5.32)est vérifié avec α ≤ 1

2 pour une variable positive de fonction de répartition H, alors(5.34) tient si et seulement si nous avons

limδ→0

lim supx→∞

xH(x)∫ δx

1

1yH(y)2

H(x− dy) = 0. (5.35)

Toutes ces notations et hypothèses en place, les suppositions que nous ferons dansce premier cadre de travail seront donc résumées par

E[Mκ] = 1, ∃κ > 0 et α ∈]0, 1] tels que (5.32) et (5.35) tiennent pour Fκ, (5.36)et log(M) conditionné sur M 6= 0 est non-arithmétique.

A noter que nous autorisons ici E[Mκ log+(M)] = ∞, le cas fini étant déjà traité parGoldie.

Page 87: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

84 CHAPITRE 5. MÉMOIRE DE MASTER 2

Un second cadre

Dans ce cadre, nous supposons maintenant que E[Mκ] = θ < 1 pour un certainκ > 0 et que pour tout t > κ, E[Mt] = ∞. D’une manière similaire à ce que nous avionsdéfini précédemment, introduisons la probabilité suivante

Pκ(log(M) ∈ C) =1θ

E[1log(M)∈C Mκ]. (5.37)

Sous cette nouvelle probabilité, log(M) admet pour fonction de répartition

Fκ(x) =1θ

∫ x

−∞eκyF(dy). (5.38)

Avec les hypothèses sur M, Fκ est à queue lourde. Ceci change quelque peu la manièredont nous devons traiter l’équation de renouvellement implicite pour la queue de R. Ilnous faut donc introduire quelques notions supplémentaires.

Soit T ∈]0, ∞], posons ∆ =]0, T]. Pour une fonction de répartition H, nous noteronsH(x + ∆) = H(x + T)− H(x).

Définition 5.13 (L∆, S∆ et Sloc). On dira qu’une fonction de répartition H sur R appartientà :

– L∆ si H(x+t+∆)H(x+∆) → 1 uniformément pour t ∈ [0, 1].

– la classe S∆ des lois ∆-sous-exponentielles si pour x assez grand H(x + ∆) > 0, H ∈ L∆et (H ∗ H)(x + ∆) ∼ 2H(x + ∆), où H ∗ H désigne la fonction de répartition d’unesomme de deux variables iid de fonction de répartition H.

– la classe Sloc des lois localement sous-exponentielles si pour tout T > 0, H ∈ S∆.

Les hypothèses dont nous aurons besoin pour travailler dans ce second cadre sontrésumées comme suit :

E[Mκ] = θ < 1, κ > 0, Fκ ∈ Sloc, supFκ(y + ∆) : y > x = O(Fκ(x + ∆)) (5.39)pour x assez grand, et log(M) conditionné sur M 6= 0 est non-arithmétique.

Résultats

Comme pour les résultats de Goldie, il convient de se donner des théorèmes assezgénéraux que nous appliquerons ensuite aux cas particuliers qui nous intéressent.

Page 88: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 85

Théorème 5.14. [Premier cadre, Kevei] Supposons (5.36) et soit R une variable aléatoire dontla queue vérifie la condition intégrale∫ ∞

0|P(R > x)− P(MR > x)| xκ+δ−1dx < ∞, (5.40)

pour un certain δ > 0, M et R étant supposés indépendants. Alors

limx→∞

m(log(x))xκP(R > x) = Cα

∫ ∞

0(P(R > x)−P(MR > x)) xκ−1dx. (5.41)

Théorème 5.15. [Second cadre, Kevei] Supposons (5.39) et soit R une variable aléatoire dont laqueue vérifie la condition intégrale∫ ∞

0|P(R > x)− P(MR > x)| xκ+δ−1dx < ∞, (5.42)

pour un certain δ > 0, M et R étant supposés indépendants. Alors

limx→∞

g(log(x))−1xκP(R > x) =θ

(1− θ)2

∫ ∞

0(P(R > x)−P(MR > x)) xκ−1dx, (5.43)

où g(x) = Fκ(x + 1)− Fκ(x).

Maintenant que ces résultats généraux sont énoncés, nous pouvons en déduire l’asymp-totique de la queue des solutions des équations qui nous intéressent dans les deuxcadres de travail que nous nous sommes donnés.Commençons avec le cas affine :

Théorème 5.16. [Cas affine, premier cadre, Kevei] Supposons (5.36). Supposons également qu’il

existe ν > κ tel que E[|Q|ν] < ∞. Alors la queue de la solution R de l’équation R loi= MR + Q

vérifie

limx→∞

m(log(x))xκP(R > x) =Cα

κE [(MR + Q)κ

+ − (MR)κ+] , (5.44)

limx→∞

m(log(x))xκP(R ≤ −x) =Cα

κE [(MR + Q)κ

− − (MR)κ−] .

De plus, si ∀x ∈ R, P(Mx + Q = x) < 1, alors

E [(MR + Q)κ+ − (MR)κ

+] + E [(MR + Q)κ− − (MR)κ

−] > 0 (5.45)

.

Théorème 5.17. [Cas affine, second cadre, Kevei] Supposons (5.39). Supposons également qu’il

existe ν > κ tel que E[|Q|ν] < ∞. Alors la queue de la solution R de l’équation R loi= MR + Q

vérifie

limx→∞

g(log(x))−1xκP(R > x) =θ

κ(1− θ)2 E [(MR + Q)κ+ − (MR)κ

+] , (5.46)

limx→∞

g(log(x))−1xκP(R ≤ −x) =θ

κ(1− θ)2 E [(MR + Q)κ− − (MR)κ

−] ,

Page 89: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

86 CHAPITRE 5. MÉMOIRE DE MASTER 2

où g(x) = Fκ(x + 1)− Fκ(x).

De plus, si ∀x ∈ R, P(Mx + Q = x) < 1, alors

E [(MR + Q)κ+ − (MR)κ

+] + E [(MR + Q)κ− − (MR)κ

−] > 0 (5.47)

.

Remarque. Les hypothèses faites sur Fκ dans le théorème 5.17 impliquent que g(log(x)) est àvariations lentes.

Nous allons maintenant énoncer les résultats correspondants dans le cas extrémalnon seulement car ils sont intéressants au même titre que dans le cas affine mais aussicar ils nous seront utiles pour vérifier la positivité des constantes sous l’hypothèse ∀x ∈R, P(Mx + Q = x) < 1.

Théorème 5.18. [Cas extrémal, premier cadre, Kevei] Supposons (5.36). Supposons également

qu’il existe ν > κ tel que E[|Q|ν] < ∞. Alors la queue de la solution de R loi= Q ∨MR vérifie

limx→∞

m(log(x))xκP(R > x) =Cα

κE [(MR+ ∨Q+)

κ − (MR+)κ] . (5.48)

Théorème 5.19. [Cas extrémal, second cadre, Kevei] Supposons (5.39). Supposons aussi qu’il

existe ν > κ tel que E[|Q|κ] < ∞. Alors la queue de la solution de R loi= Q ∨MR vérifie

limx→∞

g(log(x))−1xκP(R > x) =θ

κ(1− θ)2 E [(MR+ ∨Q+)κ − (MR+)

κ] . (5.49)

5.2.4 Preuves et heuristiques

La méthodologie des preuves des résultats précédents étant globalement la même,nous nous contenterons d’esquisser les preuves des résultats de Goldie mais nous ren-trerons plus dans les détails pour les résultats de Kevei, certaines considérations tech-niques supplémentaires étant de rigueur. Pour plus de détails concernant les résultatsde Goldie, nous renvoyons le lecteur à [6].

Esquisse des preuves des résultats de Goldie

Avant de commencer les preuves, nous énonçons deux lemmes se trouvant dansGoldie [6] qui seront souvent utilisés pour la conclusion de chaque preuve.

Lemme 5.20. Si f ∈ L1(R) alors f est dRi.

Lemme 5.21. Si∫ t

0 uκP(R > u)du ∼ C+t(t→ ∞) alors P(R > t) ∼ C+t−κ(t→ ∞).

Page 90: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 87

Esquisse de preuve du théorème 5.7. On considère M′, M1, ..., Mk des copies iid de M, toutesindépendantes de R. Nous aurons besoin de quelques notations :

Yk := log |Mk|, Vk := log |Πk| =k

∑j=1

Yj (5.50)

r(t) := eκtP(R > t), δn(t) := eκtP(ΠnR > et) (5.51)

g1(t) := eκt (P(R > et)−P(MR > et))

, (5.52)

g−1 := eκt (P(R < −et)−P(MR < −et))

. (5.53)

Premier cas : M ≥ 0 p.s.. Par téléscopage, nous pouvons obtenir que

P(R > et) =n−1

∑k=0

∫R

(P(R > et−u)−P(MR > et−u)

)P(Vk ∈ du) + P(eVn R > et).

(5.54)On pose νn(dt) := eκt ∑n

k=0 P(Vk ∈ dt). De ce qui précède, on déduit une équation derenouvellement :

∀t ∈ R, n ∈N, r(t) = g1 ∗ νn−1(t) + δn(t). (5.55)

On en déduit après régularisation, définie par f (t) :=∫ t−∞ e−(t−u) f (u)du, que

∀t ∈ R, n ∈N, r(t) = g1 ∗ νn−1(t) + δn(t). (5.56)

Notons η(du) := eκuP(Y1 ∈ du) et ν(dt) := ∑∞k=0 eκtP(Vk ∈ dt) sa mesure de renouvel-

lement.Par des arguments sur les fonctions dRi, on a en passant à la limite n→ ∞ que

∀t ∈ R, r(t) = g1 ∗ ν(t). (5.57)

Le fait que δn tend vers 0 est dû au fait que Vn dérive vers −∞.On applique ensuite le théorème fondamental du renouvellement 5.3 pour avoir

r(t)→ 1m

∫R

g1. (5.58)

Le lemme 5.21 permet d’obtenir l’asymptotique. Pour l’expression exacte de la constante,il suffit de remarquer le théorème de Fubini donne

∫R

g1 =∫

Rg1.

Deuxième cas : M ≤ 0 p.s..Nous pouvons montrer que∫ ∞

0

∣∣P(R > t)−P(MM′R > t)∣∣ tκ−1dt < ∞. (5.59)

De là, il suffit d’appliquer le premier cas à la variable MM′ ≥ 0 p.s.. On trouve alorsl’expression de C+ correspondante quitte à la manipuler un peu.

Page 91: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

88 CHAPITRE 5. MÉMOIRE DE MASTER 2

Troisième et dernier cas : P(M > 0) > 0 et P(M < 0) > 0.Notons Xn = sgn(Πn). Appliquant le même téléscopage que dans le cas M ≥ 0 p.s.,nous obtenons l’équation de renouvellement

∀t ∈ R, n ∈N, r(t) =n−1

∑k=0

E[eκVk gXk(t−Vk)] + δn(t). (5.60)

Pour les mêmes raisons que précédemment, δn(t) converge vers 0 quand n→ ∞.Comme E[|M|κ] = 1, nous pouvons effectuer un changement de mesure pour les Mn.Nous noterons P et E pour cette nouvelle probabilité définie par

∀y ∈ R, P(M ∈ dy) := |y|κP(M ∈ dy). (5.61)

Adaptant les expressions de Πn, Vn, Xn, nous obtenons sous la nouvelle mesure l’équa-tion de renouvellement

∀t ∈ R, n ∈N, r(t) =n

∑k=0

E[gXk(t−Vk)] + δn(t). (5.62)

Appliquant la transformation régularisante, il vient

∀t ∈ R, n ∈N, r(t) =n−1

∑k=0

E[gXk(t−Vk)] + δn(t). (5.63)

(Xn) est une chaîne de Markov sur −1, 1 démarrant en 1 et de matrice de transition

sous P donnée par(

p qq p

), où p = P(M > 0) et q = P(M < 0). Notons η+ et η−

respectivement les lois conditionnelles de log |M| sous P sachant M > 0 et M < 0respectivement. Notons 0 = N(+)

0 < N(+)1 < ... les instants n où Xn = 1 et N(−)

0 <

N(−)1 < ... ceux où Xn = −1. Notons I(+)

n = maxi : N(+)i ≤ n − 1, I(−)n = maxi :

N(−)i ≤ n− 1. Alors

∀t, n, r(t) = E

I(+)n

∑k=0

g1(t−W(+)k )

+ E

I(−)n

∑k=0

g−1(t−W(−)k )

+ δn(t), (5.64)

où W(+/−)k = V

N(+/−)k

. Soit η la loi de Y1 + ... + YN(+)

1. Nous avons

η = pη+ +∞

∑k=2

q2pn−2η(2)− ∗ η

(n−2)+ , (5.65)

nous déduisons de cette équation que∫

Ryη(dy) = 2m et η est non-arithmétique.

De là, notons ν la mesure de renouvellement générée par η. Des considérations de di-recte Riemann-intégrabilité permettent de passer à la limite afin d’obtenir

∀t ∈ R, r(t) = g1 ∗ ν(t) + g−1 ∗ η0 ∗ ν(t), (5.66)

Page 92: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 89

où η0 est la loi de W(−)0 . Nous pouvons enfin appliquer le théorème fondamental du

renouvellement 5.3, obtenant

r(t)→ 12m

∫R(g1 + g−1). (5.67)

Nous concluons grâce au lemme 5.21.

Heuristique du théorème 5.9. L’objectif est d’appliquer le corollaire 5.8 à ψ(t) = Q + Mt.

Découpons :

E [((Q + MR)+)κ − ((MR)+)κ] =1κ

E[1−Q<MR≤0(Q + MR)κ

](5.68)

+1κ

E[10<MR≤−Q(MR)κ

](5.69)

+1κ

E[1Q>0,MR>0((Q + MR)κ − (MR)κ)

](5.70)

+1κ

E[10<−Q<MR((MR)κ − (Q + MR)κ)

]. (5.71)

On montre ensuite que chacune des espérances est finie. Pour (5.68) et (5.69), c’est uneconséquence de l’hypothèse sur Q. Pour les deux autres espérances, il faut utiliser desinégalités déterministes pour se ramener, en utilisant l’inégalité de Hölder, à une majo-ration faisant intervenir uniquement des moments que l’on sait fini par nos hypothèses.A partir de là, nous pouvons appliquer le corollaire 5.8. Il reste donc à vérifier que si∀c ∈ R, P(Q = (1 − M)c) < 1 alors C+ + C− > 0, la réciproque étant claire (faireQ = 0, R− c = M(R− c)...).C’est là qu’intervient la proposition 5.10. En l’appliquant, on peut montrer que

P(|R| > t) ≥ 12

P (|Q−med(R)(1−M)| > ε)P

(∃n ≥ 1 : |Πn| >

2tε

). (5.72)

On peut prendre ε > 0 tel que P (|Q−med(R)(1−M)| > ε) > 0. Ensuite, en utilisantla décomposition de Wiener-Hopf de la marche aléatoire transciente Vn d’incréments iidlog |M|, on montre que P

(∃n ≥ 1 : |Πn| > 2t

ε

)≥ δe−κt pour t assez grand et un certain

δ > 0. Ceci permet de conclure.

Heuristique du théorème 5.12. La proposition 5.11 donne l’existence et l’unicité. Il suffitdonc d’appliquer le corollaire 5.8 pour obtenir l’asymptotique.Nous avons

E [|((Q ∨MR)+)κ − ((MR)+)κ|] = E[1MR<Q,Q>0(Qκ − (MR+)

κ)]

≤ E[(Q+)κ] < ∞,

Page 93: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

90 CHAPITRE 5. MÉMOIRE DE MASTER 2

donc le corollaire 5.8 s’applique.Pour la discussion sur la stricte positivité de C+, il est claire que si Q ≤ 0 p.s., C+ = 0.Réciproquement, il existe c > 0 tel que P(Q > c) > 0 et on peut montrer que

P(R > t) ≥ P(Q > c)P

(∞∨

k=1

Πk−1 >tc

). (5.73)

Comme dans l’heuristique du théorème 5.9, on montre que P(∨∞

k=1 Πk−1 > tc)

est plusgrand que δt−κ pour t assez grand. Ceci permet de conclure.

Preuves des résultats de Kevei

Preuve du théorème 5.14. Nous conservons les notations utilisées dans les esquisses despreuves des résultats de Goldie. Nous avons, en utilisant l’indépendance de M et R etle fait que E[Mκ] = 1, le même résultat qu’après le téléscopage de Goldie :

∀t ∈ R, r(t) = g1(t) + E[r(t− log(M))Mκ]. (5.74)

Passons sous Pκ :

∀t ∈ R, r(t) = g1(t) + Eκ[r(t− log(M))]. (5.75)

g1 n’ayant aucune raison d’être dRi, nous régularisons cette équation de renouvelle-ment :

∀t ∈ R, r(t) = g1(t) + Eκ[r(t− log(M))]. (5.76)

Nous pouvons itérer cette relation n ≥ 1 fois (à noter que les méthodes itératives derésolution de ce genre d’équations sont traitées dans un cadre général par [3]) :

∀t ∈ R, r(t) =n−1

∑k=0

∫R

g1(t− y)F(∗k)κ (dy) + Eκ[r(t−Vn)]. (5.77)

A noter que l’on obtient une version régularisée de l’équation (5.54). Comme la marchealéatoire transciente Vn dérive vers −∞ sous P, nous avons

Eκ[r(t−Vn)]→ 0 quand n→ ∞. (5.78)

Faisant n→ ∞ dans (5.77) et utilisant le théorème de Fubini, nous obtenons

∀t ∈ R, r(t) =∫

Rg1(t− y)U(dy), (5.79)

où nous rappelons que U(x) = ∑∞n=0 F(∗n)

κ (x) où F(∗n)κ désigne la fonction de répartition

d’une somme Vn de n variables iid de même loi que log(M) sous Pκ.Contrairement au cadre dans lequel nous étions pour les résultats de Goldie, nous nepouvons pas nous contenter d’avoir g1 dRi pour appliquer le théorème fondamental durenouvellement. Un contre-exemple est fourni par Kevei dans [12]. Nous aurons doncbesoin du lemme suivant :

Page 94: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.2. THÉORIE DU RENOUVELLEMENT IMPLICITE 91

Lemme 5.22 (Condition d’application du théorème fondamental du renouvellement).Supposons z dRi, z(x) = O(1/x)(x → ∞) et (5.36). Alors (5.34) implique que

m(x)∫

Rz(x− y)U(dy)→ Cα

∫R

z(y)dy. (5.80)

Dans les grandes lignes, il suffit de décomposer le terme de gauche en trois inté-grales : une sur ]x, ∞[, une sur ]0, x] et une sur ]−∞, 0] ; on montre ensuite la conver-gence de chacune de ces intégrales en usant de l’hypothèse dRi et en faisant tendre vers0 les quantités requises. Pour plus de détails sur la preuve de ce lemme, consulter [12].

Il nous faut donc montrer que g1 vérifie les conditions du lemme 5.22.

g1(t) = e−t∫ t

−∞e(κ+1)x (P(R > ex)−P(MR > ex)) dx

≤ e−t∫ et

0yκ |P(R > y)−P(MR > y)| dy

≤ e−δt∫ ∞

0yκ+δ−1 |P(R > y)−P(MR > y)| dy.

La dernière intégrale est finie grâce à nos hypothèses, donc g1(t) = O(e−δt), ce qui estmieux que O(t−1). D’autre part,∫

Rg1(t)dt =

∫R

g1(t)dt =∫ ∞

0yκ−1 (P(R > y)−P(MR > y)) dy, (5.81)

ce qui permet, via le lemme 5.20, d’obtenir que g1 est dRi. Donc le lemme 5.22 peuts’appliquer. En utilisant alors le lemme 5.21, ceci conclut la preuve.

Preuve du théorème 5.15. Le modus operandi est le même que dans la preuve précédente.Nous obtenons que

r(t) =∫

Rg1(t− y)U(dy), (5.82)

où U(x) = ∑∞n=0(θFκ)(∗n)(x). Remarquons que θ < 1 implique que U(R) = 1

1−θ < ∞.Modifiant le théorème 5 de [1], nous obtenons le lemme qui suit

Lemme 5.23. Supposons (5.39), z est dRi et vérifie z(x) = o(g(x)) où g est la fonction définiepour le théorème 5.17. Alors∫

Rz(x− y)U(dy) ∼ θg(x)

(1− θ)2

∫R

z(y)dy (x → ∞). (5.83)

Là encore, nous ne prouverons pas celle et renvoyons à [12]. Ceci dit le principe desa preuve ressemble à celle du lemme 5.22, en s’adaptant aux hypothèses.

Page 95: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

92 CHAPITRE 5. MÉMOIRE DE MASTER 2

De la même manière que précédemment, nous avons g1(t) = O(e−δt) pour un cer-tain δ > 0. Comme Fκ est sous-exponentielle, on en déduit que g1(t) = o(g(t)). Nouspouvons donc appliquer le lemme 5.23. Ainsi,

r(t) ∼ θg(t)(1− θ)2

∫R

g1(y)dy (t→ ∞). (5.84)

Comme g(x) est sous-exponentielle, g(log(x)) est à variations lentes et la preuve suitcelle du lemme 5.21 (à noter qu’il faut en fait une version à variations régulières dece lemme, version que l’on trouve dans Bingham, Goldie et Teugels). Ceci achève lapreuve.

Preuves des théorèmes 5.18 et 5.19. Le principe de Letac assure l’existence et l’unicité dela solution. Soit δ ∈]0, ν− κ[. Nous avons

|P(MR ∨Q > t)−P(MR > t)| = P(MR ∨Q > t ≥ MR), (5.85)

donc par théorème de Fubini,∫ ∞

0|P(MR ∨Q > t)−P(MR > t)| tκ+δ−1dt =

∫ ∞

0P(MR ∨Q > t ≥ MR)tκ+δ−1dt

(5.86)

=1

κ + δE[(MR ∨Q)κ+δ

+ − (MR)κ+δ+

](5.87)

≤ 1κ + δ

E[Qκ+δ+ ]. (5.88)

Nous pouvons donc appliquer les théorèmes 5.14 et 5.15 pour obtenir l’asymptotiquesouhaitée. Les formes des constantes s’obtiennent par théorème de Fubini.On remarque que si Q = 1 p.s., nous avons à faire au maximum d’une marche aléatoireavec un drift négatif, donc la constante est strictement positive.

Preuves des théorèmes 5.16 et 5.17. L’existence et l’unicité de la solution découle du prin-cipe de Letac. Soit δ > 0 tel que

Si κ ≥ 1, κ +3κδ

1− δ< ν et si κ < 1, κ + δ ≤ 1∧ ν. (5.89)

Ecrivons

|P(MR + Q > t)−P(MR > t)| ≤ P(MR + Q > t ≥ MR) + P(MR > t ≥ MR + Q).

Par théorème de Fubini sur le premier terme du membre de droite de l’inégalité aprèsintégration,∫ ∞

0P(MR + Q > t ≥ MR)tκ+δ−1dt ≤ 1

κ + δE[1Q≥0

((MR + Q)κ+δ

+ − (MR)κ+δ+

)]

Page 96: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 93

Pour le second terme, on obtient un résultat similaire et en sommant il vient∫ ∞

0|P(MR + Q > t)−P(MR > t)| tκ+δ−1dt ≤ 1

κ + δE[∣∣∣(MR + Q)κ+δ

+ − (MR)κ+δ+

∣∣∣] .

Pour montrer que le terme de droite de cette inégalité est fini, une disjonction de cassuivant si κ ≥ 1 ou κ < 1 est de rigueur. Dans le second cas, une inégalité triangulairenous donne une majoration par E[|Q|κ+δ] < ∞. Dans le premier cas, une majorationdéterministe est utilisée, suivie de l’inégalité de Hölder pour se ramener à des momentstous finis (voir [12]). Ainsi, on obtient l’asymptotique voulue en appliquant les théo-rèmes 5.14 et 5.15 respectivement.

Il reste encore à voir la stricte positivité de la somme des constantes. Reprenant laconséquence de l’inégalité de Grincevicius (proposition 5.10) vue dans l’heuristique duthéorème 5.9, nous avons

P(|R| > t) ≥ 12

P(|Q−med(R)(1−M)| > ε)P

(supn∈N

Vn > log(t) + log(

)), (5.90)

où l’on rappelle que P(|Q−med(R)(1−M)| > ε) > 0 et ε > 0 est suffisamment petitpour que 2

ε > 1. De là, il suffit d’appliquer les théorèmes 5.18 et 5.19 respectivement,tout deux avec Q ≡ 1 pour obtenir la stricte positivité demandée.

5.3 Lois de puissance sur des arbres pondérés

Il va s’agir dans ce chapitre d’étudier une équation de point fixe plus générale quecelles traitées précédemment. Nous nous appuyerons dans cette section sur les travauxde Jelenkovic et Olvera-Cravioto [8],[9]. En effet, gardons à l’esprit l’application que l’onvoudrait faire pour connaître le comportement de la queue de W(θ)

∞ pour la marche aléa-toire branchante (voir le dernier chapitre). A cette fin, considérons maintenant l’équa-tion

R loi=

N

∑i=1

CiRi + Q (5.91)

où les Ri sont iid de même loi que R et indépendants de (Q, N, C1, C2, ...), vecteur aléa-toire positif, N prenant ses valeurs dans N

⋃∞. On peut déjà pressentir que les Civont jouer le rôle de poids et que cette somme correspond à un branchement avec unnombre N d’enfants.

A noter que ces équations ont été étudiées du point de vue des transformées de La-place (les variables étant positives) par Durrett et Liggett [4] (cas homogène), voyantcette égalité en loi comme un point fixe des itérations d’une transformation régulari-sante pour obtenir l’existence de solutions. Pour ce qui est de l’origine même de l’intérêt

Page 97: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

94 CHAPITRE 5. MÉMOIRE DE MASTER 2

porté à cette transformation régularisante, il s’agit de travaux de Holley et Liggett [7]sur les processus régularisants introduits par Spitzer [15]. On pourra consulter [3] pourdes compléments sur cette transformation régularisante.

5.3.1 Modèle

Avec ces idées en tête, construisons en détail un arbre aléatoire de branchement pon-déré.

Nous allons constuire un arbre aléatoire T . Notons An l’ensemble des individus dela n-ième génération de T et Zn le cardinal correspondant. Bien évidemment, Z0 = 1.On notera U l’arbre d’Ulam. Pour des raisons de simplicité, si i ∈ U est de longueur 1,on confondra i et i1 (première coordonnée). On notera (i, j) la concaténation de i et j.

Pour démarrer notre construction, on commence par poser A0 = ∅, la racine. Cetteracine aura N := N∅ enfants. Soient (Ni)i∈U des copies iid de N. On construit alors lagénération suivante :

A1 := i ∈N∗ : 1 ≤ i ≤ N

puisAn := i = (i1, ..., in) ∈ U : (i1, ..., in−1) ∈ An−1, 1 ≤ in ≤ N(i1,...,in−1)

.

On a alors une formule pour Zn qui est Zn = ∑i∈An−1Ni.

Cette première constuction nous donne un arbre aléatoire sans poids. Nous allonsajouter quelques ingrédients à cette construction pour que l’arbre qui en résulte soitpondéré, arbre que l’on notera TQ,C.Soit (Q, N, C1, C2, ...) := (Q∅, N∅, C(∅,1), C(∅,2), ...) avec N à valeurs dans N

⋃∞ etsupposons P(Q > 0) > 0 (rappel : toutes les variables de ce vecteur sont positives). Njoue le même rôle que précédemment.On construit chaque génération comme précédemment, à ceci près que chaque noeudi de l’arbre TQ,C se voit attribué un vecteur (Qi, Ni, C(i,1), C(i,2), ...) de même loi que(Q, N, C1, C2, ...), tous les vecteurs d’une même génération étant indépendants.Enfin, on définit Πi par

Π∅ = 1Π(i1,...,in) = C(i1,...,in)Π(i1,...,in−1)

Ceci achève la construction de TQ,C.A noter que l’on oubliera parfois Q, en particulier pour traiter l’équation homogène.Quand on supposera Q = 0 p.s., on notera TC l’arbre correspondant, afin d’alléger lesécritures.

Page 98: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 95

5.3.2 Résultats généraux

Par plusieurs aspects, l’équation (5.91) ressemble assez fortement à l’équation (5.19).La différence notable est que nous avons une fonction de plusieurs v.a.i.i.d et que celles-ci sont en nombre aléatoire. Nous verrons que le fait d’avoir une grande somme (avecun nombre aléatoire de termes) plutôt qu’un terme affine, demande l’utilisation dequelques inégalités, la plupart convexes, pour majorer les moments de certaines va-riables et d’utiliser des espérances.

Pour commencer, énonçons un lemme et un théorème généraux (car, là encore, nousne supposerons pas que R est une solution) qui sont des généralisations des résultats deGoldie. Nous supposons ici que Q = 0 p.s..

Lemme 5.24 (Jelenkovic, Olvera-Cravioto). Soit TC l’arbre aléatoire construit précédem-ment. Pour n ∈N, i ∈ An, notons Vi := log(Πi). Pour κ > 0, notons µn(dt) := eκtE[∑i∈An 1Vi∈dt]et η(dt) := µ1(dt).Supposons ∃j ≥ 1 tel que P(N ≥ j, Cj > 0) > 0 et P(log(Cj) ∈ du, Cj > 0, N ≥ j) estnon-arithmétique. Supposons aussi qu’il existe κ > 0 tel que

0 < E[N

∑i=1

Cκi log(Ci)] < ∞, (5.92)

E[N

∑i=1

Cκi ] = 1. (5.93)

Alors η est une loi de probabilité sur R, non-arithmétique, ne mettant pas de masse en −∞ et demoyenne donnée par ∫

Ruη(du) = E[

N

∑j=1

Cκj log(Cj)] (5.94)

Et µn(dt) = η∗n(dt).Théorème 5.25 (Jelenkovic, Olvera-Cravioto). Supposons les hypothèses du lemme 5.24 vé-rifiées.Supposons aussi qu’il existe γ ∈]0, κ[ tel que E[∑N

j=1 Cγj ] < ∞, que R est indépendant de

(N, C1, C2, ...) avec ∀β ∈]0, κ[, E[Rβ] < ∞.Si ∫ ∞

0|P(R > t)−E[

N

∑j=1

1CjR>t]|tκ−1dt < ∞ (5.95)

alorsP(R > t) ∼ Ht−κ(t→ ∞) (5.96)

où H ∈ [0, ∞[ est donné par

H =1

E[∑Nj=1 Cκ

j log(Cj)]

∫ ∞

0vκ−1

(P(R > v)−E[

N

∑j=1

1CjR>v]

)dv (5.97)

Page 99: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

96 CHAPITRE 5. MÉMOIRE DE MASTER 2

On retrouve une condition de contrôle intégral sur la queue de R, tout comme dansle résultat original de Goldie. Le résultat reste assez similaire dans sa forme.

5.3.3 Queues des solutions de l’équation non-homogène

Nous supposons ici que Q 6= 0, sinon nous aurions R = 0.Une fois encore, nous allons trouver une loi solution comme loi limite d’une certainesuite de variables aléatoires.

Posons W0 := Q, Wn := ∑i∈An QiΠi pour n ∈ N∗. On définit alors R(n) = ∑nk=0 Wk

la somme des poids sur tous les noeuds jusqu’à la n-ème génération.

La propriété de branchement nous donne une relation de récurrence :

R(n) =N∅

∑j=1

C(∅,j)R(n−1)j + Q∅ =

N

∑j=1

CjR(n−1)j + Q (5.98)

R(0)j = Qj, (5.99)

où les R(n−1)j sont des copies iid de R(n−1). De même, on a une relation pour les Wn :

Wnloi=

N

∑k=1

CkWn−1,k (5.100)

où les Wn−1,k sont des copies iid de Wn−1 et indépendantes de (N, C1, C2, ...).

Définissant alors R comme la limite monotone en loi des R(n), on a

R loi= ∑

k≥0Wk = lim

n→∞↑

n

∑k=0

Wk (5.101)

Si l’on se donne R(∞)j des copies iid de R, indépendantes de (Q, N, C1, C2, ...), il est

aisé de vérifier alors que

R =N

∑j=1

CjR(∞)j + Q (5.102)

Théorème 5.26 (Jelenkovic, Olvera-Cravioto). Considérons la solution R étant la limite desR(n). Supposons qu’il existe j ≥ 1 tel que P(N ≥ j, Cj > 0) > 0 et tel que la probabilitéP(log(Cj) ∈ du, Cj > 0, N ≥ j) est non-arithmétique. Supposons aussi qu’il existe κ > 0 tel

Page 100: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 97

que

E[Qκ] < ∞, (5.103)

0 < E[N

∑i=1

Cκi log(Ci)] < ∞, (5.104)

E[N

∑i=1

Cκi ] = 1. (5.105)

Supposons de plus l’une des deux assertions suivantes :

1. κ > 1, E[∑Ni=1 Ci] < 1 et E

[(∑N

i=1 Ci

)κ]< ∞

2. κ ∈]0, 1] et il existe ε ∈]0, 1[ tel que E

[(∑N

i=1 Cκ/(1+ε)i

)1+ε]< ∞

AlorsP(R > t) ∼ Ht−κ(t→ ∞) (5.106)

où H ∈ R+ est donné par

H =1

E[∑Ni=1 Cκ

i log(Ci)]

∫ ∞

0vκ−1

(P(R > v)−E[

N

∑i=1

1CiR>v]

)dv (5.107)

=E[(

∑Ni=1 CiRi + Q

)κ−∑N

i=1(CiRi)κ]

κE[∑Ni=1 Cκ

i log(Ci)]. (5.108)

Remarque. Pour le cas κ ∈]0, 1], la sosu-additivité de la fonction x 7→ xκ donne gratuitementque

E

[(N

∑i=1

Ci

)κ]≤ E[

N

∑i=1

Cκi ] = 1 < ∞

Du théorème précédent, découle le corollaire suivant en développant l’expressionde H.

Corollaire 5.27 (Jelenkovic, Olvera-Cravioto). Prenons κ ∈ N∗. Sous les hypothèses duthéorème 5.26, on a une formule explicite pour H comme fonction de E[Rk], E[Ck], E[Qk] etk ∈ [[0, κ − 1]]. En particulier, quand κ = 1, on a

H =E[Q]

E[∑N

i=1 Ci log(Ci)] , (5.109)

Page 101: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

98 CHAPITRE 5. MÉMOIRE DE MASTER 2

et pour κ = 2,

H =E[Q2] + 2E[R]E

[Q ∑N

i=1 Ci

]+ 2 (E[R])2

E[∑N

i=1 ∑Nj=i+1 CiCj

]2E[∑N

i=1 C2i log(Ci)

] , (5.110)

E[R] =E[Q]

1−E[∑N

i=1 Ci

] . (5.111)

5.3.4 Cas homogène critique

On étudie ici l’équation

R loi=

N

∑i=1

CiRi (5.112)

au régime critique E[∑N

i=1 Ci

]= 1.

Pour construire une solution, on adapte un peu ce qui a été fait dans le cas non-homogène. En effet, définissons W0 := 1 et Wn := ∑i∈An Πi. Nous avons ici une martin-gale positive donc elle converge presque sûrement vers une limite R, et en appliquantcette convergence à l’équation

Wnloi=

N

∑i=1

CiWn−1,i (5.113)

on obtient bien une solution. Et on peut même dire que E[R] ≤ 1.

Enonçons maintenant le résultat dans notre cas présent :

Théorème 5.28 (Jelenkovic, Olvera-Cravioto). Supposons ∃j ≥ 1 : P(N ≥ j, Cj > 0) > 0et P(log(Cj) ∈ du, Cj > 0, N ≥ j) est non-arithmétique. Supposons aussi qu’il existe κ > 1tel que

E

[(N

∑i=1

Ci

)κ]< ∞, (5.114)

E

[N

∑i=1

Cκi log+(Ci)

]< ∞, (5.115)

E

[N

∑i=1

Ci

]= E

[N

∑i=1

Cκi

]= 1. (5.116)

Alors l’équation (5.112) a une solution avec 0 < E[R] < ∞ telle que

P(R > t) ∼ Ht−κ(t→ ∞) (5.117)

Page 102: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 99

où H ∈ [0, ∞[ est donnée par

H =1

E[∑N

i=1 Cκi log(Ci)

] ∫ ∞

0vκ−1

(P(R > v)−E

[N

∑i=1

1CiR>v

])dv (5.118)

=E[(

∑Ni=1 CiRi

)κ−∑N

i=1 Cκi Rκ

i

]κE[∑N

i=1 Cκi log(Ci)

] . (5.119)

De plus, si P(N ≥ 2) > 0, avec N := ∑Ni=1 1Ci>0 alors H > 0.

Remarque. On ne prétend pas démontrer ici l’unicité. Cependant, dans le cadre qui nous inté-resse, on peut montrer que la loi solution est unique (voir [13]).

5.3.5 Preuves

Preuve du théorème 5.25.Pour un mot i ∈ U , on note i|k sa restriction de taille k.Définissons ∀i ∈ An, k ≤ n, Vi|k = log(Πi|k). Notons dès lors que Πi|k est indépendantde Ni|k mais n’est pas indépendant des Ni|s pour tout s ≤ k− 1.

On poseFk = σ(

(Ni, C(i,1), C(i,2), ...) : i ∈ Aj, j ∈ [[0, k− 1]])

. Commençons alors commedans la preuve de Goldie à réexprimer la queue de R grâce à un téléscopage et un condi-tionnement suivant la filtration Fk : il vient alors

P(R > et) =n−1

∑k=0

E

∑(i|k)∈An

E

1R>e

t−Vi|k −Ni|k

∑j=1

1C(i|k,j)R>e

t−Vi|k

∣∣∣Fk

+E

∑(i|n)∈An

1Πi|nR>et

.

(5.120)De là, prenons des notations similaires à celles que nous avions dans les preuves précé-dentes, à savoir :

νn(dt) :=n

∑k=0

µk(dt), (5.121)

g(t) := eκt

(P(R > et)−E

[N

∑j=1

1CjR>et

]), (5.122)

r(t) := eκtP(R > et), (5.123)

δn(t) := eκtE

∑(i|n)∈An

1Πi|nR>et

. (5.124)

Nous avons donc, en utilisant l’indépendance des variables considérées vis-à-vis de latribu Fk, la relation suivante :

∀t ∈ R, r(t) = g ∗ νn−1(t) + δn(t). (5.125)

Page 103: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

100 CHAPITRE 5. MÉMOIRE DE MASTER 2

Utilisant la transformation régularisante habituelle, nous obtenons

r = g ∗ νn−1 + δn. (5.126)

Les mêmes arguments que dans la preuve de Goldie permettent de conclure que g ∗νn−1(t)→ g ∗ ν(t) où ν(dt) = ∑∞

k=0 ν∗k(dt) est bien définie par le lemme 5.24.Il nous reste donc à voir que δn(t) tend bien vers 0.Par des arguments de convexité, les hypothèses du théorème nous permettent d’affir-mer qu’il existe un β ∈]0, κ[ tel que E

[∑N

j=1 Cβj

]< 1. Prenons donc un tel β.

Nous avons, en utilisant le théorème de Fubini-Tonelli,

δn(t) =∫ t

−∞eu−teκuE

∑(i|n)∈An

1Πi|nR>eu

du

≤ e(κ−β)tE

∑(i|n)∈An

∫ t

−∞eβu1Πi|nR>eu

≤ e(κ−β)tE

∑(i|n)∈An

∫ min(t,log(Πi|nR))

−∞eβu

≤ e(κ−β)t

βE

∑(i|n)∈An

(Πi|nR)β

.

Or l’indépendance des variables en jeu nous permet d’écrire

E

∑(i|n)∈An

(Πi|nR)β

= E[Rβ]E

∑(i|n)∈An

Πβ

i|n

. (5.127)

La première de ces espérances est finie par hypothèse. Montrons que la deuxième convergevers 0 quand n → ∞. En conditionnant par Fn−1et en utilisant l’indépendance desC(i|n−1,j) avec les Πi|n−1, puis en itérant autant que nécessaire, nous avons que

E

∑(i|n)∈An

Πβ

i|n

= E

[N

∑j=1

Cβj

]E

∑(i|n−1)∈An−1

Πβ

i|n−1

=

(E

[N

∑j=1

Cβj

])n

. (5.128)

Or β a été judicieusement choisi pour que E[∑N

j=1 Cβj

]< 1, d’où la convergence vers 0.

Ainsi pour tout t, δn(t)→ 0.Finalement,

r(t) = g ∗ ν(t). (5.129)

Page 104: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 101

Or nous savons que g a le bon goût d’être directement Riemann-intégrable : il nous suf-fit donc d’appliquer le théorème fondamental du renouvellement (théorème 5.3) pourobtenir l’existence de H.Obtenir les expressions explicites de H avec les espérances est un rapide calcul utilisantle théorème de Fubini. Ceci achève la preuve.

Preuve du théorème 5.26.Le principe de cette preuve est assez similaire à celle correspondante dans les travauxde Goldie : nous allons chercher à vérifier les hypothèses du théorème général 5.25pour l’appliquer quand R est solution de l’équation de point fixe qui nous intéresse.Ceci nous donnera la convergence souhaitée, les expressions de H se calculant là encorepar théorème de Fubini (les termes considérés étant presque sûrement absolument inté-grables, pour plus de détails à ce sujet, voir la fin de la preuve du théorème 4.1 dans [9]).

Le lemme 4.4 de [9] nous permet d’obtenir que pour tout β ∈]0, κ[, E[Rβ] < ∞.Il nous reste à montrer l’existence d’un γ ∈ [0, κ[ tel que E

[∑j=1 NCγ

j

]< ∞ afin de

vérifier les premières hypothèses du théorème 5.25, nous laissant seulement à vérifierpar la suite la condition intégrale (5.95).Pour des raisons de convexité, une dichotomie s’impose concernant les valeurs prisespar κ. En effet, si κ > 1, l’inégalité de Jensen couplée à l’hypothèse E[∑N

i=1 Cκi ] = 1 nous

permet de prendre n’importe quel γ ∈ [1, κ[.Il nous faut détailler plus avant pour le cas où κ ∈]0, 1]. Pour ce faire, posons γ :=κ 1+ε/2

1+ε < κ. Il vient alors, en appliquant deux fois la convexité,

E

[N

∑j=1

Cγj

]≤ E

( N

∑j=1

Cκ/(1+ε)j

)1+ε/2

E

( N

∑j=1

Cκ/(1+ε)j

)1+ε 1+ε/2

1+ε

,

et ce dernier terme est fini par définition de ε.

Reste donc à vérifier que∫ ∞

0

∣∣∣P(R > t)−E[∑N

j=1 1CjR>t

]∣∣∣ tκ−1dt < ∞.

Pour ce faire, définissons R∗ := ∑Ni=1 CiRi + Q loi

= R. Nous avons∣∣∣∣∣P(R > t)−E

[N

∑j=1

1CjR>t

]∣∣∣∣∣ ≤∣∣∣∣∣∣P(R > t)−P

N∨j=1

CjRj > t

∣∣∣∣∣∣ (5.130)

+

∣∣∣∣∣∣P N∨

j=1

CjRj > t

−E

[N

∑j=1

1CjR>t

]∣∣∣∣∣∣ . (5.131)

Page 105: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

102 CHAPITRE 5. MÉMOIRE DE MASTER 2

Or R loi= R∗ et R∗ ≥ ∨N

i=1 CiRi, donc le premier terme du membre de droite s’écrit sansles valeurs absolues et le second terme n’est autre que E

[∑N

j=1 1CjR>t

]− E

[1∨CiRi>t

].

La finitude de ce second terme est assurée par le lemme 4.6 de [9] de manière évidentepour κ ≤ 1 et en prenant un ε > 0 tel que κ

1+ε ≤ 1 quand κ > 1 car nous avons l’inégalité

∑ xκ

1+ε

i ≤ (∑ xi)κ

1+ε .Regardons maintenant l’intégrale contre tκ−1dt de ce premier terme. Le théorème deFubini-Tonelli nous donne que

∫ ∞

0

P(R > t)−P

N∨j=1

CjRj > t

tκ−1dt =1κ

E

(R∗)κ −

N∨j=1

Cj Rj

κ (5.132)

Si 0 < κ ≤ 1, nous avons

E

(R∗)κ −

N∨j=1

CjRj

κ ≤ 1κ

E

Qκ +N

∑j=1

(CjRj)κ −

N∨j=1

CjRj

κ (5.133)

ceci étant fini par le lemme 4.6 de [9] et le fait que E[Qκ] < ∞.Si κ > 1, les lemmes 4.6 et 4.7 de [9] permettent de conclure à la finitude de l’intégrale.Dans tous les cas, nous pouvons appliquer le théorème 5.25 ce qui achève la preuve.

Preuve du théorème 5.28.Posons φ(θ) := E

[∑N

j=1 Cθj

]. Il est clair que φ est convexe sur [1, κ]. Valant 1 aux extré-

mités de ce segment, elle y est donc finie et par continuité sous l’espérance est continuesur ce segment. Par théorème de dérivation sous l’espérance, on obtient aussi que φ estdeux fois dérivable sur ]1, κ[ et en particulier

∀θ ∈]0, κ[, φ′′(θ) = E

[N

∑j=1

Cθj (log(Cj))

2

]. (5.134)

Comme E[∑N

j=1 Cj

]= 1, on a P(Cj ≡ 0, j ∈ [[1, N]]) < 1. De plus, la non-arithméticité

nous donne P(Cj ∈ 0, 1, j ∈ [[1, N]]) < 1 et de là, on a φ′′ > 0. En cumulant cela avecle théorème de Rolle appliqué à φ, nous savons qu’il existe 1 < θ1 < θ2 < κ tels queφ′(θ1) < 0 < φ′(θ2).φ′ étant strictement croissante, par convergence monotone, nous avons

φ′(1+) = E

[N

∑j=1

Cj log(Cj)

]< 0. (5.135)

D’autre part, comme x log+(x) ≤ c(1 + xκ) (où c > 0) et E[(

∑Nj=1 Cj

)κ]< ∞, nous

obtenons que E[(

∑j=1 NCj

)log+

(∑N

j=1 Cj

)]< ∞. Ainsi, en appliquant le théorème 2

Page 106: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.3. LOIS DE PUISSANCE SUR DES ARBRES PONDÉRÉS 103

de [13], nous obtenons que Wn converge p.s. vers une solution R telle que E[R] = 1.Nous allons vouloir appliquer le théorème 5.25 à notre solution R. Les hypothèses demoments sur les Cj combinées à E[R] = 1 nous donne que E[Rκ] < ∞. La stricteconvexité de φ et le théorème 2.1 de [13] nous donne que ∀β ∈]0, κ[, E[Rβ] < ∞.

D’autre part, en utilisant de nouveau que φ′ est strictement croissante, par conver-gence monotone,

0 < φ′(κ−) = E

[N

∑j=1

Cκj log(Cj)

]≤ E

[N

∑j=1

Cκj log+(Cj)

]< ∞. (5.136)

A partir de là, on peut suivre la preuve du théorème 5.26 en mettant Q ≡ 0.

Enfin, il faut montrer que P(N ≥ 2) > 0 =⇒ H > 0.Supposons donc que P(N ≥ 2) > 0. Alors il existe 1 ≤ n ≤ ∞ et 1 ≤ i1 < i2 < n + 1tels que P(N = n, Ci1 > 0, Ci2 > 0) > 0. En fait, on peut même dire qu’il existe un δ > 0tel que P(N ≥ i2, Ci1 > δ, Ci2 > δ) > 0.Nous utilisons ensuite deux inégalités déterministes s’obtenant via des études fonction-nelles classiques :

∀x, y ≥ 0, ∀κ > 1,(x1 + x2)

κ ≥ xκ1 + xκ

2, (5.137)

et ∀0 < ε < κ − 1, ∀0 < c < 2κ−1−ε − 1, ∀x ∈ [0, 1],

(1 + x)κ − 1− xκ − cxκ−ε ≥ 0. (5.138)

De cette seconde inégalité, nous pouvons déduire que pour x1, x2 ≥ 0, nous avons

(x1 + x2)κ − xκ

1 − xκ2 ≥ c(x1 ∧ x2)

κ. (5.139)

Partant de la seconde expression de H donnée par le théorème et appliquant (5.137),nous obtenons que

H ≥E[1N≥i2

((Ci1 Ri1 + Ci2 Ri2)

κ − (Ci1 Ri1)κ − (Ci2 Ri2)

κ)]

κE[∑N

j=1 Cκj log(Cj)

] . (5.140)

En appliquant maintenant (5.139), nous avons alors

H ≥cE[1N≥i2(Ci1 Ri1 ∧ Ci2 Ri2)

κ]

κE[∑N

j=1 Cκj log(Cj)

]≥

cδκP(N ≥ i2, Ci1 > δ, Ci2 > δ)E[(Ri1 ∧ Ri2)κ]

κE[∑N

j=1 Cκj log(Cj)

]> 0.

Page 107: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

104 CHAPITRE 5. MÉMOIRE DE MASTER 2

5.4 Application à la marche aléatoire branchante

Nous renvoyons le lecteur aux notes de Saint-Flour de Shi [14] pour toute informa-tion complémentaire sur la définition de la MAB.

Notons U l’arbre d’Ulam. Considérons une marche aléatoire branchante (Xu)u∈U ,d’incréments (ξu)u∈U de sorte que Xu = ξu1 + ξu1u2 + ... + ξu (où u1u2 est à comprendreau sens de la concaténation). µ désignera la loi définie par µ(A) = E

[∑∞

i=1 1Xi∈A]. Pour

simplifier les écritures, nous écrirons Xu = ∂ si la marche s’est éteinte à partir d’unancêtre de u et les termes correspondants compterons pour 0 dans les sommes effectuéessur des générations entières. Posons ∀θ, ϕ(θ) := log E[∑∞

i=1 eθXi ] et

W(θ)n = ∑

|u|=neθXu−nϕ(θ).

La propriété de branchement assure que W(θ)n est une martingale. Celle-ci est positive :

elle converge donc presque sûrement vers une limite W = W(θ)∞ (on va supposer θ fixé

à l’intérieur du domaine de définition de ϕ dans toute la suite).

Ce W est une variable aléatoire d’intérêt pour l’étude fine de la marche aléatoirebranchante. Par exemple, nous avons le résultat suivant :

Théorème 5.29 (Croissance de la MAB dans une direction donnée, Biggins). Supposonsqu’il existe κ > 1 tel que W(θ)

1 ∈ Lκ et ϕ(κθ) < κϕ(θ). Soit f : R→ R une fonction continuebornée, xθ = ϕ′(θ) et σ2

θ =∫

R(y− xθ)eθy−ϕ(θ)µ(dy). Alors

e−nϕ(θ) ∑|u|=n

eθXu f

Xu − xθn√σ2

θ n

loi→WE[ f (N )], (5.141)

où N est une variable gaussienne centrée réduite.

W intervient donc de manière cruciale dans le comportement asymptotique de lamarche aléatoire branchante, pour peu que les bonnes hypothèses soient vérifiées. Nousserions donc ravis de voir W vérifier une des équations de point fixe étudiées plus haut,afin de mieux comprendre son comportement et donc, mieux comprendre le comporte-ment de la MAB.

De nouveau grâce à la propriété de branchement, nous obtenons que W vérifie uneéquation de point fixe :

W =∞

∑i=1

eθXi−ϕ(θ)Wi (5.142)

où les Wi sont des copies iid de W (c’est l’équation (5.2) promise depuis le début).

Page 108: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.4. APPLICATION À LA MARCHE ALÉATOIRE BRANCHANTE 105

5.4.1 Une première approche par les arbres pondérés

Nous désignons par Lp(P) l’espace des variables aléatoires admettant un momentd’ordre p > 0 fini sous la probabilité P. S’il n’y a pas d’ambigüités sur la probabilitéconsidérée, nous noterons simplement Lp.Pour se rapprocher des notations utilisées dans la résolution de ces équations, notons

Ci = eθXi−ϕ(θ). (5.143)

Nous pouvons d’ores et déjà remarquer que E[∑∞i=1 Ci] = 1. C’est un premier pas vers

l’utilisation du théorème 5.28 avec N = ∞ p.s..Par ailleurs, les Ci sont tous strictement positifs (dès que θ est dans le domaine de dé-finition de ϕ) donc ∀i ≥ 1, P(N ≥ i, Ci > 0) = 1 > 0. Nous sommes maintenant enmesure d’énoncer notre résultat dans le cadre de la marche aléatoire branchante :

Théorème 5.30 (Queue de W). Supposons que la loi de reproduction de la MAB soit non-arithmétique. Supposons de plus qu’il existe κ > 1 tel que

W(θ)1 ∈ Lκ, (5.144)

E

[∞

∑i=1

Cκi log+(Ci)

]< ∞, (5.145)

ϕ(κθ) = κϕ(θ) (5.146)

AlorsP(W > t) ∼ Ht−κ(t→ ∞), (5.147)

où H ∈]0, ∞[ est donnée par

H =

∫ ∞0 vκ−1

(P(W > v)−E

[∑∞

i=1 1eθXi−ϕ(θ)W>v

])dv

E[∑∞

i=1 eθκXi−ϕ(κθ) log(eθXi−ϕ(θ)

)] (5.148)

=E[(

∑∞i=1 eθXi−ϕ(θ)Wi

)κ−∑∞

i=1 eκθXi−ϕ(κθ)Wκi

]κE[∑∞

i=1 eθκXi−ϕ(κθ) log(eθXi−ϕ(θ)

)] (5.149)

Remarque. Un calibrage de κ > 1 pourra être nécessaire si l’on veut coupler l’utilisation de cerésultat avec le théorème 5.29. L’un demandant d’avoir ϕ(κθ) = κϕ(θ) et l’autre demandantϕ(κθ) < κϕ(θ). Ceci dit, les propriétés de régularité de ϕ (notamment par des arguments deconvexité) rendent ce calibrage possible, sauf éventuellement dans certains cas pathologiques.

Preuve du théorème 5.30. Pour obtenir l’existence de H, il nous suffit de vérifier la totalitédes hypothèses du théorème 5.28.

Page 109: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

106 CHAPITRE 5. MÉMOIRE DE MASTER 2

Nous savons que ϕ(κθ) = κϕ(θ), donc nous pouvons écrire que

E

[∞

∑i=1

Cκi

]= E

[∞

∑i=1

eκθXi−κϕ(θ)

](5.150)

= E

[∞

∑i=1

eκθXi−ϕ(κθ)

]. (5.151)

Or par définition, ϕ(κθ) = log E[∑∞i=1 eκθXi ], donc le dernier terme de cette suite d’éga-

lités vaut 1. L’hypothèse (5.116) est donc vérifiée.Il est clair que l’hypothèse (5.115) est vérifiée et il suffit de réécrire W(θ)

1 en terme des Cipour voir que (5.114) est vérifiée.Nous sommes donc en mesure d’appliquer le théorème 5.28 afin d’obtenir l’asympto-tique souhaitée.Les expressions de H s’obtiennent alors directement en remplaçant les Ci par leur ex-pression en termes de quantités d’intérêts pour la MAB.Enfin, la constante H est strictement positive en vertu du dernier point du théorème5.28 : en effet, ici les Ci = eθXi−ϕ(θ) sont strictement positifs presque sûrement doncl’implication est trivialement vérifiée, N valant +∞ presque sûrement. Ceci achève lapreuve.

5.4.2 Une seconde approche par réduction de l’équation

Nous suivons ici des éléments de [13]. Nous voudrions trouver une manière d’abou-tir au théorème 5.30 sans utiliser les résultats mis en place par Jelenkovic et Olvera-

Cravioto mais en se contenant des résultats obtenus pour l’équation affine R loi= MR+Q.

Liu abouti dans [13] à un résultat de convergence P(W > t) ∼ Ht−κ(t→ ∞) (sans expli-citer la constante H) en se ramenant à l’équation affine. Nous allons donc voir comments’y ramener et en profiter pour expliciter tant que possible la constante obtenue via cetteméthode.

Commençons par prendre quelques notations supplémentaires tout en conservantcelles déjà établies dans la précédente section. Nous posons

Y∅ = 1 (5.152)

∀u ∈ U , Yu = eθXu−|u|ϕ(θ) = Cu1Cu1u2 ...Cu (5.153)

où Cu = eθξu−ϕ(θ). Nous gardons là-encore la convention que si la marche prend lavaleur ∂ sur un noeud, les termes correspondants s’annulent (Liu ne fait pas cette hypo-thèse car il se place directement sur l’arbre aléatoire T(ω) sur lequel vit la MAB plutôtque U tout entier).

Page 110: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.4. APPLICATION À LA MARCHE ALÉATOIRE BRANCHANTE 107

Avec ces notations, nous avons W(θ)n = ∑|u|=n Yu. Au même titre que les Wn convergent

presque sûrement vers W, nous avons pour tout u l’existence presque sûre de la limite

Wu := limn→∞ ∑

|v|=nCuv1Cuv1v2 ...Cuv. (5.154)

On remarquera que W∅ = W.

Maintenant, définissons pour tout u ∈ ∂U , le bord de l’arbre d’Ulam constitué desmots de longueur infinie,

W(ω, u) := W∅(ω) = W(ω), (5.155)

C1(ω, u) := Cu1(ω), (5.156)

W1(ω, u) := Wu1(ω). (5.157)

Ce sont des applications mesurables définies sur Ω× ∂U muni de la tribu produit F ×B(∂U ) où B(∂U ) désigne la tribu borélienne de ∂U (pour la métrique sur ∂U utilisée parLiu [13]).

Toutes ces définitions nous donne l’égalité suivante

W(ω, u) = C1(ω, u)W1(ω, u) + B1(ω, u) (5.158)

où B1(ω, u) := ∑∞j=1 CjWj1u1 6=j.

Introduisons Q la mesure de Peyrière sur Ω× ∂U définie par

∀A ∈ F × B(∂U ), Q(A) = E

[∫∂U

1A(ω, u)µω(du)]

(5.159)

où µω est l’unique mesure de Borel (aléatoire) sur ∂T(ω) (bord de l’arbre engendré parla MAB) telle que µω(v ∈ ∂T(ω) : u ≤ v) = YuWu, prolongée à ∂U par restriction à∂T(ω).Comme E[W] = 1, Q est une probabilité. Nous noterons EQ[.] les espérances prises parrapport à cette nouvelle probabilité.Usant des formules fournies par le lemme 4.1 de [13] et sous réserve de vérifier leshypothèses du théorème 5.30, nous avons que

EQ

[Cκ−1

1

]= E

[∞

∑i=1

Cκi

]= 1 et EQ

[Cκ−1

1 log+(C1)]= E

[∞

∑i=1

Cκi log+(Ci)

]< ∞.

(5.160)Ceci implique que W ∈ Lκ−1(P) et B1 ∈ Lκ−1(Q). Alors le théorème 5.9 peut s’appliquerpour donner le résultat suivant

Page 111: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

108 CHAPITRE 5. MÉMOIRE DE MASTER 2

Théorème 5.31. Sous les hypothèses du théorème 5.30,

Q(W > t)tκ−1 ∼EQ

[(B1 + C1W1)

κ−1 − (C1W1)κ−1]

(κ − 1)EQ

[Cκ−1

1 log(C1)] (t→ ∞) (5.161)

Le lemme 4.3(i) de [13] permet alors de trouver l’asymptotique de la queue de Wsous la probabilité P de départ :

Théorème 5.32. Sous les hypothèses du théorème 5.30

P(W > t)tκ ∼ dκ − 1

κ(t→ ∞) (5.162)

d =EQ

[(B1 + C1W1)

κ−1 − (C1W1)κ−1]

(κ − 1)EQ

[Cκ−1

1 log(C1)] ∈ [0, ∞[ (5.163)

5.4.3 Discussion sur les deux approches

Avec les mêmes hypothèses, les théorèmes 5.30 et 5.32 aboutissent à deux expres-sions de la constante H quelque peu différentes. Fort heureusement, nous pouvons vé-rifier que l’expression obtenue en suivant la méthode de réduction de Liu est la mêmeque si l’on applique le théorème de Jelenkovic et Olvera-Cravioto. Pour ce faire, énon-çons les règles de calcul du lemme 4.1 de [13].

Lemme 5.33. W1 est Q-indépendant de (C1, B1) et a la loi de W. De plus, pour toute fonctionsboréliennes positives f , g définies sur R et h définie sur R2, nous avons

EQ[

f (C1)]= E

[N

∑i=1

f (Ci)Ci

], (5.164)

EQ[

f (B1)]= E

[N

∑k=1

Ck f

(∑

1≤i 6=k≤NCiWi

)], (5.165)

EQ[h(C1, B1)

]= E

[N

∑k=1

Ckh

(Ck, ∑

1≤i 6=k≤NCiWi

)], (5.166)

EQ[g(W1)

]= E [g(W)W] = EQ

[g(W)

]. (5.167)

Page 112: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

5.4. APPLICATION À LA MARCHE ALÉATOIRE BRANCHANTE 109

Nous sommes alors en mesure de faire le calcul suivant :

d =EQ

[(B1 + C1W1)

κ−1 − (C1W1)κ−1]

(κ − 1)EQ

[Cκ−1

1 log(C1)]

=EQ

[Wκ−1]−EQ

[(C1W1)

κ−1](κ − 1)E

[∑∞

i=1 Cκi log(Ci)

]=

EQ[Wκ−1]−E

[∑∞

i=1 Cκi Wκ

i]

(κ − 1)E[∑∞

i=1 Cκi log(Ci)

]=

E[(∑∞

i=1 CiWi)κ −∑∞

i=1 Cκi Wκ

i]

(κ − 1)E[∑∞

i=1 Cκi log(Ci)

] ,

donc nous avons biend

κ − 1κ

= H. (5.168)

Nous voilà rassurés.

Ainsi, réduire l’équation (5.142) à une équation affine fournit tout de même, aprèsquelques calculs supplémentaires, une expression de la constante qui est la même quecelle obtenue en travaillant avec l’équation non-modifiée. On peut arguer que cette ré-duction ne demande pas toute la théorie développée dans le chapitre 5.3, ceci nécessi-tant à la place un changement de probabilité certes non-trivial mais qui permet de seramener à ce qui a été fait dans le chapitre 5.2. Malheureusement l’expression brute dela constante obtenue par la méthode de réduction n’est pas pratique à manipuler car onne connait a priori que les moments des Ci et de W sous la probabilité de départ. Je-lenkovic et Olvera-Cravioto indiquent d’ailleurs à juste titre dans [9] que leur constanteest plus explicite que celle obtenue par Liu dans [13]. Il est aussi bon de noter que, aumême titre que les résultats généraux énoncés par Goldie et Kévei, Jelenkovic et Olvera-Cravioto donnent des résultats plus généraux que la simple application à la queue dessolutions d’équations de point fixe car on ne suppose pas immédiatemment que R estsolution. De même, l’équation vérifiée par la limite des martingales de la MAB n’estpas la seule équation de point fixe du type décrit par Jelenkovic et Olvera-Cravioto quigagnent encore en généralité.

Page 113: Mémoire de Magistère de Mathématiques Une rétrospective sur … · 2020-03-02 · sait de travailler autour d’un challenge en ligne sur le site kaggle qui visait à analyser

Bibliographie

[1] S. Asmussen, S. Foss & D. Korshunov, "Asymptotics for sums of random variableswith local subexponential behaviour", J. Theoret. Probab. 16 (2003), no. 2, 489-518.

[2] K. B. Athreya, D. McDonald & P. Ney, "Limits theorems for semi-Markov processesand renewal theory for Markov chains", 1978, Ann. Probab. 6, 788-797.

[3] Buraczewski, D., Damek, E., & Mikosch, T. (2016). Stochastic models with power-law tails : the equation X= AX+ B. Springer.

[4] R. Durrett & T. M. Liggett, "Fixed Points of the Smoothing Transformation", Zeit-schrift für Wahrscheinlichkeitstheorie und verwandte Gebiete 64, 275-301, Springer-Verlag, 1983.

[5] W. Feller, An Introduction to Probability Theory and Its Applications 2, 1971, deuxièmeédition, Wiley, New-York.

[6] C. M. Goldie, "Implicit Renewal Theory and Tails of Solutions of Random Equa-tions", The Annals of Applied Probability, February 1991, Vol 1, No.1, 126-166.

[7] R. Holley, T. M. Liggett, "Generalized Potlach and Smoothing Processes", Z. fürWahrscheinlichkeitstheorie verw. Gebiete, 55, 165-195, (1981).

[8] P. R. Jelenkovic & M. Olvera-Cravioto, "Implicit Renewal Theorem for Trees withGeneral Weights", October 19, 2011, arXiv :1012.2165v2.

[9] P. R. Jelenkovic & M. Olvera-Cravioto, "Implicit Renewal Theory and Power Tailson Trees", December 25, 2013, Applied Probability Trust.

[10] H. Kesten & R. A. Maller, "Two renewal theorems for general random walks ten-ding to infinity", Probab. Theory Related Fields 106 (1996), no. 1, 1-38.

[11] P. Kevei, "A note on the Kesten-Goldie theorem", December 24, 2015,arXiv :1512.07262v1.

[12] P. Kevei, "A note on the Kesten-Grincevicius-Goldie theorem", 2016, Electronic Com-munications in Probability 21 (2016), No. 51, 1-12.

[13] Q. Liu, "On generalized multiplicative cascades", Stochastic Process. Appl., 86 :263-286, 2000.

[14] Shi, Z. (2016). Branching Random Walks : École d’Été de Probabilités de Saint-Flour XLII-2012 (Vol. 2151). Springer.

[15] F. Spitzer, "Infinite systems with locally interacting components", Ann. Probab. 1981,Vol 9, No 3, 349-364.

110