Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

102
Cours de gestion des risques d’assurances et de th´ eorie de la ruine St´ ephane Loisel ISFA, 2005-2006

Transcript of Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Page 1: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Cours de gestion des risquesd’assurances et de theorie de la

ruine

Stephane Loisel

ISFA, 2005-2006

Anne et Stef
Barrer
Anne et Stef
Rectangle
Page 2: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Table des matieres

I Modelisation de la charge sinistre : du modele indi-viduel au modele collectif 5

1 Modele individuel 7

2 Modele collectif 92.1 Modele collectif . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.2 Lois utilisees pour le nombre de sinistres . . . . . . . . . . . . . . 92.3 Lois composees . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102.4 Rappels sur les transformees de Laplace, et les fonctions generatrices 11

2.4.1 Definitions et premieres proprietes . . . . . . . . . . . . . 112.4.2 Moments, fonctions generatrices, transformee de Laplace . 132.4.3 Injectivite et inversion . . . . . . . . . . . . . . . . . . . . 162.4.4 Independance et caracterisation de l’independance . . . . 172.4.5 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . 192.4.6 Lois composees . . . . . . . . . . . . . . . . . . . . . . . . 19

2.5 Famille et algorithme de Panjer . . . . . . . . . . . . . . . . . . . 202.5.1 Etude et caracterisation des distributions verifiant la re-

lation de recurrence de Panjer . . . . . . . . . . . . . . . . 202.5.2 Algorithme de Panjer . . . . . . . . . . . . . . . . . . . . 212.5.3 Comment utiliser l’algorithme de Panjer pour des v.a. po-

sitives ou nulles generales ? . . . . . . . . . . . . . . . . . 222.6 Heterogeneite dans le modele collectif, lois melanges . . . . . . . 22

2.6.1 Proprietes generales des lois melange . . . . . . . . . . . . 222.6.2 Lois Poisson-melange . . . . . . . . . . . . . . . . . . . . . 242.6.3 Melange de lois exponentielles . . . . . . . . . . . . . . . . 272.6.4 Lois composees melange . . . . . . . . . . . . . . . . . . . 28

3 Approximation du modele individuel par le modele collectif 30

4 Complements sur la charge sinistre 314.1 Normal Power, Gamma de Bowers . . . . . . . . . . . . . . . . . 314.2 FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

1

Page 3: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

II Processus de Poisson 32

5 Rappels autour de la loi exponentielle 345.1 Definition et premieres proprietes . . . . . . . . . . . . . . . . . . 345.2 Minimum de variables aleatoires exponentielles independantes . . 355.3 Lois exponentielles multivariees . . . . . . . . . . . . . . . . . . . 375.4 Sommes de variables aleatoires exponentielles independantes . . . 38

6 Processus de Poisson : definition et premieres proprietes 416.1 Processus de Poisson homogene . . . . . . . . . . . . . . . . . . . 416.2 Processus de Poisson non homogene . . . . . . . . . . . . . . . . 48

7 Processus de Poisson compose 50

8 Proprietes de Markov et martingales 528.1 Proprietes de Markov . . . . . . . . . . . . . . . . . . . . . . . . 528.2 Martingales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

9 Thinning, superposition et conditionnement 539.1 Thinning et superposition . . . . . . . . . . . . . . . . . . . . . . 539.2 Conditionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

9.2.1 Cas d’un processus de Poisson homogene . . . . . . . . . 549.2.2 Cas d’un processus de Poisson inhomogene . . . . . . . . 55

III Theorie de la ruine 569.3 Methodes de martingales . . . . . . . . . . . . . . . . . . . . . . . 61

10 Quatre differents concepts de ruine 6410.1 La ruine ”vue par les praticiens” . . . . . . . . . . . . . . . . . . 64

10.1.1 Ruine economique . . . . . . . . . . . . . . . . . . . . . . 6410.1.2 Ruine reglementaire . . . . . . . . . . . . . . . . . . . . . 64

10.2 La ruine ”vue par les academiques” . . . . . . . . . . . . . . . . . 6410.2.1 Ruine en temps continu . . . . . . . . . . . . . . . . . . . 6410.2.2 Ruine a l’inventaire . . . . . . . . . . . . . . . . . . . . . 6410.2.3 Lien entre ruine et ruine a l’inventaire . . . . . . . . . . . 64

11 Processus de renouvellement 6511.0.4 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . 6511.0.5 Some Elementary Results . . . . . . . . . . . . . . . . . . 6511.0.6 Asymptotic Results . . . . . . . . . . . . . . . . . . . . . 66

12 Modele de Cramer-Lundberg 6812.1 Classical risk process . . . . . . . . . . . . . . . . . . . . . . . . . 68

13 Probabilite de ruine en temps infini 70

2

Page 4: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

14 Probabilite de ruine en temps fini 71

15 Methodes de martingales, temps de ruine 72

16 Mesures de risque etudiees en theorie de la ruine 73

17 Problemes de reassurance et d’investissements optimaux, controlestochastique 74

18 Processus de Levy, resultats connus sur les temps d’atteinte etles extrema 75

19 Versement de dividendes jusqu’a la ruine 76

20 Modeles fluides et lien avec les files d’attente 77

IV Mesures de risque 78

21 Typologie moderne des risques 79

22 Introduction 80

23 Mesures de risque coherentes 81

24 VaR et autres mesures de risques 82

25 Mesures de risques agreges 83

26 Mesures de risques dynamiques 8426.1 Risques d’assurance multiples . . . . . . . . . . . . . . . . . . . . 8426.2 Risque de marche . . . . . . . . . . . . . . . . . . . . . . . . . . . 8426.3 Risque de credit . . . . . . . . . . . . . . . . . . . . . . . . . . . 8426.4 Risque operationnel . . . . . . . . . . . . . . . . . . . . . . . . . 8526.5 Risque de modele et risque de parametre . . . . . . . . . . . . . . 8726.6 Risque de derive . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

V Dependance stochastique 88

27 Introduction 89

28 Copulas ou coupleurs 9028.1 Definition des coupleurs et theoreme de Sklar . . . . . . . . . . . 9028.2 Copules a densite et densites conditionnelles . . . . . . . . . . . . 9028.3 Familles de copules usuelles . . . . . . . . . . . . . . . . . . . . . 9028.4 Inference statistique des copules . . . . . . . . . . . . . . . . . . . 9028.5 Copules archimediennes . . . . . . . . . . . . . . . . . . . . . . . 90

3

Page 5: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

29 Concepts et mesures de dependance 91

30 Modeles a chocs communs 92

31 Modeles a environnement markovien, modeles a facteurs 93

32 Dependance des extremes 94

VI Appendice, pense-bete 95

33 Lois usuelles 9633.1 Lois de probabilite usuelles . . . . . . . . . . . . . . . . . . . . . 96

34 Types de convergence 9834.1 Convergence en Loi . . . . . . . . . . . . . . . . . . . . . . . . . . 9834.2 Convergence presque sure et convergence en probabilite . . . . . 10334.3 Convergence en moyenne . . . . . . . . . . . . . . . . . . . . . . . 111

35 Theoremes de convergence 11535.1 Loi des grands nombres . . . . . . . . . . . . . . . . . . . . . . . 11535.2 Theoreme central limite . . . . . . . . . . . . . . . . . . . . . . . 11835.3 Convergence de la fonction de repartition empirique . . . . . . . 122

36 Esperance conditionnelle 12336.1 Definition of Conditional Expectation . . . . . . . . . . . . . . . 123

36.1.1 General definition . . . . . . . . . . . . . . . . . . . . . . 12336.1.2 Couples of random variables with p.d.f. . . . . . . . . . . 125

36.2 Properties of Conditional Expectation . . . . . . . . . . . . . . . 12636.2.1 Conditional expectation . . . . . . . . . . . . . . . . . . . 12636.2.2 Conditional variance . . . . . . . . . . . . . . . . . . . . . 12836.2.3 Compound distributions . . . . . . . . . . . . . . . . . . . 129

37 Citations (a dispatcher) 130

VII Bibliographie 131

4

Page 6: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Premiere partie

Modelisation de la chargesinistre : du modeleindividuel au modele

collectif

5

Page 7: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Pour representer et quantifier le montant cumule de tous les sinistres a payersur une periode donnee, l’actuaire peut utiliser le modele individuel (voir sec-tion 1) ou le modele collectif (voir section 2). L’avantage du modele individuelest qu’il permet de tenir compte de l’heterogeneite du portefeuille. En effet,si tous les contrats ont les memes caracteristiques, alors le modele individuelcorrespond exactement au modele collectif, et fait intervenir les distributionscomposees (voir section 2.3). Le modele collectif peut egalement permettre detenir compte de l’heterogeneite du portefeuille en utilisant les lois melanges etles lois melanges composees (voir section 2.6).

6

Page 8: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 1

Modele individuel

Le modele individuel vise a representer le montant total des sinistres a payerpar la compagnie d’assurances sur une periode donnee (typiquement un an) ensommant assure par assure les montants des sinistres subis par chaque individusur cette periode. Soit n le nombre d’assures, aussi appele l’effectif du portefeuilled’assurances, ou encore le nombre de polices. Soit Ii la variable aleatoire deBernouilli qui vaut 1 si au moins un sinistre a touche la i-eme police et 0 sinon,et Wi la variable aleatoire a valeurs dans R+ representant le montant total deces eventuels sinistres (qui peut etre decrite soit directement, soit a l’aide dumodele collectif decrit dans la section 2). La charge sinistre totale S sur laperiode consideree est alors donnee par la formule

S =n∑i=1

Ii.Wi.

En pratique, il est tres difficile de mener les calculs des que le nombre de policesest eleve, meme sous des hypotheses restrictives. Le plus souvent, on supposeraque les Ii sont i.i.d., avec P (I1 = 1) = p, que les Wi sont i.i.d., et que les Wi

sont independants des Ii. Dans ce cas, la fonction de repartition de S est donneepar la formule classique des convolutions :

FS(x) =n∑k=0

Cknpk(1− p)n−kF ∗kW (x),

ou F ∗kW est la fonction de repartition de W1 + · · ·+Wk et verifie la relation derecurrence

F∗(k+1)W (x) =

∫ x

0

F ∗kW (x− y)dFW (y).

Remarquons queCknp

k(1− p)n−k

represente ici la probabilite que k contrats parmi n aient subi au moins unsinistre sur la periode consideree. Dans ce cas,

E(S) = npE(W1) et Var (S) = np2Var (W1) + np(1− p) [E(W1)]2.

7

Page 9: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Lorsque W suit un certain type de lois, comme les lois Gamma, il est possibled’utiliser les proprietes d’additivite de ces lois pour obtenir directement les F ∗kWpour k ≥ 1. Par exemple, si W ∼ Γ(α, λ), dont la densite est donnee parl’equation 5.1, alors F ∗kW est la fonction de repartition d’une loi Gamma deparametres (kα, λ). Ce resultat se generalise si l’independance est verifiee, memesi les Wi ∼ Γ(αi, λ), avec des parametres αi differents, mais le meme parametreλ.Si les Ii sont independants des Wi, dans le cas general, on peut juste ecrire :

FS(x) =1∑

i1=0

. . .1∑

in=0

P (I1 = i1, . . . , In = in)P (i1W1 + · · ·+ inWn ≤ x), (1.1)

ce qui correspond a une somme de 2n termes, impossible a utiliser. Dans l’exemple,si Wi ∼ Γ(αi, λ), avec des parametres αi differents, mais le meme parametre λ,alors

P (i1W1 + · · ·+ inWn ≤ x)

est la fonction de repartition d’une loi

Γ

n∑j=1

ijαi, λ

.

Si les Wi sont i.i.d., on peut simplifier (1.1) en

FS(x) =n∑k=0

P (N = k)F ∗kW (x),

ou N est la variable aleatoire correspondant au nombre de polices (parmi n)ayant subi au moins un accident. Le modele individuel etant souvent difficile autiliser numeriquement, on lui prefere souvent le modele collectif, dans lequel leN n’est plus le nombre de polices ayant au moins un accident, mais le nombretotal d’accidents, sans distinguer police par police. Avant de passer a l’etude dumodele collectif, mentionnons l’existence de l’algorithme de De Pril, qui permettheoriquement d’obtenir la loi de S, mais qui est en pratique tres peu utilise(voir Partrat et Besson (2004) page 129, et exercice en TD).

8

Page 10: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 2

Modele collectif

2.1 Modele collectif

Le modele collectif consiste a approcher le modele individuel non plus enregardant si chaque police fait defaut ou pas, mais en comptabilisant un nombrealeatoires de montants de sinistres i.i.d.. On definit ainsi la charge sinistre totalesur une periode T dans le modele collectif par la variable aleatoire positive

Scoll =N∑i=1

Wi,

ou N est une variable aleatoire a valeurs dans N representant le nombre desinistres sur la periode T , et pour i ≥ 1, Wi est une variable aleatoire a va-leurs dans R+ representant le cout du i-eme sinistre, avec la convention selonlaquelle la somme est nulle si N = 0. Les (Wi)i≥1 sont supposes independantset identiquement distribues, et independants de N (independance frequences-couts). Ces deux hypotheses sont contestables, le fait que les montants soientrepresentes par des variables identiquement distribuees n’est possible que si lefacteur d’actualisation peut etre neglige, et s’il n’y a pas de risque de derive ducout des sinistres ; l’independance frequences-couts est valable si le portefeuilleest homogene. Si le portefeuille ne l’est pas (par exemple geographiquement),alors on peut tenir compte de cette heterogeneite par des lois melanges et com-posees melanges (voir section 2.6). Toutefois ces hypotheses certes restrictivesfacilitent enormement les calculs grace aux resultats sur les lois composees (voirsection 2.3).

2.2 Lois utilisees pour le nombre de sinistres

La loi de Poisson a le double avantage d’etre compatible a une etude dyna-mique de la survenance des sinistres (voir le chapitre 6) et d’apparaıtre natu-rellement comme limite de lois binomiales (voir page 134 de Durrett (1999)).

9

Page 11: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Neanmoins, la surdispersion due a l’heterogeneite du portefeuille peut conduirea lui preferer d’autres types de lois (voir le chapitre 2.6 de ce document et lechapitre Modelisation de la frequence des sinistres du cours de Christian Par-trat).

2.3 Lois composees

Soit

S =N∑i=1

Wi,

ou les Wi sont des v.a.i.i.d. et independantes de N , et ou S = 0 si N = 0. Ily a trois types de resultats principaux a connaıtre sur les distributions com-posees : la formule (2.1) qui donne la fonction de repartition de S, les formulessur les moments, et la formule sur les transformees de Laplace et les fonctionsgeneratrices (voir section 2.4.6 apres un rappel sur les transformees de Laplace,de Fourier et sur les fonctions generatrices), qui permet d’ailleurs de retrouverles formules sur les moments par derivations successives. Dans certains cas, ondispose de methodes numeriques pour accelerer les calculs (algorithme de Panjer(voir section 2.5), FFT (voir section 4.2) ou approximations du type Gamma ouNormal Power (voir section 4.1)).Commencons par ecrire la fonction de repartition de S en conditionnant par lenombre de sinistres N :

FS(x) =∑n≥0

P (N = n)F ∗nW (x), (2.1)

ou F ∗nW est la fonction de repartition de W1 + · · ·+Wn et verifie la relation derecurrence

pour n ≥ 0, F∗(n+1)W (x) =

∫ x

0

F ∗nW (x− y)dFW (y).

On obtient egalement par conditionnement sur N les premiers moments de S :

E(S) = E (E [S | N ]) = E (N.E(W1)) = E(N).E(W1),

et

Var (S) = E (Var [S | N ]) + Var (E [S | N ])= E (N.Var (W1)) + Var (N.E(W1))

Var (S) = E(N).Var (W1) + [E(W1)]2.Var (N) (2.2)

Cas particulier important : loi Poisson-composee.Si N ∼ Poi (λ), alors E(N) = Var (N) = λ, et la formule (2.2) se simplifie en

Var (S) = λE(W 2

1

).

10

Page 12: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

D’une maniere generale, la formule (2.2) decompose la variance de S en deuxtermes : le premier correspond a la variabilite des couts des sinistres autourdu cout moyen, le second correspond a la variabilite du nombre de sinistresautour de la moyenne. Elle fait appel a la notion de variance conditionnelle (voirdefinition VI.4 en appendice) et a la formule de decomposition de la variance(voir section 36.2 en appendice). Ces formules peuvent aussi se retrouver graceaux fonctions generatrices (voir section 2.4.6). Nous devons d’abord revenir surles definitions et les proprietes de ces objets.

2.4 Rappels sur les transformees de Laplace, etles fonctions generatrices

2.4.1 Definitions et premieres proprietes

La fonction caracteristique d’une variable aleatoire est definie a partir de latransformee de Fourier de sa loi. Il convient de rappeler quelques proprietes de latransformee de Fourier, dont la definition peut varier d’une source a l’autre, sanschanger l’essence des resultats qui s’y rapporte. Ces resultats sur la transformeede Fourier sont principalement

– son injectivite, qui va nous permettre de caracteriser une loi par sa fonc-tion caracteristique,

– le fait que la transformee de Fourier d’un produit de convolution est leproduit des transformees de Fourier, qui implique que la fonction ca-racteristique de la somme de deux v.a. independantes est le pro-duit de leurs fonctions caracteristiques (associe au point precedent,cela nous donne d’ailleurs un critere d’independance, et un moyen simplede demontrer la stabilite d’une famille de lois (par exemple Poisson ounormale) par l’addition),

– une formule d’inversion qui nous permet de retrouver la loi quandon connaıt la transformee de Fourier, et qui peut fournir des methodesnumeriques (nous reviendrons sur les methodes FFT (Fast Fourier Trans-form) au chapitre 4.2),

– le fait que les moments de la variable aleatoire s’obtiennent enfonction des derivees successives de la fonction caracteristique.Ces moments (voir section 2.4.2 pour un rappel sur ce sujet), ainsi queles cumulants, peuvent etre obtenus directement en derivant des fonctionsconstruites a partir de la fonction caracteristique, ce qui nous ameneraa les considerer (fonction generatrice des moments, des cumulants, desprobabilites, transformee de Laplace). Ces objets ne seront pas definissur le meme domaine, mais dans les conditions habituelles verifieront lesprincipes d’independance (voir recapitulatif dans le theoreme I.8) et de ca-racterisation. On choisira l’une ou l’autre selon le probleme (v.a. a valeursdans N ou continues, les quantites recherchees sont les moments centresou factoriels, ...), mais les idees generales restent les memes.

11

Page 13: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Nous rappelons ici uniquement les resultats dont nous aurons besoin. Pour plusde details sur les transformees de Fourier, et plus largement sur l’analyse reelle etcomplexe, consulter le livre de Rudin (1987). Il est aussi utile de se rememorer letheoreme de transfert et la proposition I.1 (particulierement dans le sens 1 ⇒ 4),que nous utiliserons tres bientot (respectivement des la definition I.2 et des laproposition I.5).

Theoreme I.1 Theoreme de transfert, ou de la loi imageSoit (Ω,A, P ) un espace probabilise et X une variable aleatoire reelle. On notePX la probabilite image de P par X, definie sur (R,B) par PX(B) = P (X−1(B)), ∀B ∈B. Soit g une variable aleatoire reelle definie sur (R,B). g(X) est integrable parrapport a P si et seulement si g est integrable par rapport a PX et on a alors :

EP [g(X)] = EPX [g].

Proposition I.1 Soit X et Y deux variables aleatoires definies sur un espaceprobabilise (Ω,A, P ). Les quatre propositions suivantes sont equivalentes :

1. X et Y sont independantes.2. Pour toutes fonctions reelles f et g mesurables et positives, EP [f(X)g(Y )] =

EP [f(X)]EP [g(Y )].3. Pour toutes fonctions reelles f et g mesurables et bornees, EP [f(X)g(Y )] =

EP [f(X)]EP [g(Y )].4. Pour toutes fonctions complexes mesurables f et g telles que |f(X)| et|g(Y )| sont bornes, EP [f(X)g(Y )] = EP [f(X)]EP [g(Y )].

Definition I.1 Transformee de Fourier d’une mesureSoit P une mesure de probabilite definie sur (R,B). On appelle transformee

de Fourier de la mesure P , la fonction ϕ definie sur R, a valeur dans C, definiepar : ϕ(t) =

∫eitxdP (x).

Remarques :– si on note f , la fonction reelle mesurable, a valeurs dans C, qui a x as-

socie eitx, on peut reecrire∫eitxdP (x) comme EP (f) avec les notations

probabilistes.– f etant continue, c’est une v.a. sur (R,B).– On remarque que | eitx |= 1 et donc

∫| eitx | dP (x) = 1. x −→ eitx est

donc donc P -integrable et la transformee de Fourier ϕ(t) est definie entout t ∈ R.

Definition I.2 Fonction caracteristiqueSoit (Ω,A, P ) un espace probabilise et X une variable aleatoire reelle definiesur (Ω,A). On definit la fonction caracteristique de X, comme etant latransformee de Fourier de la mesure image de P par X, PX , et on note ϕX(t) =∫eitxdPX(x) = EP (eitX).

Proposition I.2 Soit (Ω,A, P ) un espace probabilise et X une variable aleatoirereelle definie sur (Ω,A). La fonction caracteristique de X, ϕX(t)

12

Page 14: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

1. est definie sur R,2. verifie ϕX(0) = 1,3. et pour tout t ∈ R, | ϕX(t) |6 1,4. est uniformement continue :

∀ε > 0,∃δ > 0,∀s, t ∈ R, |t− s| < δ ⇒| ϕX(t)− ϕX(s) |< ε.

5. De plus, pour tout t ∈ R, ϕX(−t) = ϕX(t),6. et pour tous a, b, t ∈ R, ϕaX+b(t) = eitbϕX(at).

2.4.2 Moments, fonctions generatrices, transformee de La-place

Theoreme I.2 Fonction caracteristique et momentsSoit X une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P ).Si E [| X |n] <∞, la fonction caracteristique ϕX(t) est n fois derivable et :

ϕ(k)X (0) = ikE(Xk), ∀k 6 n.

La reciproque du theoreme I.2 est vrai pour n pair uniquement. Pour n im-pair, si ϕX derivable n fois, alors ϕX derivable n − 1 fois, et comme n − 1 estpair, on peut utiliser la reciproque du theoreme I.2 avec n− 1.

On a le meme genre de resultat avec la transformee de Laplace, et avecd’autres concepts qu’on peut choisir d’utiliser en fonction du probleme. L’outilcle de ce paragraphe est la derivation sous le signe somme.

Definition I.3 Transformee de Laplace d’une variable aleatoire SoitX une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P ). Onappelle transformee de Laplace de la loi de X (ou de la mesure de probabilitePX), la fonction reelle MX , definie par MX(t) = EP

[e−tX

]=∫e−txdPX(x).

MX est definie pour t tel que l’esperance precedente est finie.

Propriete I.1 Soit X une variable aleatoire reelle definie sur un espace pro-babilise (Ω,A, P ). La transformee de Laplace MX est definie sur un intervallecontenant 0.De plus, si X est a valeurs dans R+, alors l’ensemble de definition de MX

contient R+.

La transformee de Laplace est un outil indispensable en theorie de la ruine,on le verra par exemple dans l’etude du modele de Cramer-Lundberg (voirsection12).

Definition I.4 Fonction generatrice des momentsSoit X une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P ).On appelle fonction generatrice des moments de la variable aleatoire X, lafonction MX(t) definie par MX(t) = EP

[etX], pour tout t ∈ R tel que etX est

P -integrable.

13

Page 15: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

La fonction generatrice des moments est s’obtient de maniere immediate apartir de la transformee de Laplace

M(s) = L(−s),

et on peut transposer les proprietes deja presentees pour la transformee deLaplace.

Propriete I.2 Si X est une variable aleatoire reelle positive, et si MX (ouLX) reste finie sur un intervalle ouvert contenant 0, alors MX est infinimentderivable en zero, X admet des moments a tous les ordres et

EP [Xr] = M(r)X (0) = (−1)rL(r)

X (0).

Definition I.5 Fonction generatrice des cumulantsSoit X une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P ).On appelle fonction generatrice des cumulants de la loi de X, la fonction KXdefinie par KX(t) = logEP

[etX]pour tout t ∈ R, tel que l’esperance est definie.

La fonction generatrice des cumulants est simplement le logarithme de lafonction generatrice des moments. Les “cumulants” interviennent dans le developpementen serie (quand celui ci existe) de KX (voir page 15).

Definition I.6 seconde fonction caracteristiqueSoit X une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P ).On appelle seconde fonction caracteristique de la loi de X, la fonction par t −→logϕX(t) (il s’agit du logarithme complexe).

Definition I.7 fonction generatrice (des probabilites)Soit X une variable aleatoire definie sur un espace probabilise (Ω,A, P ). Lafonction generatrice de X au point u est definie par

GX(u) = EP[uX].

Remarquons que pour s ∈ R tel que MX(s) existe, alors GX (es) existe et

MX(s) = GX (es) .

Propriete I.3 Soit N une variable aleatoire definie sur un espace probabilise(Ω,A, P ) et a valeurs dans N. Alors

GN (u) =+∞∑n=0

P (N = n)un

est une serie entiere de rayon de convergence superieur ou egal a 1, qui ca-racterise la loi de N , et telle que pour n ≥ 0,

P (N = n) =G

(n)N (0)n!

.

Ces outils permettent d’obtenir differents renseignements sur la loi de lavariable aleatoire en les derivant. La propriete precedente permet d’obtenir desprobabilites. Voyons donc quel type de moment on peut obtenir, et comment.

14

Page 16: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Petits rappels sur les differents types de moments

On peut etre amene a utiliser differents types de moments, les momentssimples, centres ou factoriels, voire les cumulants.

– Pour k ∈ N, le moment simple d’ordre k d’une variable aleatoire X, notemk, est defini par

mk = E (X)k .

Remarquons que m0 = 1, et que m1, note aussi m, est egal a E(X). Lemoment simple d’ordre k, lorsqu’il existe, est egal a la derivee k-eme enzero de la fonction generatrice des moments d’apres la propriete I.2.

– Pour k ≥ 1, le moment centre d’ordre k d’une variable aleatoire X, noteµk, est defini par

µk = E (X −m)k .

Remarquons que µ1 = m − m = 0, et que µ2 = Var (X). On peut lesobtenir a partir des moments simples par la formule

µk =k∑j=0

(−1)k+lClkmlmk−l.

– Les cumulants, notes κr, sont les coefficients du developpement en serieentiere en zero (qui existe des que MX est definie sur un voisinage de 0) dela fonction generatrice des cumulants (voir definition I.5), qui est definiepar

KX(t) = log (MX(t)) .

En cas d’existence, on a donc

κr = K(r)X (0).

En particulier,

κ1 = m, κ2 = µ2 = Var (X), κ3 = µ3, κ4 = µ4 − 3µ22. (2.3)

– Pour une variable aleatoire N a valeurs dans N (representant par exemplele nombre de sinistres sur une periode donnee), le moment factoriel d’ordrek, note µ(k), est defini par

µ(k) = E (X(X − 1) . . . (X − k + 1)) .

Il est possible de recuperer les moments simples a partir des momentsfactoriels grace aux nombres de Stirling de seconde espece :

mk =k∑j=1

S(k, j)µ(j),

15

Page 17: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

ou les nombres de Stirling de seconde espece S(n, k) correspondent auxnombres de partitions de 1, . . . , n en k sous-ensembles non vides, etpeuvent etre obtenus recursivement par :

S(n, k) = S(n− 1, k − 1) + k.S(n− 1, k)S(n, 1) = S(n, n) = 1.

En particulier,

m = µ(1), m2 = µ(1) + µ(2), m3 = µ(1) + 3µ(2) + µ(3),

et m3 = µ(1) + 7µ(2) + 6µ(3) + µ(4).

Rappelons aussi pour n ≥ 0, P (N = n) est donne directement par laderivee n-eme de GN en 0 d’apres la propriete I.3. De plus, lorsque le rayonde convergence de la serie entiereGN (u) est strictement superieur a 1, alorson peut obtenir les moments factoriels de N grace au developpement enserie entiere de GN en 1 (et non plus en 0) :

∀n ∈ N, µ(n) = G(n)N (1).

Pour calculer les moments simples d’une variable aleatoire entiere, lors-qu’on connaıt GN et qu’elle a une expression qui s’y prete, il peut etreplus efficace de deriver plusieurs fois GN en 1 pour obtenir les n premiersmoments factoriels de N , puis d’utiliser les formules avec les nombres deStirling.

2.4.3 Injectivite et inversion

Theoreme I.3 formule d’inversion avec fonction de repartitionSoit P une probabilite sur (R,B) ayant pour transformee de Fourier, ϕ(t) =∫

eitxdP (x). On note F (x) = P (]−∞, x[), la fonction de repartition de P .

1. Soient a et b deux reels (a < b). Alors,

F (b) + F (b+)2

− F (a) + F (a+)2

=12π

limc→∞

∫ c

−c

e−ita − e−itb

itϕ(t)dt.

2. Si F est continue en a et en b, alors,

F (b)− F (a) =12π

limc→∞

∫ c

−c

e−ita − e−itb

itϕ(t)dt.

Theoreme I.4 injectivite de la transformee de Fourier d’une mesurede probabilite

Soit P et Q deux probabilites sur (R,B). Si∫eitxdP (x) =

∫eitxdQ(x), pour

tout t ∈ R (egalite entre les transformees de Fourier), alors P = Q.

16

Page 18: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Corollaire I.1 Soit X et Y , deux variables aleatoires reelles definies sur unespace probabilise (Ω,A, P ). L’egalite entre les fonctions caracteristiques de Xet Y implique que X et Y ont la meme loi, c’est-a-dire que PX = PY .

La fonction caracteristique ϕX caracterise donc X. Il en est de meme pourla transformee de Laplace si elle est definie sur un intervalle contenant 0.

Theoreme I.5 formule d’inversionSoit P une probabilite sur (R,B) ayant pour transformee de Fourier, ϕ(t). Si ϕest integrable par rapport a la mesure de Lebesgue sur R (c’est-a-dire

∫R | ϕ(t) |

dt < ∞), alors P possede une densite p par rapport a la mesure de Lebesgue,cette densite est continue et est donnee par :

p(x) =12π

∫e−itxϕ(t)dt.

2.4.4 Independance et caracterisation de l’independance

Definition I.8 cas multivarieSoit X = (X1, . . . , Xn) un vecteur aleatoire defini sur un espace probabilise

(Ω,A, P ). La fonction caracteristique de X est la fonction complexe, definiepar ϕX(t) = EP

[ei<t,X>

], pour tout t = (t1, . . . , tn) ∈ Rn, ou < t,X >=∑n

i=1 tiXi.

Definition I.9 Transformee de Laplace d’un vecteur aleatoireSoit X = (X1, . . . , Xn) un vecteur aleatoire defini sur un espace probabilise(Ω,A, P ). On appelle transformee de Laplace de la loi de X (ou de la mesure deprobabilite PX), la fonction MX(t) = EP

[e−<t,X>

], pour tout t = (t1, . . . , tn)

tel que l’integrale precedente est definie.

Definition I.10 fonction generatrice des moments d’un vecteur aleatoireSoit X = (X1, . . . , Xn) un vecteur aleatoire defini sur un espace probabilise(Ω,A, P ). On appelle fonction generatrice des moments conjoints du vec-teur aleatoire X, la fonction ϕX(t) definie par ϕX(t1, . . . , tn) = EP

[et1X1+...+tnXn

],

pour tout (t1, . . . , tn) ∈ Rn, tel que et1X1+...+tnXn est P -integrable.

Definition I.11 fonction generatrice d’un vecteur aleatoireSoit X = (X1, . . . , Xn) un vecteur aleatoire defini sur un espace probabilise(Ω,A, P ). La fonction generatrice de X au point (u1, . . . , un) est definie par

GX(u1, . . . , un) = EP[uX1

1 uX22 . . . uXn

n

].

L’injectivite de la transformee de Fourier reste vraie dans le cas vectoriel, cequi fournit le resultat suivant, vrai aussi pour la transformee de Laplace si elleest definie sur un voisinage de 0.

Propriete I.4 Soit X et Y deux vecteurs aleatoires definis sur un espace pro-babilise (Ω,A, P ). Si ϕX = ϕY , alors PX = PY .

17

Page 19: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Propriete I.5 Somme de deux variables independantesSi X et Y sont deux variables aleatoires reelles definies sur un espace probabilise(Ω,A, P ) independantes, alors :

ϕX+Y (t) = ϕX(t)ϕY (t).

La propriete I.5 nous sera tres utile pour etudier les distributions composees, enfournissant entre autres l’argument essentiel a la preuve de la proposition I.3.

Theoreme I.6 fonctions caracteristiques et independanceSoit X = (X1, . . . , Xn) un vecteur aleatoire defini sur un espace probabilise

(Ω,A, P ). Une condition necessaire et suffisante pour que les composantes Xi

soient independantes est que la fonction caracteristique de X, ϕX(t) soit leproduit des fonctions caracteristiques des Xi, ϕXi

(ti), pour tout t = (t1, . . . , tn)de Rn.

Theoreme I.7 fonctions caracteristiques et independanceSoit X et Y deux vecteurs aleatoires definis sur un espace probabilise (Ω,A, P )

a valeurs respectivement dans Rn et Rm. X et Y sont independants si et seule-ment si leur fonction caracteristique conjointe ϕ(X,Y )(u, v) (ou u ∈ Rn etv ∈ Rm) est egale au produit des fonctions caracteristiques de X et de Y ,ϕX(u)ϕY (v), ∀(u, v) ∈ Rn × Rm.

Propriete I.6 lien entre le cas multivarie et le cas univarieSoit X = (X1, . . . , Xn) un vecteur aleatoire a valeurs dans Rn defini sur un

espace probabilise (Ω,A, P ). Alors ϕX(t) = ϕt′X(1).

Terminons par un recapitulatif important :

Theoreme I.8 Soit X et Y deux variables aleatoires definies sur un espaceprobabilise (Ω,A, P ) a valeurs dans R. Lorsque ces quantites existent, si X etY sont independantes, alors

ϕX+Y (t) = ϕX(t).ϕY (t)MX+Y (t) = MX(t).MY (t)LX+Y (t) = LX(t).LY (t)GX+Y (t) = GX(t).GY (t)CX+Y (t) = CX(t) + CY (t).

En particulier, la derniere egalite du theoreme precedent nous permet en iden-tifiant avec les formules (2.3) de retrouver que si X et Y sont independantes,alors Var (X + Y ) = Var (X) + Var (Y ), mais surtout de montrer que

µ3(X + Y ) = µ3(X) + µ3(Y ),

et que cette formule ne se generalise pas pour k ≥ 4.

18

Page 20: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

2.4.5 Lois usuelles

Exemples de fonctions caracteristiques pour des lois usuelles.

Distribution probabilites fonction caracteristique ϕX(t)Binomiale B(n, p) Cknp

kqn−k((1− p) + peit

)nPoisson e−λ λ

k

k! exp[λ(eit − 1

)]Binomiale negative Cr−1

k−1prqk−r, k > r

Distribution densite fonction caracteristique ϕX(t)Uniforme 1I[0,1](x) eit−1

it

Normale centree reduite (2π)−1/2e−x2/2 e−t

2/2

Normale (2πσ2)−1/2e−(x−µ)2/(2σ)2 eiµt−σ2t2/2

Gamma θp

Γ(p)e−θxxp−1

(1

1−θit

)pCauchy 1

π(x2+1) e−|t|

Laplace 12e−|x| 1

1+t2

2.4.6 Lois composees

Proposition I.3 Pour

S =N∑i=1

Yi,

avec les hypotheses d’independance,

MS(s) = GN (MY (s)). (2.4)

On verra egalement des proprietes des fonctions generatrices des lois melanges(voir section 2.6). On en deduit le resultat suivant sur les moments des loiscomposees :

Proposition I.4 (A CORRIGER, faire cas general) Soit

S =N∑i=1

Wi,

Pour r, t > 0, si GW est la fonction generatrice de W1,

h(r, t) = E(rS)

= e−µ(t)(1−GW (r)),

d’ouE (S) =

d

dr

[E(rS)]|r=1

= λtG′W (1) = µ(t)E(W1)

et

V ar (S) =d2

dr2[E(rS)]|r=1

= µ(t)E(W 2

1

).

19

Page 21: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

2.5 Famille et algorithme de Panjer

On demontre ici sous la forme d’un probleme que les lois verifiant la relationde Panjer (2.5) sont exactement les lois binomiales, de Poisson, et binomialesnegatives, et que pour les distributions composees, i.e. de variables aleatoires dutype

S =N∑i=1

Yi,

lorsque N appartient a la famille de Panjer, et que les Yi sont a valeurs dansdN∗, ou d > 0, on peut calculer directement avec l’algorithme de Panjer (2.6)les masses de probabilite de S.

2.5.1 Etude et caracterisation des distributions verifiantla relation de recurrence de Panjer

On represente le nombre de sinistres rencontres par une compagnie d’as-surances sur une periode par une variable aleatoire discrete N, a valeurs dansN, et decrite par les pk = P (N = k) pour k ∈ N. Parmi ces distributions ons’interessera ici a celles verifiant la relation de recurrence de Panjer :

∃a < 1, b ∈ R, ∀k ∈ N∗, pk =(a+

b

k

)pk−1 (2.5)

Le but de cette partie est de caracteriser les distributions verifiant (2.5).Rappelons que la loi de Poisson de parametre λ est decrite par

∀k ∈ N, pk = e−λλk

k!,

et que la loi binomiale de parametres n ∈ N∗ et p ∈]0, 1[ est decrite par

∀0 ≤ k ≤ n, pk =(n

k

)pk(1− p)n−k

et pk = 0 pour k > n.

1. Montrer que si N verifie (2.5) et que a = 0, alors N suit une loi de Poissondont on precisera le parametre.

2. On definit la distribution binomiale negative de parametres α > 0 etp ∈]0, 1[ par

∀k ∈ N, pk =(α+ k − 1

k

)(1− p)αpk

3. Calculer sa moyenne et sa variance en fonction de α et de p.

4. Comment pouvez-vous interpreter cette distribution a partir d’une experiencerealisee avec succes avec probabilite p ?

20

Page 22: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

5. Quelle distribution obtient-on lorsque α = 1 ?6. Montrer que dans le cas α = 1 la distribution obtenue est sans memoire,

c’est-a-dire que P (N > n+m|N > n) = P (N > m) pour tous m,n ∈ N.7. Toujours dans le cas α = 1, montrer que N peut etre vu comme la partie

entiere d’une variable aleatoire absolument continue sans memoire que l’onprecisera.

8. Lorsque N verifie la relation de recurrence (2.5) avec a 6= 0, montrer quepour tout k ∈ N,

pk = p0ak

k!

k−1∏i=0

(∆ + i)

pour un certain ∆ a preciser.9. Montrer que pour tout k ∈ N,

pk =(

∆ + k − 1k

)(1− p)∆ak(1− a)∆

10. En deduire selon le signe de a la distribution de N.11. Conclure que les distributions verifiant la relation (2.5) sont exactement

les distributions de Poisson, binomiales et binomiales negatives.12. Parmi ces 3 types de distributions, lequel choisiriez-vous pour modeliser

N si des observations vous montraient que la variance empirique de N estbeaucoup plus grande que la moyenne empirique de N ?

2.5.2 Algorithme de Panjer

On s’interesse maintenant a un montant compose

X =N∑k=1

Uk

ou N et les Uk, k ∈ N sont des variables aleatoires a valeurs entieres. De plusles Uk sont independantes, identiquement distribuees, de loi decrite par les qk =P (Ui = k), et independantes de N. La somme est nulle par convention si N =0. Definissons de plus l’esperance d’une variable aleatoire Y a valeurs dans Nconditionnellement a un evenement A par :

E(Y |A) =∑k∈N

kP (Y = k|A)

Le but de cette partie est de demontrer la validite de l’algorithme de Panjer quipermet d’obtenir recursivement la loi de X.

1. Montrer que pour j, k ∈ N et n ∈ N∗,

E

(U1|

n∑i=1

Ui = j

)=j

n

21

Page 23: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

2. Definissons pour n, j ∈ N les probabilites q∗nj = P (U1 + · · · + Un = j).Montrer que pour k, j ∈ N,

P (U1 = k|n∑i=1

Ui = j) =qkq

∗(n−1)j−k

q∗nj

3. Supposons dans la suite que N verifie la relation (2.5). Soit rk = P (X = k)pour k ∈ N. Calculer r0 en fonction des qk et des pk.

4. En utilisant les questions precedentes, demontrer la formule recursive del’algorithme de Panjer :

∀j ∈ N∗, rj =j∑

k=1

(a+

bk

j

)qkrj−k (2.6)

5. Exemple : pour n ∈ N on definit la transformation stop-loss du cumul Xpar πn = E[(X − n)+], ou (X − n)+ = max(X − n, 0). Obtenir πn enfonction des rk.

6. Demontrer une relation de recurrence entre les πn. (On pourra faire inter-venir dans cette relation de recurrence les FX(n) = P (X ≤ n).)

7. Expliquer alors comment calculer les πn.

2.5.3 Comment utiliser l’algorithme de Panjer pourdes v.a. positives ou nulles generales ?

En pratique, deux types de problemes risquent de se poser : la loi de lavariable aleatoire representant le cout d’un sinistre peut etre absolumentcontinue, ou peut avoir un atome en 0.Il est facile d’eliminer les sauts d’amplitude nulle dans le modele Poissoncompose.Pour des v.a. a densite, il faut discretiser pour obtenir une v.a. a valeursdans δN∗, en respectant la moyenne, ou en respectant une regle de pru-dence qui depend du probleme considere.

2.6 Heterogeneite dans le modele collectif,lois melanges

L’introduction du melange sert a prendre en compte l’heterogeneite duportefeuille d’assurance, et a pour effet principal d’augmenter la variancedu montant cumule des sinistres.

2.6.1 Proprietes generales des lois melange

Soit X une variable aleatoire suivant une certaine loi L a un ou plusieursparametres, et soit α le parametre sur lequel va porter le melange (dans

22

Page 24: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

la modelisation, on suppose que l’heterogeneite du portefeuille porte prin-cipalement sur ce parametre). On dit que Y suit une loi L-melange de loide melange Θ sur le parametre α si

Y ∼ L(αΘ),

ou le parametre αΘ est donc aleatoire. La variable aleatoire de melange Θest en general une variable aleatoire de moyenne 1 (de maniere a assurerque la moyenne reste preservee, i.e. E(X) = E(Y )), et a valeurs dansun ensemble A ⊂ R tel que pour θ ∈ A, αθ soit une valeur possible duparametre de la loi L. La restriction E(Θ) = 1 n’est pas automatique etdepend des auteurs et du probleme.Plus generalement, on peut adopter la definition suivante :

Definition I.12 Soit Θ une variable aleatoire (de fonction de repartitionFΘ) et A ⊂ R tel que P (Θ ∈ A) = 1, et (F (. | θ))θ∈A une collection defonctions de repartitions pour A ⊂ R. On dit que X suit un melange delois (avec Θ comme loi de melange) si pour tout x ∈ R, pour tout θ ∈ A,

P (X ≤ x | Θ = θ) = F (x | θ).

Dans ce cas, pour tout x ∈ R,

FX(x) = P (X ≤ x) = E(E[1X≤x | Θ

])=∫θ∈A

F (x | θ) dFΘ(θ).

Prenons tout de suite deux exemples, pour eclaircir cette notion, les loisPoisson-melange, qui seront etudiees en detail dans la sous-section sui-vante, et les lois binomiale-melange. On dit que N suit une loi Poisson-melange si

N ∼ Poi (λΘ),

ou Θ est une variable aleatoire positive et de moyenne 1 (de maniere aassurer que λΘ est toujours positif, et que E(N) = λ).On dit que N suit une loi binomiale-melange si

N ∼ Bin(n, pΘ),

ou Θ est une variable aleatoire a valeurs dans [0, 1/p] et de moyenne 1 (demaniere a assurer que pΘ est toujours entre 0 et 1, et que E(N) = np).Une formulation plus correcte de ces deux exemples aurait consiste a direque sachant que Θ = θ, N suit une certaine loi de parametres dependantde la valeur de θ (voir la definition I.14 dans le cas poissonien).Remarquons qu’on a deja vu un exemple (certes peu representatif del’usage habituel des lois melanges) de loi melange dans un chapitre precedent.Le modele collectif, avec N ∼ Poi (λ) et W ∼ Exp (µ), fournit un exemplede loi Gamma-melange avec une loi de Poisson comme loi de melange : eneffet si N = n, la charge sinistre globale

S ∼ Γ(µ, n),

23

Page 25: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

et donc S suit une loi Gamma-melange

S ∼ Γ (µ,N) .

Dans ce cas, remarquons qu’on n’impose pas E(N) = 1. La moyenne et lavariance de S qu’on obtenait dans le modele collectif correspondent a uncas particulier du resultat general suivant, dont la demonstration est baseesur les notions d’esperance de variance conditionnelles, et sur la formulede decomposition de la variance.

Proposition I.5 Soit X une variable aleatoire suivant un melange de lois(avec Θ comme loi de melange). Alors

E(X) = E (E [X | Θ]) .

Var (X) = E (Var [X | Θ]) + Var (E [X | Θ]) .

Preuve :voir page 128 les rappels sur la variance conditionnelle.

2.6.2 Lois Poisson-melange

Les lois Poisson-melange forment une classe tres importante et tres utiliseedes lois melange. La loi de Poisson etant equidispersee, les lois Poisson-melange (avec une loi de melange non triviale) sont de fait surdispersees.

Definition I.13 Lois Poisson-melangeSoit Θ une variable aleatoire (de fonction de repartition FΘ) et A ⊂]0,+∞[ tel que P (Θ ∈ A) = 1. On dit que N suit une loi Poisson-melangede parametres (λ,Θ) (avec Θ comme loi de melange) si E(Θ) = 1 et sipour tout n ∈ N, pour tout θ ∈ A,

P (N = n | Θ = θ) = e−λθ(λθ)n

n!.

Exercice I.1 (Exemple simple en lien avec la theorie de la credibilite(voir cours de Pierre Therond) et les processus de Poisson (voir cha-pitre 6)) Modele a bons et mauvais conducteurs :On suppose qu’il y a exactement 2 sortes de conducteurs : les bons conduc-teurs qui ont un accident tous les 10 ans en moyenne et les mauvaisconducteurs qui ont un accident tous les 5 ans en moyenne. Soit B l’evenement“etre un bon conducteur” et M l’evenement “etre un mauvais conducteur”.Supposons qu’il y a autant de bons que de mauvais conducteurs, si bienque P (B) = P (M) = 1

2 .

(a) On modelise le temps en annees jusqu’au prochain accident d’un bon(resp. mauvais ) conducteur par une variable aleatoire exponentiellede parametre λB (resp. λM ). Quelles sont les valeurs que l’on doitprendre pour λB et λM ?

24

Page 26: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

(b) On suppose ou on demontre que le nombre de sinistres pendant untemps t suit une loi de Poisson de parametre λt si le temps entre deuxsinistres suit une loi exponentielle de parametre λ. De plus dans toutecette partie on suppose que le cout d’un sinistre est deterministe egala c. A l’aide des probabilites totales calculer la prime pure qu’unassureur pourrait faire payer a un nouvel assure pour un an, c’est-a-dire π = cE(N) ou N est le nombre de sinistres subis par l’assuresen 1 an.

(c) Sachant que l’assure n’a pas eu d’accident la premiere annee, calculerla nouvelle probabilite qu’il soit un bon conducteur : P (B|N = 0).

(d) Calculer P (B|N = k) pour k = 1, 2, 3, 4.(e) Comparez ces probabilites a P (B). Qu’observez-vous ? Comment pouvez-

vous l’expliquer ?

Apres cet exercice, voici les proprietes les plus importantes des lois Poissonmelange.

Proposition I.6 Identification des lois Poisson-melangeSoit N1 et N2 deux variables aleatoires suivant des lois Poisson melangede parametres respectifs (λ,Θ1) et (λ,Θ2). N1 et N2 ont meme loi equivautalors a Θ1 et Θ2 ont meme loi.

Preuve :La demonstration de cette proposition est immediate d’apres la propo-sition I.9 et le fait que la fonction generatrice suffit a caracteriser uneloi.

Proposition I.7 Moyenne et variance des lois Poisson-melangeSoit N une variable aleatoire suivant une loi Poisson melange de pa-rametres (λ,Θ). Alors

E(N) = λ et Var (N) = λ (1 + λVar (Θ)) .

Preuve :Demonstration directe avec la proposition generale I.5 et la moyenne et lavariance d’une loi de Poisson.

Le melange augmente donc la variance, qui, contrairement au modele dePoisson (sans melange), devient strictement plus grande que la moyenne,ce qui correspond au phenomene de surdispersion. La proposition precedentenous dit qu’apres melange les valeurs prises par la variable aleatoire sonten moyenne plus eloignees de la moyenne qu’avant le melange. Dans le casdes lois de Poisson melange, le theoreme suivant nous donne encore plusd’information : les masses de probabilite sont augmentees par le melangeen-dehors d’un intervalle donne par deux valeurs t1 < t2, et diminuentpour les valeurs comprises entre t1 et t2.

25

Page 27: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Proposition I.8 Theoreme des deux croisements de Shaked (1980)Soit N une variable aleatoire suivant une loi Poisson melange de pa-rametres (λ,Θ). Alors il existe deux entiers 0 ≤ k1 < k2 tels que

P (N = n) ≥ e−λ(λ)n

n!pour n ≤ k1 et pour n > k2

et

P (N = n) ≤ e−λ(λ)n

n!pour k1 < n ≤ k2.

Preuve :

c(k) =P (N = k)e−λλk/k!

− 1

=∫ +∞

0

eλ−θ(θ

λ

)kfΘ(θ)dθ − 1

c est convexe en k comme barycentre de fonctions convexes, car pour toutx > 0, la fonction

α→ xα = eα ln(x)

est convexe. c peut donc s’annuler et changer de signe au plus deux fois.c doit avoir au moins un changement de signe, sinon on aurait E(N) > λou E(N) < λ. Elle ne peut pas en avoir un seul car c(0) = eλ − 1 > 0 etlimn→+∞ c(n) = +∞.

Proposition I.9 Melange et fonctions generatricesSoit N une variable aleatoire suivant une loi Poisson melange de pa-rametres (λ,Θ), GN (.) = E(.N ) la fonction generatrice de N , et LΘ(.) =E(e−.Θ

)la transformee de Laplace de Θ. Alors pour x ≥ 0,

GN (x) = LΘ(λ(1− x)).

Preuve :Il suffit de se souvenir que pour x ≥ 0, si N ′ suit une loi de Poisson deparametre λ′,

GN (x) = eλ′(x−1)

pour obtenir en conditionnant par Θ le resultat souhaite :

GN (x) =∫θ∈A

eλθ(x−1)fΘ(θ)dθ = LΘ(λ(1− x)).

26

Page 28: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Proposition I.10 Soit N une variable aleatoire suivant une loi Poissonmelange de parametres λ et

Θ ∼ Γ(α, α).

AlorsN ∼ P(λΘ)

suit une loi binomiale negative :

N ∼ BN(α,

α

α+ λ

).

Preuve :Exercice : calculer la fonction generatrice des probabilites de N , et re-connaıtre celle d’une loi binomiale negative.

Exercice I.2 Soit N1 et N2 deux variables aleatoires independantes sui-vant des lois Poisson-melange de parametres respectifs (λ1,Θ1) et (λ2,Θ2).Alors N1 +N2 suit une loi Poisson-melange de parametres(

λ1 + λ2,1

λ1 + λ2(λ1Θ1 + λ2Θ2)

).

2.6.3 Melange de lois exponentielles

On peut aussi obtenir la loi de Pareto de deuxieme espece comme melangede lois exponentielles :

Proposition I.11 SoitX ∼ Exp (Θ)

avecΘ ∼ Γ(α, t).

Alors pour x ≥ 0,

P (X > x) =(

t

x+ t

)α,

i.e. X suit une loi de Pareto de deuxieme espece de parametres t et α.

Preuve :Exercice : il suffit d’ecrire la formule classique du melange.

Proposition I.12 La fonction de queue F de X ∼ Exp (Θ) est donneeau point x ≥ 0 par

F (x) = P (X > x) =∫ +∞

0

e−θxfΘ(θ)dθ = E(e−xΘ

)et correspond donc a la transformee de Laplace de la variable aleatoirepositive Θ.

27

Page 29: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

2.6.4 Lois composees melange

Les lois composees melange sont juste des lois melange pour lesquelles la loisous-jacente est une loi composee quelle que soit la valeur du parametre demelange θ. On a donc exactement les memes proprietes que precedemment.Voyons ce que cela donne pour les loi Poisson-composees melange.

Definition I.14 Lois Poisson-composees melangeSoit Θ une variable aleatoire (de fonction de repartition FΘ) et A ⊂]0,+∞[ tel que P (Θ ∈ A) = 1. Soit W une variable aleatoire. On dit queS suit une loi Poisson-composee melange de parametres (λ,W,Θ) (avecΘ comme loi de melange) si E(Θ) = 1 et si pour tout x ∈ R, pour toutθ ∈ A,

P (S ≤ x | Θ = θ) = P

(Nθ∑i=1

Wi ≤ x

),

ou Nθ suit une loi de Poisson de parametre λθ, et ou les (Wi)i≥1 formentune suite de variables aleatoires independantes, identiquement distribuees,de meme loi que W , et independantes de Nθ, et avec la convention que lasomme ci-dessus est nulle si Nθ = 0.

Proposition I.13 Moyenne et variance des lois Poisson-composeesmelangeSoit S une variable aleatoire suivant une loi Poisson-composee melangede parametres (λ,W,Θ), avec W et Θ de carre integrable. Alors

E(S) = λE(W ) et Var (S) = λE(W 2) + (λE(W ))2Var (Θ).

Preuve :Demonstration directe avec la proposition generale I.5 et la moyenne et lavariance d’une loi Poisson-composee.

La variance d’une loi Poisson-composee melange peut se reecrire sous laforme suivante

Var (S) = λVar (W ) + λ[E(W )]2 + (λE(W ))2Var (Θ).

Exercice : interpreter cette decomposition de la variance de la charge si-nistre globale.Remarque : on aurait pu introduire de l’heterogeneite dans la frequence etdans le cout des sinistres, en definissant une suite de variables aleatoires(Wθ)θ∈A. Toutefois, dans la litterature, il n’y a en general pas de melangesur les couts dans ce qui est appele loi Poisson-composee melange.

Proposition I.14 Convergence en loiSoit (Sλ)λ>0 une collection de variables aleatoires telle que pour λ > 0, Sλ

28

Page 30: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

suit une loi Poisson-composee melange de parametres (λ,W,Θ). Supposonsde plus que W et Θ sont de carre integrable. Alors

Sλλ→ Θ en loi

quand λ→ +∞.

Preuve :exercice.

Notons que contrairement au cas sans melange, on n’a pas de convergencevers une loi normale (eventuellement en renormalisant) avec un argumentdu type theoreme central limite, mais vers la loi de melange elle-meme.

29

Page 31: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 3

Approximation dumodele individuel par lemodele collectif

En seances de TD seront abordees diverses majorations de l’erreur faite enapprochant le modele individuel par le modele collectif. On peut se refererpar exemple a Charpentier et Denuit (2004) page 285.

30

Page 32: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 4

Complements sur lacharge sinistre

4.1 Normal Power, Gamma de Bowers

Voir exercice en seance de TD, et par exemple Partrat et Besson (2004)pages 542 et suivantes, Charpentier et Denuit (2004) page 210, ou le po-lycopie de Pierre Therond sur le modele collectif.

4.2 FFT

Voir exercice en seance de TD et par exemple page 141 de Rolski et al.(1999).

31

Page 33: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Deuxieme partie

Processus de Poisson

32

Page 34: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Ce chapitre est utile pour le cours de modele de durees de Frederic Plan-chet, l’etude du modele a chocs communs (voir partie 30), les modelesstructurels et a intensite en theorie du risque de credit, et bien sur lecours de theorie de la ruine (voir partie III).

33

Page 35: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 5

Rappels autour de la loiexponentielle

5.1 Definition et premieres proprietes

Definition II.1 On dit qu’une variable aleatoire X suit la loi exponen-tielle de parametre λ > 0 si sa fonction de repartition est donnee pourx ∈ R par

FX(x) = (1− e−λx)1R+(x).

On utilisera alors la notation X ∼ Exp (λ).

Proposition II.1 Soit X ∼ Exp (λ). Alors, X admet pour densite fXdonne pour x ∈ R par

fX(x) = λe−λx1R+(x).

De plus, X est de carre integrable et

E(X) =1λ

et E(X2)

=1λ2.

Preuve :On obtient les deux premiers moments par une simple integration parparties.

La proposition suivante sera tres utilisee en theorie de la ruine, car ellepermettra de dire qu’un processus de Poisson compose perd sa memoire aun instant bien choisi, ou d’utiliser des methodes de martingales lorsqueles couts de sinistres suivent une loi exponentielle (voir partie III).

Proposition II.2 La loi exponentielle possede la propriete de perte dememoire : pour tous s, t ≥ 0

P (X > t+ s | X > s) = P (X > t).

34

Page 36: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

On peut demontrer que la loi exponentielle est la seule loi continue surR+ a avoir cette propriete.

Theoreme II.1 La seule loi continue sur R+ a verifier la propriete deperte de memoire est la loi exponentielle. La seule loi a valeurs dans N∗ averifier la propriete de perte de memoire est la loi geometrique.

Preuve :Exercice, voir Rolski et al. (1999).

5.2 Minimum de variables aleatoires expo-nentielles independantes

Soit n ≥ 1 et X1, . . . , Xn des variables aleatoires independantes telles quepour 1 ≤ i ≤ n,

Xi ∼ Exp(λi)

avec λi > 0. En risque de defaut, cette situation pourrait interesser uninvestisseur pouvant acheter des obligations de n differentes compagnies.Dans les modeles a intensite (voir chapitre 26.3 sur le risque de credit), onmodelise le temps au bout duquel la i-eme compagnie fait defaut par lepremier instant de saut d’un processus de Poisson non homogene (qui seradefini chapitre 6). Les variables aleatoires Xi ne sont dans ces modelesen general pas independantes. Toutefois, afin d’interpreter les resultatssuivants, on peut s’interesser au cas particulier de n processus de Poissonhomogenes independants, ce qui nous donne (comme nous le verrons dansla partie 6) n premiers instants de sauts independants et suivant des loisexponentielles. Il existe des produits financiers du type first-to-default swapdont le payoff depend de la survenance ou non d’un evenement defavorableavant une date t sur un des n actifs. Un investisseur serait entre autresinteresse par connaıtre la loi du premier temps de defaut, c’est-a-dire de

T = min(X1, . . . , Xn),

et par savoir lequel des actifs risque de faire defaut en premier. On peutrepondre tres facilement a ces deux questions pour des variables aleatoiresindependantes et de lois exponentielles.

Proposition II.3 Soit n ≥ 1 et X1, . . . , Xn des variables aleatoires independantestelles que pour 1 ≤ i ≤ n,

Xi ∼ Exp(λi).

Alors

T =n

mini=1

(Xi) ∼ Exp

(n∑i=1

λi

).

35

Page 37: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Preuve :

P (T > t) = P (X1 > t, . . . ,Xn > t) =n∏i=1

P (Xi > t) = e−(Pn

i=1 λi)t,

ce qui montre que

T ∼ Exp

(n∑i=1

λi

).

Quel actif fait defaut en premier ?Considerons le cas n = 2.

P (X1 < X2) =∫ +∞

0

fX1(s)P (X2 > t+ s | X1 = s)

=∫ +∞

0

λ1e−λ1se−λ2sds

=λ1

λ1 + λ2,

car ∫ +∞

0

(λ1 + λ2)e−(λ1+λ2)sds = 1.

On montre de la meme maniere la proposition suivante :

Proposition II.4 Pour n ≥ 1, et pour 1 ≤ i ≤ n, la probabilite que Xi

soit le plus petit est donnee par

P (min(X1, . . . , Xn) = Xi) =λi

λ1 + · · ·+ λn.

Soit I la variable aleatoire a valeurs dans [1, n], definie par

I = i = min(X1, . . . , Xn) = Xi.

Supposons que n = 2 et que λ1 = 100000 et que λ2 = 0.00001 (ce quicorrespond a EX1 = 1/100000 et EX2 = 100000). On pourrait penser quesi min(X1, X2) etait egal a 200000, la probabilite que I = 2 serait pluselevee que si min(X1, X2) etait egal a 0.00002. En fait, ce raisonnementest faux, et au contraire, on a le resultat suivant :

Proposition II.5 Les variables aleatoires I et

T = min(X1, . . . , Xn)

sont independantes.

36

Page 38: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Preuve :Calculons la densite jointe de I et T (ou la densite I correspond a ladensite discrete) : pour 1 ≤ i ≤ n et t > 0,

f(I,T )(i, t) = fXi(t)P (∀j 6= i, Xj > t)

= λie−λit.

∏j 6=i

e−λjt

=λi

λ1 + · · ·+ λn.(λ1 + · · ·+ λn)e−(λ1+···+λn)t

= fI(i).fT (t)

d’apres les propositions II.3 et II.4.

5.3 Lois exponentielles multivariees

En risque de credit, les instants de defaut de differentes entreprises sonta priori loin d’etre independants. On s’interesse donc naturellement auxlois multivariees dont les marginales sont exponentielles. Une fois les loismarginales fixees, on obtient la loi jointe par l’intermediaire d’une copule.Cette notion sera abordee en detail dans les chapitres 28.1 a 28.5. Les loisdont les marginales sont des lois exponentielles sont souvent appelees loisde Marshall-Olkin, ce qui peut aussi concerner uniquement une partie deces lois. On donnera ici trois exemples de familles de lois dont les lois mar-ginales sont des lois exponentielles, et qui fournissent autant d’exercicesde maniement sur les lois exponentielles et sur les lois jointes :– les lois bivariees de Marshall-Olkin : ce sont celles des couples

X = (X1, X2) = (min(Y1, Y ) , min(Y2, Y )) ,

ou Y1, Y2 et Y sont des variables aleatoires independantes de lois ex-ponentielles de parametres respectifs λ1, λ2 et λ. D’apres la proposi-tion II.3, Xi ∼ Exp (λi + λ) pour i = 1, 2, et de plus

min(X1, X2) ∼ Exp (λ1 + λ2 + λ)

puisquemin(X1, X2) = min(X1, X2, X).

Sa fonction de queue de distribution bivariee est donnee par

FX(x1, x2) = P (X1 > x1, X2 > x2) = exp(−(λ1x1+λ2x2+λmin(x1, x2)))

pour x1, x2 > 0. En particulier, pour h > 0, et pour x1, x2 > 0,

P (X1 > x1 + h,X2 > x2 + h | X1 > x1, X2 > x2) = P (X1 > h,X2 > h),

37

Page 39: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

ce qui correspond a une propriete de perte de memoire pour une loibivariee. La notion de perte de memoire n’est ici plus unique, nous enverrons une autre definition possible avec la famille de lois suivante.Ce cadre peut etre etendu aux lois multivariees en general, et il estpossible d’obtenir explicitement la forme de la fonction copule associee(voir chapitre 28.1).

– les lois exponentielles multivariees de Gumbel : une autre facon de definirla perte de memoire est de le faire uniquement sur les accroissementsd’une des marginales : pour h > 0, et pour x1, x2 > 0,

P (X1 > x1 + h | X1 > x1, X2 > x2) = P (X1 > h | X2 > x2),

et

P (X2 > x2 + h | X1 > x1, X2 > x2) = P (X2 > h | X1 > x1).

Ceci est verifie pour les lois bivariees de Gumbel, definies par la fonctionde repartition jointe

FX(x1, x2) = P (X1 > x1, X2 > x2) = 1− e−x1 − e−x2 + e−x1−x2−θx1x2 .

L’unique parametre est θ ∈ [0, 1] et aura un impact a la fois sur lesmarginales et sur la dependance.

– les lois exponentielles de Basu-Block, sont donnees par

F (x1, x2) = exp(−λ1x1 − λ2x2 − λmax(x1, x2))

λ1 + λ2[exp(−λ1x1 − λ2x2 − λmax(x1, x2))− exp(−(λ1 + λ2 + λmax(x1, x2)))]

pour x1, x2 > 0. Comme les lois de Marshall-Olkin bivariees, elles sontdefinies par trois parametres λ1, λ2 et λ > 0, et verifient la proprietesuivante :

min(X1, X2) ∼ Exp (λ1 + λ2 + λ)

(ce qui est aussi verifie par les lois de Marshall-Olkin).

5.4 Sommes de variables aleatoires exponen-tielles independantes

Nous verrons dans le chapitre 6 que la loi du temps entre deux sauts d’unprocessus de Poisson homogene d’intensite λ > 0 est la loi exponentiellede parametre λ. En theorie de la ruine, chaque saut d’un processus dePoisson correspond a un sinistre (accident de voiture, incendie, ...) quela compagnie d’assurances va devoir indemniser. Si on modelise par X1

l’instant de survenance du premier sinistre, puis par X2 le temps ecouleentre le premier et le deuxieme sinistre, et plus generalement par Xi le

38

Page 40: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

temps ecoule entre le i-eme et le (i + 1)-ieme sinistre, et si l’on supposeque les (Xi)i≥1 sont des variables aleatoires independantes, identiquementdistribuees et de loi exponentielle de parametre λ, quelle est la loi de ladate de survenance du n-eme sinistre ?

Proposition II.6 Soit n ≥ 1 et X1, . . . , Xn des variables aleatoires independantes,identiquement distribuees et de loi exponentielle de parametre λ > 0. Alors

Sn = X1 + · · ·+Xn

suit une loi Gamma de parametres (n, λ), de densite

fSn(x) =

xn−1λne−λx

(n− 1)!1R+(x).

Preuve :La demonstration se fait par recurrence sur n.

Proposition II.7 Sous les hypotheses de la proposition precedente,

E(Sn) =n

λet Var (Sn) =

n

λ2.

Preuve :Immediat d’apres la proposition II.1, car les Xi sont i.i.d..

On parle egalement de loi d’Erlang de parametres (n, λ). Les lois d’Erlangcorrespondent a la sous-famille des lois Gamma (α, λ) pour lesquelles α ∈N∗. Rappelons que dans le cas general, une variable aleatoire X suit uneloi Gamma de parametres α et λ strictement positifs si elle admet pourdensite :

fX(x) =xα−1λαe−λx

Γ(α)1R+(x), (5.1)

ou, pour α > 0,

Γ(α) =∫ +∞

0

tα−1e−tdt.

On peut definir des lois Gamma multivariees a partir de variables aleatoiresexponentielles independantes. La famille des lois de Cherian est definie par

(X1, X2) = (Y1 + Y, Y2 + Y ),

ou Y1, Y2 et Y sont des variables aleatoires independantes exponentiellesde parametres respectifs λ1, λ2 et λ. Les lois marginales sont des loisGamma(2, λ) si λ1 = λ2 = λ. Dans le cas general, les lois marginalesne sont pas des lois Gamma, mais des lois phase-type, qui correspondent

39

Page 41: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

au temps d’atteinte d’un etat absorbant par un processus de Markov anombre d’etats finis. La densite jointe est alors donnee sur R+ × R+ par

fX(x1, x2) =e−(x1+x2)

Γ(λ1)Γ(λ2)Γ(λ)

∫ min(x1,x2)

0

(x1 − t)λ1−1(x2 − t)λ2−1tλ−1dt.

Les sommes de variables aleatoires exponentielles independantes verifientegalement des proprietes conditionnelles liees aux statistiques d’ordre, ceque nous verrons au chapitre suivant (voir en particulier le theoreme II.3).

40

Page 42: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 6

Processus de Poisson :definition et premieresproprietes

6.1 Processus de Poisson homogene

Il y a plusieurs manieres equivalentes de definir un processus de Poissonhomogene. Nous adopterons celle qui permet de construire facilement lestrajectoires du processus, et qui se generalise aux processus dits de renou-vellement (voir chapitre 11). Neanmoins, la seconde, qui sera enoncee dansle theoreme II.2, se generalisera plus facilement aux processus de Poissoninhomogenes (voir chapitre 6.2) et aux processus de Poisson en dimensionssuperieures.

Definition II.2 Processus de Poisson homogeneSoit (Xn)n∈N∗ une suite de variables aleatoires independantes, identique-ment distribuees, et de loi exponentielle de parametre λ > 0. Pour n ≥ 1,notons Sn = X1 +X2 + ...+Xn, et S0 = 0. Le processus (N(t))t≥0, definipar

N(t) =∑n≥1

1Sn≤t = nombre de Sn entre 0 et t = supn, Sn ≤ t

est appele processus de Poisson (homogene) d’intensite λ.

Remarque : Rappelons que, d’apres la proposition II.6, Sn suit une loiGamma de parametres n et λ, Γ(n, λ), de densite donnee par

fSn(s) = e−λsλn

sn−1

(n− 1)!1R+(s)ds.

41

Page 43: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Par des integrations par parties successives, on peut montrer que la fonc-tion de repartition de Sn est donnee pour x ∈ R par

FSn(x) = 1−n−1∑k=0

e−λx(λx)k

k!1R+(x). (6.1)

Remarquons egalement que

N(t) = n = Sn ≤ t < Sn+1 (6.2)

et queN(t) ≥ n = Sn ≤ t. (6.3)

Si l’on reprend l’exemple de la page 38, dans lequel Xi represente le tempsentre le i-eme et le (i+1)-eme sinistre, Sn represente la date d’occurrencedu n-eme sinistre, et N(t) represente le nombre de sinistres survenus avantla date t. L’equation (6.2) dit que le nombre de sinistres survenus avantt est egal a n si et seulement si le n-eme sinistre a eu lieu avant t, etle n + 1-eme apres t. L’equation (6.3) dit simplement que le nombre desinistres survenus avant t est superieur ou egal a n si et seulement si len-eme sinistre a eu lieu avant t. En utilisant les equations (6.1) et (6.3),on comprend maintenant pourquoi le processus est dit de Poisson et nonexponentiel. En effet, pour n ≥ 0 et t > 0,

P (N(t) = n) = P (N(t) ≥ n)− P (N(t) ≥ n+ 1)= P (Sn ≤ t)− P (Sn+1 ≤ t)

=

[1−

n−1∑k=0

e−λt(λt)k

k!

]

[1−

n∑k=0

e−λt(λt)k

k!

]

= e−λt(λt)n

n!,

ce qui montre le lemme suivant :

Lemme II.1 Soit N(t) un processus de Poisson homogene de parametreλ. Pour tout t > 0, N(t) suit une loi de Poisson de parametre λt.

Rappelons quelques proprietes importantes de la loi de Poisson qui vontnous servir (voir le chapitre 2 pour les demonstrations) :

Lemme II.2 Soit X une variable aleatoire suivant une loi de Poisson deparametre λ > 0.– Sa fonction generatrice est donnee pour t > 0 par

GX(t) = E(tX)

= e−λ(1−t).

42

Page 44: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– Ses deux premiers moments valent

E(X) = Var (X) = λ.

Cette propriete, dite d’equidispersion (moyenne = variance) est tresimportante, car elle est relativement facile a verifier empiriquement, etpermettra de confirmer ou de mettre en doute la pertinence du modelePoisson-compose (voir chapitres 2 et 7).

– Si Y suit une loi de Poisson de parametre µ > 0 et est independante deX, alors X + Y suit une loi de Poisson de parametre λ+ µ.

Definition II.3 Processus a accroissements stationnaires, a ac-croissements independants

– On dit qu’un processus (X(t))t≥0 est a accroissements independants sipour tout n ≥ 2, pour tous 0 ≤ t1 < t2 < · · · < tn, les variablesaleatoires

X(t1), X(t2)−X(t1), . . . , X(tn)−X(tn−1)

sont independantes.– On dit qu’un processus (X(t))t≥0 est a accroissements stationnaires si

pour tout n ≥ 2, pour tous 0 ≤ t1 < t2 < · · · < tn et pour h ≥ 0, la loide

(X(t2 + h)−X(t1 + h), . . . , X(tn + h)−X(tn−1 + h))

ne depend pas de h.

Remarquons que si (X(t))t≥0 est a accroissements independants, alorsX(t) est a accroissements stationnaires si et seulement si pour tout s > 0,la loi de X(t+ s)−X(t) ne depend pas de t, et est donc la meme que cellede X(s)−X(0).Nous pouvons maintenant enoncer le theoreme II.2, qui contient une deuxiememaniere de definir un processus de Poisson et qui montre au passage qu’elleest bien equivalente a la definition II.2 que nous avions choisie.

Theoreme II.2 Proprietes caracteristiques d’un processus de Pois-son (1)

(a) N(0) = 0 presque surement.

(b) ∀t > s, N(t) − N(s) suit une loi de Poisson de parametre λ(t − s)(en particulier, (N(t))t≥0 est un processus a accroissements station-naires).

(c) (N(t))t≥0 est a accroissements independants.

Reciproquement, tout processus (N(t))t≥0 qui verifie les points 1 a 3 estun processus de Poisson homogene d’intensite λ.

Preuve :Exercice (voir Durrett (1999) page 132 et Rolski et al. (1999)).

43

Page 45: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Ce theoreme explique la denomination processus de Poisson. Neanmoins, ilne s’agit pas des seules proprietes caracteristiques du processus de Poissonhomogene. Les deux autres caracteristiques principales sont la repartitionuniforme des sauts une fois leur nombre connu, et le fait que lorsque ∆t→0, la probabilite qu’il y ait un saut dans l’intervalle de temps [0,∆t] estequivalente a λ∆t et la probabilite qu’il n’y ait pas de saut a 1 − λ∆t.Avant de resumer tout cela dans le theoreme II.3, rappelons la definitionet les proprietes des statistiques d’ordre, ou lois de Dirichlet, dont nousallons avoir besoin.

Definition II.4 Soit n ≥ 1 et (U1, . . . , Un) n variables aleatoires independantesuniformement distribuees sur un intervalle fini [a, b]. Notons (V1, . . . , Vn)leur rearrangement dans l’ordre croissant. La loi de (V1, . . . , Vn) est ap-pelee la statistique d’ordre n ou loi de Dirichlet d’ordre n sur [a, b],et notee Dn ([a, b]).

Propriete II.1 Soit

(V1, . . . , Vn) ∼ Dn ([a, b]) .

(a) (V1, . . . , Vn) admet pour densite sur Rn f(V1,...,Vn) donnee par :

f(V1,...,Vn)(t1, . . . , tn) =n!

(b− a)n1a≤t1<···<tn≤b.

(b) La densite de Vn est donnee par :

fVn(t) =

n(t− a)n−1

(b− a)n1[a,b](t).

(c) Pour tout c ∈ [a, b], la loi conditionnelle de (V1, . . . , Vn−1) sachantque Vn = c est Dn−1 ([a, c]) .

(d) Pour tout c ∈ [a, b], la loi conditionnelle de (V1, . . . , Vn−1) sachantque Vn−1 ≤ c ≤ Vn est Dn−1 ([a, c]) .

(e) Pour tout c ∈ [a, b], la loi conditionnelle de (V2, . . . , Vn) sachant queV1 = c est Dn−1 ([c, b]) .

(f) Pour tout c ∈ [a, b], la loi conditionnelle de (V2, . . . , Vn) sachant queV1 ≤ c ≤ V2 est Dn−1 ([c, b]) .

(g) Pour 1 ≤ k ≤ p ≤ n, avec p ≥ k+2, (Vk, . . . , Vp) et (V1, . . . , Vk, Vp, . . . , Vn)sont conditionnellement independants sachant (Vk, Vp). De plus, poura ≤ c < d ≤ b, la loi de (Vk+1, . . . , Vp−1) sachant Vk = c et Vp = dest donnee par Dp−k−1 ([c, d]).

Preuve :Exercice d’application du cours de probas 2.

44

Page 46: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

On peut maintenant enoncer le theoreme annonce, dont les points 3 et 4montrent que les lois de Dirichlet apparaissent egalement lorsqu’on condi-tionne des sommes de variables aleatoires i.i.d. de loi exponentielle.

Theoreme II.3 Proprietes caracteristiques d’un processus de Pois-son (2)Soit N(t) un processus a valeurs dans N. Les assertions suivantes sont

equivalentes :(a) (N(t))t≥0 est un processus de Poisson homogene d’intensite λ.(b) – (N(t))t≥0 est a accroissements independants et stationnaires,

– et pour tout t ≥ 0,N(t) ∼ Poi (λt).

(c) – Pour tout t ≥ 0,N(t) ∼ Poi (λt),

– et pour n ≥ 1, sachant que N(t) = n, le vecteur aleatoire

(S1, . . . , Sn)

des instants de sauts a pour loi Dn ([0, t]), la statistique d’ordre nsur l’intervalle [0, t].

(d) – (N(t))t≥0 est a accroissements independants,– E(N(1)) = λ,– et pour n ≥ 1, sachant que N(t) = n, le vecteur aleatoire

(S1, . . . , Sn)

des instants de sauts a pour loi Dn ([0, t]), la statistique d’ordre nsur l’intervalle [0, t].

(e) – (N(t))t≥0 est a accroissements independants et stationnaires,– et lorsque h ↓ 0,

P (N(h) = 0) = 1− λh+ o(h) et P (N(h) = 1) = λh+ o(h).(6.4)

Preuve :Exercice (voir Durrett (1999) page 132 et Rolski et al. (1999)).

La derniere propriete des assertions 3 et 4 du theoreme II.3 est tres im-portante, et sera expliquee en detail, demontree et generalisee au cha-pitre 9. Elle nous permettra entre autres d’ecrire l’esperance d’une fonctionintegrable f des instants de sauts S1, . . . , SN(T ) d’un processus de Poissonhomogene (N(t))t≥0 jusqu’a un temps fini T sachant que N(T ) = n sousla forme

E(f(S1, . . . , SN(T ))) =∫ T

0

∫ tn−1

0

. . .

∫ t2

0

f(t1, . . . , tn)dt1 . . . dtn. (6.5)

45

Page 47: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

En particulier, pour un processus de Poisson homogene (N(t))t≥0, sachantque N(t) = 1, l’instant de saut S1 est uniformement distribue sur [0, t].La propriete (6.4) sera tres utile pour les demonstrations heuristiques deresultats de theorie de la ruine (voir chapitre III), par exemple pour lesequations integro-differentielles (12.1) et (12.2).

La proposition suivante correspond a ce qu’on appelle le paradoxe del’inspection.

Proposition II.8 (a) Pour tous t > 0, x ≥ 0, 0 ≤ y ≤ t,

P(SNt+1 − t ≥ x, t− SNt ≥ y) =1

E(X1)

∫ ∞

x+y

P(X1 ≥ u)du.

(b) Les variables aleatoires SNt+1 − t et t− SNtsont independantes.

Preuve :Montrons que 1 ⇒ 2 : d’apres le point 1, X1 ∼ exp(λ) a pour moyenneE(X1) = 1

λ et densite fX1 = λe−λu1R+(u). En remplacant dans la formule,on obtient :

P(SNt+1 − t ≥ x, t− SNt≥ y) = λ

∫ ∞

x+y

e−λudu = e−λ(x+y), (6.6)

ce qui implique que SNt+1 − t et t − SNtsont des variables aleatoires

independantes. Remarquons au passage que

E(SNt+1 − SNt) = E(SNt+1 − t) + E(t− SNt

) >1λ,

46

Page 48: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

alors que SNt+1 − SNt = XNt .Il ne reste plus qu’a montrer la premiere affirmation.

P(SNt+1 − t ≥ x, t− SNt ≥ y)

=∑n≥0

P(Nt = n, Sn +Xn+1 − t ≥ x, t− Sn ≥ y)

=∑n≥0

P(Sn < t < Sn +Xn+1, Sn +Xn+1 − t ≥ x, t− Sn ≥ y)

=∑n≥1

∫ ∞

0

∫ ∞

0

1s<t<s+u1s+u−t≥x1t−s≥yλe−λuλnsn−1e−λs

(n− 1)!dsdu

+P(Nt = 0, X1 ≥ t+ x, t ≥ y)

=∑n≥1

∫ ∞

0

1s<t1t−s≥y

(∫ ∞

0

1u≥t−s+xλe−λudu)λnsn−1e−λs

(n− 1)!ds+ e−λ(t+x)

=∑n≥1

∫ ∞

0

1s≤t−ye−λ(t−s+x)λnsn−1e−λs

(n− 1)!ds+ e−λ(t+x)

=∫ t−y

0

e−λ(t+x)λeλsds+ e−λ(t+x)

= e−λ(t+x(−1 + eλ(t−y)

)+ e−λ(t+x)

= e−λ(y+x) − e−λ(t+x) + e−λ(t+x)

= e−λ(y+x)

In particular from point 1 with y = 0 we get that the time between t andthe next time of accident is distributed as Exp(λ). With x = 0 we havethat

E(t− SNt) =

1− e−λt

λ→ 1

λ

as t→ +∞. You could then think : as for t > 0, we have E(SNt+1−t) = 1λ

and E(t− SNt) = 1−e−λt

λ , we should have

EXNt+1 = E(t− SNt) + E(SNt+1 − t) =

1− e−λt

λ+

which would be a contradiction with EXNt+1 = 1λ . The last assumption

is actually not true, because the real experiment that you carry out isto choose a time t at random, and to look at the times of the previousand next accident. But when you select t at random, you have a greaterprobability to choose t into a large interval between two accidents thanin a small interval between two accidents which occur one just after theother. This paradox is known as the inspection paradox.

47

Page 49: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

In driving insurance, one simple model for the number Nt of accidents upto time t is to take

Nt ≡ P(λt)

It could seem natural to choose exponentially-distributed inter-occurencetimes due to the memoryless property of the exponential distribution, andin this case, you get a Poisson distribution for Nt. Maybe the true reasonis that computations are much easier for Poisson processes !For an actuary, given the experience data that he gets, it is quite easyto verify whether the Poisson assumption is realistic or not : indeed forNt ≡ P(λ), we have

ENt = V ar(Nt) = λt ( equidispersion property)

With the historical data, a mere computation of the empirical mean andvariance of the number of accidents during a given period may help you de-termine if you are using a realistic model or not. In case V ar(Nt) >> ENt(over-dispersion), you may use for example a negative binomial distribu-tion instead of the Poisson distribution for the number of claims duringa given period. If V ar(Nt) << ENt (under-dispersion), you may use abinomial distribution for example.

6.2 Processus de Poisson non homogene

Si l’on cherche a representer le nombre d’accidents survenant avant chaquedate t ≥ 0 par un processus de Poisson homogene (N(t))t≥0, on pourraitnous opposer le fait qu’il y a plus de chance que des accidents surviennentle jour que la nuit, la circulation etant beaucoup plus intense le jour. Unemaniere de prendre en compte ce phenomene est de ne plus imposer quel’intensite λ soit constante, mais de lui laisser la possibilite de varier aucours du temps, de facon a avoir pour t ≥ 0 lorsque h ↓ 0 :

P (N(t+ h)−N(t)) = λ(t)h+ o(h)

. On obtient alors un processus de Poisson non homogene :

Definition II.5 Un processus stochastique (N(t))t≥0 est un processus dePoisson (inhomogene, ou general) de fonction d’intensite λ(t) si

(a) N(0) = 0 presque surement,

(b) (N(t))t≥0 est un processus a accroissements independants,

(c) et ∀t > s, N(t)−N(s) suit une loi de Poisson de parametre∫ t

s

λ(u)du.

48

Page 50: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Le processus N(t) n’est plus a accroissements stationnaires, et les tempsinter-sauts Xi ne sont plus independants, et ne suivent plus une loi expo-nentielle si λ(.) n’est pas constante. En effet,

P (N(t) = 0) = P (X1 > t) = e−R t0 λ(u)du,

donc l’instant du premier saut X1 a pour densite en t

fX1(t) = λ(t)e−µ(t),

ou µ est appelee la fonction d’intensite cumulee de N(t), et est definiepour t ≥ 0 par

µ(t) =∫ t

0

λ(u)du.

Remarquons que µ est une fonction positive, nulle en zero, et croissantesur R+.La densite jointe des n premiers instants de sauts S1, . . . , Sn est donneepour 0 ≤ t1 ≤ · · · ≤ tn par

f(S1,...,Sn)(t1, . . . , tn) = λ(t1)e−µ(t1).λ(t2)e−(µ(t2)−µ(t1)) . . . λ(tn)e−(µ(tn)−µ(tn−1)) = e−µ(tn).n∏i=1

λ(ti).

(6.7)En particulier, la densite jointe des deux premiers temps inter-sauts estdonnee pour s, t ≥ 0 par

f(X1,X2)(s, t) = f(S1,S2)(s, s+ t) = λ(s)e−µ(s).λ(s+ t)e−(µ(s+t)−µ(s)),

ce qui montre que X1 et X2 ne sont pas independants des que λ(.) n’estpas constante.

49

Page 51: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 7

Processus de Poissoncompose

Le processus de Poisson peut nous permettre de modeliser les dates desurvenance des sinistres. Le processus de Poisson compose nous permetd’associer a chaque sinistre son cout.

Definition II.6 Soit (N(t))t≥0 un processus de Poisson de fonction d’in-tensite λ et Wn une suite de variables aleatoires independantes et identi-quement distribuees, et independantes du processus (N(t))t≥0. Le proces-sus (S(t))t≥0, a valeurs dans R et defini par

S(t) = W1 + · · ·+WN(t),

avec la convention S(t) = 0 si N(t) = 0, est appele processus de Poissoncompose de caracteristiques (λ,W ).

En assurance non-vie, Wi representera le cout du i-eme sinistre (et seradonc a valeurs dans R+), N(t) le nombre de sinistres jusqu’au temps t,et S(t) le montant cumule de tous les sinistres survenus avant la date t.(S(t))t≥0 sera alors un processus croissant et a valeurs dans R+. D’apresles proprietes des lois composees et des fonctions generatrices (voir cha-pitres 2.3 et 2.4.6), rappelons la proposition suivante :

Proposition II.9 Soit (S(t))t≥0 un processus de Poisson compose de ca-racteristiques (λ,W1), et de fonction d’intensite cumulee µ. Pour r, t > 0,si GW est la fonction generatrice de W1,

h(r, t) = E(rS(t)

)= e−µ(t)(1−GW (r)),

d’ou

E (S(t)) =d

dr

[E(rS(t)

)]|r=1

= λtG′W (1) = µ(t)E(W1)

50

Page 52: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

et

V ar (S(t)) =d2

dr2

[E(rS(t)

)]|r=1

= µ(t)E(W 2

1

).

Preuve :Exercice de revision.

51

Page 53: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 8

Proprietes de Markov etmartingales

8.1 Proprietes de Markov

Tout processus de Poisson homogene est a accroissements independants etstationnaires, et verifie donc la propriete de Markov faible et la proprietede Markov forte. En particulier, si (N(t))t≥0 est un processus de Poissonhomogene d’intensite λ, alors pour tout s ≥ 0, (N(t + s) − N(s))t≥0 estun processus de Poisson d’intensite λ independant de (N(u))u≤s. De plus,si τ est un temps d’arret, alors (N(t+ τ)−N(τ))t≥0 est un processus dePoisson d’intensite λ independant de (N(u))u≤τ .

8.2 Martingales

Theoreme II.4 Soit (N(t))t≥0 un processus de Poisson homogene d’in-tensite λ. Alors

N(t)− λt,

eteαN(t)−(eα−1)λt

sont des martingales par rapport a la filtration naturelle de (N(t))t≥0.

Ce resultat se generalise sans peine aux processus de Poisson inhomogeneset aux processus de Poisson composes.

52

Page 54: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 9

Thinning, superpositionet conditionnement

9.1 Thinning et superposition

Theoreme II.5 Soit (S(t))t≥0 un processus de Poisson compose defini apartir d’un processus de Poisson homogene de parametre λ et d’une suitede v.a. i.i.d. (Wi)i≥1. Soit k ≥ 1, et A1, . . . , Ak une partition de R. Pour1 ≤ j ≤ k, soit (Nj(t))t≥0 le processus de comptage defini pour t ≥ 0 par

Nj(t) =N(t)∑i=1

1Wi∈Aj,

et Nj(t) = 0 si N(t) = 0.Alors les (Nj(t))t≥0 sont des processus de Poisson homogenes independantsde parametres respectifs λ.P (W1 ∈ Aj).

En particulier, en assurance non-vie, en prenant A1 = 0, A2 =]0,+∞[,et A3 =] − ∞, 0[, comme P (W1 ∈ A3) = 0, si le processus decrivant lenombre de sinistres (nuls et non nuls) jusqu’au temps t est un processus dePoisson homogene d’intensite λ, alors celui decrivant le nombre de sinistresnon nuls jusqu’au temps t est un processus de Poisson de parametre λ(1−P (W1 = 0)). Separer un processus de Poisson d’une telle maniere se ditthinning. Le contraire, l’addition de processus de Poisson independantss’appelle superposition.

Theoreme II.6 Soit k ≥ 2, et (Nj(t))t≥0, 1 ≤ j ≤ k des processusde Poisson homogenes d’intensite λ1, . . . , λk. Alors (N(t))t≥0 defini pourt ≥ 0 par

N(t) = N1(t) + · · ·+Nk(t)

est un processus de Poisson d’intensite λ1 + · · ·+ λk.

53

Page 55: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Ce theoreme se generalise sans peine a des processus de Poisson inho-mogenes.

9.2 Conditionnement

Dans cette section, on s’interesse a la position des instants de sauts sachantqu’il y en a n entre 0 et T . On commence par le cas le plus facile, celuid’un processus homogene, et on generalise ensuite les resultats pour unprocessus de Poisson inhomogene.

9.2.1 Cas d’un processus de Poisson homogene

Soit U1, . . . , Un, . . . des variables aleatoires independantes et uniformementdistribuees sur un intervalle de temps fini et fixe [0, T ]. Soit S1, . . . , Sn, . . .les instants de sauts d’un processus de Poisson homogene d’intensite λ.

Theoreme II.7 Conditionnellement a N(T ) = n, l’ensemble des ins-tants de sauts S1, . . . , Sn a la meme loi que U1, . . . , Un.En d’autres termes, le vecteur aleatoire (S1, . . . , Sn) a la meme loi quen-eme statistique d’ordre sur [0, T ], i.e. sa densite est donnee pour 0 ≤t1 ≤ · · · ≤ tn ≤ T par

f(S1,...,Sn)(t1, . . . , tn) =1

Tn/n!=

n!Tn

.

Rappelons que si U1, . . . , Un sont des variables independantes uniformementdistribuees sur [0, T ], les (Vi)1≤i≤n definis a partir des Ui en les rangeantpar ordre croissant forment la n-eme statistique d’ordre sur [0, T ]. Les Uiont pour densite jointe

f(U1,...,Un)(t1, . . . , tn) =1Tn

1∀i,0≤ti≤T,

alors que les Vi ont pour densite

f(V1,...,Vn)(t1, . . . , tn) =n!Tn

10≤t1≤···≤tn≤T.

Le theoreme II.7 permet de demontrer directement le resultat suivant,qui pourrait aussi etre obtenu a partir de l’independance de N(s) et deN(t)−N(s) pour s < t.

Theoreme II.8 Soit (N(t))t≥0 un processus de Poisson homogene. Pours < t et pour tous 0 ≤ m ≤ n, la loi de N(s) sachant que N(t) = n estune loi binomiale de parametres (n, s/t) :

P (N(s) = m | N(t) = n) = Cmn

(st

)m (1− s

t

)n−m.

54

Page 56: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Remarquons que les lois conditionnelles obtenues dans les theoremes II.7et II.8 ne dependent pas de λ. L’homogeneite est synonyme de symetrie,qui est brisee des que l’intensite n’est plus constante. Les generalisationsdes deux theoremes precedents au cas inhomogene feront donc apparaıtrecette dissymetrie en faisant intervenir la fonction d’intensite et la fonctiond’intensite cumulee.

9.2.2 Cas d’un processus de Poisson inhomogene

Lorsque λ(t) n’est plus constant, sachant qu’il y a n sauts, la probabilitequ’un saut soit au voisinage d’un point u ∈ [0, T ] est d’autant plus eleveeque l’intensite λ(u) a ce point est elevee. En fait, on a le meme resultatque precedemment en tenant compte proportionnellement de la fonctiond’intensite.

Theoreme II.9 Soit (N(t))t≥0 un processus de Poisson inhomogene defonction d’intensite λ(t), et de fonction d’intensite cumulee µ(t) =

∫ t0λ(u)du.

Pour une date T > 0 fixee, soit hT la fonction de R dans R definie pourx ∈ R par

hT (x) =λ(x)µ(T )

.1[0,T ](x),

et soit U1, . . . , Un des variables aleatoires independantes de densite hT .Alors, sachant que N(t) = n, l’ensemble des instants de sauts S1, . . . , Sna la meme loi que l’ensemble des U1, . . . , Un.

On obtient aussi l’analogue du theoreme II.8 :

Theoreme II.10 Soit (N(t))t≥0 un processus de Poisson inhomogenede fonction d’intensite λ(t), et de fonction d’intensite cumulee µ(t) =∫ t0λ(u)du. Pour s < t et pour tous 0 ≤ m ≤ n, la loi de N(s) sachant que

N(t) = n est une loi binomiale de parametres (n, µ(s)/µ(t)) :

P (N(s) = m | N(t) = n) = Cmn

(µ(s)µ(t)

)m(1− µ(s)

µ(t)

)n−m.

55

Page 57: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Troisieme partie

Theorie de la ruine

56

Page 58: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Soit R(t) = u+X(t) un processus de risque classique :– (X(t))t≥0 est donc defini pour tout t ≥ 0 par

X(t) = ct−N(t)∑i=1

Wi,

– (N(t))t≥0 est un processus de Poisson homogene d’intensite λ,– les Wi sont des v.a.i.i.d. positives de moyenne µ et independantes de

(N(t))t≥0,– la somme est nulle si N(t) = 0,– le chargement de securite relatif

ρ =c− λµ

λµ> 0.

Definissons la probabilite de ruine

ψ(u) = P (∃t > 0, u+X(t) < 0)

et la probabilite de non-ruine (ou de survie)

ϕ(u) = 1− ψ(u) = P (∀t > 0, u+X(t) ≥ 0) .

Theoreme III.1 (Equation integro-differentielle)Pour tout u ≥ 0,

ϕ′d(u) =λ

c

(ϕ(u)−

∫ u

0

ϕ(u− y)dFW (y)). (9.1)

Preuve :Pour h > 0,

ϕ(u) = E (ϕ(u+X(T1 ∧ h))) .

L’idee est de distinguer les cas T1 ≤ h (dans ce cas le processus repart apresun temps aleatoire T1 de la position aleatoire u + cT1 −W1) et T1 > h(dans ce cas, le processus repart apres un temps h de la position u+ch). Laperte de memoire de la loi exponentielle nous garantit la perte de memoiredu processus de Poisson (N(t))t≥0, et donc du processus (X(t))t≥0 qui estsans memoire.

ϕ(u) = ϕ(u+ ch)P (T1 > h) +∫ h

0

fT1(t)∫ +∞

0

ϕ(u+ ct− y)dFW1(y)dt.

En inversant les signes, en rajoutant ϕ(u+ ch) a droite et a gauche, et endivisant par h, on obtient

ϕ(u+ ch)− ϕ(u)h

= ϕ(u+ch)(

1− e−λh

h

)− 1h

∫ h

0

λe−λt∫ +∞

0

ϕ(u+ct−y)dFW1(y)dt.

57

Page 59: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

En passant a la limite lorsque h ↓ 0, en utilisant la continuite a droite deϕ et le fait que

1h

∫ h

0

g(t)dt→ g(0)

quand h→ 0 pour toute fonction g continue a droite, on obtient

cϕ′d(u) = λ

(ϕ(u)−

∫ +∞

0

ϕ(u− y)dFW (y)),

ce qui fournit le resultat demande en observant que ϕ(x) = 0 pour x < 0.

On obtient de meme pour tout u ≥ 0,

ϕ′g(u) =λ

c

(ϕ(u)−

∫ u−

0

ϕ(u− y)dFW (y)). (9.2)

Dans le cas ou FW est continue, les derivees a droite et a gauche sont lesmemes pour tout u et correspondent donc a ϕ′(u).

Placons-nous dans le cas ou W1 admet une densite fW1 .

Proposition III.1 (Equation integrale)Pour tout u ≥ 0,

ϕ(u) = ϕ(0) +λ

c

∫ u

0

ϕ(u− y)(1− FW (y))dy. (9.3)

Preuve :D’apres (9.2), pour u > 0,

ϕ′(u) =λ

c(ϕ(u)− (ϕ ∗ fW )(u)) .

En prenant la transformee de Laplace, on obtient pour s > 0

sLϕ(s)− ϕ(0) =λ

cLϕ(s)− λ

cLϕ(s).sLFW

(s). (9.4)

En effet, rappelons que

Lϕ′(s) =∫ +∞

0

ϕ′(u).e−sudu =[ϕ(u).e−su

]+∞0

+∫ +∞

0

ϕ(u).se−sudu = −ϕ(0)+sLϕ(s)

en utilisant une integration par parties classique. De la meme maniere,Lϕ∗fW

= Lϕ.LfW, et donc comme FW (0) = 0,

LfW(s) = LF ′

W(s) = FW (0) + sLFW

(s) = sLFW(s).

58

Page 60: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

En divisant par s l’equation (9.4), on obtient

Lϕ(s) =ϕ(0)s

c

(Lϕ(s)

(1s− LFW

(s)))

..

Or, pour toute constante C > 0,

LC(s) =C

s,

donc1s− LFW

(s) = L1−FW(s)

et on obtient pour tout s > 0

Lϕ(s) = Lϕ(0)+ λc ϕ∗(1−FW )(s),

ce qui donne le resultat recherche d’apres l’injectivite de la transformeede Laplace.

Proposition III.2

ϕ(+∞) = limu→+∞

ϕ(u) = 1.

Preuve :ϕ est une fonction croissante. Pour n ≥ 1,

ϕ(n) = E(1infX(t)<−n

).

Or In = 1infX(t)>−n est une suite croissante de v.a., qui tend vers1 presque surement. En effet, comme ρ > 0, d’apres la loi des grandsnombres, X(t) → +∞ quand t → +∞, et donc le processus est positif apartir d’un certain temps (aleatoire) T fini presque surement, et l’infimumpris sur le compact [0, T ] est donc fini. D’apres le theoreme de convergencemonotone,

limE(In) = E (lim In) = E(1) = 1.

En passant a la limite dans l’equation (9.3), on obtient

ϕ(0) = 1− λµ

c,

ce qui constitue un resultat tres robuste qui ne depend de FW que par lamoyenne µ de W .

59

Page 61: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Dans le cas ou W ∼ Exp(1/µ), d’apres l’equation integro-differentielle(9.2), pour tout u ≥ 0,

ϕ′(u) =λ

c

(ϕ(u)−

∫ u

0

ϕ(u− y)e−y/µdy)

c

(ϕ(u)−

∫ u

0

ϕ(y)e−(u−y)/µdy

).

(9.5)En derivant par rapport a u, on obtient

ϕ′′(u) =λ

cϕ′(u)− λ

c

(−1)µ

∫ u

0

ϕ(y)e−(u−y)/µdy − λ

cµϕ(u). (9.6)

(Par exemple factoriser le e−u/µ a l’exterieur de l’integrale puis deriver leproduit). Remarquons que d’apres (9.2), le second terme de droite dans(9.6) est egal a

−λc

(−1)µ

∫ u

0

ϕ(y)e−(u−y)/µdy =1µ

cϕ(u)− ϕ′(u)

).

L’equation (9.6) se simplifie donc en

ϕ′′(u) =λ

cϕ′(u) +

cϕ(u)− ϕ′(u)

)− λ

cµϕ(u),

et donc

ϕ′′(u) =(λ

c− 1µ

)ϕ′(u).

SoitR =

λ

c− 1µ

µ(1 + ρ).

En integrant deux fois, on obtient

ϕ(u) = C1 + C2e−Ru.

C1 = ϕ(+∞) = 1 et

ϕ(0) = C1 + C2 = 1− 11 + ρ

,

d’ou pour u ≥ 0,

ϕ(u) = 1− 11 + ρ

e−Ru (9.7)

etψ(u) =

11 + ρ

e−Ru. (9.8)

60

Page 62: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

9.3 Methodes de martingales

Appliquons le theoreme d’arret optimal de Doob a la martingale (M(t))t≥0

(exercice : montrer qu’il s’agit bien d’une martingale par rapport a lafiltration naturelle de (M(t))t≥0) definie par

M(t) =e−r(u+X(t))

E[e−rX(t)

] ,ou r ≥ 0 est tel que

E[e−rX(t)

]< +∞,

et au temps d’arret Tu ∧ t0, ou

Tu = inft ≥ 0, u+X(t) < 0

est la variable aleatoire defective representant l’instant de ruine, et t0 estun reel positif fixe. On obtient en conditionnant par Tu ≤ t0 ou Tu > t0

e−ru = E[M(0)] = E [M(Tu ∧ t0)] (9.9)e−ru = E [M(Tu ∧ t0) | Tu ≤ t0]P (Tu ≤ t0) + E [M(Tu ∧ t0) | Tu > t0]P (Tu > t0)e−ru ≥ E [M(Tu) | Tu ≤ t0]P (Tu ≤ t0) . (9.10)

Rappelons que pour utiliser le theoreme d’arret de Doob (voir cours de2eme annee), il faut (le plus souvent) avoir un temps d’arret, qui doit etrefini presque surement. Or,

P (Tu = +∞) = ϕ(u) > 0

des que ρ > 0. La solution classique consiste a appliquer le theoremed’arret au temps d’arret Tu ∧ t0 (qui est toujours fini car inferieur a t0 <∞), et a passer a la limite (t0 → +∞) pour obtenir le resultat avec Tu.On a donc d’apres (9.10)

P (Tu ≤ t0) ≤e−ru

E [M(Tu) | Tu ≤ t0]. (9.11)

Or

1E [M(Tu) | Tu ≤ t0]

=1

E[e−r(u+X(Tu))

eg(r)Tu| Tu ≤ t0

] ≤ 1E[

1eg(r)Tu

| Tu ≤ t0] ,

ou g(r) est defini parE[e−rX(t)

]= eg(r)t

et est egal ag(r) = λ

(E[erW

]− 1)− rc, (9.12)

61

Page 63: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

car sachant que Tu est fini, u+X(Tu) < 0. Donc l’inequation (9.11) devient

P (Tu ≤ t0) ≤e−ru

E[e−g(r)Tu | Tu ≤ t0

] . (9.13)

On a conditionne par rapport a l’evenement Tu ≤ t0, et donc

E[e−g(r)Tu | Tu ≤ t0

]≥ inf

0≤t≤t0e−tg(r),

et1

E[e−g(r)Tu | Tu ≤ t0

] ≤ 1inf0≤t≤t0 e−tg(r)

= sup0≤t≤t0

etg(r).

Cela permet de reecrire (9.13) en

P (Tu ≤ t0) ≤ e−ru sup0≤t≤t0

etg(r).

En passant a la limite quand t0 → +∞, on obtient

ψ(u) = P (Tu < +∞) ≤ e−ru supt≥0

etg(r).

Pour que la borne soit finie et presente un interet, il faut que r soit le plusgrand possible tout en ayant g(r) ≤ 0. Il faut donc prendre

R = supr ≥ 0, g(r) ≤ 0.

Dans le cas ou W ∼ Exp(1/µ), on retrouve la valeur de l’exposant deCramer-Lundberg

R =ρ

µ(1 + ρ),

qui est ici le nombre strictement positif qui verifie g(R) = 0. On obtientalors dans le cas general l’inegalite de Cramer-Lundberg

ψ(u) ≤ e−Ru. (9.14)

Le cas ou W ∼ Exp(1/µ) nous montre que la valeur de R est optimale. Ilexiste dans de nombreux cas des inegalites doubles qui permettent d’en-cadrer la probabilite de ruine par deux fonctions de type Ceru.On a applique le theoreme de Doob a la martingale exponentielle pourpouvoir utiliser le theoreme de convergence dominee : u + X(t) → +∞presque surement quand t → +∞, et donc e−r(u+X(t)) va tendre vers 0presque surement.L’inequation (9.11) a ete obtenue en passant de (9.9) a (9.10) en minorantbrutalement par 0 le terme

E [M(Tu ∧ t0) | Tu > t0]P (Tu > t0) .

62

Page 64: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

En prenant r = R, on peut montrer que ce terme tend vers 0 lorsque t0 →+∞. Rappelons que dans ce cas g(R) = 0 et que M(t) s’ecrit simplement

M(t) = e−R(u+X(t)).

Ceci nous permet d’ecrire

0 ≤ E [M(Tu ∧ t0) | Tu > t0]P (Tu > t0) = E[e−R(u+X(t0)).1Tu>t0

],

et commeTu > t0 ⊂ u+X(t0) ≥ 0,

on obtient l’inegalite

0 ≤ E [M(Tu ∧ t0) | Tu > t0]P (Tu > t0) ≤ E[e−R(u+X(t0)).1u+X(t0)≥0

]≤ 1.

(9.15)Or quand t→ +∞,

u+X(t) → +∞ p.s.,

ce qui implique que lorsque t0 → +∞,

1u+X(t0)≥0 → 0 p.s..

D’apres le theoreme de convergence dominee, on peut passer a la limitedans l’inequation (9.15), ce qui donne a partir de (9.9) l’egalite suivante :

ψ(u) =e−Ru

E[e−R(u+X(Tu)) | Tu < +∞

] . (9.16)

Exercice III.1 Dans le cas ou W ∼ Exp(1/µ), utiliser la perte de memoirede la loi exponentielle et l’equation (9.16) pour retrouver la formule exactede la probabilite de ruine dans le cas exponentiel (9.8).

Cet exercice sera corrige en seance de TD. Il est vivement conseille de lefaire auparavant. Conseil : utiliser le conditionnement par rapport a latribu qui correspond a l’information disponible sur le processus (X(t))t≥0

jusqu’a ”juste avant la ruine” (c’est-a-dire obtenue a des temps strictementinferieurs a Tu) :

FT−u = σ (A ∩ t < Tu, A ∈ Ft, t > 0) ,

ou (Ft)t≥0 est la filtration naturelle du processus (X(t))t≥0.

63

Page 65: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Sixieme partie

Appendice, pense-bete

95

Page 66: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 33

Lois usuelles

33.1 Lois de probabilite usuelles

Distribution Probabilites pk ParametresUniforme discrete 1/N , k = 1, 2, . . . , N N = 1, 2, . . .Bernoulli p1 = p, p0 = q 0 6 p 6 1, q = 1− pBinomiale Cknp

kqn−k, k = 0, 1, . . . , n 0 6 p 6 1, q = 1− p, n = 1, 2, . . .Poisson e−λ λ

k

k! , = 0, 1, . . . λ > 0Geometrique qk−1p, k = 0, 1, . . . 0 6 p 6 1, q = 1− pBinomiale negative Cr−1

k−1prqk−r, k = r, r + 1, . . . 0 6 p 6 1, q = 1− p, r = 1, 2, . . .

96

Page 67: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Distribution Densite ParametresUniforme sur [a, b] 1/(b− a), a 6 x 6 b a, b ∈ R ; a < b

Normale ou Gaussienne (2πσ2)−1/2e−(x−µ)2/(2σ2), x ∈ R µ ∈ R, σ > 0Log-normale 1

σx√

2πexp

(− (log x−µ)2

2σ2

), x > 0 µ ∈ R, σ > 0

Rayleigh xe−x2/2, x > 0

Gamma xα−1e−x/β

Γ(α)βα , x > 0 α > 0, β > 0

Beta xr−1(1−x)s−1

B(r,s) , 0 6 x 6 1 r > 0, s > 0Exponentielle (Γ, α = 1, β = 1/λ) λe−λx, x > 0 λ > 0Laplace 1

2λe−λ|x|, x ∈ R λ > 0

Chi-deux, χ2 (Γ, α = n/2, β = 2) 2−n/2xn/2−1e−x/2

Γ(n/2) , x > 0 n = 1, 2, . . .

Student, tΓ( 1

2 (n+1))(nπ)1/2Γ(n/2)

(1 + x2

n

−(n+1)/2)

, x ∈ R n = 1, 2, . . .

F (m/n)m/2

B(m/2,n/2)xm/2−1

(1+mx/n)m+n)/2 m,n = 1, 2, . . .Cauchy θ

π(x2+θ2) , x ∈ R θ > 0

Logistique e−(x−α)/β

(1+e−(x−α)/β)2α ∈ R, β > 0

Weibull αθxα−1e−θxα

, x > 00 < α < 1,θ > 0

Gumbel exp(x− ex), x ∈ R

Pareto αkαx−(α+1), x > kk > 0,a > 0,x > k

97

Page 68: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 34

Types de convergence

34.1 Convergence en Loi

Nous considerons ici une analyse classique de la convergence de mesuresde probabilite appelee convergence en loi, sachant que d’autres approchesutilisant des distances entre lois de probabilite (on peut par exempleconstruire une distance entre lois de probabilite absolument continues parrapport a une mesure dominante, comme la distance associee a la normeL1 des densites de probabilite par rapport a cette mesure dominante).

Definition VI.1 Convergence complete d’une suite de fonctionsde repartitionSoit Fn une suite de fonctions de repartition sur Rk, k ∈ N et F unefonction de repartition sur Rk. On dit que Fn converge completement versF et on note Fn

c−→ F si Fn(x) converge vers F (x) en tout point x ∈ Rkde continuite de F .

Remarques :– On a deja etudie l’ensemble de continuite d’une fonction de repartition

dans Rn.– Considerons une suite de fonctions de repartition Fn convergeant vers

une fonction F en tout point de continuite de F . F n’est pas forcementune fonction de repartition. Par exemple, considerons la suite Fn definiepar Fn(x) = 0, si x 6 −n, Fn(x) = 1

2 , si x ∈] − n, n] et Fn(x) = 1 six > n. limFn(x) = 1

2 pour tout x et F n’est pas une fonction derepartition.

Definition VI.2 Convergence etroite d’une suite de mesures borneessur Rk

Soit P, P1, P2, . . . une suite de mesures positives bornees sur(Rk,B(Rk)

).

On dit que Pn converge etroitement vers P et on note Pne−→ P , si pour

98

Page 69: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

toute fonction reelle f definie sur Rk continue bornee, on a :∫f(x)dPn(x) −→

∫f(x)dP (x).

– Remarques :– Traduction anglaise de convergence etroite : weak convergence.– La definition donnee pour des mesures positives bornees (ou finies,

c’est-a-dire Pn(Rk) < ∞) s’applique en particulier a des mesures deprobabilite.

– La notion de convergence etroite s’etend a des espaces metriques quel-conques munis de leur tribu borelienne.

– On peut reecrire de maniere equivalente∫f(x)dPn(x) −→

∫f(x)dP (x)

comme∫f(x)dFn(x) −→

∫f(x)dF (x) ou F, F1, F2, . . . sont les fonc-

tions de repartition associees aux mesures P, P1, P2, . . ..

Theoreme VI.1 Helly-Bray (convergence complete⇒ convergence etroite)Si Fn est une suite de fonctions de repartition sur Rk, k ∈ N convergeantcompletement vers une fonction de repartition sur Rk, F . Alors pour toutefonction f definie sur Rk, continue bornee :∫

f(x)dFn(x) −→∫f(x)dF (x)

quand n→∞.

– Remarque : Notons Pn la mesure de probabilite sur (Rk,B(Rk)) defonction de repartition Fn et P la mesure de probabilite associee a F .

– La convergence complete des Fn implique la convergence etroite des me-sures de probabilite Pn. Il existe une reciproque au theoreme precedent.

Theoreme VI.2 equivalence entre convergence complete et conver-gence etroiteSoit F, F1, F2, . . . les fonctions de repartition sur Rk, k ∈ N de probabilitesP, P1, P2, . . . sur

(Rk,B(Rk)

). Alors :

Pne−→ P ⇔ Fn

c−→ F.

La demonstration des deux theoremes precedents est admise. Dans le casde mesures de probabilite admettant des densites, il existe un critere simplepour verifier la convergence etroite.

Propriete VI.1 convergence etroite de mesures absolument conti-nuesSoit (Pn) une suite de mesures de probabilites sur

(Rk,B(Rk)

)admettant

une densite fn par rapport a la mesure de Lebesgue sur Rk. Si fn convergepresque partout (pour la mesure de Lebesgue sur Rk) vers une fonction dedensite f , alors Pn converge etroitement vers P la mesure de probabilitesur

(Rk,B(Rk)

)de densite f .

99

Page 70: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Sauf dans le cas de lois absolument continues par rapport a la mesure deLebesgue, le concept de convergence complete est un peu delicat a manierdans Rk (car il faut etudier l’ensemble de continuite de la loi limite). Onpeut neanmoins proceder avec l’approche suivante :

Definition VI.3 Convergence etroite d’une suite de mesures borneessur Rk

Soit P, P1, P2, . . . une suite de mesures de probabilite sur(Rk,B(Rk)

). On

dit que Pn converge etroitement vers P et on note Pne−→ P , si pour tout

A ∈ B(Rk) tel que P (∂A) = 0, on a Pn(A) −→ P (A) quand n→∞.

Propriete VI.2 Les deux definitions de convergence etroite sont equivalentes.Elles sont en outre equivalentes a :

(a) lim inf Pn(A) > P (A) pour tout A ouvert.

(b) lim supPn(A) 6 P (A) pour tout A ferme.

– Remarques :– ∂A est la frontiere de A definie par ∂A = A∩Ac ou A est la fermeture

de A.– Dans cette definition, on ne demande pas la convergence pour tout

ensemble mesurable, mais simplement pour tout ensemble mesurabledont la frontiere n’est pas chargee pour la probabilite limite P .

Pour terminer considerons une derniere presentation de la convergenceparfois utilisee :

Definition VI.4 Convergence vague d’une suite de mesures borneessur Rk

Soit P, P1, P2, . . . une suite de mesures positives bornees sur(Rk,B(Rk)

).

On dit que Pn converge vaguement vers P et on note Pnv−→ P , si pour

toute fonction reelle f definie sur Rk continue a support compact, ona : ∫

f(x)dPn(x) −→∫f(x)dP (x).

– Remarques :– On montre qu’il est equivalent de dire :

(a) Pn converge etroitement vers P .

(b) Pn converge vaguement vers P et en outre Pn(Rk) → P (Rk).– Dans le cas ou P, P1, P2, . . . sont des mesures de probabilite, la condi-

tion Pn(Rk) → P (Rk) est automatiquement verifiee puisque Pn(Rk) =P (Rk) = 1.

– On peut alors se limiter a la condition∫f(x)dPn(x) −→

∫f(x)dP (x)

pour toute fonction f continue a support compact.– C’est parfois cette derniere definition qui est fournie pour la conver-

gence etroite de mesures de probabilite.

100

Page 71: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Il existe une autre approche tres simple pour etudier la convergence etroite,qui utilise les fonctions caracteristiques et ne fait pas appel a l’etude de lacontinuite de la fonction de repartition jointe.

Propriete VI.3 Si F, F1, F2, . . . sont des fonctions de repartition sur Rk,k ∈ N avec des transformees de Fourier associees ϕ,ϕ1, ϕ2, . . . et si Fn

c−→F alors ϕn(t) −→ ϕ(t) pour tout t ∈ Rk.Demonstration : voir l’exercice (VI.1).

Exercice VI.1 Montrer que si F, F1, F2, . . . sont des fonctions de repartitionsur Rk, k ∈ N de transformees de Fourier associees ϕ,ϕ1, ϕ2, . . . et siFn

c−→ F alors ϕn(t) −→ ϕ(t) pour tout t ∈ Rk.Corrige :– C’est une consequence directe du theoreme de Helly-Bray.– Pour tout t ∈ Rk donne, les fonctions qui a x ∈ Rk associent R

(ei<t,x>

)et I

(ei<t,x>

)sont continues bornees.

–∫ei<t,x>dFn(x) −→

∫ei<t,x>dF (x), c’est-a-dire ϕn(t) −→ ϕ(t).

Theoreme VI.3 de continuite (dit de Levy)Soit (ϕn), n ∈ N, une suite de transformees de Fourier, de mesures deprobabilite Pn sur

(Rk,B(Rk)

), k ∈ N. Si ϕn converge en tout point de Rk

vers une fonction ϕ continue au point (0, 0, . . . , 0), alors ϕ est la trans-formee de Fourier d’une mesure de probabilite P sur

(Rk,B(Rk)

)et Pn

converge etroitement vers P .

Remarques :– Ce theoreme (admis) etablit une reciproque de la propriete precedente.– Attention : toute fonction n’est pas la transformee de Fourier d’une

mesure (il faut par exemple qu’il y ait continuite uniforme). Il existeplusieurs proprietes permettant de caracteriser des situations ou unefonction donnee est une fonction caracteristique.

– Si ϕn(t) converge vers une fonction caracteristique ϕ(t) d’une proba-bilite P , alors le theoreme s’applique car ϕ est continue en zero et Pnconverge vers la probabilite P .

Corollaire VI.1 continuite de la convolutionSoit (Pn) et (Qn) deux suites de mesures de probabilite sur

(Rk,B(Rk)

)convergeant etroitement, respectivement vers P et Q. Alors (Pn ∗ Qn)converge etroitement vers P ∗Q.

Demonstration : La demonstration est immediate en utilisant le fait quela transformee de Fourier de Pn ∗ Qn est le produit des transformees deFourier et le theoreme de Levy.

Definition VI.5 convergence en loiSoit Xn une suite de vecteurs aleatoires definis sur un espace probabilisea valeurs dans Rk, k ∈ N. On dit que Xn converge en loi vers le vecteuraleatoire X (a valeurs dans Rk) et on note Xn

L→ X si :

PXne→ PX .

101

Page 72: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Remarque :– Si Fn, F sont les fonctions de repartition de Xn, X, la convergence en

loi de Xn vers X est equivalente a la convergence de Fn(x) vers F (x)en tout point de continuite de F .

Corollaire VI.2 Cramer-WoldSoit Xn une suite de vecteurs aleatoires definis sur un espace probabilisea valeurs dans Rk, k ∈ N. Xn converge en loi vers le vecteur aleatoire X(a valeurs dans Rk) si et seulement si pour tout λ = (λ1, . . . , λk) ∈ Rk,λ′Xn converge en loi vers λ′X.

Demonstration : voir l’exercice VI.2.

Exercice VI.2 Cramer-WoldSoit Xn une suite de vecteurs aleatoires definis sur un espace probabi-lise a valeurs dans Rk, k ∈ N. Montrer que Xn converge en loi versle vecteur aleatoire X (a valeurs dans Rk) si et seulement si pour toutλ = (λ1, . . . , λk) ∈ Rk, λ′Xn converge en loi vers λ′X.

Corrige : on utilise les fonctions caracteristiques :– Supposons que Xn converge en loi vers X, c’est-a-dire que PXn converge

etroitement vers PX .– D’apres le theoreme de continuite, il est equivalent de dire que

∫eit

′xdPXn(x)converge vers

∫eit

′xdPX(x) pour tout t ∈ Rk, c’est-a-dire d’apres le

theoreme de transfert que E[eit

′Xn

]converge vers E

[eit

′X]

ou encoreavec les notations habituelles que ϕXn(t) converge vers ϕX(t).

– Soit u ∈ R. ϕλ′Xn(u) = E[eiuλ

′Xn

]= ϕXn(uλ) → ϕX(uλ) = ϕλ′X(u).

– D’apres le theoreme de continuite, λ′Xn converge en loi vers λ′X.– Reciproquement, supposons que λ′Xn converge en loi vers λ′X pour

tout λ ∈ Rk.– Dans ce cas, ϕλ′Xn

(1) → ϕλ′X(1) en appliquant le theoreme de conti-nuite.

– En utilisant ϕXn(λ) = ϕλ′Xn(1) et ϕXn(λ) = ϕλ′Xn(1), on obtient laconvergence en loi de Xn vers X.

Remarque :– En prenant λi = 1 et λj = 0, j 6= i, on obtient que la convergence

en loi du vecteur aleatoire Xn vers le vecteur aleatoire X implique laconvergence en loi des composantes de Xn, Xi

n vers les composantes deX, Xi.

– En revanche, la reciproque est fausse.– Considerons par exemple X ∼ N(0, 1) et les suite Xn = X, Yn =

(−1)nX. Xn et Yn convergent en loi vers X.– La suite (Xn, Yn) ne converge pas en loi (ni la fonction de repartition

jointe, ni la fonction caracteristique jointe ne convergent) et par consequent(Xn, Yn) ne converge pas en loi vers (X,X).

102

Page 73: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Corollaire VI.3 Soit (Xn) une suite de vecteurs aleatoires convergeanten loi vers X, tous ces vecteurs aleatoires etant definis sur un espaceprobabilise (Ω,A, P ) et a valeurs dans Rk. Soit h une fonction continuede Rk dans Rm. Alors h(Xn) converge en loi vers h(X)

Demonstration : voir exerice (VI.3).

Exercice VI.3 Soit (Xn) une suite de vecteurs aleatoires convergeant enloi vers X, tous ces vecteurs aleatoires etant definis sur un espace proba-bilise (Ω,A, P ) et a valeurs dans Rk. Soit h une fonction continue de Rkdans Rm. Montrer que h(Xn) converge en loi vers h(X)

Corrige :– Soit t ∈ Rm donne. La fonction x → eit

′h(x) est une fonction continuebornee.

– D’apres le theoreme de Helly-Bray∫eit

′h(x)dPXn(x) →∫eit

′h(x)dPX(x),c’est-a-dire ϕh(Xn)(t) → ϕh(X)(t), ce qui montre la propriete d’apres letheoreme de P. Levy.

Propriete VI.4 equivalence entre convergence en loi et conver-gence simple des fonctions caracteristiquesSoit X et Xn, n ∈ N des vecteurs aleatoires a valeurs dans Rk definissur un espace probabilise (Ω,A, P ), de fonctions caracteristiques respecti-vement ϕ(t) et ϕn(t), t ∈ Rk. Alors,

XnL−→ X ⇐⇒ lim

n→∞ϕXn

(t) = ϕX(t), ∀t ∈ Rk.

Propriete VI.5 un exemple rare ou convergence en loi entraıneconvergence presque sureSoit X une variable aleatoire reelle definie sur un espace probabilise (Ω,A, P )et f0, f1, . . . une suite de fonctions reelles croissantes. Si fn(X) convergeen loi vers f0(X) alors fn(X) converge P -presque surement vers f(X).

Pour conclure, mentionnons que l’on peut s’interesser a la metrisabilite dela convergence en loi, c’est-a-dire a la possibilite de construire une distanceentre mesures de probabilite telle que la convergence etroite de mesures secaracterise par une distance entre les mesures et la mesure limite tendantvers 0.

34.2 Convergence presque sure et convergenceen probabilite

Definition VI.1 convergence presque sure Soit (Xn = (X1n, . . . , X

kn))

une suite de vecteurs aleatoires a valeurs dans Rk, k ∈ N definis sur unespace probabilise (Ω,A, P ). On definit l’ensemble de convergence des Xn

comme X→n = ω ∈ Ω,∃ limn→∞Xj

n(ω),∀j, 1 6 j 6 k. On dit que Xn

converge presque surement (ou presque-partout) si P (X→n ) = 1.

103

Page 74: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Definition VI.2 convergence presque sure Soit (Xn) une suite devecteurs aleatoires a valeurs dans Rk, k ∈ N definis sur un espace pro-babilise (Ω,A, P ). On dit que Xn converge presque surement (ou presque-partout) vers le vecteur aleatoire X lorsque n → ∞ et on note Xn

p.s→ X,si P (ω ∈ Ω, limXn(ω) = X(ω)) = 1.

Remarques :– En d’autres termes Xn converge simplement vers X sur un ensemble de

probabilite egale a un.– De maniere equivalente, l’ensemble des ω tels que Xn(ω) ne converge

pas vers X(ω) est negligeable.– La coherence entre les deux definitions est assuree par la propriete sui-

vante.

Propriete VI.1 Soit (Xn = (X1n, . . . , X

kn)) une suite de vecteurs aleatoires

a valeurs dans Rk, k ∈ N definis sur un espace probabilise (Ω,A, P )convergeant presque surement. Alors, il existe un vecteur aleatoire X,unique au sens de l’egalite P -presque sure, tel que Xn

p.s→ X.

Demonstration : voir exercice (VI.4).

Exercice VI.4 Soit (Xn = (X1n, . . . , X

kn)) une suite de vecteurs aleatoires

a valeurs dans Rk, k ∈ N definis sur un espace probabilise (Ω,A, P )convergeant presque surement. Montrer qu’il existe un vecteur aleatoireX, unique au sens de l’egalite P -presque sure, tel que Xn

p.s→ X.

Corrige :– Pour chaque j = 1, . . . , k, considerons Xj = infn>1 supm>nX

jm =

lim supXjn.

– Xj est defini de maniere sur Ω et est une variable aleatoire. X =(X1, . . . , Xk) est un vecteur aleatoire.

– Pour tout ω ∈ X→n , Xj

n(ω) converge et par consequent Xj(ω) =lim supXj

n(ω) = limXjn(ω).

– On en deduit que pour tout j = 1, . . . , k, Xjn converge vers Xj sur un

ensemble de probabilite egale a 1, ce qui montre la propriete.

Notation : Dans la suite, quand x = (x1, . . . , xk) ∈ Rk, on note par | x |,

la norme euclidienne de x, a savoir(∑k

j=1 x2j

)1/2

.

Theoreme VI.1 condition necessaire et suffisante de convergencepresque sureSoient X une variable aleatoire reelle et (Xn) une suite de variablesaleatoires reelles definies sur un espace probabilise (Ω,A, P ). Une condi-tion necessaire et suffisante pour que Xn

p.s→ X est que :

P

(ω ∈ Ω, sup

m>n| Xm(ω)−X(ω) |> ε

)→ 0, quand n→∞,

pour tout ε > 0.

104

Page 75: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Demonstration :– Notons Aεm = ω, | Xm(ω) − X(ω) |> ε et Aε =

⋂n>1

⋃m>nA

εm (en

langage ensembliste, il s’agit de lim supAεn).– On remarque que

ω ∈ Ω, supm>n | Xm(ω)−X(ω) |> ε

=⋃m>nA

εm

et la condition du theoreme s’exprime de maniere equivalente commelimn→∞ P

(⋃m>nA

εm

)= 0 pour tout ε > 0.

– On remarque que pour tout ε > 0, il existe k ∈ N tel que 1k < ε. On alors

Aεm ⊂ A1/km et donc

⋃m>nA

εm ⊂

⋃m>nA

1/km . En utilisant la croissance

de P ,– P

(⋃m>nA

εm

)6 P

(⋃m>nA

1/km

)et donc limn→∞ P

(⋃m>nA

εm

)6

limn→∞ P(⋃

m>nA1/km

).

– Il suffit donc de montrer la propriete pour des ε de la forme 1k avec

k ∈ N.– Examinons les ensembles de convergence, X→

n , et de non convergence,X→

n c de Xn,– ω ∈ X→

n ⇔ ∀k ∈ N∗,∃n ∈ N∗ tel que ∀m > n, | Xm(ω)−X(ω) |6 1k .

– En utilisant les proprietes des quantificateurs,– ω ∈ X→

n c ⇔ ∃k ∈ N∗,∀n ∈ N∗ tel que ∃m > n, | Xm(ω)−X(ω) |> 1k .

– En utilisant les definitions precedentes, on voit que :– ω ∈ X→

n c ⇔ ∃k ∈ N∗ tel que ω ∈⋂n>1

⋃m>nA

1/km , c’est-a-dire tel

que ω ∈ A1/k.– On a ainsi X→

n c =⋃k>1A

1/k.– La convergence presque sure des Xn est equivalente a :– P (X→

n c) = P(⋃

k>1A1/k)

= 0.

– P(⋃

k>1A1/k)

= 0 ⇔ P(A1/k

)= 0,∀k > 1.

– CommeA1/k =⋂n>1

⋃m>nA

1/km , P

(A1/k

)= 0 ⇔ limn→∞ P

(⋃m>nA

1/km

)=

0 par continuite decroissante de P .– Comme

⋃m>nA

1/km =

ω ∈ Ω, supm>n | Xm(ω)−X(ω) |> 1

k

, on ob-

tient la propriete annoncee.

Definition VI.3 convergence en probabiliteSoit (Xn) une suite de vecteurs aleatoires a valeurs dans Rk, k ∈ N definissur un espace probabilise (Ω,A, P ). On dit que Xn converge en probabilitequand n → ∞ vers le vecteur aleatoire X (et on note Xn

P→ X) si pourtout ε > 0,

limn→∞

P (| Xn −X |> ε) = 0.

Theoreme VI.2 convergence p.s implique convergence en proba-biliteSoit (Xn) une suite de vecteurs aleatoires a valeurs dans Rk, k ∈ N definissur un espace probabilise (Ω,A, P ) convergeant presque surement vers unvecteur aleatoire X. Alors Xn converge en probabilite vers X.

105

Page 76: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Demonstration : voir exercice (VI.5).

Exercice VI.5 convergence p.s implique convergence en proba-biliteSoit (Xn) une suite de vecteurs aleatoires a valeurs dans Rk, k ∈ N definissur un espace probabilise (Ω,A, P ) convergeant presque surement vers unvecteur aleatoire X. Montrer qu’alors Xn converge en probabilite vers X.

Corrige :– D’apres le theoreme precedent caracterisant la convergence presque sure,

on a :– ω ∈ Ω, | Xn(ω)−X(ω) |> ε ⊂

ω ∈ Ω, supm>n | Xm(ω)−X(ω) |> ε

.

D’ou :– P (ω ∈ Ω, | Xn(ω)−X(ω) |> ε) 6 P

(ω ∈ Ω, supm>n | Xm(ω)−X(ω) |> ε

).

– par passage a la limite en n, et en utilisant les notations simplifiees,– limn→∞ P (| Xn −X |> ε) 6 limn→∞ P

(supm>n | Xm −X |> ε

)=

0.

Definition VI.4 suite de cauchy pour la convergence en probabi-liteSoit (Xn) une suite de vecteurs aleatoires a valeurs dans Rk, k ∈ N definissur un espace probabilise (Ω,A, P ). On dit que Xn est une suite de Cauchypour la convergence en probabilite si et seulement si, pour tout ε > 0 :

limn,m→∞

P (| Xn −Xm |> ε) = 0.

On verifie immediatement qu’une suite de variables aleatoires convergeanten probabilite est une suite de Cauchy pour la convergence en probabilite.On montrera ulterieurement la reciproque.

Theoreme VI.3 Soit (Xn) une suite de vecteurs aleatoires a valeursdans Rk, k ∈ N definis sur un espace probabilise (Ω,A, P ) de Cauchypour la convergence en probabilite. Alors, on peut en extraire une soussuite (Xnk

) convergeant presque surement.

Demonstration :– La definition de Xn suite de Cauchy en probabilite peut se reecrire :– ∀ε > 0,∀h > 0,∃nh, n > nh,m > nh ⇒ P (| Xn −Xm |> ε) < h.– Prenons ε = h = 1

k2 pour k ∈ N∗.– ∃nk,∀n > nk,∀m > nk ⇒ P

(| Xn −Xm |> 1

k2

)< 1

k2 .– On peut prendre la suite nk croissante : si nk+1 < nk, on peut remplacernk+1 par nk + 1.

– On a en particulier P(| Xnk+1 −Xnk

|> 1k2

)< 1

k2 .–∑k>1 P

(| Xnk+1 −Xnk

|> 1k2

)<∑k>1

1k2 < ∞. On peut donc ap-

pliquer le lemme de Borel-Cantelli :– lim sup

| Xnk+1 −Xnk

|> 1k2

est negligeable.

– lim sup| Xnk+1 −Xnk

|> 1k2

=⋂n>1

⋃k>n

| Xnk+1 −Xnk

|> 1k2

.

– ω ∈⋂n>1

⋃k>n

| Xnk+1 −Xnk

|> 1k2

106

Page 77: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– ⇔ ∀n > 1,∃k > n, | Xnk+1(ω)−Xnk(ω) |> 1

k2

– ω ∈(⋂

n>1

⋃k>n

| Xnk+1 −Xnk

|> 1k2

)c– ⇔ ∃n > 1,∀k > n, | Xnk+1(ω)−Xnk

(ω) |6 1k2

– On en conclut que si ω ∈(lim sup

| Xnk+1 −Xnk

|> 1k2

)c (qui est deprobabilite 1), alors

–∑k>1 | Xnk+1(ω)−Xnk

(ω) |6∑k>1

1k2 <∞.

– La serie de terme general Xnk+1(ω) − Xnk(ω) est absolument conver-

gente, donc convergente.– Pour tout ω ∈

(lim sup

| Xnk+1 −Xnk

|> 1k2

)c, ∑pk+1Xnk+1(ω) −

Xnk(ω) = Xnp+1(ω)−Xn1(ω) converge quand p→∞.

– Ceci montre que l’ensemble de convergence de (Xnp) est de probabilite

1, c’est-a-dire que la suite (Xnp) converge presque surement.

Lemme VI.1 Soit X et Y deux vecteurs aleatoires a valeurs dans Rk,k ∈ N definis sur un espace probabilise (Ω,A, P ). Alors, pour tout ε > 0,

P (| X + Y |> ε) 6 P(| X |> ε

2

)+ P

(| Y |> ε

2

).

Demonstration :– Comme | X(ω) + Y (ω) |6| X(ω) | + | Y (ω) |,– | X(ω) + Y (ω) |> ε⇒| X(ω) | + | Y (ω) |> ε.– Si | X(ω) | + | Y (ω) |> ε, alors | X(ω) |> ε

2 ou | Y (ω) |> ε2 ,

– c’est-a-dire ω ∈| X |> ε

2

ou ω ∈

| Y |> ε

2

, ou encore

– | X + Y |> ε ⊂| X |> ε

2

⋃| Y |> ε

2

, ce qui donne le resultat du

lemme par croissance de P .

Propriete VI.2 Soit X1, X2, . . . une suite de vecteurs aleatoires a valeursdans Rk, k ∈ N, definis sur un espace probabilise (Ω,A, P ) convergeanten probabilite vers le vecteur aleatoire X. Alors X est unique au sens del’egalite presque sure.

Demonstration : voir exercice (VI.6).

Exercice VI.6 Soit X1, X2, . . . une suite de vecteurs aleatoires a valeursdans Rk, k ∈ N, definis sur un espace probabilise (Ω,A, P ) convergeanten probabilite vers le vecteur aleatoire X. Montrer en utilisant le lemme(VI.1) que X est unique au sens de l’egalite presque sure.

Corrige :– Supposons que Xn

P→ X et XnP→ Y .

– D’apres le lemme precedent,– 0 6 P (| X − Y |> ε) 6 P

(| X −Xn |> ε

2

)+P

(| Xn − Y |> ε

2

).

– De par la convergence en probabilite, le terme de droite tend vers 0quand n→∞ et donc pour tout ε > 0, P (| X − Y |> ε) = 0.

– Par la continuite en zero de P , on en deduit P (| X − Y |> 0) = 0,– soit P (X = Y ) = 1, ce qui montre l’egalite presque sure de X et Y .

107

Page 78: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Theoreme VI.4 Soit (Xn) une suite de vecteurs aleatoires a valeursdans Rk, k ∈ N definis sur un espace probabilise (Ω,A, P ) de Cauchypour la convergence en probabilite. Alors, il existe un vecteur aleatoire Xtel que Xn converge en probabilite vers X.

Demonstration : voir exercice (??).

Exercice VI.7 Soit (Xn) une suite de vecteurs aleatoires a valeurs dansRk, k ∈ N definis sur un espace probabilise (Ω,A, P ) de Cauchy pour laconvergence en probabilite. Montrer en utilisant le theoreme (VI.3) et lelemme (VI.1) qu’il existe un vecteur aleatoire X tel que Xn converge enprobabilite vers X.

Corrige :– Considerons Xnp la sous-suite presque surement convergente mise en

evidence au theoreme VI.3 et notons X sa limite.– Xnp

converge aussi en probabilite vers X d’apres le theoreme VI.2.– Pour tout ε > 0, d’apres le lemme VI.1, on a :– 0 6 P (| Xn −X |> ε) 6 P

(| Xn −Xnp

|> ε2

)+P

(| Xnp

−X |> ε2

).

– Quand p tend vers l’infini, np tend vers l’infini (c’est une suite crois-sante).

– Quand p et n tendent vers l’infini, P(| Xn −Xnp

|> ε2

)tend vers

zero car Xn est de Cauchy en probabilite.– De meme P

(| Xnp

−X |> ε2

)tend vers 0 quand n → ∞ et donc la

convergence en probabilite de Xn vers X.Remarques :– Par ailleurs, comme toute suite convergeant en probabilite est de cauchy

en probabilite et en vertu du theoreme VI.3, si Xn converge en probabi-lite vers X, il existe une sous-suite Xnp

convergeant presque surement.Notons Z cette limite.

– De par le theoreme VI.2, Xnpconverge aussi en probabilite vers Z.

– Par ailleurs, on remarque que Xnp converge en probabilite vers X.– De par l’unicite de la limite pour la convergence en probabilite, on en

conclut Z = X, c’est-a-dire que :– Si Xn converge en probabilite vers X, il existe une sous-suite Xnp

convergeant presque surement vers X.– Le theoreme suivant generalise cette propriete.

Theoreme VI.5 Soit X, (Xn) respectivement un vecteur aleatoire et unesuite de vecteurs aleatoires a valeurs dans Rk, k ∈ N, definis sur un es-pace probabilise (Ω,A, P ). Une condition necessaire et suffisante pour queXn

P→ X est que toute sous-suite de Xn contienne une sous-suite quiconverge presque-surement vers X.

Demonstration :– Condition necessaire :– Supposons Xn

P→ X.

108

Page 79: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– En ecrivant la definition de la convergence en loi, on remarque que toutesous-suite Xnp (np croissante en p) converge en loi vers X.

– De par la remarque precedente, il existe une sous-suite de Xnpqui

converge presque surement vers X, ce qui montre que la conditiondonnee est necessaire.

– Condition suffisante :– Raisonnons par l’absurde et supposons que toute sous-suite deXn contient

une sous-suite qui converge presque surement vers X mais que Xn neconverge pas en probabilite vers X.

– La condition de convergence en probabilite s’ecrit ∀ε > 0,∀h > 0,∃k ∈N,∀n > k, P (| Xn −X |> ε) < h.

– La non convergence s’ecrit ∃ε > 0,∃h > 0, ∀k,∃n > k, P (| Xn −X |>ε) > h.

– Notons nk ce n. On peut prendre nk croissant en k sans perte degeneralite.

– On a donc ∀k ∈ N, P (| Xnk− X |> ε) > h et ni Xnk

ni aucunesous-suite extraite de Xnk

ne converge en probabilite vers X.– Ainsi, aucune sous-suite de Xnk

ne converge presque surement car si elleconvergeait presque surement, elle convergerait aussi en probabilite.

– Ceci est en contradiction avec le point de depart.

Theoreme VI.6 invariance de la convergence en probabilite partransformation continueSoit X, (Xn) respectivement un vecteur aleatoire et une suite de vecteursaleatoires a valeurs dans Rk, k ∈ N, definis sur un espace probabilise(Ω,A, P ). Soit f une fonction mesurable de Rk dans Rl, l ∈ N, f etanten outre continue sur un borelien de Rk, B, tel que P (X ∈ B) = 1. SiXn

P→ X, alors f(Xn)P→ f(X)

Demonstration :– La demonstration est une consequence du theoreme precedent.– Considerons f(Xnj ) une sous-suite de f(Xn).– Comme Xnj converge en probabilite vers X (verifier la definition), il

existe une sous suite de Xnj, soit Xrj

(c’est aussi une sous suite de Xn)qui converge presque surement vers X.

– Notons A = X→rj⋂X ∈ B.

– A appartient, intersection de deux evenements appartient a A. Ces deuxevenements etant de probabilite 1, A est egalement de probabilite 1.

– Pour tout ω ∈ A, Xrj (ω) → X(ω).– Comme en outre f est continue sur A, on en deduit que f(Xrj

(ω)) →f(X(ω)), pour tout ω ∈ A, c’est-a-dire que :

– f(Xrj) converge presque surement vers f(X).

– D’apres le theoreme precedent f(Xn) converge en probabilite vers f(X).

Propriete VI.3 Soient X,X1, X2, . . . et Y, Y1, Y2, . . . deux suites de vec-teurs aleatoires a valeurs respectivement dans Rk, k ∈ N, et Rl, l ∈ N,

109

Page 80: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

definis sur un espace probabilise (Ω,A, P ). Si XnP→ X et Yn

P→ Y , alors(Xn, Yn)

P→ (X,Y ).

Demonstration : voir exercice (VI.8).

Exercice VI.8 Soient X,X1, X2, . . . et Y, Y1, Y2, . . . deux suites de vec-teurs aleatoires a valeurs respectivement dans Rk, k ∈ N, et Rl, l ∈N, definis sur un espace probabilise (Ω,A, P ). Montrer en utilisant lelemme (VI.1) que si Xn

P→ X et YnP→ Y , alors (Xn, Yn)

P→ (X,Y ).

Corrige :– Rappelons tout d’abord que (Xn, Yn) et (X,Y ) sont bien des vecteurs

aleatoires a valeurs dans Rk+l, definis sur (Ω,A, P )– Avec les notations precedentes, l’inegalite triangulaire donne :– | (Xn, Yn)− (X,Y ) |6| (Xn, Yn)− (X,Yn) | + | (X,Yn)− (X,Y ) |.– Par ailleurs, | (Xn, Yn)− (X,Yn) |=| Xn −X | et | (X,Yn)− (X,Y ) |=|Yn − Y |.

– Avec le meme raisonnement que dans le lemme precedent (VI.1), onmontre que :

– P (| (Xn, Yn)− (X,Y ) |> ε) 6 P(| Xn −X |> ε

2

)+P

(| Yn − Y |> ε

2

).

– Comme les deux quantites de droite convergent vers 0 quand n → ∞,on en conclut la convergence en probabilite de (Xn, Yn) vers (X,Y ).

Corollaire VI.1 Soient X,X1, X2, . . . et Y, Y1, Y2, . . . deux suites de va-riables aleatoires reelles definies sur un espace probabilise (Ω,A, P ). SiXn

P→ X et YnP→ Y et si f est une fonction reelle definie sur R2, conti-

nue sur un borelien B de R2, tel que P ((X,Y ) ∈ B) = 1, alors :

f(Xn, Yn)P→ f(X,Y ).

Demonstration : Ceci est une consequence immediate de la propriete VI.3et du theoreme VI.6.

Corollaire VI.2 Soient X,X1, X2, . . . et Y, Y1, Y2, . . . deux suites de vec-teurs aleatoires a valeurs dans Rk, k ∈ N definis sur un espace probabilise(Ω,A, P ). Si Xn

P→ X et YnP→ Y , alors :

(a) aXn + bYnP→ aX + bY , ∀a, b ∈ R

(b) 1Xn

P→ 1X si P (Xn 6= 0) = P (X 6= 0) = 1, ∀n.

(c) XnYnP→ XY

Theoreme VI.7 convergence en probabilite ⇒ convergence en loiSoit X,X1, X2, . . . une suite de vecteurs aleatoires a valeurs dans Rk,k ∈ N definis sur un espace probabilise (Ω,A, P ).

XnP→ X ⇒ Xn

L→ X.

110

Page 81: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Demonstration :– | ϕXn(t)−ϕX(t) |=| E

(ei<t,Xn> − ei<t,X>

)|6 E

(| ei<t,Xn> − ei<t,X> |

)(voir cours sur l’integration de fonctions a valeurs complexes).

– L’esperance precedente s’ecrit comme :–∫|Xn−X|>η | e

i<t,Xn> − ei<t,X> | dP +∫|Xn−X|6η | e

i<t,Xn> − ei<t,X> |dP .

– Comme | ei<t,Xn> − ei<t,X> |6 2, le premier terme est majore par :– 2P (| Xn −X |> η).– | ei<t,Xn> − ei<t,X> | represente la longueur de la corde qui relie les

points ei<t,Xn> et ei<t,X>, ces deux points etant sur le cercle unite.– La longueur de la corde etant inferieure a la longueur de l’arc joignant

les deux points, on en deduit :– | ei<t,Xn> − ei<t,X> |6|< t,Xn > − < t,X >|. Par Cauchy-Schwarz,– | ei<t,Xn> − ei<t,X> |6|< t,Xn > − < t,X >|6| t | × | Xn −X |.– Le deuxieme terme est donc majore par | t | η.– Pour tout ε > 0 (t etant donne), On peut choisir η tel que | t | η < ε

2 .– η etant maintenant donne, il existe n tel que ∀m > n, P (| Xn −X |> η) <

ε4 , de par la convergence en probabilite de Xn vers X.

– Ceci montre que ∀m > n, | ϕXn(t)− ϕX(t) |< ε.

– ϕXnconverge simplement vers ϕX , ce qui montre la convergence en loi

de Xn vers X.

34.3 Convergence en moyenne

Definition VI.1 Convergence en moyenne d’ordre p

Soit X,X1, X2, . . . et Y, Y1, Y2, . . . une suite de vecteurs aleatoires a valeursdans Rk, k ∈ N definis sur un espace probabilise (Ω,A, P ). On dit que Xn

converge en moyenne d’ordre p (ou converge dans Lp) vers X si Xp estintegrable (E (| Xp |) <∞) et si

limn→∞

E (| Xn −X |p) = 0.

Remarques :– On rappelle que l’application X →‖ X ‖p= (E [| X |p])1/p definit une

norme sur l’ensemble des variables aleatoires integrables a l’ordre p.– On peut verifier que l’on conserve une norme dans le cas de vecteurs

aleatoires, en notant comme precedemment | X | la norme euclidiennede X.

– La definition peut se reecrire ‖ Xn − X ‖p−→ 0 quand n → ∞, c’est-a-dire que l’on considere la convergence des vecteurs aleatoires pour lanorme ‖ ‖p.

– Comme ‖ Xn ‖p6‖ X ‖p + ‖ Xn − X ‖p et que ‖ Xn − X ‖p, Xn

a automatiquement des moments finis d’ordre p a partir d’un certainrang.

111

Page 82: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– Dans le cas ou p = 2, on parle de convergence en moyenne quadratique.Dans le cas ou p = 1, on parle de convergence en moyenne.

– Comme P est une probabilite, si r < p, nous avons deja vu que ‖ X ‖r6‖X ‖p.

– Par consequent, si ‖ Xn −X ‖p→ 0, alors ‖ Xn −X ‖r→ 0. La conver-gence en moyenne a l’ordre p entraıne la convergence en moyenne a tousles ordres inferieurs a p.

– En particulier, la convergence en moyenne quadratique (ou dans L2)entraıne la convergence en moyenne (ou dans L1).

Propriete VI.1 convergence en moyenne implique convergenceen probabiliteSoit X,X1, X2, . . . une suite de vecteurs aleatoires a valeurs dans Rk, k ∈N definis sur un espace probabilise (Ω,A, P ). La convergence en moyennede Xn vers X (notee Xn

L1→ X) entraıne la convergence en probabilite deXn vers X.

Demonstration : voir exercice (VI.9).

Exercice VI.9 convergence en moyenne implique convergence enprobabiliteSoit X,X1, X2, . . . une suite de vecteurs aleatoires a valeurs dans Rk, k ∈N definis sur un espace probabilise (Ω,A, P ). Montrer que la convergenceen moyenne de Xn vers X (notee Xn

L1→ X) entraıne la convergence enprobabilite de Xn vers X.

Corrige :– ‖ Xn −X ‖=

∫| Xn(ω)−X(ω) | dP (ω).

– Soit ε > 0 quelconque.–∫| Xn(ω)−X(ω) | dP (ω) >

∫|Xn(ω)−X(ω)|>ε | Xn(ω)−X(ω) | dP (ω).

–∫|Xn(ω)−X(ω)|>ε | Xn(ω)−X(ω) | dP (ω) > εP (| Xn(ω)−X(ω) |> ε).

– On en conclut, ‖ Xn −X ‖→ 0 ⇒ P (| Xn(ω)−X(ω) |> ε) → 0 pourtout ε > 0.

– La derniere propriete n’etant autre que la convergence en probabilite.Nous rappelons quelques proprietes etudiees dans le chapitre consacre auxespaces Lp.

Propriete VI.2 Soit (Xn) une suite de vecteurs aleatoires a valeurs dansRk, k ∈ N definis sur un espace probabilise (Ω,A, P ). On suppose que laserie de terme general Xn est absolument convergente (on rappelle quel’absolue convergence est definie par

∑n ‖ Xn ‖1< ∞), alors

∑nXn

converge presque partout et dans L1, c’est-a-dire qu’il existe un vecteuraleatoire X ∈ L1, tel que :

(a)∑n6mXn

p.s.−→ X,

(b)∑n6mXn

L1−→ X,quand m→∞.

112

Page 83: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Propriete VI.3 Toute suite de cauchy dans L1 est convergente.

Si Xn est une suite de cauchy dans L1, il existe donc X vers lequel Xconverge en moyenne (et a fortiori en probabilite).

Nous enoncons maintenant un theoreme de convergence enoncant desconditions suffisantes pour la convergence en moyenne. Par rapport autheoreme de convergence dominee de Lebesgue, on ne suppose ici que laconvergence en probabilite. En revanche, les variables aleatoires sont ma-jorees par une constante et non simplement par une variable aleatoireintegrable.

Theoreme VI.1 convergenceSoit Xn une suite de vecteurs aleatoires definis sur un espace probabilise(Ω,A, P ) a valeurs dans Rk (k ∈ N) et X un vecteur aleatoire. On supposeque les | Xn | sont presque surement majores par une constante K, K > 0,et que les Xn convergent en probabilite vers X, alors Xn converge enmoyenne vers X.

demonstration :

– Montrons d’abord que XPp.s

6 K. | X |6| X − Xn | + | Xn |Pp.s

6 |X −Xn | +K. Soit k ∈ N et ω ∈ Ω.

– | X(ω) |> K + 1k ⇒| X(ω)−Xn(ω) | +K > K + 1

k . On a alors | X |>K+ 1

k ⊂ | X−Xn |> 1k. P

(| X |> K + 1

k

)6 P

(| X −Xn |> 1

k

). De

par la convergence en probabilite, limn→∞ P(| X −Xn |> 1

k

)= 0. D’ou

P(| X |> K + 1

k

)= 0. Comme | X |> K =

⋃k∈N| X |> K + 1

k,P (| X |> K) = P

(⋃k∈N| X |> K + 1

k)

6∑k∈N P

(| X |> K + 1

k

)=

0, on a P (| X |> K) = 0, ce qui montre que XPp.s

6 K.– Montrons maintenant le theoreme. Soit ε > 0. Comme Xn converge

en probabilite vers X, limn→∞ P(| Xn −X |> ε

3

)= 0. Donc il existe

n0 ∈ N, tel que n > n0 ⇒ P(| Xn −X |> ε

3

)< ε

3K . Pour n > n0,E(| Xn−X |) = E(| Xn−X | 1I|Xn−X|> ε

3)+E(| Xn−X | 1I|Xn−X|6 ε

3) 6

E((| Xn | + | X |)1I|Xn−X|> ε

3

)+ ε

3E(1I|Xn−X|6 ε3). Cette derniere quan-

tite est majoree par 2KP (| Xn − X |> ε3 ) + ε

3 , et donc par ε, ce quimontre que Xn converge en moyenne vers X.

Pour aller plus loin dans les liens entre convegence en probabilite etconvergence en moyenne, il est utile d’introduire le concept d’uniformeintegrablite. On rappelle au prealable que si | X | est un vecteur aleatoireintegrable (EP (| X |) < ∞), alors EP (| X | 1I|X|>α) → 0 quand α →0. En effet, pour toute suite αn tendant vers 0, la suite Xn =| X |1I|X|>αn

converge P presque-surement vers 0 et les Xn sont majores parX integrable, ce qui montre l’assertion par le theoreme de convergencedominee. Etant donne une suite de vecteurs aleatoires, le concept d’uni-forme integrabilite exprime que cette decroissance vers 0 se fait de maniereuniforme.

113

Page 84: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Definition VI.2 uniforme integrabilite.Soit Xi, i ∈ I, une famille de vecteurs aleatoires definis sur un espaceprobabilise (Ω,A, P ) a valeurs dans Rk (k ∈ N). On dit que cette familleest uniformement integrable si pour tout ε > 0, il existe K > 0 tel que :

∀i ∈ I, EP(| Xi | 1I|Xi|>K

)< ε.

La famille I n’est pas forcement denombrable. L’uniforme integrabiliteimplique l’integrabilite et que la famille Xi est bornee dans L1, c’est-a-dire que toutes les esperances des | Xi | sont majorees par une constante(independante de i). En effet, prenons ε = 1 et notons K1 tel que ∀i ∈I, EP

(| Xi | 1I|Xi|>K1

)< 1. Comme EP (| Xi |) = EP

(| Xi | 1I|Xi|>K1

)+

EP(| Xi | 1I|Xi|6K1

)< 1 + K1. En revanche, une famille de vecteurs

aleatoires integrables n’est pas forcement uniformement integrable. Il sepeut meme qu’une famille de vecteurs aleatoires integrables soit borneedans L1 sans etre uniformement integrable. Considerons par exemple lecas ou P est la mesure uniforme sur [0, 1] et une suite de variables aleatoiresXn = n1I]0,1/n[. On a EP [Xn] = 1, ∀n ∈ N. Soit K > 0 quelconque etn > K. On a EP (| Xn | 1I|Xn|>K) = 1, ce qui montre que la suite Xn n’est

pas uniformement integrable. On remarque au passage que XnPp.s→ 0, mais

que EP (Xn) = 1 ne tend pas vers 0.

Propriete VI.4 condition suffisante d’uniforme integrabilite Soit(Ω,A, P ) un espace probabilise et Soit Xi, i ∈ I une famille de vecteursaleatoires definis sur (Ω,A, P ) a valeurs dans Rk, k ∈ N.(a) Si la famille Xi, i ∈ I est bornee dans Lp pour p > 1,c’est-a-dire s’il

existe une constante A > 0 telle que ∀i ∈ I, EP (| Xi |p) < A, alorsla famille Xi est uniformement integrable.

(b) Si la famille Xi est dominee par une variable integrable Y , c’est-a-

dire si ∀i ∈ I, | Xi |Pp.s

6 Y et EP (Y ) < ∞, alors la famille Xi estuniformement integrable.

demonstration : la demonstration est laissee a titre d’exercice.

On remarque que la condition 2 est celle qui intervient dans le theoremede convergence dominee de Lebesgue. Enoncons maintenant le theoremequi relie convergence en probabilite en convergence en moyenne au moyendu concept d’uniforme integrabilite.

Theoreme VI.2 Soit (Ω,A, P ) un espace probabilise, Xn une suite devecteurs aleatoires integrables definis sur (Ω,A, P ) a valeur dans Rk (k ∈N) et X un vecteur aleatoire integrable. Alors Xn converge en moyenne(ou dans L1) vers X si et seulement si les deux conditions suivantes sontverifiees.(a) Xn converge vers X en probabilite.(b) la suite Xn est uniformement integrable.

114

Page 85: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 35

Theoremes deconvergence

35.1 Loi des grands nombres

On rappelle pour memoire le lemme de Borel-Cantelli demontre au cha-pitre I.

Propriete VI.1 Lemme de Borel-CantelliSoit (Ω,A, P ) un espace probabilise et An une suite d’evenements de A.On suppose que

∑P (An) <∞. Alors lim supAn est negligeable.

Il est egalement possible d’etablir le resultat suivant :

Corollaire VI.1 theoreme de Borel-CantelliSoit (Ω,A, P ) un espace probabilise et An une suite d’evenements independantsde A.(a) Si

∑P (An) <∞, alors lim supAn est negligeable.

(b) Si∑P (An) diverge, alors P (lim supAn) = 1.

Demonstration :– Verifions la partie 2 du corollaire.– On rappelle que P (lim supAn) = limn→∞ ↓ P

(⋃m>nAm

).

– Il faut donc montrer que pour tout n P(⋃

m>nAm

)= 1.

– D’apres les proprietes des operations sur les ensembles,(⋃

m>nAm

)c=⋂

m>nAcm et par consequent P

(⋃m>nAm

)= 1− P

(⋂m>nA

cm

).

– P(⋂

m>nAcm

)= limN→∞ ↓ P

(⋂n6m6N A

cm

).

– D’apres l’independance desAn, P(⋂

n6m6N Acm

)=∏n6m6N P (Acm) =∏

n6m6N (1− P (Am)).

115

Page 86: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– Comme 1 = x 6 expx, 0 6 1− P (Am) 6 exp (−P (Am)).– P

(⋂n6m6N A

cm

)6 exp

(−∑n6m6N P (Am)

).

– Comme∑P (An) diverge, limN→∞ exp

(−∑n6m6N P (Am)

)= 0.

– Donc, P(⋂

m>nAcm

)= 0, ce qui montre le corollaire.

Propriete VI.2 Soit Xn une suite de variables aleatoires reelles definiessur un espace probabilise (Ω,A, P ) et µ une constante. On a :

XnP−→ µ⇔ Xn

L−→ µ.

Demonstration :– L’implication est un resultat general deja demontre. Montrons la reciproque.– Soit ε > 0. On veut montrer que P (| Xn − µ |> ε) → 0 quand n→∞,

ou de maniere equivalente que P (| Xn − µ |6 ε) → 1.– P (| Xn−µ |6 ε) = EP

(1I|Xn−µ|6ε

)= EP

Xn (1I|x−µ|6ε) =∫

1I|x−µ|6εdPXn(x).– Considerons la fonction reelle continue f , nulle en dehors de ]µ−ε, µ+ε[,

telle que f(µ) = 1 et lineaire sur [µ − ε, µ], [µ, µ + ε]. f est continue,bornee et f(x) 6 1I|x−µ|6ε.

– D’ou P (| Xn − µ |6 ε) >∫f(x)dPXn(x).

– Comme PXne→ Pµ = δ(µ),

∫f(x)dPXn(x) →

∫f(x)dPµ(x) = f(µ) =

1.– Comme 1 > P (| Xn − µ |6 ε) >

∫f(x)dPXn(x), on en deduit que

P (| Xn − µ |6 ε) → 1, ce qui montre la propriete.

Theoreme VI.1 Loi faible des grands nombres de KhintchineSoit Xn une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), independantes, de meme loi, integrables d’esperanceE(Xn) = µ. Alors,

1n

∑m6n

Xm =Snn

P−→ µ.

Demonstration : voir exercice (VI.10).

Exercice VI.10 Loi faible des grands nombres de KhintchineSoit Xn une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), independantes, de meme loi, integrables d’esperanceE(Xn) = µ. Montrer en utilisant le theoreme de Levy et en faisan undeveloppement limite que,

1n

∑m6n

Xm =Snn

P−→ µ.

Corrige :– Montrons d’abord la convergence en loi de Sn

n vers µ.– On utilise les fonctions caracteristiques ; on note ϕ, la fonction ca-

racteristique de Xn (ne dependant pas de n).

116

Page 87: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– D’apres l’independance des Xm

n , la fonction caracteristique de∑m6n

Xm

n

s’ecrit comme(ϕ(tn

))n.– Comme le premier moment existe, on en deduit que ϕ(1)(0) = iµ.– En faisant un developpement limite autour de zero, ϕ(t) = 1+iµt+o(t).–(ϕ(tn

))n = exp(n ln

(1 + iµ tn + o

(tn

)))dont la limite quand n → ∞

est eitµ.– La limite est donc la fonction caracteristique d’une variable aleatoire

constante egale a µ, ce qui montre la convergence en loi vers µ.– D’apres la propriete precedente, la convergence en loi vers une constante

implique la convergence en probabilite, ce qui montre la loi faible desgrands nombres.

Theoreme VI.2 Loi forte des grands nombres de KolmogorovSoit Xn une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), independantes, de meme loi, integrables d’esperanceE(Xn) = µ. Alors,

1n

∑m6n

Xm =Snn

p.s.−→ µ.

Theoreme VI.3 Loi des grands nombres dans L2

Soit Xn une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), non correlees, de carre integrable, et de memeesperance µ et variance σ2. Alors,

1n

∑m6n

Xm =Snn

L2−→ µ.

Demonstration : voir exercice (VI.11)

Remarques : on demande ici l’existence des moments d’ordre 2. Parailleurs, on n’a pas besoin de l’independance, il suffit que les Xn soient noncorreles. On n’a pas non plus besoin que les Xn soient de meme loi, maissimplement que les deux premiers moments soient invariants. Bien sur siles Xn sont iid, les hypotheses du theoreme sont verifiees. Enfin, rappelonsque la convergence dans L2 implique la convergence en probabilite, maisque convergence en moyenne quadratique et convergence presque sure nesont pas comparables en toute generalite.

Exercice VI.11 Loi des grands nombres dans L2

Soit Xn une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), non correlees, de carre integrable, et de memeesperance µ et variance σ2. Alors,

1n

∑m6n

Xm =Snn

L2−→ µ.

Corrige :

117

Page 88: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– On cherche a montrer que E[(Sn

n − µ)2]

tend vers zero quand n→∞.

– Comme E[Sn

n − µ]

= 0, E[(Sn

n − µ)2]

= Var[Sn

n − µ].

– Var[Sn

n − µ]

= Var[Sn

n

]= 1

n2 Var [Sn].– Comme les Xn sont non correles, Var [Sn] = nσ2.– D’ou E

[(Sn

n − µ)2]

= σ2

n → 0 quand n → ∞, ce qui montre letheoreme.

35.2 Theoreme central limite

Theoreme VI.1 theoreme central limite (Lindeberg-Levy) unidi-mensionnelSoit (Xn) une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), independantes et de meme loi, de carre integrable(E(X2

n) <∞). On note µ et σ2 respectivement la moyenne et la variancede Xn et Xn = 1

n

∑ni=1Xi. Alors,

√n

(Xn − µ

σ

)L→ N(0, 1).

Remarque : on rappelle que L→ N(0, 1) signifie la convergence etroite desmesures images associees aux variables aleatoires

√n(Xn−µσ

)vers la loi

normale centree reduite.

Demonstration : voir exercice (VI.12).

Exercice VI.12 theoreme central limite (Lindeberg-Levy) unidi-mensionnelSoit (Xn) une suite de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), independantes et de meme loi, de carre integrable(E(X2

n) <∞). On note µ et σ2 respectivement la moyenne et la variancede Xn et Xn = 1

n

∑ni=1Xi. En utilisant ϕ, la fonction caracteristique

de Xi−µσ et en faisant un developpement limite a l’ordre 2 de la fonction

caracteristique de√n(Xn−µσ

), montrer que :

√n

(Xn − µ

σ

)L→ N(0, 1).

Corrige :– Notons ϕ la fonction caracteristique de la variable aleatoire, Xi−µ

σ .Comme lesXi sont de meme loi, cette fonction caracteristique ne dependpas de i.

– On peut reecrire√n(Xn−µσ

)comme 1√

n

∑ni=1

Xi−µσ .

118

Page 89: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

– La fonction caracteristique de 1√nXi−µσ s’ecrit en fonction de ϕ comme

t→ ϕ(

t√n

).

– Les variables aleatoires 1√nXi−µσ sont independantes. La fonction ca-

racteristique de leur somme est egale a(ϕ(

t√n

))n.

– On remarque que Xi−µσ est d’esperance egale a zero et de variance egale

a 1. On en deduit les derivees premiere et seconde de la fonction ca-racteristique en zero : ϕ(1)(0) = 0 et ϕ(2)(0) = −1.

– Un developpement limite a l’ordre 2 en t√n

de ϕ donne :

– ϕ(

t√n

)= 1− t2

2n + t2

n o(

t√n

), avec limx→0 o(x) = 0. D’ou :

–(ϕ(

t√n

))n=(1 + 1

n

(− t2

2 + o(

t√n

)))n. Cette derniere quantite s’ecrit

comme :– exp

[n ln

(1 + 1

n

[− t2

2 + o(

t√n

)])].

– En utilisant les regles usuelles sur la composition des developpementslimites, on obtient que la derniere quantite converge vers e−t

2/2 quandn→∞, ce qui montre la convergence en loi vers la loi normale centreereduite.

Theoreme VI.2 theoreme central limite (Lindeberg-Levy) mul-tidimensionnelSoit (Xn) une suite de vecteurs aleatoires a valeurs dans Rp, p ∈ N, definissur un espace probabilise (Ω,A, P ), independants et de meme loi, de carreintegrable (E(| Xn |2) < ∞). On note µ et Σ2 respectivement le vecteurmoyenne et la matrice de variance-covariance de Xn et Xn = 1

n

∑ni=1Xi.

Alors, √n(Xn − µ

) L→ N(0,Σ).

Demonstration :– Soit t ∈ Rp. Posons Yn = t′Xn et Yn = 1

n

∑j6n Yj . Les Yn sont des

variables aleatoires independantes et de meme loi, d’esperance egale at′µ et de variance egale a t′Σt.

– En utilisant le theoreme central limite (unidimensionnel),√n(Yn−t′µ(t′Σt)1/2

)L−→

N(0, 1).– On verifie facilement en utilisant les proprietes des fonctions caracteristiques

que si une suite de variables aleatoires reelles Zn converge en loi versN(0, 1) alors pour tout λ ∈ R, λZn

L→ N(0, λ2).– On en deduit,

√n(Yn − t′µ

) L−→ N(0, t′Σt).– Notons X un vecteur aleatoire a valeurs dans Rp, distribue commeN(0,Σ) (on a vu l’existence de tels vecteurs aleatoires). t′X est unevariable aleatoire gaussienne distribuee comme N(0, t′Σt).

– Comme Yn = t′Xn, la convergence en loi de√n(Yn − t′µ

)vers une loi

N(0, t′Σt) signifie que t′[√n(Xn − µ

)]converge en loi vers t′X.

– Comme la propriete precedente est vraie pour tout t ∈ Rp, on en deduitle resultat annonce d’apres le theoreme de Cramer-Wold.

119

Page 90: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Propriete VI.1 approximation de la loi normale par une loi bi-nomialeSoit Xn une suite de variables aleatoires reelles, definies sur un espaceprobabilise (Ω,A, P ), Xn suivant une loi B(n, p) (ou B(n, p) designe la loibinomiale de parametres n et p). Alors,

Xn − np√npq

L−→ N(0, 1),

ou q = 1− p.

Demonstration : Voir exercice (??).Corrige :– On rappelle que si X est distribue comme une loi binomiale de pa-

rametres n et p, alors P (X = x) = Cxnpx(1−p)n−x pour x = 0, 1, 2, . . . , n.

Si l’on considere n tirages avec remise parmi une urne contenant uneproportion p de boules rouges, on a une probabilite P (X = x) de tirer xboules rouges. La pour fonction caracteristique de X, ϕX est telle queϕX(t) = E

(eitX

)=∑nx=1 P (X = x)eitx =

∑nx=1 C

xn

(peit

)xqn−x =(

peit + q)n en vertu de la formule du binome. En considerant les derivees

de ϕ en zero, on en deduit les deux premiers moments deX : E(X) = np,Var(X) = npq.

– Considerons une suite de variables aleatoires independantes, de Ber-noulli, Yi, i = 1, 2, . . . , prenant la valeur 1 avec la probabilite p et 0avec la probabilite q (il s’agit en fait d’une loi B(1, p).

– On remarque que la fonction caracteristique de Yi est egale a peit + q.–∑i6n Yi admet pour fonction caracteristique

(peit + q

)n et a donc lameme loi que Xn.

– Par la definition meme de la convergence en loi si une suite de variablesaleatoires converge en loi vers une loi limite, toute suite de variablesaleatoires de meme loi converge en loi vers la meme loi limite.

– Il suffit donc de verifier queP

i6n Yi−np√npq

L−→ N(0, 1).

– En notant Yn = 1n

∑i6n Yi, le terme de gauche s’ecrit comme

√n Yn−p√

pq .– La propriete enoncee est alors une application directe du theoreme cen-

tral limite dans le cas de variables de Bernoulli.– On peut ainsi simuler une loi normale a partir d’un simple jeu de pile

ou face.

Propriete VI.2 approximation de la loi normale multivariee parune loi multinomialeSoit Xn une suite de vecteurs aleatoires a valeurs dans Rm (m ∈ N),definis sur un espace probabilise (Ω,A, P ), Xn suivant une loi multino-miale M(n, p1, . . . , pm) de parametres n et p1, . . . , pi, . . . , pm (pi > 0,∑mi=1 pi = 1). On note p le vecteur de dimension m et de composantes

pi, i = 1, . . . ,m et on note qi = 1− pi. Alors,

Xn − np√n

L−→ N(0,Σ),

120

Page 91: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

ou Σ est la matrice de termes diagonaux piqi et de termes croises −pipj.– Demonstration :

– Quelques rappels sur la loi multinomiale.– Si le vecteur aleatoire X = (X1, . . . , Xm) est distribue comme une loi

multinomiale de parametres n et p = (p1, . . . , pm), alors :– P (X1 = x1 et . . . et Xm = xm) = n!

x1!...xm!px11 . . . pxm

m

– pour x1 = 0, 1, 2, . . . , n, . . ., xm = 0, 1, 2, . . . , n et∑ni=1 xi = n.

– La fonction caracteristique (vectorielle) de X, ϕX est telle que :

– ϕX(t1, . . . , tm) =(∑m

j=1 pjeitj)n

.– On remarque que la loi de X est la loi de la somme de n vecteurs

aleatoires Yi = (Yi,1, . . . , Yi,m) independants identiquement distribuessuivant une loi multinomiale M(1, p).

– En considerant les derivees en zero de la fonction caracteristique, onen deduit que les deux premiers moments du vecteur aleatoire Yi sonttels que :

– E(Yi,j) = pj , Var(Yi,j) = pjqj (ou qj = 1 − pj) et Cov(Yi,j , Yi,l) =−pjpl pour j = 1, . . . ,m et l = 1, . . . ,m.

– On reconnaıt la matrice Σ introduite dans l’enonce de la propriete.– Comme Xn ∼

∑i6n Yi, il suffit donc d’etudier la convergence (en loi)

deP

i6n Yi−np√n

.– En notant Yn = 1

n

∑i6n Yi, le terme precedent s’ecrit comme

√n(Yn − p

).

– La propriete enoncee est alors une application directe du theoremecentral limite (cas muldimensionnel).

Propriete VI.3 Convergence de la loi de Poisson vers la loi nor-maleSoit X une variable aleatoire distribuee selon une loi de Poisson P(λ).Alors X−λ√

λ

L−→ N(0, 1) quand λ→∞.

– Demonstration :– On rappelle qu’une variable aleatoire X suit une loi de Poisson de

parametre λ (λ > 0), notee P(λ) si :– P (X = x) = e−λ λ

x

x! pour x ∈ N. On a par ailleurs, E(X) = λ etVar(X) = λ.

– La fonction caracteristique deX se calcule facilement comme ϕX(t) =eλ(eit−1).

– Posons Y = X−λ√λ

= X√λ−√λ. En utilisant les proprietes des fonctions

caracteristiques,– ϕY (t) = e−it

√λϕX

(t√λ

)= exp

(−it

√λ+ λ(eit/

√λ − 1)

).

– eit/√λ − 1 = it√

λ+ 1

2

(it√λ

)2

+(it√λ

)2

o(

1√λ

).

– λ(eit/

√λ − 1

)= it

√λ− t2

2

(1 + o

(1√λ

)).

– On en conclut que ϕY (t) tend vers e−t2/2 quand λ → ∞, ce qui

montre la propriete.

121

Page 92: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Propriete VI.4 Soit Xn une suite de variables aleatoires Xn distribueesselon des lois binomiales B(n, pn). Si npn → λ quand n tend vers l’infini,alors,

XnL−→ P(λ),

quand n tend vers l’infini (P(λ) est la loi de Poisson de parametre λ).

– Demonstration :– Notons ϕXn

(t) la fonction caracteristique de Xn.– On a ϕXn

(t) =(qn + pne

it)n =

(1 + pn(eit − 1)

)n.– Comme npn = λ+ o

(1n

), on peut ecrire ϕXn(t) comme :

– ϕXn(t) = exp

(nLog

(1 + 1

n

(λ+ o

(1n

))(eit − 1)

)).

– On voit alors que ϕXn(t) tend vers exp

(λ(eit − 1

)), ce qui montre la

propriete.

35.3 Convergence de la fonction de repartitionempirique

Definition VI.1 Empirical c.d.f. Let Xn be a sequence of independent,identically distributed, real-valued random variables. The empirical cumu-lative distribution function Fn is defined by :

Fn(x) =1n

n∑k=1

1IXk6x

For all n, Fn is a simple function. You can use the Fn to approximate thec.d.f. of the Xn thanks to the following theorem.

Theoreme VI.3 (Gnedenko-Cantelli theorem) Let Xn be a sequenceof i.i.d. random variables and Fn the associated empirical c.d.f. ’s. Then

supx∈R

|Fn(x)− F (x)| a.s.−→ 0 as n→∞.

122

Page 93: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Chapitre 36

Esperance conditionnelle

36.1 Definition of Conditional Expectation

36.1.1 General definition

Recall the definition of conditional probability associated with Bayes’ Rule

P(A|B) ≡ P(A ∩B)P(B)

For a discrete random variable X we have

P(A) =∑x

P(A,X = x) =∑x

P(A|X = x)P(X = x)

and the resulting formula for conditional expectation

E(Y |X = x) =∫

Ω

Y (ω)P(dw|X = x)

=

∫X=x

Y (ω)P(dw)P(X = x)

=E(Y 1(X=x))

P(X = x)

We would like to extend this to handle more general situations wheredensities don’t exist or we want to condition on very “complicated” sets.

Definition VI.2 Given a random variable Y with E|Y | <∞ defined ona probability space (Ω,A,P) and some sub-σ-field G ⊂ A we will define theconditional expectation as the almost surely unique random variableE(Y |G) which satisfies the following two conditions1. E(Y |G) is G-measurable2. E(Y Z) = E(E(Y |G)Z) for all Z which are bounded and G-measurable

123

Page 94: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Remark : one could replace 2. in the previous definition with :

∀G ∈ G, E(Y 1G) = E(E(Y |G)1G).

124

Page 95: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Proof of existence and unicity– Existence Using linearity, we need only consider X ≥ 0. Define a mea-

sure Q on F by Q(A) = E[X1A] for A ∈ F . This is trivially absolutelycontinuous with respect to P|F , the restriction of P to F. Let E[X|F ] bethe Radon-Nikodym derivative of Q with respect to P|F . The Radon-Nikodym derivative is F-measurable by construction and so providesthe desired random variable.

– Unicity : If Y1, Y2 are two F-measurable random variables withE[Y11A] =E[Y21A] for all A ∈ F , then Y1 = Y2, a.s., or conditional expectation isunique up to a.s. equivalence.

For G = σ(X) when X is a discrete variable, the space Ω is simply par-titioned into disjoint sets Ω = tGn. Our definition for the discrete casegives

E(Y |σ(X)) = E(Y |X)

=∑n

E(Y 1X=xn)P(X = xn)

1X=xn

=∑n

E(Y 1Gn)P(Gn)

1Gn

which is clearly G-measurable. In general for G = σ(X) :

Definition VI.3 Conditional expectation of Y given X

Let (Ω,A, P ) be a probability space, Y ∈ L1(Ω,A, P ) and X another ran-dom variable defined on (Ω,A, P ). Define then E(Y | X) the conditionalexpectation of Y given X as E(Y | σ(X)).

Proposition VI.1 Let (Ω,A) be a measurable space,

Y ∈ L1(Ω,A, P )

and X another real-valued random variable defined on (Ω,A, P ). AsX = f(Y ), where f is measurable, real-valued function if and only ifσ(X) ⊂ σ(Y ), we get that E(Y | X) is a measurable function of X.

Proposition VI.2 Let (Ω,A, P ) be a probability space, and X and Y twoindependent random variables such that Y is P-integrable. Then E(Y |X) = E(Y ), P -almost surely.

Do not mix this notion with the following :

36.1.2 Couples of random variables with p.d.f.

Proposition VI.3 Let (X,Y ) be a couple of real-valued random variableswith p.d.f. fX,Y (x, y) w.r.t. the Lebesgue measure on R2. Denote the res-pective marginal p.d.f. of X and Y as fX(x) and fY (y). Consider fX|Y (x |

125

Page 96: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

y) = fX,Y (x,y)fY (y) . Then almost surely

∀C ∈ B, P (X ∈ C | Y = y) =∫C

fX|Y (x | y)dx.

If besides X is P -integrable, then

E(X | Y = y) =∫

RxfX|Y (x | y)dx.

If g : R2 → R is a measurable function such that g(X,Y ) is integrable,then

E(g(X,Y ) | Y = y) =∫

Rg(x, y)fX|Y (x | y)dx.

Remarks : As soon as fY (y) > 0, this defines the distribution of X giventhat Y = y, described by p.d.f fX|Y (x | y), which is nonnegative and ofintegral 1.If X and Y are independent, fX|Y = fX and fY |X = fY . To make the linkwith E[X|Y ] would require to introduce the concept of regular conditionaldistribution.Equation (V I.3) may be useful to compute the mathematical expectationof g(X,Y ) as

E(g(X,Y )) =∫

R

(∫Rg(x, y)fX|Y (x | y)dx

)fY (y)dy.

36.2 Properties of Conditional Expectation

36.2.1 Conditional expectation

E(·|G) may be seen as an operator on random variables that transformsA-measurable variables into G-measurable ones.Let us recall the basic properties of conditional expectation :

(a) E(·|G) is positive :

Y ≥ 0 → E(Y |G) ≥ 0)

(b) E(·|G) is linear :

E(aX + bY |G) = aE(X|G) + bE(Y |G)

(c) E(·|G) is a projection :

E(E(X|G)|G) = E(X|G)

126

Page 97: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

(d) More generally, the “tower property”. If H ⊂ G then

E(E(X|G)|H) = E(X|H) = E(E(X|H) | G)

Proof : The right equality holds because E[X|H] is H- measurable,hence G-measurable. To show the left equality, let A ∈ H. Then sinceA is also in G,

E[E[E[X|G]|H]1A] = E[E[X|G]1A] = E[X1A] = E[E[X|H]1A].

Since both sides are H- measurable, the equality follows.(e) E(·|G) commutes with multiplication by G-measurable variables :

E(XY |G) = E(X|G)Y for E|XY | <∞ and Y Gmeasurable

Proof : If A ∈ G, then for any B ∈ G,

E[1AE[X|G]1B ] = E[E[X|G]1A∩B ] = E[X1A∩B ] = E[(1AX)1B ].

Since 1AE[X|G] is G-measurable, this shows that the required equa-lity holds when Y = 1A and A ∈ G. Using linearity and taking limitsshows that the equality holds whenever Y is G-measurable and X andXY are integrable.

(f) E(·|G) respects monotone convergence :

0 ≤ Xn ↑ X =⇒ E(Xn|G) ↑ E(X|G)

(g) If ϕ is convex (in particular if ϕ(x) = x2) and E|ϕ(X)| < ∞ then aconditional form of Jensen’s inequality holds :

ϕ(E(X|G) ≤ E(ϕ(X)|G)

(h) E(·|G) is a continuous contraction of Lp for p ≥ 1 :

‖E(X|G)‖p ≤ ‖X‖p

andXn Lp

−→ X implies E(Xn|G) Lp

−→ E(X|G)

(i) Repeated Conditioning. For G0 ⊂ G1 ⊂ . . ., G∞ = σ(∪Gi), and X ∈Lp with p ≥ 1 then

E(X|Gn) a.s.−→ E(X|G∞)

E(X|Gn) Lp

−→ E(X|G∞)

127

Page 98: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

(j) Best approximation property :Suppose that the random variable X is square-integrable, but notmeasurable with respect to G. That is, the information in G does notcompletely determine the values of X. The conditional expectation,Y = E[X | G], has the property that it is the best approximationto X among functions measurable with respect to Y , in the leastsquares sense. That is, if Y is G-measurable, then

E[(Y −X)2

]≥ E

[(Y −X)2

].

It thus realizes the orthogonal projection of X onto a convex closedsubset of a Hilbert space. This predicts the variance decompositiontheorem that we shall see in a further section.

36.2.2 Conditional variance

Definition VI.4 Let X be a square-integrable, real-valued random va-riable defined on a probability space (Ω,A, P ), and let F be a sub-σ-algebra of A. Define the conditional variance of X given F (denotedby Var(X | F)) as the random variable E((X − E(X | F))2 | F).Define also the conditional variance of X given a real-valued random va-riable Y defined on (Ω,A, P ) (denoted by Var(X | Y )) as the randomvariable E((X − E(X | Y ))2 | Y ).

Proposition VI.4 Var(X | F) and Var(X | Y ) are well- defined, almostsurely nonnegative and finite.

Var(X | F) = E(X2 | F)− E(X | F)2,

andVar(X | Y ) = E(X2 | Y )− E(X | Y )2.

Proposition VI.5 Variance decomposition formulaLet (X,Y ) be a couple of random variables defined on a probability space(Ω,A, P ), such that X is square-integrable. Then

Var(X) = E(Var(X | Y )) + Var(E(X | Y )).

This may be very useful in non-life insurance to find the variance of acompound distribution.

Proof :– Var(X | Y ) = E(X2 | Y )− (E(X | Y ))2.– E[Var(X | Y )] = E[E(X2 | Y )]− E[(E(X | Y ))2].– E[E(X2 | Y )] = E[X2].– E[Var(X | Y )] = E[X2]− E[(E(X | Y ))2].– Var(E(X | Y )) = E[(E(X | Y ))2]− (E[E(X | Y )])2.– E[E(X | Y )] = E[X].– Hence Var(E(X | Y )) = E[(E(X | Y ))2]− (E[X])2.

128

Page 99: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

36.2.3 Compound distributions

Let (Ω,A, P ) be a probability space, and– (Xn)n∈N a sequence of i.i.d., nonnegative random variables defined on

(Ω,A, P ). Xn represents the severity of the nth claim in the collectiverisk model.

– N an random variable defined on (Ω,A, P ) and taking values in N,independent from the Xn. It represents the number of claims.

– Let SN = X1 + ...+XN represent the aggregate claim amount.In many models we may know the mean and variance of N and X1. Howcan we then get the mean and variance of SN ? Simply by conditioningon the number of claims, and using conditional expectation and variancegiven N.

Proposition VI.6 First,

ESN = EN.EX1

Moreover, thanks to the variance decomposition theorem, we may decom-pose V ar(SN ) into two parts : the first one represents the part due tovariability in claim amounts ; the second one represents the part due tovariability in the number of claims :

V ar(SN ) = EN.V ar(X1) + (EX1)2.V ar(N)

Formule de decomposition de la varianceSoit (X,Y ) un couple de variables aleatoires reelles definies sur un espaceprobabilise (Ω,A, P ), X de carre integrable. Montrer que :

Var(X) = E(Var(X | Y )) + Var(E(X | Y )).

Preuve :– Var(X | Y ) = E(X2 | Y )− (E(X | Y ))2.– E[Var(X | Y )] = E[E(X2 | Y )]− E[(E(X | Y ))2].– E[E(X2 | Y )] = E[X2].– E[Var(X | Y )] = E[X2]− E[(E(X | Y ))2].– Var(E(X | Y )) = E[(E(X | Y ))2]− (E[E(X | Y )])2.– E[E(X | Y )] = E[X].– D’ou Var(E(X | Y )) = E[(E(X | Y ))2]−(E[X])2 et le resultat annonce.

129

Page 100: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Septieme partie

Bibliographie

131

Page 101: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Basel-Commitee (2001a) Operational risk, consultative document. Sup-porting Document to the New Basel Capital Accord.

Basel-Commitee (2001b) Sound practices for the management and super-vision of operational risk Consultative Document.

Basel-Commitee (2001c) Working paper on the regulatory treatment ofoperational risk .

Basel-Commitee (2003) Supervisory guidance on operational risk advan-ced measurement approaches for regulatory capital .

Charpentier, A., Denuit, M. (2004) Mathematiques de l’assurance non-vie,tome I. Economica.

Durrett, R. (1999) Essentials of stochastic processes. Springer Texts inStatistics. Springer-Verlag, New York.

Frachot, A., Moudoulaud, O., Roncalli, T. (2003) Loss distribution ap-proach in practice. dans le livre : The Basel Handbook : A guide forfinancial practitionners .

Giuffre, S. E. (2004) Operational risk : How good is the coverage ? .

Jordan, J. S. (2003) Quantifying operational risk : A supervisors pers-pective. presentation lors du seminaire ”Operational Risk in Banks andFinancial Institutions” a Londres .

Kuritzkes, A., Ziff, B. (2004) Operational risk : New approaches to mea-surement and modeling .

Lopez, J. A. (2002) What is operational risk ? FRBSF Economic Letter(2).

McNee, A. (2002) Rating operational risk. disponible en ligne sur le sitewww.erisk.com .

OBrien, N., Smith, B., Allen, M. (2002) Operational risk - models. dispo-nible en ligne sur le site www.financewise.com .

Partrat, C., Besson, J.-L. (2004) Assurance non-vie. Modelisation, simu-lation. Economica.

Pennequin, M., Roncalli, T., Salomon, E. (2004) La prise en compte de ladiversification des risques operationnels. Banque Magazine 660.

Rolski, T., Schmidli, H., Schmidt, V., Teugels, J. (1999) Stochastic pro-cesses for insurance and finance. Wiley Series in Probability and Statis-tics. John Wiley & Sons Ltd., Chichester.

132

Page 102: Cours de Gestion Des Risques d'Assurances Et de Theorie de La Ruine

Roncalli, T. (2004) Gestion des risques financiers. Economica.

Rudin, W. (1987) Real and complex analysis, 3e Edition. McGraw-HillBook Co., New York.

Shaked, M. (1980) On mixtures from exponential families. J. Roy. Statist.Soc. Ser. B 42, 192–198.

Tripp, M. H., Bradley, H. L., Devitt, R., Orros, G. C., Overton, G. L.,Pryor, L. M., Shaw, R. A. (2004) Quantifying operational risk in generalinsurance companies. presente a l’Institute of Actuaries .

133