Mémoire présenté devant l’Institut de Science Financière ...

109
Mémoire présenté devant l’Institut de Science Financière et d’Assurances pour l’obtention du diplôme d’Actuaire de l’Université de Lyon le 2 juillet 2012 Par : Alexis RENAUDIN Titre: Modèle de capital économique pour le risque opérationnel bancaire : estimation, diversification Confidentialité : x NON OUI (Durée : 1 an 2 ans) Membre du jury de l’Institut des Actuaires Entreprise : M. Fréderic PLANCHET Crédit Agricole S.A. Membres du jury I.S.F.A. Directeur de mémoire en entreprise : M. Jean Claude AUGROS Vincent LEHERISSE M. Alexis BIENVENÜE M. Areski COUSIN Invité : Mme Diana DOROBANTU Mme Anne EYRAUD-LOISEL M. Nicolas LEBOISNE M. Stéphane LOISEL Autorisation de mise en ligne sur un site de diffusion de documents actuariels (après expiration de l’éventuel délai de confidentialité) Mlle Esterina MASIELLO Mme Véronique MAUME-DESCHAMPS M. Frédéric PLANCHET M. François QUITTARD-PINON Mme M. Béatrice REY-FOURNIER Pierre RIBEREAU Signature du responsable entreprise M. Christian-Yann ROBERT M. M. Didier RULLIERE Pierre THEROND Secrétariat Signature du candidat Mme Marie-Claude MOUCHON Bibliothèque : Mme Michèle SONNIER 50 Avenue Tony Garnier 69366 Lyon Cedex 07 Université Claude Bernard – Lyon 1 INSTITUT DE SCIENCE FINANCIERE ET D'ASSURANCES

Transcript of Mémoire présenté devant l’Institut de Science Financière ...

Page 1: Mémoire présenté devant l’Institut de Science Financière ...

Mémoire présenté

devant l’Institut de Science Financière et d’Assurances

pour l’obtention du diplôme d’Actuaire de l’Université de Lyon

le 2 juillet 2012

Par : Alexis RENAUDIN

Titre: Modèle de capital économique pour le risque opérationnel bancaire :

estimation, diversification

Confidentialité : x NON OUI (Durée : 1 an 2 ans)

Membre du jury de l’Institut des Actuaires Entreprise :

M. Fréderic PLANCHET Crédit Agricole S.A.

Membres du jury I.S.F.A. Directeur de mémoire en entreprise :

M. Jean Claude AUGROS Vincent LEHERISSE

M. Alexis BIENVENÜE

M. Areski COUSIN Invité :

Mme Diana DOROBANTU

Mme Anne EYRAUD-LOISEL

M. Nicolas LEBOISNE

M. Stéphane LOISEL Autorisation de mise en ligne sur

un site de diffusion de documents

actuariels (après expiration de

l’éventuel délai de confidentialité)

Mlle Esterina MASIELLO

Mme Véronique MAUME-DESCHAMPS

M. Frédéric PLANCHET

M. François QUITTARD-PINON

Mme

M.

Béatrice REY-FOURNIER

Pierre RIBEREAU

Signature du responsable entreprise

M. Christian-Yann ROBERT

M.

M.

Didier RULLIERE

Pierre THEROND

Secrétariat Signature du candidat

Mme Marie-Claude MOUCHON

Bibliothèque :

Mme Michèle SONNIER

50 Avenue Tony Garnier 69366 Lyon Cedex 07

Université Claude Bernard – Lyon 1

INSTITUT DE SCIENCE FINANCIERE ET D'ASSURANCES

Page 2: Mémoire présenté devant l’Institut de Science Financière ...

Modèle de capital économique pour le risqueopérationnel bancaire : estimation, diversification

ALEXIS RENAUDIN

ISFA, 2012

Page 3: Mémoire présenté devant l’Institut de Science Financière ...

Résumé

Depuis la règlementation Bâle II, les banques ont l’obligation de mobiliser une partie de leurs fondspropres en couverture de leur risque opérationnel. Pour autant, aucune méthode n’est imposée par lerégulateur pour quantifier ce capital ; chaque établissement financier peut alors choisir entre une ap-proche standard (calcul forfaitaire) et une approche avancée, sous réserve de validation. L’approcheavancée adapte au risque opérationnel les techniques de Value At Risk (VaR) en vigueur pour lesrisques de marché : le calcul de charge en capital correspond ainsi au quantile à 99,9% de la perteagrégée annuelle théorique. Pour un groupe bancaire constitué de plusieurs entités, cette approcheavancée comporte deux grandes étapes. Tout d’abord le calcul de la charge en capital pour une en-tité considérée : il faut pour cela estimer la fréquence et la sévérité des pertes opérationnelles, etdéterminer le quantile approprié de la distribution de la perte annuelle résultante. Vient ensuite laquestion d’agréger les charges en capital ainsi déterminées pour obtenir un capital pour l’ensembledu groupe – avec un éventuel bénéfice de diversification – ainsi que d’allouer ce capital entre les dif-férentes entités en tenant compte de leur dépendance. Dans ce contexte, l’estimation de la sévéritédu risque opérationnel, l’agrégation de ces risques dépendants, mais aussi l’allocation de ce capital àdifférentes entités d’un même groupe bancaire soulèvent différentes problématiques qui seront identi-fiées et traitées dans ce mémoire, avec les outils mathématiques associés. Nous présentons ainsi dansune première partie les objectifs de l’étude ainsi que le contexte règlementaire associé au risque opé-rationnel. Nous étudions ensuite en détails l’étape d’estimation de la sévérité des pertes et proposonsune méthode d’estimation plus adaptée aux spécificités du risque opérationnel que les méthodes sta-tistiques classiques, en vue d’obtenir un calcul de charge en capital précis et cohérent. Enfin, nousvoyons dans la dernière partie comment agréger et allouer les différentes charges en capital calcu-lées, en tenant compte de la dépendance entre entités d’un même groupe bancaire, afin d’obtenir unevaleur de capital économique. Nous proposons notamment pour cela une méthodologie basée sur lathéorie mathématique des copules, ainsi que des illustrations numériques pour le groupe Crédit Agri-cole.

Mots-clés : risque opérationnel, Bâle II, maximum de vraisemblance, méthode des moments géné-ralisée, statistiques de test, distance quantile, agrégation des risques, dépendance, copules, capitaléconomique, ICAAP.

Page 4: Mémoire présenté devant l’Institut de Science Financière ...

Abstract

Operational Risk is now an important quantitative topic in the banking world as a result of the Basel IIregulatory requirements. Through the Advanced Measurement Approach (AMA), banks are permit-ted significant flexibility over the approaches that may be used in the development of operationalrisk models. The most popular is the Loss Distribution Approach, which is derived from an actuarialfrequency-severity model and the capital requirement is computed from the 99.9% quantile of thetheoretical aggregate loss distribution. There are two main steps in this model for a financial institu-tion constituted of several legal entities. First is the computation of the capital charge for a specificentity, which involves estimating the frequency and the severity of the operational losses. Then comesthe matter of aggregating these different capital charges to derive an economic capital at Group le-vel – with a potential diversification benefit – and allocating it back to the different entities. In thiscontext, the severity estimation of operational risk, the aggregation of dependent risk types and theirallocation are important topics that will be identified and challenged in this actuarial thesis. We willalso present the associated mathematical and actuarial concepts, as well as a numerical applicationon the Credit Agricole Group data.

Key words : operational risk, Basel II, maximum likelihood estimation, minimum distance, gene-ralized method of moments, goodness of-fit statistics, quantile distance, risk aggregation, dependancemodeling, copulas, economic capital, ICAAP.

Page 5: Mémoire présenté devant l’Institut de Science Financière ...

Remerciements

Mes premiers remerciements vont à Vincent LEHÉRISSÉ, mon maître de stage et Jean-Philippe MARY, qui ont su me guider tout au long de ma présence au Crédit Agricole. Leurdisponibilité et leurs conseils ont été précieux pour mener mon mémoire à son terme.

Je remercie vivement M. Sylvain DELON pour m’avoir accueilli dans son service et dem’avoir permis de préparer le diplôme d’actuaire à l’ISFA à travers un contrat d’alternance.

Enfin, je tiens à remercier l’ensemble des membres du GRO (ingénieurs et stagiaires)pour leur accueil et leur sympathie. Il est particulièrement agréable de travailler dans unservice où règne une ambiance aussi chaleureuse.

i

Page 6: Mémoire présenté devant l’Institut de Science Financière ...

Sommaire

Remerciements i

I Le risque opérationnel : cadre règlementaire et quantification 1

1 Introduction et objectifs 21.1 Structure d’accueil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2

1.1.1 Crédit Agricole S.A. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21.1.2 Le Groupe de Recherche Opérationnelle (GRO) . . . . . . . . . . . . . 3

1.2 Qu’est-ce que le risque opérationnel ? . . . . . . . . . . . . . . . . . . . . . . . 31.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.2 Classification . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31.2.3 Particularités des données . . . . . . . . . . . . . . . . . . . . . . . . . 41.2.4 Exemples célèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

1.3 Aperçu des enjeux du mémoire . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Contexte règlementaire du risque opérationnel 72.1 Les dispositifs règlementaires bancaires . . . . . . . . . . . . . . . . . . . . . . 7

2.1.1 Historique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.1.2 Bâle I . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72.1.3 Bâle II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2.2 Le pilier 1 de Bâle II : une exigence de fonds propres . . . . . . . . . . . . . . 92.2.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92.2.2 Principales améliorations . . . . . . . . . . . . . . . . . . . . . . . . . 92.2.3 Les approches de base pour la mesure du risque opérationnel . . . . . 92.2.4 L’approche avancée AMA (Advanced Measurement Approach) . . . . . . 10

2.3 Le pilier 2 : pour un meilleur suivi des risques . . . . . . . . . . . . . . . . . . 112.3.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.3.2 ICAAP et risque opérationnel . . . . . . . . . . . . . . . . . . . . . . . 11

2.4 Comparaison avec le référentiel Solvabilité 2 . . . . . . . . . . . . . . . . . . 112.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.4.2 Mesure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122.4.3 Poids du risque opérationnel dans la charge en capital règlementaire

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.5 Vers la norme Bâle III . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

3 L’approche avancée LDA 153.1 Définition du Capital-At-Risk (CaR) . . . . . . . . . . . . . . . . . . . . . . . . 153.2 Principe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153.3 Prise en compte des assurances . . . . . . . . . . . . . . . . . . . . . . . . . . 17

3.3.1 Caractéristiques des polices . . . . . . . . . . . . . . . . . . . . . . . . 173.3.2 Principe d’intégration dans le modèle . . . . . . . . . . . . . . . . . . 183.3.3 Effet sur les distributions . . . . . . . . . . . . . . . . . . . . . . . . . . 18

3.4 Intégration des scénarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

ii

Page 7: Mémoire présenté devant l’Institut de Science Financière ...

3.5 Des méthodes alternatives pour le calcul de la charge en capital . . . . . . . . 203.5.1 Algorithme récursif de Panjer . . . . . . . . . . . . . . . . . . . . . . . 203.5.2 F.F.T. (Fast Fourier Transform) . . . . . . . . . . . . . . . . . . . . . . . 21

II Estimation de la sévérité du risque opérationnel 23

4 Les méthodes d’estimation usuelles 254.1 Quelques rappels théoriques sur les estimateurs . . . . . . . . . . . . . . . . . 254.2 La méthode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . 26

4.2.1 Quelques généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264.2.2 Prise en compte de l’effet de seuil . . . . . . . . . . . . . . . . . . . . . 26

4.3 La méthode des moments généralisée . . . . . . . . . . . . . . . . . . . . . . 274.3.1 Présentation théorique . . . . . . . . . . . . . . . . . . . . . . . . . . . 274.3.2 Choix de la matrice de pondération et influence sur l’estimation . . . . 284.3.3 Les différents algorithmes pour implémenter la méthode . . . . . . . . 29

4.4 Difficultés d’estimation rencontrées . . . . . . . . . . . . . . . . . . . . . . . 304.4.1 L’instabilité de la vraisemblance en présence d’un seuil de collecte . . 304.4.2 Le biais de la méthode des moments généralisée . . . . . . . . . . . . 34

5 Les solutions alternatives envisagées 355.1 Motivations et démarche scientifique . . . . . . . . . . . . . . . . . . . . . . . 355.2 Une autre approximation de la distance minimisée par le maximum de vrai-

semblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355.2.1 Introduction de la distance K-L . . . . . . . . . . . . . . . . . . . . . . 355.2.2 Application au maximum de vraisemblance . . . . . . . . . . . . . . . 365.2.3 L’estimation par Maximum Spacing (MS) . . . . . . . . . . . . . . . . . 37

5.3 Minimisation de statistiques de tests . . . . . . . . . . . . . . . . . . . . . . . 395.4 Minimisation d’une distance inter-quantiles . . . . . . . . . . . . . . . . . . . 41

5.4.1 Principe de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . 415.4.2 Pondération de la distance . . . . . . . . . . . . . . . . . . . . . . . . 425.4.3 Prise en compte des agrégats . . . . . . . . . . . . . . . . . . . . . . . 425.4.4 Prise en compte du seuil de collecte . . . . . . . . . . . . . . . . . . . 435.4.5 Choix des différents paramètres . . . . . . . . . . . . . . . . . . . . . . 435.4.6 Récapitulatif des étapes de l’estimation . . . . . . . . . . . . . . . . . . 47

5.5 Premier bilan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

6 Comparaison théorique des méthodes d’estimation retenues 496.1 Modèles simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

6.1.1 Etude du biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 496.1.2 Précision des estimations . . . . . . . . . . . . . . . . . . . . . . . . . 506.1.3 Stabilité des estimations . . . . . . . . . . . . . . . . . . . . . . . . . . 51

6.2 Modèles hybrides . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526.2.1 Simulations des données . . . . . . . . . . . . . . . . . . . . . . . . . . 526.2.2 Estimations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 526.2.3 Calculs de charges en capital . . . . . . . . . . . . . . . . . . . . . . . 52

III Diversification et agrégation des risques opérationnels : déter-mination d’un capital économique 54

7 Enjeux et éléments théoriques 567.1 Agrégation des risques et allocation : des enjeux importants . . . . . . . . . . 567.2 Mesures de risque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

7.2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

iii

Page 8: Mémoire présenté devant l’Institut de Science Financière ...

7.2.2 Propriétés désirables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 587.2.3 La mesure VaR (Value at Risk) . . . . . . . . . . . . . . . . . . . . . . 597.2.4 La mesure TVaR (Tail Value at Risk) . . . . . . . . . . . . . . . . . . . 597.2.5 La mesure CTE (Conditional Tail Expectation) . . . . . . . . . . . . . . 59

7.3 Mesures d’allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607.3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607.3.2 Propriétés désirables . . . . . . . . . . . . . . . . . . . . . . . . . . . . 607.3.3 Allocation basée sur la mesure VaR . . . . . . . . . . . . . . . . . . . . 607.3.4 Allocation basée sur la mesure CTE . . . . . . . . . . . . . . . . . . . . 61

7.4 Mesures de dépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 617.4.1 Définition et propriétés désirables . . . . . . . . . . . . . . . . . . . . . 617.4.2 Le coefficient de corrélation linéaire . . . . . . . . . . . . . . . . . . . 627.4.3 Le tau de Kendall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 627.4.4 Le rho de Spearman . . . . . . . . . . . . . . . . . . . . . . . . . . . . 627.4.5 Notion de dépendance de queue . . . . . . . . . . . . . . . . . . . . . 63

7.5 Théorie des copules . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637.5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 637.5.2 Théorème de Sklar (1959) . . . . . . . . . . . . . . . . . . . . . . . . . 647.5.3 Quelques propriétés remarquables . . . . . . . . . . . . . . . . . . . . 647.5.4 Expression de la dépendance de queue . . . . . . . . . . . . . . . . . . 657.5.5 Exemples classiques de copules multivariées . . . . . . . . . . . . . . . 657.5.6 Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 687.5.7 Utilisation dans le contexte de l’agrégation de risques . . . . . . . . . 69

8 Une première approche pour diversifier les charges en capital : l’approximationgaussienne 718.1 Hypothèses et méthodologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 718.2 Formule d’agrégation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 728.3 Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 738.4 Exemple simple en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . 73

8.4.1 Agrégation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 738.4.2 Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

8.5 Avantages et inconvénients . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

9 Mise en place d’une nouvelle méthodologie : agrégation par copules 769.1 Principes de la méthode proposée . . . . . . . . . . . . . . . . . . . . . . . . 76

9.1.1 Objectifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 769.1.2 Etape 1 : agrégation des catégories de risque . . . . . . . . . . . . . . 779.1.3 Etape 2 : agrégation des entités . . . . . . . . . . . . . . . . . . . . . . 789.1.4 Etape 3 : Allocation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 799.1.5 Exemple en dimension 2 . . . . . . . . . . . . . . . . . . . . . . . . . 799.1.6 Discussion sur le choix de la copule . . . . . . . . . . . . . . . . . . . 79

9.2 L’exemple du Groupe Crédit Agricole . . . . . . . . . . . . . . . . . . . . . . . 819.2.1 Mise en œuvre de la méthodologie d’agrégation précédente dans le

cadre de l’ICAAP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 819.2.2 Parallèle avec la formule standard de Solvabilité II . . . . . . . . . . . 82

9.3 Résultats obtenus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 849.3.1 Capitaux non diversifiés . . . . . . . . . . . . . . . . . . . . . . . . . . 849.3.2 Un mot sur les matrices de corrélation . . . . . . . . . . . . . . . . . . 849.3.3 Considérations numériques et précision des estimateurs . . . . . . . . 859.3.4 Agrégation et capital économique avec hypothèse gaussienne . . . . . 869.3.5 Agrégation et capital économique avec copule normale . . . . . . . . . 869.3.6 Agrégation et capital économique avec copule de Student . . . . . . . 87

iv

Page 9: Mémoire présenté devant l’Institut de Science Financière ...

10 Approfondissements et perspectives 8810.1 Les copules archimédiennes hiérarchiques . . . . . . . . . . . . . . . . . . . . 88

10.1.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8810.1.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8810.1.3 Contraintes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8910.1.4 Exemple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8910.1.5 Avantages et inconvénients . . . . . . . . . . . . . . . . . . . . . . . . 91

10.2 Les vine copulas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2.1 Motivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9110.2.2 La décomposition de Vine (Vine decomposition) . . . . . . . . . . . . . 9110.2.3 Avantages et inconvénients . . . . . . . . . . . . . . . . . . . . . . . . 92

Conclusion 94

Bibliographie 96

Table des figures 99

Liste des tableaux 100

Page 10: Mémoire présenté devant l’Institut de Science Financière ...

Première partie

Le risque opérationnel : cadrerèglementaire et quantification

1

Page 11: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 1

Introduction et objectifs

1.1 Structure d’accueil

1.1.1 Crédit Agricole S.A.

Crédit Agricole S.A. a été créé en 2001 pour former un ensemble représentatif des ac-tivités et de la puissance du groupe Crédit Agricole, premier groupe bancaire français (28% du marché des particuliers), et premier groupe bancaire en Europe par les revenus de labanque de détail.

Financeur privilégié de l’agriculture depuis l’origine comme son nom l’indique, il a élargiau fil des années son domaine d’activité pour être, aujourd’hui, le partenaire de tous les ac-teurs de la vie économique : particuliers, entreprises, professionnels et collectivités locales.Le groupe, présent dans plus de 70 pays, s’articule autour de six pôles métiers :

1. Banque de proximité en France : complémentarité entre les Caisses Régionales deCrédit Agricole et le réseau LCL

2. Banque de détail à l’international : Cariparma FriulAdria (Italie), Emporiki Bank (Grèce),Banco Espirito Santo (Portugal), Lukas Bank (Pologne), Meridian Bank (Serbie), In-dex Bank (Ukraine), ainsi que Crédit du Maroc, Crédit Agricole Egypt, Credit UruguayBanco.

3. Services financiers spécialisés : crédit à la consommation (CACF), crédit-bail (CréditAgricole Leasing) et affacturage (Eurofactor)

4. Gestion d’actifs (Amundi), assurances (Prédica, Pacifica) et banque privée (GestionPrivée Indosuez, LCL Banque privée)

5. Banque de financement et d’investissement : CA-CIB (Crédit Agricole Corporate &Investment Bank, ex-Calyon)

6. Activités et filiales spécialisées : capital investissement (Crédit Agricole Private Equity,Idia Agricapital, Sodica), immobilier (Crédit Agricole Immobilier), presse (Uni-Éditions).

Crédit Agricole S.A. a été organisé lors de sa cotation de manière à être représentatif detous les métiers et de toutes les composantes du Groupe. Il détient ainsi 25% du capital dechaque Caisse régionale, ainsi que l’ensemble des participations du Groupe dans ses filialesspécialisées ou dans des banques de détail à l’international.

Crédit Agricole S.A. est un organe central et de contrôle, tête de réseau et banque cen-trale du Groupe Crédit Agricole, dont le capital est détenu à plus de 50% par les 39 caissesrégionales, elles-mêmes détenues par les 2544 caisses locales.Au sein du groupe Crédit Agricole, Crédit Agricole S.A. exerce quatre missions principales :

– il veille à la cohésion et au bon fonctionnement du réseau,– il représente le Groupe auprès des autorités bancaires,– il garantit l’unité financière du Groupe,

2

Page 12: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

– il se veut responsable de la cohérence de son développement en coordonnant, enliaison avec ses filiales spécialisées, les stratégies des différents métiers et assurant ledéveloppement international du Groupe.

1.1.2 Le Groupe de Recherche Opérationnelle (GRO)

Initialement créé en février 1969 au sein du Crédit Lyonnais et rattaché ensuite à laDirection des Risques (DRG) du Crédit Agricole après la fusion de 2003, le GRO a unemission de consultant quantitatif interne et représente un pôle d’aide à la décision dansdifférents domaines.

Le GRO est organisé sur le modèle d’une société de services travaillant pour l’ensembledes entités du Groupe Crédit Agricole sur tout type de sujet nécessitant une expertise tech-nique et scientifique. Les différentes entités du Groupe lui confient donc des études, dontles résultats servent de support à la prise de décisions stratégiques. Le GRO s’emploie ausside façon générale à maintenir une activité de recherche et de veille technologique afin derester à la pointe des techniques et méthodes quantitatives employées dans la banque et demanière plus générale en gestion des risques.

1.2 Qu’est-ce que le risque opérationnel ?

1.2.1 Définition

Le risque opérationnel peut être défini comme le risque de pertes résultant de procéduresinternes inadaptées ou défaillantes, d’erreurs humaines, de défaillance des systèmes infor-matiques, d’évènements extérieurs. Ce sont donc des risques qui existent depuis toujoursdans les banques ou les entreprises. Il peut s’agir par exemple de problèmes informatiquesqui retardent l’exécution d’ordres sur les marchés (incidents courants) mais également del’incendie de locaux ou de fraude interne pouvant entrainer de lourdes pertes. Le risqueopérationnel est donc un risque qui peut s’avérer très couteux.

Même s’ils sont connus depuis longtemps, la gestion des risques opérationnels est unexercice encore assez récent pour les banques, qui a largement évolué grâce à la réformeBâle II (qui sera détaillée dans le chapitre suivant). Le Comité de Bâle définit les risquesopérationnels de manière formelle comme «le risque de pertes dues à une inadéquation ou àune défaillance des procédures, personnels, systèmes internes ou à des évènements extérieurs ».

1.2.2 Classification

Catégories de risques (ELs)Pour répondre à la diversité des évènements assimilables à des risques opérationnels et

homogénéiser les données de pertes, le Comité de Bâle présente une classification des dif-férentes catégories d’évènement (EL pour Event Line) dont les intitulés sont regroupés dansle tableau 1.1.

Ces catégories sont généralement respectées par la plupart des banques lors de la collectede leurs pertes, dans un soucis d’homogénéité et de comparaison. Il est toutefois possibleque dans certaines banques des catégories soit sous-divisées, comme la catégorie EL2 gé-néralement différenciée entre pertes liées à la monétique (M) et les autres types de fraudeexterne hors monétique (HM).

Lignes métiers (BLs)Les différentes catégories d’évènements précédentes sont observées suivant une réparti-

tion des lignes métier (business lines, BL) de la banque, proposée par le Comité de Bâle.Leurs intitulés figurent dans le tableau 1.2.

3

Page 13: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Catégorie de risque Intitulé

EL1 Fraude interne

EL2 Fraude externe

EL3 Pratiques en matière d’emploi et sécurité sur le lieu de travail

EL4 Clients, produits et pratiques commerciales

EL5 Dommages occasionnés aux actifs corporels

EL6 Interruption de l’activité et dysfonctionnement des systèmes

EL7 Exécution, livraison et gestion des processus

TABLE 1.1 – Classification des catégories de risque (ELs) pour le risque opérationnel selon Bâle II

Ligne métier Intitulé

BL1 Financement d’entreprise

BL2 Activités de marché

BL3 Banque de détail

BL4 Banque commerciale

BL5 Paiements et règlements

BL6 Fonctions d’agent

BL7 Gestion d’actifs

BL8 Courtage de détail

TABLE 1.2 – Classification lignes métier (BLs) pour le risque opérationnel selon Bâle II

Ces lignes métiers sont données à titre indicatif, et peuvent subir des modifications selonles différentes activités de la banque ou groupe bancaire considéré.

1.2.3 Particularités des données

Seuil de collecte

Les pertes collectées liées au risque opérationnel comportent un seuil de collecte. C’est-à-dire qu’aucune perte de type risque opérationnel d’un montant inférieur au seuil fixépar la banque (variant généralement de 1000C à 10 000C), ne figure dans les bases dedonnées. Les données disponibles pour l’estimation sont donc censurées à gauche. Commenous le verrons par la suite, ceci est source de difficulté dans l’estimation des paramètres.Soulignons également que les bases de pertes ont généralement une volumétrie très variableselon les catégories de risques, certaines bases ne comportant qu’une dizaine de pertes. Celaconstitue donc un obstacle supplémentaire à l’estimation statistique 1.

Hétérogénéité

Les données de pertes opérationnelles possèdent des profils très atypiques. Malgré laclassification des risques et l’amélioration de la collecte des pertes, il existe toujours une

1. L’estimation se fait en général sur une base de donnée comportant 5 ans d’historique, ce qui correspondau minimum requis règlementairement. La période d’historique pourrait être accrue mais cela ne serait alors plusreprésentatif des nouveaux risques encourus.

4

Page 14: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

hétérogénéité non négligeable à l’intérieur des catégories mais aussi entre les catégories.Elles contiennent de nombreuses pertes de montants faibles ainsi que quelques évènementsextrêmes, ce qui les rend difficiles à ajuster.

La figure 1.1 permet de l’illustrer, avec un boxplot (“boite à moustaches”) pour 6 catégo-ries de pertes différentes collectées par le Groupe Crédit Agricole.

FIGURE 1.1 – Boxplot pour différentes catégories de pertes opérationnelles

Nous notons tout d’abord que les données issues du risque opérationnel présentent despertes extrêmes, et ce quelque soit la catégorie. Nous pouvons également remarquer que lacatégorie “exécution” (EL7) semble se distinguer car elle parait contenir deux groupes depertes : un premier groupe de pertes peu sévères (dans la boite) et un groupe importantde pertes très sévères (points hors de la boite). La catégorie “dommages” (EL5) semblepour sa part avoir une distribution très asymétrique. Nous verrons dans la suite du mémoireque des difficultés d’estimation, spécifiques aux données issues du risque opérationnel, endécoulent.

1.2.4 Exemples célèbres

Nous illustrons la définition et la classification précédente au travers d’exemple de pertesliées au risque opérationnel subies secteur bancaire lors de ces dernières années.

L’incendie du Crédit LyonnaisLe Crédit Lyonnais a été victime de l’incendie spectaculaire de son siège parisien, le 5 mai

1996. L’incendie, parti de la salle des marchés, ravage le bâtiment et la salle des coffres.Même si certains doutes subsistent sur son caractère accidentel, il occasionne de sérieux dé-gâts et le Crédit Lyonnais revend ensuite son siège central 1.3 milliard de francs à l’assureurAIG. Cette perte rentre donc dans la catégorie ’Dommages’ (EL5) de la ligne métier ’Banquede détail’ (BL3).

5

Page 15: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

L’affaire KervielPlus récemment, la Société Générale a enregistré en 2008 des pertes très lourdes (plu-

sieurs milliards d’euros) résultant de prises de positions frauduleuses d’un de ces tradeurs,Jérôme Kerviel. Il aurait exposé la banque à un risque de marché en accumulant des posi-tions acheteuses sur des contrats à terme sur indices. Il aurait surtout dissimulé ces opéra-tions de marché en introduisant dans le système informatique de la Société Générale desopérations inverses fictives les compensant. Les causes de ces importantes pertes sont lafraude interne (EL1) et une défaillance dans les contrôles sur les activités de marché (BL2).

1.3 Aperçu des enjeux du mémoire

La répartition des pertes opérationnelles en deux dimensions exposée précédemmentpermet d’obtenir une vision matricielle des risques opérationnels que peut subir un établis-sement bancaire :

EL1 ... EL7BL1...

BL8

Chaque case de la matrice, dans laquelle sont collectées un certain nombre de pertes, estalors appelée cellule de risque (risk cell) et fait l’objet d’une exigence de fonds propres : lestechniques d’estimation associées seront l’objet de la seconde partie du mémoire. Une foisces charges en capital calculées pour les différentes cellules, nous nous devons alors de lesagréger pour calculer la charge en capital global au titre du risque opérationnel au niveaugroupe, et réallouer ce capital aux différentes lignes métier ou entités du groupe. Cela seral’enjeu de la troisième et dernière partie de ce mémoire.

6

Page 16: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 2

Contexte règlementaire du risqueopérationnel

2.1 Les dispositifs règlementaires bancaires

La règlementation prudentielle a considérablement évolué ces vingt dernières annéessous l’impulsion des travaux du Comité de Bâle (Basel Committee on Banking Supervision,BCBS). Même si celui-ci n’a aucun pouvoir décisionnel, ses recommandations sont reprisespar les autorités de tutelle des différents pays concernés. En Europe, c’est la Commission Eu-ropéenne qui est chargée de définir les règles prudentielles CRD (pour Capital RequirementDirective), dont la mise en œuvre revient aux différentes autorités nationales de tutelle. EnFrance, c’est l’Autorité de Contrôle Prudentiel 1 (ACP), qui contrôle l’application de la CRD,une fois que celle-ci a été adaptée en droit français par le Comité de la RèglementationBancaire et Financière.

2.1.1 Historique

Les grandes étapes de l’évolution de ces directives prudentielles sont répertoriées ci-dessous :

1988 Publication de « The Basel Capital Accord » définissant le ratio Cooke (Bâle I).1993 Élaboration de la CAD par la Commission Européenne.1996 Incorporation du risque de marché dans l’assiette des risques.1999 Premier document consultatif sur le nouveau ratio McDonough.2004 Publication du texte définitif de la règlementation Bâle II.2006 Mise en place de la norme Bâle II.2010 Publication du texte définitif de la nouvelle règlementation Bâle III.2013 Mise en œuvre programmée de la norme Bâle III.

2.1.2 Bâle I

En 1988, le Comité de Bâle propose un ratio international de solvabilité qui doit per-mettre une adéquation des fonds propres par rapport aux risques, tout en renforçant lasolidité et la stabilité du système bancaire et également d’atténuer les inégalités concurren-tielles entre les banques. Il s’agit du ratio Cooke (du nom du président du Comité de Bâle del’époque) qui correspond au rapport entre le montant des fonds propres et celui des encourspondérés de crédit (EPC). Plusieurs niveaux de fonds propres sont définis :

1. L’ACP résulte de la fusion intervenue en janvier 2010 entre l’organe de contrôle des banques (la ComissionBancaire) et celui contrôlant les assurances (l’Autorité de Contrôle des Assurances et des Mutuelles).

7

Page 17: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

1. les fonds propres de base FP1 (Tier one), qui correspondent au capital et aux réserves,

2. les fonds propres complémentaires FP2 (Tier two), principalement constitués d’em-prunts subordonnés,

3. les fonds propres surcomplémentaires FP3 (Tier three).

Selon l’accord de Bâle I, les établissements financiers doivent alors respecter les contraintesFP1 6 FP2 et FP1/EPC 6 4%, mais également le ratio de Cooke défini par :

FP1 + FP2

EPC> 8%

La règlementation a ensuite évolué progressivement pour prendre en compte les risquesde marché, avec la proposition de deux approches, l’une forfaitaire, et l’autre autorisantles banques à utiliser un modèle interne. L’idée est d’inciter les banques à construire desmodèles robustes pour évaluer leurs risques de marché et donc d’obtenir des exigences defonds propres plus réalistes. Ce n’est qu’en janvier 1996 que le Comité de Bâle proposed’incorporer le risque de marché dans le ratio Cooke. En 1999, le Comité de Bâle publie unpremier document consultatif pour réformer le ratio Cooke, puis un second en 2001, avecpour objectifs la modification du traitement du risque de crédit et l’intégration du risqueopérationnel.

2.1.3 Bâle II

Le Comité de Bâle publie finalement en juin 2004 le Nouvel Accord de Bâle, résultat deplusieurs périodes consultatives auprès des institutions financières. La première motivationde l’Accord est la modification de l’assiette des risques, qui prévoit désormais la prise encompte du risque opérationnel, et la définition d’un nouveau ratio de solvabilité, le ratioMcDonough :

FP1 + FP2

ERC + ERO + ERM> 8%

où ERC , ERO et ERM sont les exigences définies respectivement pour le risque de crédit, lerisque opérationnel et le risque de marché.

La seconde motivation de l’Accord est de rendre l’exigence de fonds propres plus sensibleau risque réel encouru par la banque. L’idée est d’autoriser les banques, sous certainesconditions, à recourir à des modèles internes pour mesurer le risque de crédit et le risqueopérationnel, de la même façon que pour le risque de marché .Cette réforme s’appuie surtrois piliers, représentés sur la figure 2.1

FIGURE 2.1 – Les trois piliers Bâle II

Le premier pilier correspond aux exigences minimales de fonds propres et vise à définir leratio McDonough (voir ci-dessus). Le deuxième pilier concerne le processus de surveillance

8

Page 18: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

et donne un pouvoir accru aux autorités de contrôle (ACP). Le troisième pilier porte poursa part sur la communication financière et la discipline de marché, et vise à améliorer latransparence financière des banques pour permettre à des tiers d’apprécier l’adéquation deleurs fonds propres. Nous détaillons dans les sections suivantes les deux premiers piliers,auxquels se rapporte ce mémoire.

2.2 Le pilier 1 de Bâle II : une exigence de fonds propres

2.2.1 Objectifs

Les fonds propres (ou le capital) sont un des éléments du passif d’une banque. Ils peuventêtre calculés de façon règlementaire. Dans ce cas, il est d’usage de parler de fonds propresforfaitaires ou règlementaires (regulatory capital). Il est aussi possible de les calculer à partirde modèles internes qui tiennent compte des effets de diversification ou de la nature duportefeuille de la banque. Dans ce cas, nous parlons de fonds propres ou capital économique(economic capital, voir dans la suite §2.3.1 p.11 pou une définition plus précise). L’idée deBâle II est de faire converger le capital règlementaire − souci des autorités de contrôle − etle capital économique − souci des établissements bancaires.

2.2.2 Principales améliorations

En ce qui concerne le premier pilier de Bâle II, le traitement du risque de marché resteinchangé par rapport à Bâle I, alors que le traitement du risque de crédit est revu en profon-deur. Les méthodes de calcul des fonds propres règlementaires liés au risque de crédit sontstandardisées et imposées par le Comité de Bâle, et sont au nombre de trois :

– l’approche standard (SA, pour Standard Approach), qui reste une méthode forfaitaire– l’approche IRB (Internal Ratings Based) « simple » est basée sur des mesures internes

des probabilités de défaut (PD) et des mesures exogènes des autres paramètres dumodèle

– l’approche IRB dite « avancée », où la banque estime d’autres paramètres comme laLGD (Loss Given Default) et l’EAD (Exposure at Default).

Notons que les approches IRB ne sont pas des modèles internes à proprement parler, maisplutôt des formules standards avec des paramètres internes à chaque établissement.

Le risque opérationnel est désormais pris en compte et à l’image du risque de crédit troisapproches sont proposées par le régulateur pour le calcul de l’exigence en fonds propres liéà ce nouveau risque. Nous introduisons le principe de ces approches dans les paragraphessuivants.

2.2.3 Les approches de base pour la mesure du risque opérationnel

Parmi les trois approches qui vont suivre, les banques ont la possibilité de choisir cellequi leur parait le mieux correspondre à la spécificité de leur activité et à leur capacité glo-bale d’action. Elles doivent en effet s’assurer qu’elles disposent de l’ensemble des moyensnécessaires à la mise en œuvre de la solution retenue. Le degré de sophistication de chacunede ces trois méthodes est en effet croissant.

L’approche indicateur de base BIA (Basic Indicator Approach)

Cette méthode, la plus simple, est forfaitaire : le calcul des fonds propres à mobiliser sefait à partir d’un indicateur fondé sur le produit annuel brut (PAB), qui intègre le produit netbancaire et d’autres éléments d’exploitation. L’indicateur d’exposition retenu est la moyennedes parties positives des PAB des trois dernières années :

9

Page 19: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

IEn =1

3

3∑i=1

max(PABn−i, 0).

Ensuite, le montant des fonds propres (FP) au titre de l’année écoulée n se fait par un calculforfaitaire :

FPn = 15%× IEnEn tant que calcul forfaitaire, il n’a pas besoin de justification. Néanmoins cette méthode

a de fortes chances de surévaluer le risque opérationnel réellement encouru par la banque.Au contraire en période de crise, le PAB de la banque étant très faible, le montant de fondspropres évalué par cette méthode devient dérisoire, et cette méthode inappropriée.

Les banques à vocation internationale ont à ce titre opté pour des méthodes certes pluscomplexes mais plus réalistes pour évaluer leur exposition au risque opérationnel.

L’approche standardisée TSA (The Standardized Approach)

Cette approche affine quelque peu la précédente, en effectuant un calcul par ligne mé-tier j :

FPn =∑j

βj · IEn,j

Les coefficients βj proposés par le Comité de Bâle sont :

Ligne métier β

Financement d’entreprise 18%

Activités de marché 18%

Banque de détail 12%

Banque commerciale 15%

Paiement et règlement 18%

Fonctions d’agent 15%

Gestion d’actifs 12%

Courtage de détail 12%

Par rapport à l’approche précédente, elle fait généralement diminuer le montant desfonds propres de 8 à 10% en moyenne (sur des montants de plusieurs milliards d’euros).

2.2.4 L’approche avancée AMA (Advanced Measurement Approach)

Cette approche implique le choix et la mise en œuvre d’une méthode avancée, dontl’intérêt est de donner une appréciation plus juste du risque à travers la construction d’unmodèle interne, qui peut parfois mener à une réduction d’environ 20% de l’exigence enfonds propres par rapport aux méthodes standard. Le choix du modèle interne est laissé àl’appréciation de la banque, mais fait néanmoins l’objet de contrôles réguliers de la part desinstances de régulation, après avoir été validé sur des critères à la fois qualitatifs et quan-titatifs. Quelque soit l’approche retenue, la mesure du risque opérationnel doit néanmoinscorrespondre à une période de détention d’un an et à un niveau de confiance de 99,9%.

La méthode avancée la plus populaire dans le secteur bancaire pour le risque opération-nel est la méthode LDA (pour Loss Distribution Approach) et sera la méthode de référencetout au long de ce mémoire. Sa présentation détaillée fait l’objet du chapitre suivant (voirp.15).

10

Page 20: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

2.3 Le pilier 2 : pour un meilleur suivi des risques

2.3.1 Motivations

Le pilier 2 de l’accord de Bâle II est un élément essentiel du nouveau dispositif d’adé-quation des fonds propres, dont l’objectif est double.

Pour le superviseur, il s’agit de s’assurer que les établissements financiers disposent desystèmes d’évaluation et de surveillance de l’ensemble de leurs risques et qu’ils disposentd’un niveau de fonds propre conforme à leur profil de risque.

Pour les établissements financiers, l’objectif est de développer des techniques de contrôleet de gestion de leurs risques, ainsi que de mettre en place un processus interne pour l’éva-luation de leur capital interne (ICAAP : Internal Capital Adequacy Assessment Process)adapté à leur profil de risques et à leurs stratégies. Ce processus a pour vocation à leurpermettre de correctement identifier, mesurer, agréger et surveiller les risques, et d’assurerla détention d’un montant de capital en adéquation avec leur profil de risque.

Ce capital déterminé à partir d’un modèle interne est appelé capital économique, et peutse définir comme le montant de capital déterminé selon des bases réalistes qu’une banqueestime nécessaire de détenir pour faire face aux risques qu’elle encourt.

2.3.2 ICAAP et risque opérationnel

En pratique, ce capital économique est calculé en déterminant le montant de capitalnécessaire à la solvabilité de l’établissement sur une période de temps donnée et selon uneprobabilité déterminée à l’avance. Ce niveau de capital économique est alors fonction duprofil de risque de l’établissement financier, et de son degré d’aversion au risque. Celui-cise matérialise par un objectif de notation externe qu’il détermine et auquel correspond unseuil de confiance.

Plus concrètement si l’objectif de notation externe de la banque est AA, cela correspondà une probabilité de défaut de 0,03% à l’horizon d’un an. De ce fait, le capital économiqueau titre du risque opérationnel représente le montant de fonds propres que la banque estimenécessaire de détenir pour faire face, dans 99,97% des cas à l’horizon d’un an, à une perteextrême pouvant mettre en péril sa solvabilité.

Dans la suite du mémoire, nous utiliserons donc le niveau de quantile cible de 99,97%lors des calculs et application numériques menés dans le cadre pilier 2 (ICAAP) en raisonde l’objectif de rating externe AA de Crédit Agricole.

2.4 Comparaison avec le référentiel Solvabilité 2

Dans l’esprit de Bâle II régulant les activités bancaires, la Commission Européenne sou-haite améliorer l’évaluation et le contrôle des risques dans le secteur de l’assurance. Dansce contexte, la directive Solvabilité II est un projet de règlementation prudentielle qui àpartir du 1er janvier 2013 s’appliquera à l’ensemble des sociétés d’assurance 2 de l’UnionEuropéenne.

La réforme Solvabilité II vise à renforcer les critères de solvabilité des assureurs afin degarantir le respect des engagements pris envers les assurés. La réforme prône une nouvelleapproche des risques, tous les risques auxquels les assureurs sont soumis devant être pris encompte, tant du point de vue quantitatif que qualitatif. Notamment, le risque opérationnelrentre dans désormais son champs d’application. Dans une logique similaire à Bâle II, ellese construit autour de trois piliers :

1. Exigences financières quantitatives

2. Autorité de contrôle et système de gouvernance

2. Entrent également dans le champs d’application de Solvabilité II : les mutuelles, les institutions de pré-voyance, et les réassureurs.

11

Page 21: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

3. Discipline de marché

Tous les acteurs du marché sont impliqués dans l’élaboration de cette réforme. Ils doivent eneffet répondre à des études quantitatives permettant à la Commission européenne d’évaluerl’impact concret de ces mesures sur le marché. Actuellement, cinq études ont d’ores et déjàété menées, la dernière en date étant QIS5.

2.4.1 Définition

La définition du risque opérationnel est quasiment identique dans les deux règlementa-tions, comme le montre le tableau suivant :

Solvabilité II Bâle II

Risque de pertes résultant deprocédures internes inadaptées oudéfaillantes, ou de membre dupersonnel et de systèmes, oud’évènements extérieurs. Le risqueopérationnel ainsi définicomprend les risques juridiquesmais non les risques découlant dedécisions stratégiques ni lesrisques de réputation

Risque de pertes résultant d’uneinadaptation ou d’une défaillanceimputable à des procédures,personnels et systèmes internes,ou à des évènements extérieurs.Inclut les évènements de faibleprobabilité d’occurrence, mais àrisque de perte élevée. Le risqueopérationnel ainsi défini inclut lerisque juridique, mais exclut lesrisques stratégiques et deréputation.

Source : directive cadre du 10juillet 2007, articles 13 et 100

Source : art. 4-1 de l’arrêtétransposant Bâle II en France

Précisons également qu’en terme de nomenclature les lignes métiers et catégories derisques sont normalisées dans Bâle II (matrice 8× 7), alors que non précisées dans Solvabi-lité II.

2.4.2 Mesure

Formule standard

La formule standard permettant de quantifier le risque opérationnel dans Solvabilité IIest le pendant de l’approche standard de Bâle II. Evidemment, la formule est ici adaptée enintroduisant des facteurs spécifiques, notamment pour les compagnies exerçant une activitéd’assurance vie.

La formule générale pour le besoin en capital au titre du risque opérationnel est lasuivante :

SCRop = min (30%BSCR,Op) + 25%Expul

Avec

Op : Charge du risque opérationnel pour tous les contrats hors contrats d’assurance vie oùle risque est pas porté entièrement par l’assuré

Expul : Montant bruts de réassurance des dépenses annuelles dans le cadre des contrats enunités de compte (i.e dépenses administratives) durant les 12 derniers mois.

12

Page 22: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Modèle interne

Comme pour Bâle II, il est possible d’utiliser une approche dite avancée pour la mesuredu risque opérationnel ; nous parlons alors de modèle interne. Ces modèles internes sontencore peu développés dans les société d’assurance (principalement en raison du manquede données dû à l’absence de processus de collecte généralisé et fiable, la gestion de cerisque étant très récente dans ce secteur).

Il est néanmoins possible de mettre en place des modèles calqués sur le secteur bancaire(utilisation de scénarios, modélisation fréquence/sévérité...), nous renvoyons pour cela aumémoire d’actuariat [29] consacré à la modélisation du risque opérationnel dans les com-pagnies d’assurance.

2.4.3 Poids du risque opérationnel dans la charge en capital règlemen-taire

Terminons enfin cette comparaison en ajoutant que dans le secteur bancaire, le risqueopérationnel représente le deuxième risque le plus important en terme d’allocation des fondspropres, après le risque de crédit. Comme le montre la figure 2.2, il représente environ 15 à25% des exigences en fonds propres des banques grandes banques généralistes.

FIGURE 2.2 – Illustration de la répartition du capital entre risque de crédit, opérationnel etrisque de marché dans une grande banque

Avec Solvabilité II, le poids du risque opérationnel a été revu à la hausse dans la dernièrevague de papiers consultatifs (QIS5) mais ce n’est pas encore définitif. Il représente en toutcas pour un assureur l’un des trois plus gros risques règlementaires.

2.5 Vers la norme Bâle III

Tirant les leçons de la crise, et sous l’impulsion du G20, le Comité de Bâle a engagé unerévision complète du dispositif prudentiel applicable à compter de début 2013 et qui vise àrenforcer la résilience des banques (capacité à absorber des chocs liés à des conditions demarché défavorables). Les enjeux de cette réforme sont considérables, non seulement pourle secteur bancaire et la stabilité des marchés financiers, mais aussi pour l’économie dansson ensemble.

Le projet de nouvel accord se concentre ainsi sur cinq points d’attention majeurs.1. Harmonisation et renforcement de la qualité des fonds propres

Le premier objectif est d’accroitre l’homogénéité, la qualité et la transparence desfonds propres, c’est-à-dire s’assurer qu’ils sont constitués de capitaux capables d’ab-sorber des montants de pertes importants et non d’instruments financiers complexeset sujets à fluctuations.

13

Page 23: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

2. Renforcement des exigences de fonds propres relatives au risque de contrepartieLa principale innovation réside dans la charge en capitaux propres au titre des ajuste-ments de crédit sur produits dérivés de gré à gré (OTC)

3. Mise en place d’un ratio de levierLe Comité envisage d’intégrer au Pilier 1 un ratio d’effet de levier (leverage ratio) des-tiné à plafonner les expositions en risques indépendamment de la qualité des risquesencourus, et ce afin de limiter l’endettement des banques.

4. Instauration de mesures contra-cycliquesAfin de limiter les effets de pro-cyclicité (en temps de crise, les banques réduisent leuroffre de crédit pour maintenir un niveau de solvabilité constant, ce qui a pour effetd’aggraver la crise), les banques seront tenues de constituer des coussins en capitaldestinés à absorber les pertes en période économique dégradée, ceci afin de stabiliserle système bancaire en lissant les chocs économiques

5. Instauration de ratios de liquiditéLe Comité de Bâle propose la mise en place de deux ratios de liquidité. Le premier(LCR, pour Liquidity Coverage Ratio) imposera aux banques de détenir un stock d’actifssans risque, qui leur permettrait de résister pendant trente jours à une crise qui setraduirait par des retraits massifs. Le second ratio (NSFR, Net Stable Funding Ratio)vise le même objectif sur un an. Plus contraignant, il doit inciter les établissements decrédit à renforcer leur profil de financement en faveur de ressources de long terme,supposées plus stables.

Précisons enfin qu’en l’état actuel des choses, aucune réelle nouveauté n’a été apportée ence qui concerne la mesure et la gestion du risque opérationnel.

14

Page 24: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 3

L’approche avancée LDA

Dans ce chapitre, nous présentons de manière plus détaillée cette méthode de quantifi-cation du risque opérationnel qui sera utilisée dans la suite, ceci afin de mieux comprendreles enjeux du mémoire qui vont suivre.

3.1 Définition du Capital-At-Risk (CaR)

La charge en capital (Capital-at-Risk ou CaR) est la part des fonds propres destinée àpréserver la banque de l’insolvabilité en cas de perte(s) exceptionnelle(s). Cette couverturedu risque est bien entendu assortie d’un certain niveau de confiance ou probabilité, fixé à99.9% dans le cadre de la règlementation Bâle II (voir chapitre précédent). L’objet de laméthode qui va suivre est de calculer la charge en capital au titre du risque opérationnel,pour une entité et une ligne métier fixées.

3.2 Principe

La méthodologie que nous présentons ici (LDA pour Loss Distribution Approach) estl’aboutissement de réflexions menées par le Groupe de Recherche Opérationnel, et a faitl’objet d’une publication ([1]). Elle est dérivée d’une approche actuarielle ancienne et lar-gement utilisée en assurance 1. L’idée générale est de modéliser la perte liée au risque opé-rationnel pour une période donnée (1 an) et d’en déduire la valeur en risque, pour chaquecatégorie. La difficulté réside dans le fait que cette perte ne correspond pas à une seuleoccurrence mais qu’elle est le résultat de plusieurs pertes successives. Nous parlons alorsde perte agrégée, ou perte annuelle, pour la perte résultante. Il faut donc distinguer deuxdistributions :

– la fréquence des pertes (Frequency Loss Distribution)– la sévérité des pertes (Severity Loss Distribution)

En introduisant les notations :– N la variable aléatoire associée au nombre d’évènements annuels (les pertes) et p(k) =P (N = k) sa distribution discrète

– ξ la variable aléatoire représentant le montant d’une perte individuelle. F sera lafonction de répartition de la sévérité des pertes. L’hypothèse classique du modèlefréquence-sévérité suppose les pertes indépendantes entre elles, identiquement dis-tribuées, et indépendantes de N .

1. Qui figure notamment dans le livre référence de Panjer et Klugmann : Loss Models From Data to Decisions(1998)

15

Page 25: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

La perte annuelle est donc :

`N =

N∑k=1

ξk

Dans cette configuration d’indépendance, nous pouvons exprimer l’espérance et la variancede la perte annuelle en fonction de celles de la sévérité et de la fréquence :

E [`N ] = E [N ] .E [ξ]

et par la formule de décomposition de la variance

var [`N ] = E [N ] .var [ξ] + (E [ξ])2.var [N ] (3.1)

En notant G la fonction de répartition de la perte annuelle `, alors nous pouvons égale-ment écrire :

G(x) =

∑∞k=1 p(k)F ∗k(x) pour x > 0

p(0) pour x = 0(3.2)

où F ∗n(x) est la fonction de répartition de la somme des n pertes (ξ1, ξ2, ..., ξn), qui s’obtientpar auto-convolution d’ordre n de la distribution de sévérité 2.

La charge en capital CaR (ou VaR) de niveau α s’obtient finalement d’après la distributionde la perte annuelle en calculant son quantile de niveau α :

CaR(α) = inf x | G(x) ≥ α = G−1(α)

Le Comité de Bâle fixe un niveau règlementaire de quantile α = 99.9%, ce qui correspond àla couverture d’un risque millénaire.

La figure 3.1 donne une idée des distributions obtenues lors des différentes étapes dumodèle pour une catégorie de risque et ligne métier donnée, ainsi que de la charge en capi-tal résultante en fonction de α.

Ce calcul est effectué pour chaque catégorie de risque, généralement par simulationsde Monte-Carlo afin d’obtenir la distribution annuelle empirique agrégée et d’en prendre lequantile de niveau α, fixé à 99.9% dans le cadre de l’exigence en fonds propres du pilier 1.

Une agrégation est ensuite effectuée pour calculer la CaR totale liée au risque opération-nel, notamment en tenant compte des corrélations entre catégories. Cela fait notammentl’objet de la dernière partie du mémoire.

Récapitulatif des principales étapes du modèle

1. Estimation des paramètres de sévéritéIl s’agit ici d’estimer, dans le cadre classique de la statistique paramétrique, les pa-ramètres θ = (θ1, ..., θp) de la loi de sévérité choisie pour modéliser la sévérité despertes ξi. La méthode de référence sur un plan théorique est le maximum de vraisem-blance mais nous verrons qu’en raison des particularités des données liées au risqueopérationnel il est souvent préférable d’utiliser d’autres méthodes d’estimation (ceciest l’objet de la deuxième partie de ce mémoire).

2. Rappelons que si les variables aléatoires indépendantes continues X et Y admettent respectivement lesdensités f et g , alors Z = X + Y a pour densité : h(x) =

∞−∞ g(y)f(x− y)dy = f • g

Si X et Y sont i.i.d. de même densité f , la variable Z a pour densité f • f = f∗2, résultat qui peut se généraliserau cas d’une somme de n variables aléatoires.

16

Page 26: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 3.1 – Les différentes étapes de la méthode LDA pour l’estimation de la charge en capital

2. Estimation de la fréquenceN est supposé suivre une loi de Poisson de paramètre λ. Cette distribution présentel’avantage de ne nécessiter qu’un seul paramètre que nous pouvons estimer simple-ment via maximum de vraisemblance par la moyenne empirique du nombre annuelde pertes, et elle est très utilisée en assurance pour modéliser des problèmes similaires.

3. Construction de la distribution annuelle des pertesCette distribution est construite par simulations de Monte-Carlo, avec les paramètresθ et λ, estimés précédemment.

4. Calcul de la charge en capitalIl suffit pour cela d’extraire le quantile empirique à 99.9% de la distribution construiteà l’étape précédente.

3.3 Prise en compte des assurances

Les banques validées en approche avancée AMA se voient offrir la possibilité de prendreen compte certaines polices d’assurance dans le calcul de leur capital règlementaire au titredu risque opérationnel. L’effet de réduction du capital induit par la prise en compte de cescouvertures est cependant limité à hauteur de 20% par le régulateur.

3.3.1 Caractéristiques des polices

Les polices d’assurance souscrites par la banque se doivent de respecter plusieurs carac-téristiques afin de pouvoir être prises en compte lors du calcul de leur exigence en fondpropres règlementaire. Les principales contraintes sont les suivantes :

– L’assureur fournissant la police doit avoir un rating minimum de A (ou équivalent)– La police doit être d’une durée initiale d’au moins 12 mois– L’annulation de la police par l’assureur (ou son non renouvèlement) doit faire l’objet

d’un préavis d’au moins 90 jours

17

Page 27: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

– Pas de motif d’exclusion pouvant être liés à l’action du régulateur– Le contrat ne doit faire intervenir que des tierces parties (ce qui exclue donc l’utilisa-

tion de sociétés d’assurance captives 3)Les polices remplissant ces conditions sont dites conformes à Bâle II. En pratique, il estd’usage d’introduire dans le modèle un taux de couverture Bâle II, qui traduit la confor-mité des polices d’assurances aux exigences Bâle II. Cela est dû à la complexité de certainscontrats où plusieurs assureurs ou réassureurs peuvent intervenir, et de la couverture despolices propres à chaque contrat, pouvant ne pas être toujours être définies selon les caté-gories de risque Bâle II.

3.3.2 Principe d’intégration dans le modèle

L’intégration des couvertures d’assurance dans le modèle LDA se fait naturellement lorsde l’étape des simulations de Monte-Carlo, car nous avons alors accès au montant individueldes pertes, et pouvons si besoin appliquer l’effet d’une couverture d’assurance.

Pour cela, un jeu complémentaire de paramètres caractérisant la police d’assurance estajouté au modèle lors de cette étape. Il comprend la franchise, le taux d’assurabilité, le tauxde couverture (taux de conformité des polices à Bâle II, défini au paragraphe précédent), leplafond des sinistres, et enfin le plafond annuel.

En terme de montant remboursé, cela se traduit par de la manière suivante, pour destaux d’assurabilité t1 et t2 (généralement égaux à 100% et 0%) :

Plafond par sinistre

Montant remboursé/sinistre Franchise

t1 (%) t

2 (%)

– Pour un montant de perte enregistré inférieur à la franchise, l’assurance ne rembourserien

– Lorsque le montant de perte excède la franchise mais reste en deçà du plafond, t1%du sinistre moins la franchise est remboursé

– Lorsque le montant excède le plafond par sinistre, le montant remboursé est égal àt1% de (plafond – franchise) + t2% de (perte – plafond)

– Il faut enfin vérifier que l’économie ne dépasse pas le plafond annuel, auquel cas ilfaut ajouter la différence

Cet algorithme est appliqué à chaque perte issue des simulations Monte-Carlo, après avoirdéterminé si la couverture de cette perte est susceptible d’être pris en compte dans le calculmoyen de taux de couverture (conformité Bâle II).

3.3.3 Effet sur les distributions

L’exemple suivant a été obtenu sur des pertes issues de la catégorie ’Dommages’ debanque de détail, susceptibles d’être couvertes par une police d’assurance sur les immeubles.Il est alors possible de comparer les distributions obtenues avec et sans la prise en comptede l’effet de cette police d’assurance (supposée Bâle II à 95%), les différentes figures étantrassemblées figure 3.2.

Il est alors aisé de vérifier l’effet attendu, à savoir une diminution de la charge en capital

3. Une captive d’assurance est une entreprise de d’assurance détenue par une entreprise ou un groupe d’en-treprises qui n’exercent pas leurs activités en tant qu’assureurs directs ou réassureurs. La mission d’une captive selimite à la fourniture de produits de d’assurance couvrant les risques de l’entreprise ou du groupe d’entreprisesdont elle fait partie.

18

Page 28: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 3.2 – Comparaison des distributions issues du modèle LDA avec la prise en compte depolices d’assurance (courbes rouges) et sans (en bleu)

3.4 Intégration des scénarios

Utilité et définition

En complément des calculs de charges en capital effectués à partir des pertes internescollectées, la banque intègre à son calcul de risque une analyse de scénarios. Ils représententdes évènements exceptionnels qui permettent de compléter le profil de risques internesdéterminé sur la base des données historiques.

La méthodologie du Groupe Crédit Agricole repose sur une liste de 25 scénarios de basedéfinis de concert avec les autres institutions de la place. Chaque entité choisit au sein decette liste, les scénarios qu’elle désire inclure dans son périmètre de risque opérationnel. Cechoix s’effectue en fonction i) du métier ou de l’activité exercée par l’entité et, ii) de l’envi-ronnement, de la sensibilité ou du niveau d’exposition de l’entité à l’évènement déclencheurdu sinistre lié à ce scénario de base.

Chaque entité peut également retenir des scénarios additionnels si elle considère quecela permet de prendre en considération certaines de ses spécificités. En moyenne, les entitésretiennent un douzaine de scénarios différents pour la détermination de leurs exigences autitre du risque opérationnel.

Construction d’un scénario

Un scénario représente un évènement de risque bâlois au niveau le plus fin. Il est com-posé, en général, d’un ensemble de trois points représentant chacun un couple (montant deperte (potentielle ou avérée) × fréquence de cette perte).

Ces trois points sont définis à dires d’experts, et correspondent à trois états possiblesassociés à la réalisation de l’évènement de risque :

– hypothèse haute : combinaison de facteurs d’analyse (Cause, Dispositif de ContrôlesPermanents et Périodiques) telle que la sinistralité soit la plus défavorable,

– hypothèse moyenne : combinaison de facteurs d’analyse telle que la sinistralité soitjugée intermédiaire,

– hypothèse basse : combinaison de facteurs telle que la sinistralité soit jugée la moinsdéfavorable.

19

Page 29: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Les trois hypothèses sont croissantes en termes de sévérité et décroissantes en termesde fréquence. La construction des scénarios s’effectue sur la base d’une fiche d’analyse descénario renseignée par chaque entité comprenant toute une série d’informations normées.

Traitement des données de scénarios

Les données des scénarios sont ensuite utilisées pour déterminer les paramètres des loisde sévérité et de fréquence suivant deux modes :

– Scénario internalisé : les données de pertes des scénarios sont intégrées aux donnéesinternes de pertes collectées par l’entité sous condition du respect de critères métiers etstatistiques (critère d’homogénéité au profil de pertes internes). Elles sont par conséquent,utilisées conjointement avec les données de pertes internes pour ajuster les lois de fréquenceet de sévérité.

– Scénario stand alone : les trois points de scénarios sont utilisés pour déterminer lesparamètres des distributions de fréquence et de sévérité par résolution d’un système de 3équations non linéaires à 3 inconnues (µ, σ, λ dans le cadre d’une sévérité lognormale etd’une fréquence suivant une loi de Poisson). Précisons ici que l’utilisation de loi de sévéritécomportant plus que deux paramètres nécessiterait d’autant plus de points de scénarios.

Les scénarios stand alone sont alors traités comme des catégories de risque à part entière(calcul d’une CaR correspondant aux paramètres préalablement calculés).

3.5 Des méthodes alternatives pour le calcul de la chargeen capital

Etant donné le temps de calcul parfois conséquent requis par l’étape de simulations deMonte-Carlo pour obtenir la distribution agrégée avec une bonne précision, il peut êtresouhaitable d’utiliser d’autres techniques numériques afin d’accélérer le calcul de charge encapital. Nous présentons ci-dessous les deux méthodes les plus populaires pour le calcul desdistributions convoluées, leurs avantages et leurs inconvénients.

3.5.1 Algorithme récursif de Panjer

Présentation

C’est la méthode la plus connue pour le calcul des distributions convoluées, notammentutilisée en assurance non-vie dans le cadre du modèle collectif. Initialement présentée parHarry Panjer dans [25] sous le nom de Panjer recursion, elle se fonde sur le théorème sui-vant.

Avec les notations introduites précédemment et l’équation (3.2), il est possible d’écrirela densité de la perte annuelle `N comme

g(x) =

∞∑k=0

p(k)f∗k(x)

Soit en discrétisant selon une grille de N points de pas h > 0,

gn = P (`N = hn) =

∞∑j=0

p(j)f∗n(x)

Le théorème de Panjer indique alors que si la variable aléatoire N suit une loi de fréquencediscrète Q = qkk∈ N pouvant s’écrire pour k > 1 sous la forme p(k) = (a+ b/k) .p(k −1) avec a, b ∈ R, alors la distribution agrégée discrète gn peut être calculée de manièrerécursive suivant la formule :

20

Page 30: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

gn =

∞∑j=1

(a+

bj

n

)fjgn−j , n > 1

g0 = p(0)

Application au modèle LDA, avantages, inconvénients

Notons tout d’abord que la loi de Poisson employée dans le modèle LDA pour la variablealéatoire N rentre bien dans les critères d’applications du théorème, avec a = 0 et b = λ.Nous obtenons donc la formule récursive suivante pour une sévérité de densité f choisie :

gn =λ

n

∞∑j=1

j.fj .gn−j

Le principal intérêt de la méthode est l’obtention d’une formule exacte (même récursive)pour calculer chacun des termes de la distribution de probabilité. De ce fait, cette méthodeest théoriquement très précise car elle ne nécessite aucune méthode numérique (intégration,dérivation...) pour l’évaluation des termes de la somme.

Pour autant, sa complexité et le temps de calcul en découlant la rend difficilement utili-sable dans le cadre du modèle LDA. En effet, pour chaque calcul d’un terme de la somme gpil faut parcourir toutes les valeurs calculées précédemment (g1, g2, ..., gp−1), soit une com-plexité algorithmique en O

(N2). Comme le nombre de point de discrétisation N doit être

assez important pour obtenir une précision suffisante, cela implique des temps de calculstrès conséquents. C’est notamment le cas pour de grandes valeurs de λ, qui a tendance aalourdir les queues de distributions et nécessite donc un nombre de points de discrétisationplus important afin de pouvoir correctement estimer le quantile à 99.9% de la distribu-tion agrégée ; c’est pourquoi cette méthode est très peu utilisée dans le domaine du risqueopérationnel.

3.5.2 F.F.T. (Fast Fourier Transform)

Fondements théoriques

Nous pouvons définir 4 la transformée de Fourier d’une fonction réelle f par

F(f)(v) = g(v) =

+∞

−∞f(u)e−ivudu

et il est possible de retrouver f (sous conditions de régularité appropriées) à l’aide de latransformée de Fourier inverse :

F−1(g)(u) = f(u) =1

+∞

−∞g(v)eiuvdv

Ainsi, pour une variable aléatoire Z, il est possible de relier sa densité fZ à sa fonctioncaractéristique via les transformées de Fourier :

φZ(u) = E[eiuZ

]=

+∞

−∞fZ(v)eiuvdv =

+∞

−∞fZ(v)e−iuvdv = F(fZ)(u)

Inversement, la densité se retrouve alors en écrivant :

F−1(φZ)(u) = F−1(F(fZ)(u)

)= fZ(u) = fZ(u)

Il est donc possible de passer de la densité à la fonction caractéristique d’une variable aléa-toire,et inversement, en manipulant ces transformées de Fourier.

4. Il existe d’autres définitions, qui diffèrent généralement d’un facteur selon la convention choisie.

21

Page 31: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Application au calcul de charge en capital

Dans le cadre du modèle LDA, l’objet est de calculer la distribution de la perte annuelle` =

∑Ni=1 ξi dont nous ne connaissons pas l’expression analytique, afin d’en déduire la

charge en capital comme un quantile de cette distribution . Or il est possible d’exprimerexplicitement sa fonction caractéristique φ` au moyen de la fonction caractéristique φξ de lasévérité, elle-même obtenue par transformation de Fourier de sa densité fξ (comme détailléau paragraphe ci-dessus).

En effet, les sévérités étant considérées comme indépendantes et identiquement distri-buées, en conditionnant selon la fréquence N il vient :

φ`|N (u) = E[eiu` | N

]= φξ1φξ2 ...φξN (u) = [φξ(u)]

N

D’où en prenant l’espérance,

φ`(u) = E[eiu`

]= E

[E[eiu` | N

]]= E

[(φξ(u))

N]

= gN (φξ(u))

où gN (t) = E[tN]

désigne la fonction génératrice de la variable aléatoire discrète de fré-quence N , qui dans le cas d’une loi de Poisson de paramètre λ vaut gN (t) = exp (λ(t− 1)).

Il est alors possible d’obtenir la densité f` comme transformée de Fourier inverse deφ`. Le passage à la fonction caractéristique ainsi que son inversion se font en pratique enutilisant l’algorithme FFT (ou FFT inverse), le plus performant numériquement 5. C’est unalgorithme qui nécessite d’avoir discrétisé les fonctions intervenant dans le processus précé-dent selon une grille de points (x1, x2, ..., xNFFT ). La fonction de répartition de ` et la CaRassociée se déduit alors par somme cumulée du vecteur de densité discrétisé.

En résumé, le processus de calcul par FFT de la charge en capital correspondant à ladistribution convoluée peut donc se décrire de la façon suivante :

1. Discrétiser la fonction de densité de la sévérité fξ2. Utiliser l’algorithme FFT pour obtenir la fonction caractéristique discrétisée φξ3. Appliquer la fonction génératrice gN4. Utiliser l’algorithme FFT inverse pour obtenir le vecteur de densité discrétisé f`.5. Calculer le vecteur de la fonction de répartition discrétisée pour en déduire la charge

en capital recherchée

Avantages et inconvénients

Le principal avantage de cette méthode est sa rapidité : alors que le calcul de CaR parsimulations de Monte-Carlo peut parfois s’avérer très chronophage (plusieurs heures) , lecalcul par FFT est pour sa part quasiment immédiat (quelques secondes).

En revanche, cette méthode est assez instable numériquement et le choix des différentsparamètres peut s’avérer délicat. En effet, les densités intervenant étant définies sur R+, sepose la question du choix de la borne supérieure de l’intervalle de discrétisation ainsi quedu nombre de points à choisir à l’intérieur de cet intervalle afin de conserver une précisionde calcul suffisante. La problème est alors l’arbitrage entre un intervalle suffisamment grand(afin qu’il contienne la CaR recherchée) et un nombre de points de discrétisation assurantune précision satisfaisante (taille qui ne peut excéder 231 − 1 sur une machine standard 32bits). Ce problème numérique devient donc particulièrement complexe lors de la manipula-tion de densités de lois à queues épaisses, pour lesquelles la FFT n’est pas adaptée.

Enfin, cette manière de procéder rend par essence cette méthode incompatible avec laprise en compte des assurances dans le calcul de charge en capital détaillée précédemment(§3.3).

5. Pour une description plus précise de l’algorithme FFT et de ses propriétés se référer à SCHALLER P et TEMNOVG (2008), Efficient and Precise Computation of Convolutions : Applying FFT to Heavy Tailed Distributions, dansComputational Methods in Applied Mathematics, Vol 8, No. 2, pp 187-200

22

Page 32: Mémoire présenté devant l’Institut de Science Financière ...

Deuxième partie

Estimation de la sévérité durisque opérationnel

23

Page 33: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Dans cette partie, il est question d’améliorer le modèle LDA préalablement présenté auniveau de l’étape déterminante de l’estimation des paramètres de sévérité, et de trouverdes méthodes qui pourraient être plus adaptées au contexte des données de pertes liées aurisque opérationnel.

24

Page 34: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 4

Les méthodes d’estimationusuelles

Dans ce chapitre, nous présentons les deux méthodes d’estimation les plus courammentemployées dans le cadre du risque opérationnel, pour l’estimation du paramètre θ = (µ, σ)d’une loi de sévérité lognormale.

4.1 Quelques rappels théoriques sur les estimateurs

Afin de présenter dans ce chapitre et le suivant les propriétés des estimateurs obtenus,nous rappelons certaines définition théoriques que nous utiliserons.

Convergence– θn est un estimateur convergent de θ s’il converge en probabilité vers θ, c’est-à-dire si :

∀ε > 0, P (|θn − θ| > ε) −→n∞

0

– Si la convergence a lieu presque sûrement (p.s.) alors l’estimateur est dit fortementconvergent.

En pratique, une condition suffisante pour assurer la convergence est E[θn

]= θ et Var

[θn

]−→n∞

0.

Biais– L’estimateur θn est dit sans biais si pour tout n, E

[θn

]= θ. Les valeurs de l’estimateur

sont alors en moyenne autour du vrai paramètre, et ceci quelque soit la taille n del’échantillon.

– L’estimateur θn est dit asymptotiquement sans biais si le biais diminue quand la taillede l’échantillon augmente : E

[θn

]−→n∞

θ.

Efficacité L’estimateur θn est dit efficace s’il est de variance minimale parmi tous les esti-mateurs de θ ayant même moyenne.

Normalité asymptotique Nous dirons que l’estimateur θn est asymptotiquement normal(ou gaussien) s’il existe deux suites de fonctions réelles mn(θ) et σn(θ), cette dernière étantstrictement positive, telles que la suite :

Zn =θn −mn(θ)

σn(θ)

25

Page 35: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

converge en loi vers une variable aléatoire de loi normale centrée réduite.

4.2 La méthode du maximum de vraisemblance

4.2.1 Quelques généralités

La méthode du maximum de vraisemblance (MLE pour Maximum Likelihood Estimation)est la technique d’estimation la plus populaire en raison de ses bonnes propriétés théoriques,que le lecteur pourra trouver dans tous les manuels de statistique. Rappelons simplementici que l’estimateur du maximum de vraisemblance est obtenu en maximisant la fonction devraisemblance (ou log-vraisemblance), et que l’estimateur θML ainsi obtenu est sans biais,asymptotiquement efficace, et possède la propriété de normalité asymptotique.

Nous rappelons la fonction densité lognormale choisie pour représenter la sévérité despertes :

f(x;µ, σ) =1

σx√

2πe−

(ln x−µ)2

2σ2

La log-vraisemblance s’écrit alors pour un échantillon de n pertes historiques (collectéessans seuil) :

L(µ, σ) =

n∑i=1

ln f(ξi;µ, σ)

= −n2

lnσ2 − n

2ln 2π − 1

2

n∑i=1

(ln(ξi)− µ

σ

)2

−n∑i=1

ln(ξi)

Les estimateurs µML et σML maximisent la fonction de log-vraisemblance, ils vérifientdonc ∂µL (µML, σML) = 0 et ∂σL (µML, σML) = 0 .Un calcul analytique est possible et ils valent :

µML =1

n

n∑i=1

ln ξi et σML =1

n

n∑i=1

(ln ξi − µML

)24.2.2 Prise en compte de l’effet de seuil

Pour les paramètres de sévéritéLa présence de données tronquées affecte l’estimation de la distribution de sévérité puisque

la distribution empirique (pertes effectivement collectées) est différente de la vraie distri-bution (celle que nous devons obtenir si aucune perte n’est négligée) : il faut donc relierla vraie distribution à sa version empirique. Il faut alors considérer la vraisemblance condi-tionnelle. Pour une sévérité lognormale et un seuil de collecte H, la densité conditionnelles’écrit en divisant par le terme normalisateur :

f(x;µ, σ|H) =f(x;µ, σ)∞

Hf(y;µ, σ)dy

1x≥H =f(x;µ, σ)

1− F (H;µ, σ)1x≥H

Ceci se traduit par une modification de la fonction de log-vraisemblance :

L(µ, σ|H) =

n∑i=1

ln f(ξi;µ, σ|H) =

n∑i=1

ln f(ξi;µ, σ)− n ln (1− F (H;µ, σ)) (4.1)

Le deuxième terme dépendant de µ et σ par l’intermédiaire de la fonction de répartitionlognormale F (dont il n’existe pas d’expression analytique), il n’y a pas dans ce cas de

26

Page 36: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

formules fermées pour les estimateurs du maximum de vraisemblance. L’optimisation dela vraisemblance se fait donc de manière numérique. Cet effet de seuil génère donc del’instabilité sur la fonction de vraisemblance, dont l’optimisation est parfois compliquée (voirla suite du rapport pour plus de précisions, paragraphe 4.4.1).

Pour le paramètre de fréquenceNous rappelons que dans le modèle LDA (cf. chapitre 3 page 15), le paramètre de fré-

quence λ est estimé via maximum de vraisemblance, par la moyenne empirique du nombreannuel de pertes dans l’échantillon, estimateur noté λsample. Si le biais de collecte n’est paspris en compte, utiliser cet estimateur sans correction signifierait qu’une banque utilisantun seuil de collecte grand (ayant donc un faible nombre de pertes effectivement collectées)devrait allouer moins de capital qu’une autre qui utiliserait un seuil plus faible. Ceci estabsurde et met donc en évidence la nécessité de corriger le paramètre de fréquence pourprendre en compte le biais de collecte.

L’expression de l’estimation du paramètre corrigé de fréquence s’obtient d’après la loi deBayes :

λcorr =λsample

1− F (H; µ, σ)

Il faut donc effectuer cette correction après avoir estimé les paramètres de sévérité à l’étapeprécédente par µ et σ.

4.3 La méthode des moments généralisée

4.3.1 Présentation théorique

L’idée de cette méthode (Generalized Method of Moments, GMM ou MMG) est de cher-cher le paramètre θ qui minimise l’écart entre les deux premiers moments théoriques (dé-pendants de θ) et leurs équivalents empiriques (dépendant des données). Au lieu d’exploiterl’information complète de la fonction de densité f des pertes (également contenue dans lafonction génératrice des moments) il est aussi possible de n’utiliser qu’un nombre restreintde moments. Évidemment, cette perte d’information se traduit par de moins bonnes pro-priétés théoriques par rapport au maximum de vraisemblance.

NotationsLe vecteur des pertes est noté (ξi)i=1..n. Comme rappelé dans la section précédente, il

nous faut prendre en compte la censure à gauche des données de pertes. Nous nous intéres-serons donc aux deux premiers moments théoriques conditionnellement au seuil H notésrespectivement m1(µ, σ) et m2(µ, σ), qui s’obtiennent en calculant l’intégrale pour p = 1..2 :

E [ξp | ξ > H] =1

1− F (H;µ, σ)

+∞

H

xp−1

σ√

2πe−

(ln x−µ)2

2σ2 dx

Les détails du calcul sont donnés par Frachot et al. (2001) ([6]), pour obtenir :m1(µ, σ) =

1−Φ

(lnH−(µ+σ2)

σ

)1−Φ( lnH−µ

σ )eµ+σ2/2

m2(µ, σ) =1−Φ

(lnH−(µ+2σ2)

σ

)1−Φ( lnH−µ

σ )e2(µ+σ2)

où Φ désigne la fonction de répartition de la loi normale centrée réduite.

27

Page 37: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Leurs contreparties empiriques sont :m1 = 1

n

∑ni=1 ξi

m2 = 1n

∑ni=1(ξi)

2

Nous noterons également g (θ) = (g1(θ), g2(θ)) le vecteur des différences entre momentsthéoriques et empiriques 1 :

g1(θ) = m1(θ)− m1

g2(θ) = m2(θ)− m2

PrincipeLa résolution de l’équation vectorielle g (θ) = 0 n’admettant pas de solution analytique,

nous sommes amenés à la résoudre numériquement de manière approchée, en minimisantune distance entre g (θ) et 0. Nous nous donnons pour cela une matrice symétrique définiepositive W afin de minimiser la forme quadratique suivante :

Q (θ) = tg (θ)Wg (θ) (4.2)

ce qui fournit l’estimateur θGMM .

4.3.2 Choix de la matrice de pondération et influence sur l’estimation

Nous pouvons montrer que le choix de W n’influence pas la convergence de la méthodevers le vrai paramètre θ0 (voir pour cela Hansen (1982) [3]). Cependant, ce choix influe surla variance asymptotique de l’estimateur obtenu.

Choix naïfLe choix de W = I (matrice identité) fournit un estimateur noté θ(1) asymptotiquement

normal et consistant, c’est-à-dire convergent vers la vraie valeur du paramètre θ0. Il n’estcependant pas efficace (au sens où sa variance asymptotique n’est pas optimale). Ce choixde W revient alors à chercher l’estimateur des moindres carrés minimisant g2

1 + g22 c’est à

dire :

θ(1) = argminθ

2∑i=1

(mi (θ)− mi)²

Nous représentons sur la figure 4.1 le biais de cet estimateur en fonction de la taille nde l’échantillon log-normal de paramètres µ = 8 et σ = 2. Pour chaque échantillon, le biaisa été moyenné sur N = 50 simulations.

Choix optimalIl existe un choix optimal deW permettant d’obtenir une variance asymptotique minimale

pour l’estimateur (voir de nouveau [3] pour les détails théoriques). En notant les momentsunitaires empiriques centrés d’ordre 1 et 2 hi,1 = ξi − m1(θ) et hi,2 = ξi²−m2(θ), et lesvecteurs h1 =t (h1,1, ..., hn,1) et h2 =t (h1,2, ..., hn,2), la matrice optimale est définie par :

1. Il est aussi possible d’utiliser la variance de la loi au lieu du moment théorique d’ordre 2 : l’équivalentempirique est alors la variance empirique des pertes. Cela n’influe pas sur l’estimation obtenue.

28

Page 38: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

0 500 1000 1500 2000

−0.

50.

00.

51.

0

n

biai

sMM

G_N

50_n

2000

$bia

is_m

u_w

ith_n

Biais Mu MMG N=50

0 500 1000 1500 2000

−1.

0−

0.8

−0.

6−

0.4

−0.

20.

00.

2

n

biai

sMM

Gm

odif3

_N50

_n20

00$b

iais

_sig

ma

Biais Sigma MMG2 N=50

FIGURE 4.1 – Biais des estimateurs de µ et σ obtenus avec le choix W = I

Wopt = [cov(hi)]−1i=1..2 =

(var(h1) cov(h1, h2)

cov(h1, h2) var(h2)

)−1

=(th1h2

)−1

L’estimateur obtenu en minimisant l’équation (4.2) est alors efficace au sens où sa va-riance est la plus petite possible (en définissant la relation d’ordre sur les matrices : A < B⇔B −A est semi-définie positive) parmi cette classe d’estimateurs.

Nous le remarquons clairement sur la figure 4.2 où l’estimateur obtenu présente unevolatilité moins importante que précédemment.

0 500 1000 1500 2000

−0.

20.

00.

20.

40.

60.

81.

0

n

biai

sMM

Gm

odif3

_N50

_n20

00$b

iais

_mu_

with

_n

Biais Mu MMG2 N=50

0 500 1000 1500 2000

−1.

0−

0.8

−0.

6−

0.4

−0.

20.

00.

2

n

biai

sMM

G_N

50_n

2000

$bia

is_s

igm

a

Biais Sigma MMG N=50

FIGURE 4.2 – Biais des estimateurs de µ et σ obtenus avec le choix W = Wopt

4.3.3 Les différents algorithmes pour implémenter la méthode

Two-Step MMGC’est la première version de la MMG, présentée par HANSEN (1982) (cf. [3]). Comme

son nom l’indique, l’algorithme comporte seulement 2 étapes pour calculer l’estimateurθ2SGMM :

29

Page 39: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Algorithme 4.1 2-step MMG

1. Calculer θ(1) en minimisant (4.2) avec W = I

2. Calculer θ2SGMM en minimisant (4.2) avec W = W(θ(1))

Cette version possède l’avantage d’être relativement peu coûteuse en temps de calcul(2 minimisations à effectuer, dans lesquelles W ne dépend pas de θ). Elle est en revanchemoins précise que les méthodes qui suivent, puisqu’une estimation grossière de la matricede covariance est utilisée.

Iterative MMGLes deux versions améliorées suivantes ont été proposées par Hansen et al. (1996) ([4]).

Dans cette version, nous itérons la méthode précédente jusqu’à l’obtention d’un critère deconvergence pour obtenir θITGMM :

Algorithme 4.2 Iterative MMG

1. Calculer θ(1) en minimisant (4.2) avec W = I

2. Calculer θ(2) en minimisant (4.2) avec W = W(θ(1))

3. Si |θ(2) − θ(1)| < ε alors θITGMM := θ(2) sinon retourner à l'étape 2 avec

θ(1) ← θ(2)

4. Définir θITGMM := θ(2)

où ε > 0 est un critère de convergence que nous pouvons prendre arbitrairement prochede 0 pour améliorer la convergence de la méthode. Cette méthode est donc plus précisemais plus coûteuse en temps de calcul.

Continuous-updating MMGDans cette dernière version, la minimisation est directement faite sur l’équation (4.2), où

W dépend explicitement de θ, la matrice est donc recalculée à chaque itération de l’algo-rithme d’optimisation lors de la recherche du minimum :

θITGMM := argminθ

tg (θ)W (θ)g (θ)

Cette méthode a pour avantage d’être directement implémentable. Cependant, la nonlinéarité et la complexité de la fonction à optimiser font que cette méthode est relativementinstable et sensible à l’algorithme d’optimisation choisi et ses starting values.

4.4 Difficultés d’estimation rencontrées

Dans cette section, nous mettons en exergue les différentes difficultés qu’induit l’utilisa-tion des méthodes d’estimation dites “standard” que sont le maximum de vraisemblance etla méthode des moments généralisée. Nous montrons en quoi elles posent parfois problèmepour estimer la sévérité du risque opérationnel, en l’illustrant sur des exemples réels.

4.4.1 L’instabilité de la vraisemblance en présence d’un seuil de col-lecte

Présentation du problèmeL’obstacle le plus gênant à l’utilisation de l’estimation par maximum de vraisemblance

30

Page 40: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

dans le cadre du risque opérationnel est l’instabilité de la vraisemblance à optimiser. Eneffet, le seuil de collecte modifie la vraisemblance qui devient non convexe et très instablenumériquement.

Nous rappelons l’expression de la vraisemblance dans le cas de n pertes opérationnellesξi collectées au dessus d’un seuil H :

L(µ, σ | H) =

n∏i=i

f(ξi;µ, σ)

1− F (H;µ, σ)

La présence d’un seuil de collecte ajoute donc un facteur 1/ (1− F (H;µ, σ)) à toutes lescontributions des observations à la vraisemblance. Or ce terme peut devenir très grand pourcertaines valeurs de (µ, σ), ce qui complique fortement l’optimisation numérique lors de larecherche du maximum (bien évidemment, le même problème se pose si nous utilisons lalog-vraisemblance).

Afin de mieux nous en convaincre, nous traçons sur la figure 4.3 le terme figurant audénominateur de la fonction de vraisemblance pour le seuil de collecte en vigueur au CréditAgricole (H = 1000C) en fonction de µ et σ.

FIGURE 4.3 – Comportement du terme au dénominateur de la vraisemblance pour H = 1000

Nous observons alors que ce dénominateur est très proche de 0 dès que µ devient né-gatif. Si la vraisemblance ne présente pas de maximum au niveau des starting values del’algorithme d’optimisation (généralement de l’ordre de µ0 = 8 et σ0 = 2) alors ce dernierva aller chercher l’extrémum de la fonction sur une plage de valeurs où le paramètre µ estnégatif, zone où la vraisemblance devient très instable en raison du facteur au dénomina-teur de la vraisemblance.

Mise en évidence sur données réellesNous pouvons illustrer ce cas sur données réelles : l’opposé de la log-vraisemblance (à

minimiser) est ainsi tracée figure 4.4 en fonction de µ (σ étant fixé à 2), pour un échantillonde 191 pertes de la catégorie ’dommages’ survenues entre 2003 et 2007. Cet échantillonde pertes a été choisi en raison de ses “mauvaises” propriétés (présence de plusieurs perteségales et de pertes extrêmes, faible adéquation au modèle log-normal...) afin de mettre àmal les méthodes d’estimation de sa sévérité. Il fait d’ailleurs partie des catégories mises enévidence précédemment au travers des boxplots (figure 1.1 page 5 ).

Nous remarquons ainsi une forte instabilité de la fonction à minimiser dès que µ 6−7.Ceci laisse à penser que le minimum trouvé par l’algorithme d’optimisation, s’il converge,sera incohérent. Pour illustrer ces problèmes numériques, le logiciel R indique que la valeurde l’opposé de la log-vraisemblance en (µ = −10, σ = 2) vaut −∞.

31

Page 41: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

1750

1800

1850

1900

1950

2000

–10 –9 –8 –7 –6 –5 –4 –3 –2

mu

FIGURE 4.4 – Opposé de la log-vraisemblance d’un échantillon réel de la catégorie ’dommages’(banque de détail) en fonction de µ, pour σ = 2.

Dans ces conditions, nous comprenons que la méthode du maximum de vraisemblanceest ici inapplicable et inadaptée. Pourtant, le résultat de l’optimisation avec le même logicielsemble tout de même converger (retour du code 0 dans le champ $convergence) :

> optim(c(8,2),NegLogVrais, method = "Nelder-Mead")

$par [1] -87.05392 11.51389

$value [1] 1567.848

$convergence [1] 0

Pour autant, les paramètres estimés (µ = −87.05, σ = 11.51) sont absurdes d’un pointde vue métier comme nous l’expliquons dans le paragraphe suivant.

Le problème des µ 6 0A ce stade de l’étude, nous pouvons nous poser la question de savoir comment inter-

préter les résultats de l’estimation, et si certaines valeurs de paramètres sont en pratiqueinacceptables.

D’un point de vue théorique, la seule contrainte sur les paramètres d’un modèle log-normal est σ > 0. Le résultat précédent est donc en théorie valable. En revanche, une foisles paramètres de ce modèle estimés, la proportion de pertes inférieures au seuil s’estimepar F (H; µ, σ). Comme l’avons constaté sur la figure 4.3, ce terme est très proche de 1 dèsque µ 6 0 : toute la masse de probabilité est donc concentrée en-deçà du seuil. Ceci est trèsdangereux d’un point de vue métier car les pertes extrêmes (bien supérieures à 1000C) nesont alors pas du tout prises en compte par le modèle. De plus, comme nous le verrons parla suite, un calcul de charge en capital avec un paramètre µ négatif conduit à des valeursaberrantes.

Dans toute la suite de l’étude, nous rejetterons donc systématiquement les résultats d’es-timation menant à un µ négatif, en considérant la méthode inadaptée au problème.

Un mot sur l’algorithme d’optimisationPrécisons ici que le problème identifié auparavant n’est pas spécifique à l’algorithme d’op-

timisation employé. Les résultats précédents ont été obtenus en utilisant la méthode dusimplexe de Nelder-Mead 2 implémentée dans R, qui parait la méthode d’optimisation laplus adaptée au problème. En effet, contrairement aux algorithmes comme la descente de

2. John Nelder et Roger Mead (1965), “A simplex method for function minimization”, dans Computer Journal,vol. 7, No.4

32

Page 42: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

gradient ou ses dérivés (BFGS), elle ne calcule pas la matrice Hessienne de la fonction à op-timiser, et ne fait qu’évaluer successivement la fonction en des points judicieusement choisis.De plus, elle est beaucoup moins sensible aux starting values données.

Nous avons donc testé les principales méthodes d’optimisation sur la série de pertes pré-cédente (disponibles sous R en argument de la commande optim), y compris l’optimisationsous contraintes. Nous recensons les résultats dans le tableau 4.1.

Méthode d’optimisation µML σML - Log-vrais Convergence

Nelder-Mead -87.1 11.5 1567.8 Oui

BFGS -42.7 8.49 1645.6 Oui

Gradient-conjugué -4.22 4.40 1648.3 Non

BFGS-B (contrainte : µ > 0) 0.00 3.68 1841.2 Oui

BFGS-B (contrainte : µ > 2) 2.00 3.29 1842.9 Oui

TABLE 4.1 – Résultat des différentes méthodes d’optimisation de la log-vraisemblance sur don-nées réelles (catégorie ’dommages’ de la banque de détail)

Nous pouvons alors observer que la méthode de Nelder-Mead donne les “meilleurs”résultats, en tout cas en ce qui concerne la valeur de la fonction objectif. L’utilisation del’optimisation sous contraintes (au moyen de l’algorithme BFGS with Bounds) est un échec,dans le sens où la contrainte est systématiquement saturée. Cela laisse donc penser que lavraisemblance, sur ces données réelles, ne possède pas d’extrémum local dans la région desvaleurs positives de µ.

Tentative d’explication théoriqueTerminons enfin en apportant un argument théorique au problème mis en évidence. En

effet, les bonnes propriétés théoriques du maximum de vraisemblance (notamment son ef-ficacité et surtout l’absence de biais dans les estimations) requièrent certaines hypothèses,dont la plus fondamentale est la bonne adéquation du modèle paramétrique d’ajustement :la loi du phénomène observé doit ici appartenir à la famille lognormale. Or ce n’est ma-nifestement pas le cas sur cet exemple, comme en témoigne la densité empirique tracéesur la figure 4.5 : elle semble assez éloignée d’une distribution lognormale, et parait avoirplusieurs modes.

FIGURE 4.5 – Densité empirique de pertes réelles de la catégorie ’dommage’

En conséquence de quoi la convergence de l’estimateur n’est plus assurée (cf. [12]), cequi explique en partie les résultats incohérents obtenus sur l’échantillon réel, et l’inadéqua-

33

Page 43: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

tion de la méthode du maximum de vraisemblance à l’estimation des paramètres de sévéritédu risque opérationnel sous l’hypothèse lognormale.

4.4.2 Le biais de la méthode des moments généralisée

La méthode des moments généralisée ne souffre pas des écueils évoqués précédemment.En effet, la fonction à optimiser (4.2 p.28) numériquement reste suffisamment régulièremême avec la prise en compte du seuil de collecte. L’algorithme d’optimisation convergeainsi systématiquement, vers des valeurs positives de µ sur des données réelles. C’est enpartie pour cela qu’elle a été choisie pour estimer les paramètres de sévérité des pertesopérationnelles au Crédit Agricole.

Cependant, ses propriétés théoriques ne sont pas comparables à celle du maximum devraisemblance. En effet, contrairement au maximum de vraisemblance, elle n’est qu’asymp-totiquement sans biais, et converge lentement vers la vraie valeur du paramètre (commenous pouvions déjà le pressentir au vu de la figure 4.2 page 29). Afin de mettre en évidencele problème de manière plus détaillée, nous effectuons des simulations avec un paramètreµ fixé à 5, un paramètre σ allant de 1 à 2,5 et une volumétrie comprise entre 0 et 5000observations. Nous estimons alors les paramètres µ et σ pour calculer un écart relatif envaleur absolue, chaque écart étant moyenné sur la base de N = 100 estimations. En notantθ0 la vraie valeur du paramètre et

(θin

)i=1..N

ses estimations successives par MMG, nous

traçons donc pour chaque n la valeur de l’écart :

εn =

∣∣∣θn − θ0

∣∣∣θ0

Les résultats sont regroupés sur la figure 4.6.

FIGURE 4.6 – Valeur absolue de l’écart relatif sur l’estimation des paramètres µ et σ par MMG

Nous pouvons ainsi observer que le biais sur les paramètres est encore important mêmeavec une volumétrie élevée : de l’ordre de 10% pour 5000 observations quand σ vaut 2.Comme en pratique les données issues du risque opérationnel dépassent rarement une taillede n = 1000, le biais résiduel est en pratique bien plus conséquent. De ce fait, comme nousle verrons dans la suite, l’estimation de la charge en capital sera d’autant moins fiable.

34

Page 44: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 5

Les solutions alternativesenvisagées

Nous exposons dans ce chapitre la démarche scientifique suivie pour essayer de s’affran-chir des différents écueils des méthodes d’estimation présentées auparavant. Elle aboutit àla définition de plusieurs méthodes alternatives dont nous présentons les détails théoriques.

5.1 Motivations et démarche scientifique

Dans tout problème d’estimation statistique, la première étape est le choix du modèlesous-jacent – ici log-normal pour les pertes opérationnelles. Ensuite, l’idée est de se donnerune mesure de distance entre le modèle théorique et les données réelles, et de la rendreaussi faible que possible. Par exemple, nous montrerons que la méthode du maximum devraisemblance est équivalente à la minimisation d’une distance entre la densité réelle etcelle du modèle théorique. En choisissant différentes mesures, nous obtenons autant deméthodes d’estimation statistiques aux propriétés différentes.

A ce stade, il est donc naturel de se poser les questions suivantes. Est-il possible d’obtenirde meilleures méthodes d’estimation que celles présentées précédemment en jouant sur lesmesures de distance à minimiser ? Sont-elles plus adaptées au cadre du risque opérationnel ?

5.2 Une autre approximation de la distance minimisée parle maximum de vraisemblance

Nous montrons dans ce paragraphe que la méthode du maximum de vraisemblance estéquivalente à la minimisation d’une distance particulière, que nous cherchons à approximerautrement afin d’obtenir une méthode d’estimation un peu plus robuste.

5.2.1 Introduction de la distance K-L

Dans leur article de 1951 intitulé “On information and Sufficiency”, Kullback et Leiblerproposent une mesure de ’distance’ entre deux densités de probabilités. Si R et S sont deuxvariables aléatoires continues de densités respectives r et s de même support X , alors ladistance entre leurs densités peut être mesurée par :

D(r, s) = D(R||S) =

x∈X

r(x) lnr(x)

s(x)dx

35

Page 45: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

où D(r, s) ≥ 0, avec égalité ssi r(x) = s(x) p.p.

N.B. : Il ne s’agit pas d’une distance au sens mathématique du terme car elle ne possèdepas la propriété de symétrie (D(r, s) 6= D(s, r)). C’est pourquoi elle est aussi appelée me-sure de divergence de Kullback-Leibler (K-L).

Dans le cas simple de deux variables aléatoires normales R ∼ N (µR, σR²) et S ∼N (µS , σS²) , il est possible d’illustrer cette notion sur des exemples. Nous pouvons alorscalculer :

D(r, s) =1

2

(σR²σS²− ln

σR²σS²− 1

)+

(µR − µS)2

2σS²

Ceci peut être représenté graphiquement pour différentes valeurs des paramètres (voir pourcela la figure 5.1).

FIGURE 5.1 – Distances K-L entre deux distributions normales pour différents paramètres(source : présentation de Rudolf Kulhavy, “A Kullback-Leibler Distance Approach to SystemIdentification”, Academy of Sciences of the Czech Republic)

5.2.2 Application au maximum de vraisemblance

Soient ξ1, ξ2, ..., ξn les variables i.i.d. représentant les pertes opérationnelles issues de la’vraie’ distribution de densité g. Nous voulons ajuster un modèle paramétrique de densitéthéorique fθ, θ ∈ Θ ⊂ R². La distance K-L entre ces distributions est alors :

D(g, fθ) =

g(x) ln

g(x)

fθ(x)dx =

g(x) ln g(x)dx−

g(x) ln fθ(x)dx (5.1)

qui dans le cas discret s’estime le plus simplement par :

1

n

n∑i=1

ln g(ξi)−1

n

n∑i=1

ln fθ(ξi) (5.2)

La vraie densité g étant inconnue, minimiser (5.2) est alors équivalent à maximiser :

n∑i=1

ln fθ(ξi)

36

Page 46: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

qui est la fonction de log-vraisemblance.

5.2.3 L’estimation par Maximum Spacing (MS)

Principe théoriqueReprenons les notations précédentes, en notant G et Fθ les fonctions de répartition cor-

respondant aux densités g et fθ. Nous pouvons alors obtenir une autre approximation de lamesure K-L (équation 5.1) entre distributions empirique et théorique.

En effet, en considérant les statistiques d’ordre ξ(1) 6 ξ(2) 6 ..., nous pouvons écrire aupremier ordre :

fθ(ξ(j)) ≈Fθ(ξ(j))− Fθ(ξ(j−1))

ξ(j) − ξ(j−1)

En effectuant la même approximation pour la densité g, alors nous obtenons une nou-velle approximation discrète de (5.1) :

1

n+ 1

n+1∑j=1

lnG(ξ(j))−G(ξ(j−1))

Fθ(ξ(j))− Fθ(ξ(j−1))(5.3)

Minimiser cette expression est équivalent à maximiser :

Sn(θ) =

n+1∑j=1

ln[Fθ(ξ(j))− Fθ(ξ(j−1); θ)

](5.4)

Le paramètre réalisant le maximum de cette expression est appelé estimateur par Maxi-mum Spacing (littéralement : maximum d’espacement) noté θMS .

N.B. : En notant D(j)(θ) = Fθ(ξ(j)) − Fθ(ξ(j−1)) les “espacements”, nous pouvons repré-senter graphiquement le principe de la méthode (voir figure 5.2). En effet, l’expression(5.4) peut se réécrire :

Sn(θ) =

n+1∑j=1

ln[(D(1)D(2)...D(n+1)

) 1n+1

]Il s’agit donc, pour effectuer l’estimation, de maximiser la moyenne géométrique des

espacements D(j)(θ) ce qui revient à trouver une distribution uniformisant leur longueur.

FIGURE 5.2 – Principe de l’estimation par Maximum Spacing (source : Wikipedia)

37

Page 47: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Propriétés de l’estimateur obtenuS’agissant d’une méthode dérivée du maximum de vraisemblance, nous pouvons nous

attendre à trouver des propriétés très proches sur les estimateurs obtenus. Sous certainesconditions de régularité, Ranneby [7] prouve la convergence de l’estimateur du MaximumSpacing, ainsi que sa normalité et son efficacité asymptotiques.

Cheng et Traylor [10] montrent également que ces conditions de régularité du modèlesous-jacent sont plus larges que dans le cas du maximum de vraisemblance. Ainsi danscertains cas, l’estimation par maximum spacing produit des estimateurs convergents quandle maximum de vraisemblance ne réussit pas à estimer les paramètres (en raison de densitésnon bornées, par exemple dans le cas de mélanges de lois). Cette méthode d’estimationparait donc avoir de bonnes propriétés théoriques tout en étant un peu plus robuste que lemaximum de vraisemblance. Néanmoins, elle présente tout de même certaines difficultésd’estimation.

Les obstacles résiduels à l’estimationNous pouvons à présent remarquer que l’expression à maximiser (5.4) pour obtenir l’es-

timation est sensible aux observations égales. En effet, s’il existe un j tel que ξ(j) = ξ(j−1)

alors elle devient infinie.Pour éviter cet écueil, Cheng et Amin [11] proposent dans ce cas de remplacer la valeur

de D(j)(θ) par la valeur de la densité fθ(ξ(j)), étant donné que :

limξ(j)→ξ(j−1)

1

ξ(j) − ξ(j−1)

ξ(j)

ξ(j−1)

fθ(x)dx = fθ(ξ(j−1)) = fθ(ξ(j))

Lorsque la collecte recense plusieurs pertes de montant similaire (assez courant dans lecadre du risque opérationnel), les contributions à l’expression à maximiser sont donc sensi-blement les mêmes que dans le cas du maximum de vraisemblance.

Là encore, la prise en compte du seuil de collecte nous oblige à modifier la fonction derépartition à utiliser dans l’équation (5.4). En effet, il faut utiliser la fonction de réparti-tion conditionnellement au seuil H, ce qui nous oblige à remplacer Fθ(x) par Fθ|H(x) =

P (ξ < x | ξ > H) = Fθ(x)−Fθ(H)1−Fθ(H) . De ce fait, nous retrouvons le terme en 1 − Fθ(H) au dé-

nominateur de l’expression à minimiser, ce qui comme nous l’avons vu pose problème lorsde l’optimisation.

Nous nous attendons donc à retrouver certaines difficultés d’estimation rencontrées avecle maximum de vraisemblance.

Illusration sur un exemple réelAfin d’avoir une idée des résultats pouvant être obtenus avec cette méthode d’estimation,

nous l’appliquons sur une catégorie de pertes réelles. Il s’agit de la fraude interne collectéepar une banque d’investissement, comportant 47 pertes. Notons qu’il s’agit plus précisémentdes pertes hors monétique (c’est-à-dire hors petits montants liés à l’utilisation frauduleusede cartes bleues). Ces données sont donc susceptibles de comporter des pertes extrêmes.

Nous recensons dans le tableau 5.1 la valeur des estimateurs obtenus avec la méthodedu maximum spacing (MS) et, pour comparaison, avec les deux autres méthodes détailléesprécédemment. Nous remarquons que le problème d’estimation mis en exergue pour lemaximum de vraisemblance est présent. En revanche, il n’apparait pas sur l’estimateur parmaximum spacing, ce qui confirme qu’il est plus robuste dans certains cas.

Les méthodes MS et MMG donnent donc sur cet exemple réel des résultats qui semblentcorrects à première vue. Pour avoir une première idée de l’adéquation des pertes au modèlelog-normal avec les paramètres estimés par ces méthodes, nous traçons également les QQ-plots sur la figure 5.3.

38

Page 48: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

MS ML MMG

µ 4.11 -73.8 8.75

σ 3.34 10.2 1.51

TABLE 5.1 – Résultats d’estimation sur la catégorie Fraude Interne de la banque d’investissement

FIGURE 5.3 – QQ-plots log-normaux avec les paramètres estimés par MS et MMG, pour lafraude externe de la banque d’investissement

Nous pouvons alors observer que l’adéquation semble meilleure avec une estimation desparamètres de sévérité par maximum spacing que par la méthode des moments généralisées.Ceci conforte l’analyse précédente (paragraphe 4.4.2 page 34) sur le biais des paramètresestimés, l’échantillon étant ici de petite taille (n = 47).

Précisons enfin que l’estimation MS pour la sévérité de l’échantillon ’dommages’ (donnéen exemple au paragraphe 4.4.1 page 31) donne à peu de choses près les mêmes résultatsque par maximum de vraisemblance, c’est-à-dire inacceptables d’un point de vue métier.Cette méthode n’est donc pas tout à fait appropriée à notre problématique.

5.3 Minimisation de statistiques de tests

Dans ce paragraphe, nous proposons d’utiliser la théorie des tests et ses statistiquescomme mesures de distances à minimiser afin de tenter d’obtenir des méthodes d’estimationalternatives plus adaptées au risque opérationnel.

Plusieurs statistiques couramment utilisées dans la théorie des tests sont des mesures dedistance entre la fonction de répartition empirique Fn et la fonction de répartition théoriquedu modèle paramétrique à ajuster Fθ, qui est ici log-normal. Nous rappelons que la fonctionde répartition empirique Fn est définie par :

Fn(x) =1

n

n∑j=1

1x6ξ(j)

Nous noterons dans la suite zH := Fθ(H) et zj := Fθ(ξ(j)), et comme précédemment(ξ(j))j=1..n

désignent les statistiques d’ordre de l’échantillon de pertes considéré. En pré-sence d’un seuil de collecte (données censurées à gauche), les deux hypothèses testées sontFn ∈ Fθ|H contre Fn /∈ Fθ|H (voir le paragraphe 5.2.3 page 38 pour la définition de Fθ|H).

Deux types de tests d’ajustement, et donc de distance, vont être présentés. La premièrestatistique de test, Kolmogorov-Smirnov (KS), se base sur la distance mesurant l’écart maxi-mum résidant entre Fn et Fθ|H . Les autres s’appuient sur une distance quadratique entre

39

Page 49: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

ces deux fonctions de répartition prenant ainsi en compte l’ensemble des écarts et non passeulement un écart local. C’est le cas des tests de type Cramer von Mises (CvM) et AndersonDarling (AD). Nous présentons dans la suite leurs propriétés théoriques.

Quelques aspects théoriquesL’estimation de paramètres par minimisation de distance a été originellement proposée

par Wolfowitz en 1953 ([15]). En notant δ(., .) une fonction retournant une distance entredeux fonctions de répartitions, elle peut se formaliser comme suit : s’il existe θ ∈ Θ tel queδ(Fn, Fθ) = inf δ(Fn, Fθ), θ ∈ Θ, alors θ est appelé estimateur par minimum de distancede θ.

Wolfowitz (1953) prouve la convergence de l’estimateur obtenu avec la distance δ(F1, F2) =supx|F1(x)− F2(x)|. Différents auteurs la généralisent ensuite à plusieurs autres types de

distances, notamment des distances quadratiques pour lesquelles l’estimateur obtenu estasymptotiquement normal (cf. [16] pour un état de l’art complet).

Les principaux attraits des estimateurs par minimum de distance est leur relative sim-plicité de mise en œuvre (moyennant un algorithme d’optimisation performant), ainsi queleurs bonnes propriétés quand le modèle théorique paramétrique conjecturé n’est pas cor-rect, ce qui nous l’avons vu parait être le cas pour certaines séries de pertes issues du risqueopérationnel comme EL5 (dommages aux actifs corporels) : se référer au graphique 1.1page 5.

Statistique KSLa distance mesurée par la statistique de Kolmogorov-Smirnov est l’écart maximal entre

la distribution empirique et la distribution paramétrique du modèle à ajuster :

KS(θ) =√nsup

x

∣∣Fn(x)− Fθ|H(x)∣∣

Dans la pratique (voir [13]), nous calculons :

KS+ =

√nsup

j

Fn(ξ(j))− Fθ|H(ξ(j))

=

√n

1−zH supj

zH + j

n (1− zH)− zj

KS− =√nsup

j

Fθ|H(ξ(j))− Fn(ξ(j))

=

√n

1−zH supj

zj − zH − j−1

n (1− zH)

Puis :

KS(θ) = maxKS+, KS−

L’estimateur KS est alors obtenu en minimisant cette distance :

θKS := argminθ

KS(θ)

Statistique CvMEn général, les statistiques basées sur des distances quadratiques sont regroupées en une

famille, dite de Cramer von Mises, et a pour forme générale en présence d’un seuil H :

Q(θ) = n

+∞

H

(Fn(x)− Fθ|H(x)

)2ψ(Fθ|H)dFθ|H(x)

où ψ est une fonction de pondération des différentes observations.

Dans le cas d’une pondération uniforme (ψ(x) = 1), nous obtenons une distance quadra-tique mesurant l’écart moyen entre distributions empirique et théorique, appelée statistiquede Cramer Von Mises. En discrétisant l’intégrale selon les observations et en effectuant des

40

Page 50: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

changements de variables (se reporter à [13] pour les détails), nous pouvons démontrerque cette statistique peut également s’écrire :

W 2(θ) =n

3+

nzH1− zH

+1

n(1− zH)

n∑j=1

(1− 2j)zj +1

(1− zH)2

n∑j=1

(zj − zH)2

C’est cette forme que nous utiliserons en pratique pour minimiser cette distance et obtenir :

θCVM := argminθ

W 2(θ)

Statistique AD upLa statistique d’Anderson Darling est obtenue en changeant la fonction de pondération ψ

(ψ = Fθ|H(1− Fθ|H

)) afin d’attribuer plus de poids aux observations en queues de distribu-

tion (queues gauche et droite). L’objectif de gestion du risque opérationnel étant de se pré-munir face aux pertes extrêmes exceptionnelles, c’est l’ajustement de la queue droite de ladistribution qui revêt une importance particulière. C’est une version légèrement modifiée dela statistique AD que nous utiliserons donc, avec une pondération ψ(Fθ|H) =

(1− Fθ|H

)−2

qui attribue un poids plus important aux pertes extrêmes, et un poids moindre aux pertesmoins sévères. Nous la nommerons AD up et nous pouvons montrer qu’elle vaut ici (voirencore [13] pour les étapes du calcul) :

AD2up(θ) = −2n ln(1− zH) + 2

n∑j=1

ln(1− zj) +1− zHn

n∑j=1

(1 + 2(n− j))1− zj

Comme précédemment, nous définissons :

θADup := argminθ

AD2up(θ)

5.4 Minimisation d’une distance inter-quantiles

Nous proposons ici une dernière mesure de distance qui pourrait être minimisée afind’estimer les paramètres de sévérité du risque opérationnel. Cette méthode d’estimationainsi que ses propriétés théoriques ont été originellement présentées par LaRiccia, et LaRic-cia et Wehrly [9].

5.4.1 Principe de la méthode

Le principe de cette approche est similaire à l’analyse des QQ-plots, outils graphiquespermettant de juger de l’adéquation entre des estimations et des données réelles et consis-tant à tracer les quantiles empiriques (issus des données), en fonction des quantiles théo-riques (issus du modèle paramétrique ajusté). Lorsque l’adéquation est parfaite, les pointsobservés se situent le long de la première bissectrice du repère. Il s’agit donc d’optimiserl’estimation de manière à ce que les quantiles théoriques les plus proches possibles desquantiles empiriques.

Pour un échantillon de n pertes ξ1, . . . , ξn collectées au-delà d’un seuil H, nous nousintéressons à la distance quadratique entre k quantiles empiriques q(p1), . . . , q(pk) et quan-tiles théoriques F−1

θ (pi), où F−1θ est la fonction de répartition inverse et θ le vecteur de

paramètres de la loi à ajuster. La distance inter-quantiles s’écrit classiquement :

Q2(θ, p, ω) =

k∑i=1

ωi

(q(pi)− F−1

θ (pi)

)2

41

Page 51: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

p = (p1, . . . , pk)′ est le vecteur des niveaux des quantiles à ajuster, avec 0 < p1 < . . . < pk <1

ω = (ω1, . . . , ωk)′ est le vecteur des poids attribués aux différents termes d’ajustement.

Les quantiles empiriques q sont construits à partir du vecteur de pertes de l’échantillon, enfonction du vecteur p = (p1, . . . , pk)′. Le ieme quantile empirique correspond à la ieme pertede l’échantillon trié si le nombre est entier, et à une interpolation linéaire entre les deuxpertes les plus proches sinon. Comme le montre la figure 5.4 ci-dessous, cela permet de”lisser” les quantile empiriques et donc la fonction à optimiser, ce qui produit de meilleursrésultats lors de l’optimisation, notamment lorsque le nombre de données disponibles estfaible.

FIGURE 5.4 – Fonctions quantiles empiriques (en bleu) et quantiles empiriques interpolés (enrouge) ; illustration sur un échantillon de fraude monétique

L’objectif de l’estimation est donc de trouver le paramètre θ = θQD minimisant la dis-tance inter-quantiles Q2(θ, p, ω), afin d’obtenir une bonne adéquation entre les pertes ob-servées (quantiles empiriques) et les pertes estimées par le modèle paramétrique (quantilesthéoriques).

5.4.2 Pondération de la distance

Afin de limiter l’instabilité numérique liée aux termes de la sommes liés à des quantilesextrêmes dans l’expression de la distance, nous choisissons de considérer les écarts relatifsentre quantiles en utilisant l’inverse du quantile empirique en guise de pondération :

ωi =1

q(pi)2

Ceci permet de relativiser l’importance de chaque niveau de quantile utilisé pour laminimisation de la distance et d’éviter les problèmes numériques lors de l’optimisation.

5.4.3 Prise en compte des agrégats

Comme dans la MMG, il est également possible de prendre en compte les agrégats. Si lespertes ξi sont chacune constituées de κi évènements distincts (pour une perte concernantun unique évènement), nous considérons alors les quantiles empiriques q∗(pi) obtenus en

considérant l’échantillon « réduit » (ξ∗1 , . . . , ξ∗n) =

(ξ1κ1, . . . , ξnκn

). La distance-quantile devient

alors :

Q2(θ, p) =

k∑i=1

1

q(pi)2

(q∗(pi)− F−1

θ (pi)

)2

42

Page 52: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Remarque : la normalisation par les quantiles empiriques hors agrégats 1/q(pi)2 est conser-

vée même en présence d’agrégats, ceci ayant pour effet de limiter l’impact des pertes com-posées de plusieurs évènements.

5.4.4 Prise en compte du seuil de collecte

Nous introduisons une dernière modification à la méthode afin de tenir compte du seuilde collecte des pertes opérationnelles, noté H. Cela se traduit par une transformation desniveaux de quantiles à ajuster. En effet, le quantile de niveau α de l’échantillon tronquécorrespond en fait à un niveau de quantile αH de la distribution théorique complète, avecαH > α .

En utilisant la relation liant la distribution conditionnelle Fθ|H à la distribution complèteFθ :

Fθ|H(x) =Fθ(x)− Fθ(H)

1− Fθ(H)

nous déduisons le lien entre αH et α :

αH = α+(1− α

)Fθ(H). (5.5)

En conséquence, nous modifions les quantiles théoriques à ajuster, ce qui implique quel’expression de la distance à minimiser est :

Q2(θ, p,H) =

k∑i=1

1

q(pi)2

(q∗(pi)− F−1

θ

[pi + (1− pi)Fθ(H)

])2

Néanmoins, le paramètre θ intervient doublement dans cette formulation et cela estsource de difficultés numériques lors de l’optimisation. Afin de réduire cette instabilité, nousdécidons d’utiliser un estimateur de dans le terme correcteur Fθ(H) . L’estimateur retenuest obtenu par minimisation d’une distance-quantile qui tient compte du seuil de collecte endécalant linéairement les quantiles empiriques vers l’origine :

q∗(pi)← q∗(pi)− (1− pi)H

Cette modification permet d’utiliser des quantiles théoriques de la distribution lognor-male non tronquée et donc d’éviter toute instabilité numérique dans la minimisation de ladistance :

θ = arg minθ

k∑i=1

1

q(pi)2

(q∗(pi)−

[F−1θ

(pi)

+ (1− pi)H])2

Une fois θ ainsi déterminé, l’estimateur θQD du paramètre de la distribution de sévéritéest finalement obtenu en minimisant la distance suivante :

Q2(θ, p,H) =

k∑i=1

1

q(pi)2

(q∗(pi)− F−1

θ

[pi + (1− pi)Fθ(H)

])2

5.4.5 Choix des différents paramètres

Dans la distance inter-quantiles introduite au paragraphe précédent, il reste plusieurséléments à paramétrer. Il s’agit notamment de déterminer le nombre de quantiles à exa-miner ainsi que le choix de la répartition des niveaux de quantiles. Ergashev [14] fixe desparamètres arbitraires pour effectuer l’estimation dans le cadre d’une loi de sévérité log-Student mais ne propose pas de justifications.

43

Page 53: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Nous nous proposons donc d’étudier le choix de ces paramètres dans le cadre d’unedistribution de sévérité lognormale. Dans un premier temps, nous faisons le choix d’unerépartition uniforme des quantiles à ajuster dans l’échantillon. La figure 5.5 illustre lespertes ordonnées d’un échantillon superposées avec les quantiles intervenant dans l’esti-mation dans le cas d’une répartition uniforme, sur des pertes réelles provenant du crédit àla consommation.

FIGURE 5.5 – Quantiles choisis uniformément (en rouge) dans un échantillon réel (montantsde pertes en échelle logarithmique)

Choix du nombre de quantiles à ajuster

Nous choisissons k, le nombre de quantiles à ajuster, inférieur ou égal à n de manière àne faire porter l’estimation que sur k pertes de l’échantillon collecté de taille n. Afin d’avoirune première idée de l’influence du nombre de quantiles à retenir dans l’estimation, nouscalculons en fonction de k les paramètres de sévérité par la méthode QD présentée précé-demment sur des échantillons simulés.

Nous simulons deux échantillons log-normaux de paramètres LN (8, 2) et LN (12, 1.5),censurés au seuil H, de tailles n = 100 et n = 1000, puis nous effectuons l’estimation. Lesrésultats sont regroupés sur la figure 5.6.

FIGURE 5.6 – Estimations de µ (bleu) et σ (vert) sur données simulées LN (8, 2) et LN (12, 1.5)de tailles n = 100 (en haut) et n = 1000 (en bas) en fonction du nombre de quantiles utilisés

Les estimations semblent être très vite stables vis-à-vis du paramètre k. Pour la suite,nous ferons donc le choix assez naturel de prendre en compte la moitié des données pourl’estimation, soit k = bn/2c.

44

Page 54: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Répartition exponentielle des quantiles

Le choix de la répartition uniforme des quantiles n’est pas nécessairement adapté à laproblématique du risque opérationnel. En effet, comme le montre la figure 5.5 dans lecas d’une répartition uniforme des quantiles, les pertes extrêmes ne sont pas suffisammentprises en compte dans l’estimation : le corps de la distribution est mieux représenté quela queue. Or ce sont pourtant les valeurs extrêmes qui influent davantage sur la valeurde la CaR. Pour y remédier, nous nous proposons de choisir une répartition exponentielledes quantiles afin de mieux ajuster les quantiles extrêmes. C’est ce que préconise Ergashev([14]) en répartissant les quantiles avec une fonction de la forme :

p(exp)i = C

1− exp(−im/k)

1− exp(−m)

où :

C est une constante dans [0, 1] matérialisant le niveau du dernier quantile à ajuster

m un entier positif dont la valeur influe sur la répartition des niveaux de quantiles : pluscette valeur augmente, plus les quantiles à ajuster sont concentrés en queue de distri-bution (cf. figure 5.5), et le cas de la répartition uniforme s’obtient pour m −→ 0.

Nous fixerons dans la suite pour un échantillon de n pertes la constante C = 1 − 1/2n.Cela permet d’avoir un niveau de quantile final cohérent avec la taille de l’échantillon, et deprendre en compte la dernière perte dans l’estimation.

En effet, le dernier niveau de quantile est alors systématiquement compris entre l’avant-dernière et la dernière perte de l’échantillon trié. Du fait de l’interpolation entre les quantilesempiriques la dernière perte sera donc en partie prise en compte dans l’estimation (voir ledernier quantile choisi en rouge figure 5.7) . Cela apporte une certaine robustesse à laméthode en la prémunissant de possibles problèmes numériques, tout en lui apportant uneprécision supérieure aux quantiles empiriques sans interpolation qui ne prennent pas dutout en compte la dernière perte.

FIGURE 5.7 – Quantiles exponentiellement répartis (en rouge) dans un échantillon trié de lacatégorie ’exécution’ avec m = 5 (montants en échelle logarithmique)

Reste donc la question du paramètre de répartition des quantiles, qu’Ergashev [1] fixeà m = 5 sans justification. Nous nous proposons donc d’étudier son influence dans le para-graphe suivant.

Influence du paramètre de répartition m des quantiles à ajuster

Nous regardons à présent l’influence de cette variable sur l’estimation des paramètres desévérité. Nous choisissons pour cela les 12 échantillons réels de pertes collectées entre 2005et 2009 ayant présenté des critères d’ajustement jugés non satisfaisant lors du backtesting 1

1. Des indicateurs sont produits par la banque à chaque exercice annuel afin d’évaluer la pertinence du modèle(notamment la précision des estimations, la stabilité et la robustesse des paramètres sur des fenêtres glissantes de5 ans). Cela permet de confronter les valeurs prédites par le modèle à la réalité de l’année écoulée (par exempleen terme de nombre de pertes ou de montant attendu), et de procéder à des ajustements le cas échéant

45

Page 55: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

2009. Leurs caractéristiques 2 sont données dans le tableau 5.2. Nous pouvons donc consi-dérer ces échantillons comme hétérogènes, et/ou ne présentant pas de bonnes propriétésde log-normalité.

Cas Entité Catégorie Seuil de collecte Nb pertes1 Banque de détail 1 EL2M 1 22 1642 Banque de détail 1 EL4 1000 5 2453 Banque de détail 1 EL5 1000 3 6914 Banque de détail 1 EL7 1000 9 2845 Banque de détail 2 EL4 1000 1 1216 Banque de détail 2 EL7 1000 5 5417 Banque d’investissement EL7 1000 7 9138 Asset Management EL7 1000 1 5209 Crédit conso 1 EL2 1 2 011

10 Crédit conso 1 EL7 150 10711 Crédit conso 2 EL2 1 1 21712 Crédit conso 2 EL7 1 226

TABLE 5.2 – Caractéristiques des échantillons de pertes mis en évidence dans le backtesting 2009

Sur chaque échantillon, nous effectuons l’estimation par QD (traits pleins) en fonctiondu paramètre m, que nous faisons varier de m ≈ 0 jusqu’à m = 8 (voir figure 5.8).

FIGURE 5.8 – Influence du paramètre m sur l’estimation des paramètres de sévérité (µ en bleu,σ en vert)

Comme il était possible de le prévoir, on remarque que les valeurs élevées du paramètrem fournissent généralement des estimations moins élevées du paramètre µ et plus élevéesdu paramètre σ. Mais l’influence de cette variable n’est pas décisive dans l’estimation des pa-ramètres. Toutefois, il parait naturel de choisir une valeur de pour laquelle les quantiles sontconcentrés en queue de distribution. Cela permet de mieux ajuster les quantiles extrêmes(et donc d’aboutir à des CaR plus précises), et de compenser l’effet des pondérations intro-duites au paragraphe 5.4.2 (p.42) qui ont tendance à uniformiser l’influence des quantiles

2. Pour raisons de confidentialité, des pertes ont été aléatoirement supprimées dans chacun des échantillons.

46

Page 56: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

dans l’estimation. Le choix de m = 4 parait alors approprié, et a été vérifié empiriquementcomme celui amenant le meilleur ajustement sur ces 12 catégories difficiles (en terme detests d’adéquation et QQ-plots ).

Au final, pour un échantillon de pertes de taille n, le vecteur des niveaux des quantilesà ajuster est donc constitué de la manière suivante :

pi =

(1− 1

2n

)1− exp (−4i/k)

1− exp(−4), avec k =

⌊n2

⌋(5.6)

5.4.6 Récapitulatif des étapes de l’estimation

Comme expliqué précédemment, l’estimation par QD dans le cadre du risque opération-nel se fait finalement de la manière suivante :

1. Collecte des pertes ξ1, . . . , ξn au dessus d’un seuil H

2. Création du vecteur des niveaux de quantiles p de taille k, répartis exponentiellementselon (5.6)

3. Calcul d’un estimateur θ de θ avec :

θ = arg minθ

bn/2c∑i=1

1

q(pi)2

(q∗(pi)−

[F−1θ

(pi)

+ (1− pi)H])2

4. Utilisation de cet estimateur pour obtenir l’estimateur final :

θQD = arg minθ

bn/2c∑i=1

1

q(pi)2

(q∗(pi)− F−1

θ

[pi + (1− pi)Fθ(H)

])2

5.5 Premier bilan

A ce stade de l’étude, nous avons introduit et présenté 5 méthodes d’estimation alter-natives au maximum de vraisemblance (ML) et à la méthode des moments généralisée(MMG) :

– Maximum Spacing (MS)– Kolmogorov-Smirnov (KS)– Cramer von Mises (CvM)– Anderson-Darling “up” (ADup)– Quantile-Distance avec répartition exponentielle des quantiles (QDexp)

Cependant, nous avons aussi vu que toutes ne sont pas adaptées à la réalité du risque opé-rationnel.

Afin d’avoir un premier aperçu de leur comportement, nous réalisons un premier test surles échantillons réels problématiques du backtesting 2009 (voir 5.4.2 page 42).

Nous ne rapporterons pas ici la valeur exacte des paramètres estimés, n’ayant pas devaleur de référence à laquelle les comparer, mais il s’agit de répertorier les cas où la phased’optimisation a conduit à des estimations irréalistes des paramètres (i.e. : caractérisés pardes estimations de µ négatives) ainsi que la convergence de l’algorithme numérique associé.

Ainsi, le tableau 5.3 recense pour chaque méthode le nombre d’estimation(s) probléma-tique(s) ainsi que le taux de convergence de l’algorithme d’optimisation sur les 12 échan-tillons testés.

Nous remarquons de suite que bien que la convergence de l’algorithme soit pratiquementtoujours assurée (à part dans le cas de la minimisation de la statistique KS), beaucoup deméthodes fournissent pourtant des estimations incohérentes : paramètre µ négatif, et σ

47

Page 57: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Méthode d’estimation # µ 6 0 Convergence

MLE 5 11/12

MPS 3 11/12

KS 5 9/12

CvM 3 12/12

ADup 6 12/12

QD 0 12/12

MMG 0 12/12

TABLE 5.3 – Cohérence et convergence des différentes méthodes d’estimation sur les 12 échan-tillons issus du backtesting 2009

associé très élevé. Seules la méthode des moments généralisés (MMG) et celle se basant surla distance quantile présentée précédemment (QD) donnent des résultats satisfaisants, aussibien en terme de convergence que de cohérence des estimations.

Ces deux critères étant des conditions sine qua none pour l’utilisation pratique d’uneméthode d’estimation dans le cadre du risque opérationnel, nous ne conserverons dans lasuite que les deux méthodes MMG et QD.

48

Page 58: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 6

Comparaison théorique desméthodes d’estimation retenues

Après avoir testé différentes méthodes sur échantillons réels dans le chapitre précédent,ce chapitre offre un aperçu du comportement de la méthode distance-quantile (QD) enenvironnement simulé. Deux types de simulations sont réalisés :

1. Modèles simples : simulations effectuées selon des lois lognormales pour différentesvaleurs de µ et σ : la loi à ajuster correspond donc à la loi dont les données sont issues.Cela permet d’étudier les propriétés théoriques des estimateurs.

2. Modèles hybrides : simulations effectuées selon un mélange de deux lois lognormalesLN (µ1, σ1) et LN (µ2, σ2) . Cela permet de contrôler les propriétés de robustesse,d’effectuer un calcul de charge en capital avec les paramètres estimés et de le comparerà la valeur attendue, par simulations de Monte Carlo.

Par soucis de cohérence vis-à-vis de la réalité, les données que nous simulons sont ensuitetronquées à gauche d’un seuil H que nous préciserons.

6.1 Modèles simples

Les simulations sont effectuées selon une loi lognormale LN (µ, σ) et les estimationsde paramètres sont moyennées sur N = 1000 simulations. Afin de représenter des cas defigures communément observés sur des cas réels, plusieurs jeux de paramètres sont utiliséset chaque échantillon est constitué de n = 200 pertes :

modèle 1 2 3 4 5 6 7 8 9 10 11 12

µ 5 5 5 8 8 8 10 10 10 12 12 12

σ 1 2 3 1 2 3 1 2 3 1 2 3

Les modèles ainsi simulés permettent alors de déterminer différents indicateurs concer-nant le biais, la précision et la stabilité des estimations par QD et par MMG.

6.1.1 Etude du biais

Nous considérons dans cette partie les échantillons présentés précédemment qui ontensuite été censurés au seuil H = min

(1000, F−1

µ,σ(0.3)). Cela permet d’avoir un seuil qui

ne censure qu’environ 30% des données des échantillons de sévérité faible, tandis que leseuil réaliste de 1000C sera choisi pour les échantillons dont la sévérité est suffisammentimportante.

49

Page 59: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Nous rappelons que le biais d’un estimateur θn de θ est défini par b(θn)

= E[θn]− θ.

Cette espérance sera déterminée en moyennant les estimateurs obtenus sur N estimationsdistinctes :

b(θn)

=1

N

N∑i=1

θin − θ

Les valeurs de biais sont ainsi déterminées pour chacune des deux méthodes et pour lesdeux paramètres du modèle log-normal. La figure 6.1 représente les biais relatifs b

(θn)/θ.

Ces valeurs sont majoritairement positives pour le paramètre µ (partie supérieure de lafigure) et négatives pour σ (partie inférieure).

FIGURE 6.1 – Biais relatifs des estimateurs de µ (en haut) et σ (en bas) pour les 12 modèlessimulés, avec N=1000 simulations

La première observation qui ressort de cette figure est que, sur les différents cas simulés,la méthode QD présente un faible biais, qui est significativement moins important que la mé-thode MMG et ce pour chacun des deux paramètres de sévérité et quelque soit l’échantillonconsidéré. En outre, cela confirme que l’approximation effectuée pour la prise en comptedu seuil de collecte (voir §5.4.4 page 43) est satisfaisante. Par ailleurs, les deux méthodespartagent la caractéristique de fournir des estimateurs d’autant plus biaisés que le utilisépour simuler le modèle est important.

6.1.2 Précision des estimations

Cette partie présente deux indicateurs communément utilisés pour évaluer la précisiondes estimations obtenues par les deux méthodes. Le premier des deux indicateurs déterminépour chacun des 12 modèles simulés, est la racine de l’erreur quadratique moyenne relative(relative root mean square error) :

R-rmse =1

θ

[N∑i=1

(θin − θ

)2

/N

]1/2

Le second indicateur reprend l’idée du premier en utilisant une échelle logarithmique :

50

Page 60: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

L-rmse =

N∑i=1

(ln

(θinθ

))2

/N

1/2

Les erreurs de sous-estimation reçoivent ainsi plus de poids que les erreurs de surestimation,contrairement au précédent indicateur où ces erreurs ont des poids symétriques. Ceci estadapté au cadre du risque opérationnel dans le sens où mobiliser un capital trop importantpour sa couverture est moins gênant que de ne pas en mobiliser assez.

La figure 6.2 représente les résultats obtenus par simulations pour chacun des deuxindicateurs.

(a) R-rmse

(b) L-rmse

FIGURE 6.2 – Indicateurs de précision pour µ (à gauche) et σ (à droite) sur les 12 modèlessimulés, avec N=1000 simulations

6.1.3 Stabilité des estimations

Afin d’évaluer la stabilité des estimations fournies par les deux méthodes, un coefficientde variation relatif est déterminé à partir des résultats précédents. À partir des estimateursθ1n, . . . , θ

Nn obtenus sur N estimations distinctes, il s’agit du rapport entre l’écart-type et la

moyenne des estimations :

ν =1

mn

[1

N

N∑i=1

(θin −mn

)2]1/2

, avec mn =1

N

N∑i=1

θin

Les graphiques de la figure 6.3 montrent que dans la quasi-totalité des cas, et notammenten ce qui concerne l’estimation de σ, les estimations effectuées via la méthode QD sont plusstables.

51

Page 61: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 6.3 – Coefficients de variation obtenus pour les 12 modèles pour µ (à gauche) et σ (àdroite), avec N=1000 simulations

6.2 Modèles hybrides

6.2.1 Simulations des données

Dans cette section, les simulations sont basées sur des modèles mélanges log-normaux.Chaque vecteur de n pertes est simulé selon une loi lognormale LN (µ1, σ1) en proportionp, et une loi LN (µ2, σ2) en proportion 1− p.

Ce choix permet de se rapprocher de la réalité des données collectées. En effet, nousrappelons que le boxplot tracé en 1.1 page 5 suggère que les pertes opérationnelles de cer-taines catégories sont hétérogènes et semblent posséder deux groupes de pertes différents,dont des extrêmes. Ce modèle parait donc plus réaliste pour ajuster la sévérité des pertes.

De plus, cela permet de tester la robustesse des méthodes d’estimations en ajustant unmodèle paramétrique qui n’est cette fois pas le vrai. La valeur de l’estimateur obtenu n’estpas directement interprétable en tant que telle mais elle peut toutefois être utilisée afinde calculer une charge en capital, valeur qui peut être comparée à la valeur calculée parMonte-Carlo avec les vrais paramètres du mélange.

Les caractéristiques des modèles retenus sont recensés dans le tableau ci dessous :

Modèle µ1 σ1 p µ2 σ2

1 5 2 0.5 10 1

2 6 1 0.5 7 2

3 8 1 0.5 8 2

6.2.2 Estimations

Les estimations menées sur ces modèles hybrides fournissent les résultats suivants :

Modèle µQD σQD µMMG σMMG

1 7.71 2.03 8.53 1.64

2 7.22 1.82 7.64 1.59

3 7.75 1.74 7.85 1.72

6.2.3 Calculs de charges en capital

Une fois les paramètres estimés par chaque méthode (ayant donc obtenu µ, σ, ainsi quele paramètre de fréquence λ corrigé comme expliqué au paragraphe 4.2.2 page 27), il estpossible de calculer la charge en capital correspondante en effectuant NMC =5 millions desimulations Monte-Carlo. Le principe est détaillé dans l’algorithme 6.1.

Il est ensuite de comparer les résultats obtenus à la CaR attendue, elle aussi calculée parsimulations de Monte-Carlo. C’est l’objet du tableau 6.1.

52

Page 62: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Algorithme 6.1 Simulations de Monte-Carlo pour le calcul de CaRPour i=1..NMC

Simuler NP ∼ P(λ)

Pour j=1..NP

Simuler ξ[j] ∼ LN (µ, σ)cum_func[i] = cum_func[i] + ξ[j]

tri_ascendant(cum_func)

retourner cum_func[0.999*NMC] //quantile empirique niveau 99.9%

Modèle CaR réelle CaRQD CaRMMG

1 12.2 11.8 (-4%) 5.50 (-55%)2 4.48 3.09 (-30%) 1.86 (-58%)3 12.3 5.45 (-56%) 5.42 (-57%)

TABLE 6.1 – Valeurs des CaRs (MC) calculées sur modèles hybrides et écart relatif par rapportà la CaR réelle

Nous remarquons alors que la méthode QD fournit des résultats bien plus proches de lavraie CaR que la CaR issue des estimations par la méthode MMG.

53

Page 63: Mémoire présenté devant l’Institut de Science Financière ...

Troisième partie

Diversification et agrégation desrisques opérationnels :

détermination d’un capitaléconomique

54

Page 64: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Préliminaires

Une fois la charge en capital au titre du risque opérationnel calculée comme expliquédans la partie précédente pour la ligne métier de l’entité considérée, se pose désormais laquestion d’évaluer la charge en capital pour une entité complète ainsi que pour un ensembled’entités. Faire la simple somme des charges en capital obtenues – ce qui sous-entendraitune corrélation parfaite entre les lignes métiers des entités – ne tiendrait pas compte d’unedépendance réaliste entre les risques et mobiliserait de fait des capitaux trop importants.

La position du régulateur est la suivante (article 366-3 de l’arrêté transposant Bâle II enFrance) :

“La Commission bancaire peut autoriser la prise en compte des effets de cor-rélations entre les estimations de pertes pour risque opérationnel lorsquel’établissement assujetti démontre que son système d’analyse et de mesure deces corrélations repose sur des principes robustes et qu’il est mis en œuvrede manière intègre. Ce système prend en compte l’incertitude que comportetoute estimation de corrélations, notamment en période de crise. L’établisse-ment assujetti valide ses hypothèses de calcul de corrélations au moyen detechniques quantitatives et qualitatives appropriées.”

Cette appréciation reste donc assez vague, et il revient à l’établissement bancaire de jus-tifier clairement ses choix en matière de prise en compte de la dépendance pour la mesurede son risque opérationnel.

Comme le soulignent Frachot et al. ([6]) il existe deux sources de corrélations dans lemodèle LDA, qui correspondent aux deux dimensions du modèle : sévérité et fréquence. Lacorrélation sur les sévérités est pourtant délicate à envisager compte tenu des hypothèses dumodèle en elles-mêmes qui imposent l’indépendance des sévérités des pertes au sein d’unemême catégorie de risque, et qui serait difficilement compatible avec une corrélation dessévérités entre deux types de risques.

L’hypothèse de corrélation sur la fréquence est pour sa part assez naturelle et est plusfacile à prendre en compte. Historiquement, il est par exemple possible d’observer que lenombre de fraudes externes est faible quand le nombre de fraudes internes est élevé, etinversement. Dans le modèle, cette corrélation des fréquences se répercute alors sur lescorrélations des pertes annuelles (ou pertes agrégées) :

cor(ξ(1), ξ(2)) = 0

cor(N1, N2) 6= 0=⇒ cor(`1, `2) 6= 0

où `i est la perte annuelle convoluée de la sévérité ξ(i) et de la fréquence Ni.

Nous présentons donc dans cette partie, après avoir détaillé les enjeux de la diversifica-tion et de l’allocation du capital, deux approches permettant de modéliser la dépendanceentre les pertes annuelles afin d’agréger les charges en capital. La première repose sur unehypothèse de normalité des pertes annuelles, tandis que la seconde utilise la théorie descopules. Nous illustrons enfin ces méthodes sur le cas des différentes lignes métiers des en-tités du Groupe Crédit Agricole S.A. et la diversification de leur risque opérationnel, dans lecadre de l’ICAAP (pilier 2 de Bâle II, voir §2.3 p.11).

55

Page 65: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 7

Enjeux et éléments théoriques

7.1 Agrégation des risques et allocation : des enjeux im-portants

Afin de se conformer à la règlementation Bâle II, les établissements de bancassurancedoivent non seulement déterminer un capital économique au titre des risques opérationnelsau niveau groupe mais aussi allouer ce capital entre ses différents métiers, ce qui a donc unimpact direct sur la rentabilité perçue de ses activités.

Un enjeu de l’approche avancée (AMA) est de prendre en compte les corrélations, c’est-à-dire les interactions ou absences d’interactions entre les entités elles-mêmes, ainsi qu’avecleurs environnements respectifs (par exemple les risques transverses comme les catastrophesnaturelles qu’elles subissent simultanément, ou les risques spécifiques qu’elles subissent sé-parément).

L’approche AMA doit donc faire apparaitre une réduction (du moins une variation espé-rée à la baisse) des fonds propres résultant des effets de synergies de la consolidation. Ortoute méthode de répartition des fonds propres s’appuyant sur des coefficients ne dépendantque des caractéristiques propres à chaque entité - manière la plus naturelle de faire - ne peuttenir compte de leurs interactions et ne peut donc pas répondre à cet enjeu. Par exemple,une ventilation au prorata de CaR ou du PNB de chaque entité n’est pas appropriée car ellene tient pas compte de la dépendance existant entre ces entités.

Pour un bon pilotage, une bonne analyse des performances ou une prise de décision per-tinente, il est indispensable que la méthode d’allocation retenue soit fondée sur la contribu-tion apportée par chaque entité à la réduction globale des risques : une entité contribuantplus à la réduction des fonds propres du groupe doit être avantagée par rapport aux autres.A défaut, le risque est de biaiser les analyses de performances et d’être amené à prendre demauvaises décisions, comme l’illustre l’exemple suivant.

Un exemple introductif

Pour fixer les idées et comprendre les enjeux de l’agrégation et l’allocation des chargesen capital, considérons l’exemple simple d’un groupe composé de trois entités différentes,notées E1, E2 et E3.

Supposons que le tableau qui suit recense les capitaux calculés au titre du risque opé-rationnel pour chaque entité ainsi que leur résultat sur l’année. Il contient aussi la valeurde la charge en capital au niveau du groupe, établie par agrégation en tenant compte dela dépendance entre les différentes entités, méthode que nous détaillerons dans la suite dumémoire.

56

Page 66: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Entité E1 E2 E3 (E1,E2) (E2,E3) (E1,E3) (E1,E2,E3)Résultat (MC) 17 17 14 - - - -

CaR (MC) 200 200 200 400 280 280 480

Afin de se rendre compte des effets de diversifications que peut apporter chaque entité,nous donnons également que la valeur de la CaR de chacun des couples d’entité obtenuepar agrégation.

Cet exemple simple permet de remarquer que l’entité E3, compte tenu de sa corrélationavec les autres entités, contribue plus que les autres à la diversification de la CaR totale.Selon l’idée exprimée au paragraphe précédent, le montant alloué la concernant devraitalors être plus faible que pour les deux autres.

Or une simple allocation au prorata de la CaR de chacune des entités donne le résultatdu tableau 7.1.

Entité Capital éco. alloué(MC)

Rentabilité desfonds propres

E1 160 10.6%

E2 160 10.6%

E3 160 8.75%

TABLE 7.1 – Allocation entre les 3 entités considérées au prorata de leur CaR

Cette allocation élémentaire a donc pour effet d’attribuer le même capital économiqueà toutes les entités, et donc d’envisager au vu des chiffres précédent que l’entité E3 est lamoins rentable.

En effectuant l’allocation selon une méthode plus appropriée (dite “cohérente” et quitient compte des variations de capital obtenues lorsqu’une entité est consolidée avec d’autresque nous détaillerons dans la section suivante), nous obtenons des résultats bien différentscomme le montre le tableau 7.2.

Entité Capital éco. alloué(MC)

Rentabilité desfonds propres

E1 180 9.45%

E2 180 9.45%

E3 120 11.67%

TABLE 7.2 – Allocation entre les 3 entités considérées selon une méthode cohérente

Contrairement au cas précédent, l’entité E3 est cette fois considérée comme la plus ren-table de toutes. Il semble donc essentiel dans ce contexte de prendre en compte la contribu-tion à la diversification du risque à sa juste valeur, sans quoi il est possible d’aboutir à desanalyses de performance erronées.

C’est notamment l’objet de la section suivante qui expose de manière théorique les pro-priétés souhaitables des mesures de risque et des méthodes d’allocation à utiliser.

7.2 Mesures de risque

7.2.1 Définition

Comme son nom l’indique, une mesure de risque permet de quantifier le danger in-hérent à un risque représenté par une valeur aléatoire X. Plus formellement, une mesure

57

Page 67: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

de risque est une fonctionnelle % qui attribue à un risque X une valeur %(X) positive etéventuellement infinie.

%(X) est généralement assimilé au capital dont la banque doit disposer pour faire faceaux éventuelles pertes résultant du risque X.

7.2.2 Propriétés désirables

Afin d’être utile dans ses applications, il est d’usage qu’une mesure de risque vérifie uncertain nombre de propriétés :

1. (Sous-additivité). Soient deux risques X1 et X2. La mesure % est dite sous-additive si

%(X1 +X2) 6 %(X1) + %(X2).

Cette propriété est synonyme de réduction de risque par diversification, dont l’effet estalors mesuré par la quantité %(X1)+%(X2)−%(X1 +X2) > 0, représentant l’économiede capital réalisée en couvrant simultanément les risques X1 et X2.

2. (Homogénéité). Soient un risque X et a un scalaire positif. La mesure % est homogènesi

%(aX) = a%(X).

Cette propriété peut-être vue comme une invariance par rapport aux unités monétaires(un changement d’échelle sur le risque fait subir la même transformation au capital).

3. (Monotonicité). Soient deux risques X1 et X2 tels que P(X1 6 X2) = 1. La mesure %est monotone si

%(X1) 6 %(X2).

Cette propriété traduit simplement le fait qu’il faut plus de capital lorsque le risquedevient plus sévère.

4. (Invariance par translation). Soient un risque X et a un scalaire. La mesure % estinvariante par translation si

%(X + a) = %(X) + a.

Cela garantit alors que %(X − %(X)) = 0.

La vérification de ces quatre premières propriétés amène à la notion de mesure derisque cohérente, comme introduit par Artzner et al. (1999). Cependant en actuariat,il est également souhaitable que les mesures de risque satisfassent les trois propriétéssuivantes.

5. (Marge de risque non excessive). Pour un risque X donné, si X 6 xmax alors %(X) 6xmax.Ceci veut dire qu’il n’est pas nécessaire de détenir un capital en excédent du montantmaximal que peut prendre une perte pour couvrir ce risque.

6. (Marge de risque non négative). Pour un risque X donné, nous devons avoir %(X) >E[X].Le capital requis doit ainsi excéder les pertes espérées (sous peine de ruine pour unecompagnie d’assurance, par exemple).

7. (Marge de risque justifiée). Soit a une constante quelconque. Alors nous devrions avoir%(a) = a.

Nous présentons dans la suite des exemples de mesures couramment utilisées en gestiondes risques.

58

Page 68: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

7.2.3 La mesure VaR (Value at Risk)

C’est traditionnellement la mesure la plus utilisée en matière de gestion des risques etsciences actuarielles : elle apparait explicitement dans les textes règlementaires (Bâle II,Solvabilité II).

Pour 0 6 α 6 1, la VaR de niveau α associée à la variable aléatoire X est définie de lamanière suivante :

V aRα(X) = F−1X (α),

où F−1X désigne la fonction de répartition inverse (éventuellement généralisée dans le cas

discontinu) de la v.a X.

Parmi les propriétés précédentes, cette mesure ne vérifie pas la propriété de sous-additivité :il peut arriver que la diversification conduise à une augmentation de la VaR, notammentdans le cas où les v.a ont des distributions à queues lourdes (moyennes infinies), ce qui peuts’avérer dangereux car contre-intuitif. Cependant, dans le cadre de distributions elliptiques 1

pour les risques, cette propriété est vérifiée et cette mesure est alors cohérente.Notons enfin qu’elle ne vérifie pas non plus la propriété 6 : un contre-exemple est donné

immédiatement pour une loi normale standard en choisissant α < 0.5 (la moyenne étantdans ce cas égale à la VaR de niveau 50%) ; elle valide néanmoins toutes les autres propriétésénoncées précédemment.

7.2.4 La mesure TVaR (Tail Value at Risk)

C’est une autre mesure populaire en gestion des risques, qui tend à se généraliser avecla prise en compte des queues de distributions. Elle est définie de la manière suivante, pour0 6 α 6 1 :

TV aRα(X) =1

1− α

1

α

V aRu(X)du

Elle peut donc être vue comme une moyenne des mesures V aRu(X) pour u > α. Cecifournit donc de l’information sur l’épaisseur de la queue de distribution, contrairement à laVaR qui n’indique qu’un point de cette queue.

La TVaR a aussi l’avantage d’être une mesure cohérente, et de vérifier toutes les proprié-tés désirables énoncées précédemment. Malgré ses bonnes propriétés, cette mesure est peuutilisée en gestion des risques en raison des difficultés numériques pour la calculer, et deson interprétation délicate.

7.2.5 La mesure CTE (Conditional Tail Expectation)

La mesure CTE avec un niveau de confiance α ∈ [0; 1] vaut :

CTEα(X) = E [X | X > V aRα(X)]

La CTE correspond donc à la moyenne des 100(1− α)% des valeurs les plus élevées queprend X.

Cette mesure vérifie les propriétés 2 à 7. Dans le cas continu, la propriété 1 de sous-additivité est vérifiée et la mesure est cohérente. A noter que dans ce cas, la CTE coïncidealors avec la TVaR et nous pouvons évaluer l’une ou l’autre indifféremment.

1. Une loi continue est dite elliptique de paramètre de position µ et de matrice de forme symétrique définiepositive Σ si sa densité p peut s’écrire p(x) = (detΣ)−1/2 q

(t(x− µ)Σ−1(x− µ)

), où q est une fonction réelle à

valeurs positives telle queRn q

(‖y‖2

)dy = 1. Cela peut être vu comme la généralisation d’une loi gaussienne.

59

Page 69: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

7.3 Mesures d’allocation

7.3.1 Définition

Considérons que l’institution financière considérée fait face à un risque X, constitué dela somme de n risques différents X1, ..., Xn, (ce sont par exemple les risques portés par sesdifférentes entités). Après avoir choisi une mesure de risque % et calculé le capital écono-mique %(X) correspondant à l’agrégation de ses n risques, se pose la question d’allouer cecapital entre ces risques. Une méthode d’allocation de capital permet d’allouer les bénéficesde diversification et ainsi obtenir des capitaux individuels dont la somme est égale au capitaléconomique global.

Denault (2001, [19]) s’est intéressé à ce problème en définissant un ensemble de pro-priétés désirables que doit respecter une méthode d’allocation. A l’image des mesures derisques, une telle méthode d’allocation est alors considérée comme “cohérente”.

En notant K = %(X) la mesure du risque total X =∑ni=1Xi et Ki la part de capital

allouée au ieme risque, un principe d’allocation (ou fonction d’allocation) peut alors êtredéfini comme une fonction associant au couple (%, n) un vecteur de scalaires (K1, ...,Kn).

7.3.2 Propriétés désirables

1. (Allocation complète).K1 +K2 + ...+Kn = K

Cette propriété intuitive est essentielle afin que le capital soit totalement alloué entreles différents risques.

2. (Prise en compte des effets de diversification). Pour tout sous ensemble a, b, ..., z de1, 2, ..., n,

Ka +Kb + ...+Kz 6 %(Xa +Xb + ...+Xz).

Cela assure ainsi que le capital requis pour un sous-ensemble de risques considéréseul est plus important que le capital requis pour ce même sous-ensemble lorsqu’il estdiversifié avec d’autres risques.

3. (Symétrie). Le fait de remplacer le risque Xi par le risque Xj avec %(Xi) = %(Xj) nechange pas l’allocation des risques.

4. (Pas de marge de risque injustifiée). Pour un risque constant Xi = a alors l’allocationcorrespondante vaut Ki = a.

7.3.3 Allocation basée sur la mesure VaR

C’est l’allocation la plus naturelle lorsque la mesure de risque choisie pour calculer le ca-pital requis pour l’ensemble des risques est la VaR, et elle se définit de la manière suivante :

Ki = E [Xi | X = V aRα(X)]

Nous pouvons aisément vérifier qu’elle vérifie la propriété 1 d’allocation complète encalculant :

n∑i=1

Ki =

n∑i=1

E [Xi | X = V aRα(X)]

= E

[n∑i=1

Xi | X = V aRα(X)

]= E [X | X = V aRα(X)]

= V aRα(X) = %(X)

60

Page 70: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Ce principe d’allocation vérifie également les propriétés 3 et 4, et la 2 sous certainesconditions qui sont logiquement les mêmes sous lesquelles la mesure VaR est sous-additive(voir précédemment).

La mesure de risque utilisée dans le cadre du modèle LDA étant la VaR (comme préconisépar le régulateur), cette méthode d’allocation sera naturellement utilisée dans la suite (cf.chap 9).

7.3.4 Allocation basée sur la mesure CTE

Le capital alloué au ieme risque s’exprime comme :

Ki = E [Xi | X > V aRα(X)]

Lorsque la mesure de risque choisie est la CTE (ou la TVaR avec des variables continues), ilapparait naturel de considérer une allocation selon cette formule. Elle respecte alors toutesles propriétés mentionnées précédemment, et peut donc être qualifiée de “cohérente”. Lelecteur pourra se référer à [20] pour une analyse plus approfondie des propriétés et la des-cription d’autres principes d’allocation.

N.B. : La méthode d’allocation ne peut être cohérente que lorsque la mesure de risqueassociée l’est aussi (condition nécessaire).

7.4 Mesures de dépendance

Nous insistons dans ce paragraphe sur les différences entre les termes de “corrélation”et de “dépendance”, souvent confondus en pratique. Nous présentons les propriétés souhai-tables d’une mesure de dépendance, et verrons que sorti du cas gaussien, le coefficient decorrélation linéaire ne les respecte pas.

7.4.1 Définition et propriétés désirables

Une mesure de dépendance δ(., .) est une fonction qui associe à un couple de variablesaléatoires une valeur réelle.

Soient X1 et X2 deux variables aléatoires. Pour qu’une mesure de dépendance soit utili-sable en pratique, elle doit respecter les propriétés suivantes :

1. (Symétrie).δ(X1, X2) = δ(X2, X1)

2. (Normalisation).−1 6 δ(X1, X2) 6 1

3. (Comonotonicité). δ(X1, X2) = 1 ssi X1 et X2 sont comonotones 2.4. (Antimonotonicité). δ(X1, X2) = −1 ssi X1 et X2 sont antimonotones.5. (Invariance). Pour toute fonction monotone f réelle,

δ(f(X1), X2) =

δ(X1, X2) si fest croissante−δ(X1, X2) si fest décroissante

Lorsque toutes ces propriétés sont satisfaites, la mesure δ est appelée mesure de concordance.Nous exposons dans les paragraphes suivants des mesures de dépendances courammentutilisés en statistiques et énumérons leurs différentes propriétés. Nous présentons ensuitela théorie des copules en vue d’introduire une notion de dépendance stochastiques entreplusieurs risques .

2. Il est d’usage de parler de comonotonie (resp. antimonotonie) entre des risques lorsqu’ils peuvent chacuns’écrire comme une fonction croissante (resp. décroissante) d’une même variable aléatoire sous-jacente : ce sontles deux cas de dépendance parfaite.

61

Page 71: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

7.4.2 Le coefficient de corrélation linéaire

C’est la manière la plus usitée pour mesurer la dépendance entre deux v.a. Il sera noté ret il se définit de la manière suivante :

r(X1, X2) =cov(X1, X2)√

var(X1).var(X2)

Il vérifie les deux premières propriétés énoncées ci-dessus : il est symétrique et les bornes±1 sont atteintes lorsque X1 et X2 sont liées par une relation linéaire.

Cependant lorsqueX1 etX2 ne suivent pas une loi normale, r ne vérifie pas les propriétés3 et 4 : ce n’est donc pas une mesure de concordance : ce n’est en fait qu’une mesure dedépendance linéaire entre X1 et X2. De ce fait, son usage est problématique dans le casgénéral car son comportement devient contre-intuitif :

– un coefficient de corrélation linéaire nul n’implique pas l’indépendance mais seule-ment l’absence de relation linéaire,

– une valeur de r très proche de 1 peut néanmoins traduire une relation non-linéaireentre les deux variables,

– enfin les valeurs possibles de r dépendent des lois marginales FX1et FX2 : elles sontnotamment modifiées par une transformation croissante de ces marginales. En parti-culier, la corrélation linéaire entre deux variablesX1 etX2 est généralement différentede celle du couple ln(X1) et ln(X2), bien que le contenu informationnel dans les deuxcouples soit le même.

Bien que la plus utilisée, cette mesure de dépendance peut amener à des analyses erronéesdans la majorité des cas. Nous proposons dans la suite des mesures plus appropriées.

7.4.3 Le tau de Kendall

L’idée du tau Kendall τ est d’apprécier non pas la corrélation des valeur des observationsen elles-mêmes mais les rangs de ces observations.

En notant (X ′1, X′2) un couple de v.a indépendant de (X1, X2) et identiquement dis-

tribué, il se définit par la probabilité de concordance des couples moins la probabilité dediscordance :

τ(X1, X2) = P [(X1 −X ′1)(X2 −X ′2) > 0]− P [(X1 −X ′1)(X2 −X ′2) < 0]

Cette mesure vérifie toutes les propriétés souhaitables énoncées plus haut : c’est doncune mesure de concordance. Elle jouit donc en particulier de la propriété d’invariance fonc-tionnelle et les valeurs ±1 peuvent être atteintes quelles que soient les marginales FX1

etFX2

, cela étant synonyme de dépendance parfaite.

7.4.4 Le rho de Spearman

Comme le tau de Kendall, le rho de Spearman ρS est un coefficient de corrélation sur lesrangs des observations.

Il peut être vu comme le coefficient de corrélation linéaire entre les variables “norma-lisées” U = FX1

(X1) et V = FX2(X2), qui sont par définition de loi uniformes sur [0, 1].

Cela permet alors d’éliminer les effets de marge dont souffre le coefficient de corrélationstandard présenté précédemment, ce qui en fait une mesure de concordance.

Le coefficient de corrélation linéaire, le tau de Kendall et le rho de Spearman sont desmesures de dépendance globales. Il est toutefois intéressant d’examiner la dépendance surles queues de distributions. Ce point fait l’objet de la section suivante.

62

Page 72: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

7.4.5 Notion de dépendance de queue

Le concept de dépendance de queue fournit une description de la dépendance au ni-veau des queues de distribution, ce qui permet étudier la survenance simultanée de valeursextrêmes, utile dans le cadre du risque opérationnel. Contrairement aux mesures de dé-pendance présentées précédemment qui portent sur l’ensemble des distributions, c’est unemesure locale.

En dimension 2, la mesure de dépendance de queue à droite (upper tail index) entre deuxrisques X1 et X2 se définit d’un point de vue probabiliste comme la limite de la probabilitéconditionnelle suivante :

λU (X1, X2) = limα→1−

P[X1 > F−1

X1(α) | X2 > F−1

X2(α)]

C’est donc la probabilité que X1 soit un évènement extrême sachant que est X2 est extrême.Si cette probabilité est nulle, l’apparition d’un évènement extrême n’a pas d’influence surl’apparition d’un autre extrême et nous pouvons dire que les extrêmes ne sont pas corrélés.A l’inverse, si λU est égal à 1 les extrêmes sont parfaitement dépendants.

Nous pouvons de la même manière définir la dépendance de queue à gauche (lower tailindex), bien qu’elle ne soit pas pertinente dans le cadre du risque opérationnel :

λL(X1, X2) = limα→0+

P[X2 < F−1

X2(α) | X1 < F−1

X1(α)]

7.5 Théorie des copules

Les mesures introduites précédemment permettent de ne mesurer une dépendance qu’entredeux variables aléatoires. Un outil beaucoup plus puissant pour spécifier ou étudier une dé-pendance, dite stochastique, entre plusieurs variables aléatoires est présentée dans cettesection.

Le concept de copule a été originellement introduit par Sklar en 1959. Il s’agit une fonc-tion mathématique permettant d’introduire une forme de dépendance entre des variablesaléatoires. D’abord étudiées en mathématiques, elles ont ensuite commencé à être utiliséesen statistique pour l’analyse de données multivariées. Elles ont ensuite fait leur apparitionen actuariat dans les années 1990, notamment pour modéliser la dépendance en assurancedommages. Mais ce n’est qu’au début des années 2000 que les copules ont connu un essornotoire avec leurs applications en finance de marché, notamment pour modéliser les rende-ments de plusieurs titres financiers ainsi que les temps de défaut en risque de crédit. Leurutilisation sur les places boursières est devenue très large, même si la manière de les utiliserdans ce cadre a été remise en cause après la crise financière mondiale de 2007.

La notion de copule permet de décomposer la loi jointe d’un vecteur aléatoire de di-mension n en n fonctions décrivant les lois marginales seules, et une fonction décrivant ladépendance entre les composantes de ce vecteur indépendamment des lois marginales : lacopule associée au vecteur. Cela permet ainsi de dissocier la structure de dépendance, quiest contenue dans la fonction copule, des lois marginales. Nous ne rentrons pas ici dans desdétails trop poussés sur cette théorie, le lecteur pouvant se reporter pour cela à la littératuretrès riche sur le sujet, par exemple l’ouvrage référence de Nelsen (1999) [23]. L’objet estsimplement de présenter cet outil mathématique et de comprendre son utilité pour modéli-ser la dépendance entre plusieurs risques en vue de les agréger, ce qui sera l’objet de la suitedu mémoire.

7.5.1 Définition

Le moyen le plus simple de définir une fonction copule C de dimension n est de laprésenter comme la restriction à [0, 1]n d’une fonction de répartition multivariée dont leslois marginales sont uniformes sur [0, 1] :

63

Page 73: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

C(u1, ..., un) = P(U1 6 u1, ..., Un 6 un), pour tout (u1, ..., un) ∈ [0, 1]n

7.5.2 Théorème de Sklar (1959)

C’est un théorème fondamental qui permet de lier la loi multidimensionnelleF = FX1,...,Xn aux lois marginales FX1

, ..., FXn grâce à une fonction copuleC : [0, 1]n −→ [0, 1]. Pour tout (x1, ..., xn) ∈ Rn, nous avons ainsi la relation suivante :

F (x1, ..., xn) = C (FX1(x1), .., FXn(xn)) (7.1)

Dans le cas où les lois marginales sont toutes continues, alors la copule C est unique.Il est possible d’écrire dans ce cas la relation précédente (7.1) en terme de densités :

f(x1, ..., xn) = fX1(x1)...fXn(xn).c (FX1

(x1), .., FX2(x2)) (7.2)

où c désigne la densité associée à la copule C : c(u1, .., un) = ∂nC∂u1..∂un

(u1, .., un).

Corollaire Un corollaire de ce théorème permet d’isoler la fonction copule (unique) àpartir de la fonction de répartition jointe et des lois marginales supposées continues. Nouspouvons alors écrire pour tout (u1, ..., un) ∈ [0, 1]n :

C(u1, .., un) = F(F−1X1

(u1), .., F−1Xn

(un))

(7.3)

7.5.3 Quelques propriétés remarquables

Nous présentons ici quelques propriétés importantes de la théorie des copules. Pour ladémonstration de ces résultats, se reporter à Nelsen (1999).

Invariance par transformations croissantesAvec les notations précédentes et en considérant des marginales continues, alorsC<X1,...,Xn>

est l’unique copule associée à la distribution F du vecteur aléatoire X = (X1, ..., Xn).Si h1, ..., hn sont des fonctions strictement croissantes sur respectivement Im(X1),...,

Im(Xn), alors :

C<h1(X1),...,hn(Xn)> = C<X1,...,Xn>

Ce théorème révèle donc une propriété importante de l’outil copule : elle reste inva-riante sous des transformations strictement croissantes des marginales. Ainsi la copule de ladistribution lognormale est la même que celle associée à la distribution normale, l’une étantobtenue par transformation strictement croissante de la seconde (y = lnx).

Bornes de FréchetEn définissant les fonctionsC+(u1, .., un) = min(u, .., un) etC−(u1, .., un) = max (

∑ni=1 ui − 1, 0)

alors pour toute copule C nous avons pour tout (u1, ..., un) ∈ [0, 1]n :

C−(u1, .., un) 6 C(u1, ..., un) 6 C+(u1, .., un)

La fonction C+ est une copule est appelée copule comonotone (ou borne supérieure deFréchet), car associée à un vecteur (X1, .., Xn) dont les composantes sont comonotones. Demanière similaire, la fonction C− est elle associée au cas antimonotone, mais n’est plus unecopule en dimension supérieure à 2.

64

Page 74: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

7.5.4 Expression de la dépendance de queue

L’expression de la dépendance de queue donnée en §7.4.5 peut facilement s’exprimer enfonction de la fonction copule :

λU (X1, X2) = limu→1−

1− 2u+ C(u, u)

1− uet

λL(X1, X2) = limu→0+

C(u, u)

u

A chaque type de fonction copule est donc associée une mesure de dépendance des ex-trêmes.

7.5.5 Exemples classiques de copules multivariées

Nous présentons dans ce paragraphe les familles de copules les plus utilisées en gestiondes risques et science actuarielle.

Copule indépendante

Cette copule est associée à des variables indépendantes X1, ..., Xn est immédiatementdéduite de l’équation (7.1) :

C⊥(u1, ..., un) = u1...un

et a pour densité

c⊥(u1, ..., un) = 1

Cette copule ne possède logiquement aucune dépendance de queue : λU = λL = 0.

Copule normale

C’est la copule associée à un vecteur gaussien, dont la fonction de répartition multivariéeest en fait composée de marginales normales couplées au moyen d’une copule normale. Ellefait partie de la famille des copules elliptiques (copules associées à des lois elliptiques, dontla définition est rappelée en bas de page 59).

Soient Φ la fonction de répartition de la loi normale standard et ΦΣ la fonction derépartition de la loi normale multidimensionnelle de matrice de corrélation Σ. La copulenormale s’écrit alors :

CΣ(u1, ..., un) = ΦΣ

(Φ−1(u1), ...,Φ−1(un)

)Une représentation de sa densité en dimension 2 est donnée figure 7.1. Nous pouvons

alors remarquer qu’elle comporte deux pics symétriques : cela implique que les probabilitéssont plus fortes pour la survenance de deux évènements en queues de distribution (indiffé-remment droite ou gauche) ; nous pouvons alors parler de dépendance faible des extrêmes.

En revanche, cette copule ne possède pas de dépendance de queue forte (au sens de ladéfinition en §7.4.5) quand les valeurs du coefficient de corrélation linéaire sont différentsde 1 : elle ne permet donc pas en théorie de corréler les valeurs extrêmes. L’utilisation decette copule est cohérente lorsque la corrélation entre risques est mesurée par le coefficientde corrélation linéaire.

65

Page 75: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

0.20.4

0.60.8

0.20.4

0.60.8

0

1

2

3

4

u1

u2

Den

sité

=0.

6)

FIGURE 7.1 – Densité bivariée de la copule normale (ρΣ = 0.6)

Copule de Student

Cette copule est cette fois associée à un vecteur aléatoire de loi de Student multivariée,qui est composé de marginales de loi Student couplées avec une copule de Student. Elle faitégalement partie de la famille des copules elliptiques.

Soit TΩ,ν la fonction de répartition multivariée d’une loi de Student, de matrice de cor-rélation Ω et de degré de liberté ν. La copule de Student a pour expression :

CΩ,ν(u1, . . . , un) = TΩ,ν

(T−1ν (u1), . . . , T−1

ν (un))

Sa densité bivariée est dessinée en figure 7.2. Là encore, nous reconnaissons les deuxpics symétriques caractéristiques d’une copule elliptique.

0.20.4

0.60.8

0.20.4

0.60.8

0

2

4

6

8

10

u1

u2

Den

sité

=1)

FIGURE 7.2 – Densité bivariée de la copule de Student (ν = 1, ρΩ = 0.6)

Lorsque nous considérons des corrélations différentes de−1 (ce qui est le cas dans cetteétude où les corrélations sont considérées positives), alors cette copule présente des dépen-dances de queue à droite et à gauche.

En dimension 2, il est possible de représenter cette mesure de dépendance de queue àdroite λU selon le niveau de corrélation ρΩ figurant dans la matrice de corrélation Ω de lacopule de Student associée, ce qui est l’objet de la figure 7.3, où nous remarquons que cette

66

Page 76: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

mesure est d’autant plus forte que le degré de liberté de la copule est important.N.B. : La copule de Student tend vers la copule normale pour ν −→ +∞.

FIGURE 7.3 – Mesure de dépendance des extrêmes en fonction du niveau de corrélation pourune copule de Student de dimension 2

Copules Archimédiennes

Cette famille de copules est définie à partir d’un générateur ϕ dont le choix donne lieu àdifférents types de copules, les plus connues étant celles de Clayton, Gumbel et Frank.

Ce générateur ϕ doit vérifier pour tout u ∈ [0, 1] : ϕ(1) = 0, ϕ′(u) < 0 et ϕ′′(u) > 0. Lescopules Archimédiennes sont alors définies de la manière suivante :

Cϕ(u1, . . . , un) = ϕ−1 (ϕ(u1) + ...+ ϕ(un)) (7.4)

Les générateurs correspondants aux copules Archimédiennes usuelles en dimension 2sont donnés dans le tableau 7.3, avec l’expression de la copule résultante.

Type de copule Générateur ϕ(u) associé Copule C(u1, u2) résultante

Clayton (θ > 0) u−θ−1θ

(u−θ1 + u−θ2 − 1

)−1/θ

Gumbel (θ > 1) (−lnu)θ exp−[(−lnu1)−θ + (−lnu2)−θ

]Frank (θ 6= 0) −ln

(e−θu−1e−θ−1

)− 1θ ln

[1 +

(e−θu1−1)(e−θu2−1)e−θ−1

]TABLE 7.3 – Expressions des générateurs et des copules Archimédiennes associées en dimension 2

Cette famille est paramétrée par un réel θ, quelque soit la dimension de la copule. Lamesure de dépendance a le même signe que θ et croît avec ce paramètre.

La présence de cet unique paramètre rend problématique l’utilisation de cette famillede copules en dimension supérieure à 2 dans le cadre de la modélisation des dépendancesentre risques. En effet, cela suppose que ces risques sont tous dépendants de la même façonentre eux, ce qui apparait assez réducteur.

Ce type de copule reste cependant intéressant à étudier car comme nous le voyons sur leursdensités bivariées représentées figure 7.4 les copules de Clayton et de Gumbel sont asymé-triques et présentent de la dépendance de queue (respectivement à gauche et à droite).

67

Page 77: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 7.4 – Densités bivariées de copules Archimédiennes usuelles, de paramètre θ = 3

Dans le cadre du risque opérationnel il est donc logique de considérer soit la copule deGumbel, soit la copule de Clayton qui couple les fonctions de survie marginales, dite copulede survie 3. Ces deux copules n’appréhendent alors que des dépendances positives, ce quiest adapté à notre étude où les dépendances négatives sont exclues.

7.5.6 Simulation

Nous présentons les deux méthodes de base nécessaires pour simuler des réalisationsd’une copule, que nous noterons (u1, ..., un).

Méthode des distributions

C’est la méthode la plus naturelle, qui s’appuie sur la relation (7.3) découlant du théo-rème de Sklar.

Ainsi pour simuler U = (U1, ..., Un) elle consiste à simuler préalablement le vecteurX = (X1, ..., Xn) de distribution multivariée F et d’appliquer la transformation

U = (FX1(X1), ..., FXn(Xn)) .

Cette méthode est donc appropriée quand la distribution multivariée générée par lacopule C est facilement simulable. C’est par exemple le cas des lois normales et Studentmultivariées : cette méthode sera donc retenue par la suite pour la simulation des copulesde la famille elliptique.

Méthode des distributions conditionnelles

Lorsque la copule n’est pas issue d’une distribution multivariée connue, la méthode pré-cédente est alors inapplicable et il faut passer par cette méthode des distributions condition-nelles. Nous la présentons dans le cas bivarié afin de ne pas complexifier les notations maisd’un point de vue mathématique elle s’étend commodément au cas multivarié.

Pour simuler des réalisations (u1, u2) d’une copule C en dimension 2, le principe estdonc le suivant :

1. Simuler deux réalisations de variables aléatoires uniformes v1 et v2

2. Poser u1 := v1

3. Plus formellement en notant C∗ la copule de survie associée à la copule C alors la relation de SklarF (x1, ..., xn) = C

(FX1

(x1), ..., FXn (xn))

peut se réécrire F (x1, ..., xn) = C∗(FX1

(x1), ..., FXn (xn)).

68

Page 78: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

3. Pour obtenir u2, il faut passer par la distribution conditionnelle de la copule C sachantu1, qui se définit naturellement de la manière suivante :

C2|1(u1, u2) = P (U2 6 u2 | U1 = u1) = limε→0

C(u1 + ε, u2)− C(u1, u2)

ε

Nous prenons alors u2 = C−12|1 (v2, u1).

La difficulté de cette méthode consiste à calculer les copules conditionnelles quand la di-mension est importante, ainsi que de les inverser. Elle est néanmoins adaptée au cas descopules Archimédiennes (voir Genest et McKay (1986) pour le détail des calculs).

7.5.7 Utilisation dans le contexte de l’agrégation de risques

A ce stade, il est utile de se poser la question suivante : comment utiliser la théorie descopules dans le calculer la charge en capital d’un ensemble de risques (X1, ..., Xn) supposésdépendants ?

En fait l’objectif est de pouvoir exprimer la distribution multivariée F des n risquesconsidérés, à partir de quoi il sera possible de simuler des valeurs du vecteur (X1, ..., Xn)dont les composantes sont dépendantes. Il suffit ensuite de sommer les réalisations descomposantes du vecteur pour obtenir une valeur de la somme des risques agrégés, et derépéter cette opération un grand nombre de fois afin de reconstituer cette distribution parsimulations.

Pour cela, connaissant les lois de chaque risque que nous voulons agréger (qui consti-tuent les marginales de la distribution multivariée F ), la donnée d’une copule matérialisantla structure de dépendance entre ces risques permet alors très simplement d’exprimer ladistribution multivariée F avec le théorème de Sklar (équation 7.1 page 64). En d’autrestermes, la donnée de lois marginales et d’une structure de dépendance sous la forme d’unefonction copule spécifie entièrement la distribution multivariée des risques.

Démarche généraleLa simulation d’un vecteur X = (X1, ..., Xn) de lois marginales FX1

, ..., FXn et de copuleC se fait en deux étapes :

1. Simulation d’une réalisation u = (u1, ..., un) de la copule C de taille n (voir §7.5.6page 68)

2. Nous obtenons alors une réalisation x de X = (X1, ..., Xn) par la transformation

x = (x1, ..., xn) =(F−1X1

(u1), ..., F−1Xn

(un))

En notant Lagreg = X1 + ... + Xn la somme de ces n risques dépendants, alors∑ni=1 xi

fournit une réalisation de cette variable aléatoire. En répétant un grand nombre de fois lesétapes 1 et 2 ci-dessus, il est donc possible de recréer la distribution de Lagreg : il ne resteplus qu’à en calculer la mesure de risque choisie (en l’occurrence la VaR) qui est précisémentla charge en capital recherchée.

ExemplesNous donnons quelques exemples en dimension 2 . L’objet est alors de calculer la distri-

bution bivariée de deux risques X1 et X2 de marginales FX1et FX2

données, liées par unecopule C spécifiée.

Ainsi si nous considérons des risques de lois normalesX1 ∼ N (8, 2) etX2 ∼ N (10, 1), etune copule normale Cρ de coefficient de corrélation ρ = 0.4 alors le vecteur X = (X1, X2) apour fonction de répartition bivariée FX(x1, x2) = Cρ (Φ8,2(x1),Φ10,1(x2)), avec la fonctionCρ définie précédemment et Φµ,σ la fonction de répartition de la loi normale. Cette écriture

69

Page 79: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

est utile afin de comprendre “l’assemblage” des marginales effectué au moyen de la copulepour obtenir la distribution bivariée de la figure 7.5 (c’est alors une densité de vecteurgaussien, les marges et la structure de dépendance étant normales).

−20

24

6

4.5

5

5.5

6

0

0.2

0.4

0.6

0.8

1

x 10−4

marginale 1 : N(8,2)marginale 2 : N(10,1)

dens

ité b

ivar

iée

(ρ =

0.4)

FIGURE 7.5 – Densité bivariée de deux risques gaussiens corrélés par une copule normale (ρ =0.4)

La grande souplesse de cette méthode d’agrégation par copules est qu’il est possiblede spécifier la copule indépendamment des marginales. Il est donc par exemple possiblede choisir une structure de dépendance archimédienne entre deux risques normaux : ladensité correspondante est alors représentée en figure 7.6. Cela permet de bien percevoir lastructure de dépendance induite par ce couplage.

−20

24

6

4.5

5

5.5

6

0

0.5

1

1.5

x 10−4

N(8,2)N(10,1)

dens

ité (

θ= 5

)

FIGURE 7.6 – Densité bivariée de deux risques gaussiens corrélés par une copule de Gumbel(θ = 5)

70

Page 80: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 8

Une première approche pourdiversifier les charges en capital :l’approximation gaussienne

Cette méthode d’agrégation, qui tient compte des effets de diversification entre lesrisques, se base sur une formule fermée d’agrégation découlant d’une hypothèse gaussiennesur les distributions annuelles de pertes. Nous présentons auparavant les enjeux et les pro-priétés souhaitables en terme de méthodes d’agrégation et d’allocation.

8.1 Hypothèses et méthodologie

L’hypothèse centrale du modèle est de considérer que le vecteur des pertes annuelles` = (`1, ..., `J)′ pour les J catégories de risque d’une entité est un vecteur gaussien. Ennotant ρj,j′ la corrélation entre les pertes annuelles des lignes métiers j et j′ de l’entitéconsidérée, nous rappelons que nous avons alors la relation : ρj,j′ = cov(`j , `j′)

/sjsj′ , où

sj² =var(`j).Cette hypothèse se résume donc comme suit :

` ∼ N (m,Σ) avec m = (m1, ...,mJ)′et Σ =

s2

1...

. . . ρj,j′sjsj′...

. . .s2J

Cela implique donc que pour tout j appartenant à [[1, J ]], la perte annuelle de la j eme

catégorie de risque d’une entité fixée suit une loi normale :

`j ∼ N(mj , s

2j

)⇐⇒ `j −mj

sj∼ N (0, 1)

D’après la définition de la CaR au seuil de confiance α, nous pouvons écrire avec Φ larépartition de la loi normale standard :

P (`j > CaRj) = 1− α = P(`j −mj

sj>

CaRj −mj

sj

)= 1− Φ

(CaRj −mj

sj

)D’où

α = Φ

(CaRj −mj

sj

)⇐⇒ CaRj = mj + Φ−1 (α) sj (8.1)

71

Page 81: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

8.2 Formule d’agrégation

L’objectif est de pouvoir calculer la charge en capital de la somme des pertes annuellesdes J catégories de risque, soit CaR

(∑Jj=1 `j

)= CaRtotale. Or nous connaissons la distri-

bution de cette somme, en tant que transformation linéaire d’un vecteur gaussien :

J∑j=1

`j =t 1.` = (1, · · · , 1)

`1...`J

∼ N (t1.m, t1.Σ.1)Soit

L =

J∑j=1

`j ∼ N

J∑j=1

mj ,

J∑j=1

J∑j′=1

ρj,j′sjsj′

(8.2)

La relation (8.1) trouvée précédemment permet d’aboutir à la formule d’agrégation entreles j charges en capital des catégories de risque d’une entité :

CaRtotale =

J∑j=1

mj + Φ−1 (α)

√√√√ J∑j=1

J∑j′=1

ρj,j′sjsj′

Cette relation (8.1) indiquant également que sj =CaRj−mj

Φ−1(α) , la formule précédente peutfinalement s’exprimer en fonction des différentes charges en capital à agréger :

CaRtotale =

J∑j=1

mj +

√√√√ J∑j=1

J∑j′=1

ρj,j′ (CaRj −mj) (CaRj −mj′) (8.3)

Dans le cadre usuel d’une sévérité log-normale et d’une loi de Poisson pour la fréquencesupposée indépendante de la sévérité, `j suit une loi Poisson-composée. Le paramètre mj

s’exprime alors simplement comme le produit des moyennes des deux distributions :

mj = λjexp(µj + σ2

j /2).

Le paramètre s2j = var(`j) s’obtient pour sa part avec la formule de décomposition de la

variance (voir équation (3.1) p.16 dans la présentation du modèle LDA) et vaut

s2j = λj

(expσ2j − 1

)exp

(2µj + σ2

j

)︸ ︷︷ ︸var(ξ)

+[exp

(µj + σ2

j /2)]2︸ ︷︷ ︸

[E(ξ)]2

Cas d’indépendanceDans le cas particulier où ρj,j′ = 0 pour j 6= j′ alors la formule (8.3) précédente devient :

CaRindtotale =

J∑j=1

mj +

√√√√ J∑j=1

(CaRj −mj)2

72

Page 82: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Cas de dépendance totaleAvec ρj,j′ = 1, la formule se simplifie alors en :

CaRdeptotale =

J∑j=1

mj +

√√√√√ J∑j=1

(CaRj −mj)

2

=

J∑j=1

CaRj

ce qui est bien le résultat attendu, et fournit une borne supérieure sur le niveau de capitalagrégé.

8.3 Allocation

Dans le cadre de l’approximation gaussienne du vecteur des pertes annuelles, il est éga-lement possible d’obtenir une formule fermée pour l’allocation du capital associée à la me-sure de risque VaR (cf. §7.3.3 p.60). Nous rappelons que dans ce cas la contribution du j eme

risque vaut :

Kj = E [`j | L = V aRα(L)]

Or, dans le cas gaussien, il est possible de voir cette l’espérance conditionnelle comme laprojection orthogonale `⊥j de `j sur l’espace vectoriel engendré par (1, L), ce qui implique :

E [`j | L] = `⊥j = mj +cov(`j , L)

s2(L−m)

Nous obtenons ainsi, avec les notations utilisées précédemment, la formule explicitesuivante :

Kj = mj +s2j +

∑i6=j ρi,jsjsi

s2(V aRα(L)−m) (8.4)

où m et s2 sont les paramètres de la loi normale suivie par L =∑Jj=1 `j , qui ont été calculés

auparavant dans l’équation (8.2) .

8.4 Exemple simple en dimension 2

8.4.1 Agrégation

Supposons que nous voulons agréger deux catégories de risques dont les pertes annuellessont `1 =

∑N1

i=1 ξ(1)i et `2 =

∑N2

i=1 ξ(2)i , avec ξ(i) ∼ LN (µi, σi) et Ni ∼ P (λi). Nous les

supposons corrélées linéairement avec un coefficient ρ. Le tableau suivant répertorie lesparamètres des deux catégories en question ainsi que les CaR associées :

µ1 σ1 λ1 µ2 σ2 λ2 CaR99.9%1 CaR99.9%

2

8 2 10 10 1 50 5.34 MC 3.60 MC

Dans le cadre de l’approximation gaussienne présentée précédemment dans ce chapitre,le vecteur ` = (`1, `2) suit une loi gaussienne bivariée N (m,Σ) et donc `i ∼ N (mi, si)pour i = 1, 2. Cela revient donc à construire la distribution bidimensionnelle de la variable` en supposant la normalité des marginales `i et de les agréger par une copule normale (cf.§7.5.5 page 65).

La formule (8.3) établie précédemment permet de calculer le montant de la charge encapital agrégée, en fonction du paramètre ρ liant les deux catégories de risque.

La figure 8.1 permet de visualiser graphiquement ce montant, en fonction d’un coeffi-cient ρ variant entre 0 et 1 (les corrélations négatives étant exclues). Dans ce cadre gaussien,nous vérifions alors la sous-additivité des CaRs (ce qui n’est pas toujours le cas, voir §7.2.3).

73

Page 83: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 17.4

7.6

7.8

8

8.2

8.4

8.6

8.8

9

ρ

CaR

agr

égée

(M

)

CaR agrégéeDépendance totaleIndépendance

FIGURE 8.1 – Niveau du capital agrégé (niveau 99.9%) entre deux catégories de risques enfonction de leur coefficient de corrélation linéaire ρ

8.4.2 Allocation

Nous pouvons de même tracer le capital alloué aux deux risques selon leur contribu-tion à la charge en capital totale au moyen de la formule (8.4), en fonction de ρ. C’est lerésultat de la figure 8.2, où nous pouvons vérifier graphiquement la propriété d’allocationcomplète : la somme des deux allocations est toujours égale au niveau de capital agrégécalculé précédemment.

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 13

4

5

6

7

8

9

ρ

Cap

ital a

lloué

(M

illio

ns e

uros

)

Allocation risque 1Allocation risque 2Somme des allocationsCaR agrégée (cf. précédemment)

FIGURE 8.2 – Allocation du capital agrégé selon la CaR99.9% entre deux catégories de risquesen fonction de leur coefficient de corrélation ρ

De plus, nous pouvons constater que cette méthode d’allocation a l’avantage de prendreen compte la corrélation entre les risques. En effet, au contraire d’une allocation “statique”au prorata de la valeur des CaR respectives (toujours supérieure pour le risque 1), le capitalalloué à chaque risque change dynamiquement en fonction de leur corrélation ρ. C’est ainsiqu’à partir d’un certain niveau de corrélation ρ0 ≈ 0.6 le risque 2 prend le pas sur le risque

74

Page 84: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

1 et nécessite une allocation plus importante, ce qui ne parait forcément évident à premièrevue. Notamment, il est intéressant de remarquer que bien que la CaR agrégée soit la sommedes deux CaR individuelles dans le cas d’une dépendance totale (ρ = 1), cette méthodealloue K1 = 4.38 MC au risque 1 et K2 = 4.56 MC au risque 2. Ainsi nous avons bienK1 +K2 = CaR1 + CaR2 mais K1 6= CaR1 et K2 6= CaR2 comme nous aurions pu nous yattendre.

8.5 Avantages et inconvénients

Cette manière de procéder a pour principal avantage d’être facilement applicable. Ellerequiert simplement d’avoir mené les calculs de CaR pour chaque risque comme expliquéprécédemment et spécifié une matrice de corrélation entre ces risques (généralement four-nie par des concertations d’experts métiers dans le cadre du risque opérationnel). En outre,elle ne nécessite aucune simulation et donc pas de temps de calcul. De plus, les paramètresintervenant dans la formule d’agrégation et d’allocation sont facilement interprétables etcompréhensibles. La charge en capital agrégée croît alors linéairement avec le niveau decorrélation ce qui est assez intuitif.

Cette méthode peut tout de même apparaitre assez irréaliste en pratique. En effet, l’hypo-thèse centrale du modèle est très forte. Cela revient à supposer que les pertes annuelles desdifférentes catégorie de risques forment un vecteur gaussien, ce qui implique que chaqueperte annuelle est supposée de loi normale. En d’autre termes, cela revient à approximertoutes les marginales de loi Poisson-composée (généralement Poisson-lognormale) par deslois normales. Cela peut s’avérer incohérent surtout quand le paramètre de fréquence λ estélevé, car l’asymétrie de la densité de la perte annuelle est alors accentuée et sa queue dedistribution épaissie, ce qui rend l’approximation gaussienne caduque. De plus, nous avonsvu que cette méthodologie implique d’utiliser une mesure de corrélation linéaire, qui est peuadaptée aux cas rencontrés en pratique et peut parfois conduire à de fausses interprétations.

Tout cela implique donc de chercher d’autres moyens d’agréger les charges en capital enutilisant des hypothèses plus réalistes et moins réductrices, reflétant mieux l’exposition aurisque opérationnel de l’établissement bancaire considéré. Tout cela est l’objet du pilier 2 deBâle II et nous proposons dans le chapitre suivant une méthodologie rentrant dans ce cadrerèglementaire, qui a été présenté au chapitre 2 (p.7).

75

Page 85: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 9

Mise en place d’une nouvelleméthodologie : agrégation parcopules

En pratique, l’intensité de la dépendance entre risques augmente dans les situations défa-vorables, ce qui limite l’efficacité des modèles de diversification calibrées avec des structuresgaussiennes ne prenant pas en compte cet effet. L’introduction de structures de dépendancenon linéaires intégrant de la dépendance de queue apparait ainsi comme un élément incon-tournable de l’évolution des modèles de capital économique au titre du risque opérationneldans le cadre de l’ICAAP.

9.1 Principes de la méthode proposée

Nous présentons une méthodologie innovante en vue de l’obtention d’un capital écono-mique pour le risque opérationnel pour un groupe dans le cadre de l’adéquation des fondspropres (pilier 2 de Bâle II). Cette méthode prend en compte les interactions entre ses caté-gories de risques et différentes entités au moyen de fonction copules. Nous présentons toutd’abord les fondements théoriques de la méthodologie, puis l’appliquons dans la pratiquepour agréger les risques opérationnels des entités du Groupe Crédit Agricole. Nous discu-tons enfin des résultats obtenus et les comparons avec la méthode d’agrégation gaussienneprésentée précédemment.

9.1.1 Objectifs

Nous présentons dans ce paragraphe l’idée générale et les notations de la méthodologiequi va suivre.

L’objectif est d’agréger les risques opérationnels au niveau d’un groupe constitué de Ientités, chacune composées de J catégories de risque afin d’obtenir un capital économiquepour ce groupe, puis de réallouer ce capital entre ses entités de manière judicieuse. Pource faire, nous nous proposons de raisonner selon une approche type bottom-up (plusieursétapes d’agrégations, du niveau le plus élémentaire vers le niveau le plus global à savoircelui du groupe) en utilisant à chaque étape l’outil copule présenté précédemment pourmodéliser la dépendance entre risques et pouvoir les agréger.

Les risques considérés seront les pertes annuelles `k, appartenant soit à une catégoriede risque soit à une entité : k ∈ [[1, J ]] ∪ [[1, I]]. Nous nous intéressons alors à la distributionconjointe du vecteur L de ces pertes annuelles, dont nous supposons la dépendance modé-

76

Page 86: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

lisée par une copule C donnée 1. Le but est alors de simuler des réalisations de la sommedes composantes de ce vecteur de pertes afin d’en déduire la charge en capital résultant del’agrégation de ces risques.

Dans le chapitre où nous détaillions les propriétés et l’utilité des copules dans un contexted’agrégation de risques (§7.5.7 page 69), L était simulée à partir de la transformation sui-vante, écrite en confondant intentionnellement variable aléatoire et fonction de répartitionassociée :

L =

`−11 (U1)

...`−1n (Un)

(9.1)

Ceci implique alors de connaitre les distributions analytiques des pertes annuelles `1, ..., `n,de chaque catégorie de risque ou entité à agréger. Or ce n’est pas le cas dans le cadre dumodèle LDA (voir chapitre 3) car ces distributions sont de type Poisson-composées. Maiscomme il est néanmoins possible de simuler ces distributions marginales (l’algorithme estrappelé en 6.1 p.53), nous pouvons utiliser ces marges empiriques en lieu et place des dis-tributions théoriques : c’est la méthode dite des “quantiles empiriques”, qui converge versla distribution théorique pour un nombre de simulations S suffisamment grand (voir la dé-monstration formelle dans [2] p.320, basée sur la convergence presque sûre des quantilesempiriques vers les quantiles théoriques).

Nous remarquons donc dès à présent l’un des principaux avantages de la méthode :aucune hypothèse supplémentaire n’est faite sur les marginales à agréger, contrairement àl’approximation normale de ces marginales présentée dans le chapitre précédent.

9.1.2 Etape 1 : agrégation des catégories de risque

Tout d’abord, il est question de calculer une charge en capital pour l’ensemble des Jcatégories de risques pour une entité i considérée. L’intégration des scénarios stand aloneconcernant l’entité i est pris en compte en considérant ces scénarios comme des catégoriesde risque à part entière (de chaque scénario étant déduit un triplet (µ, σ, λ) aboutissant àune distribution de perte annuelle et une CaR associée, voir §3.4 p.19).

Le principe est alors de recréer la distribution multidimensionnelle L à partir des loismarginales `1, ..., `J (elles-mêmes obtenues par simulations : ce sont donc des marginalesempiriques) et d’une copule C1 choisie.

Simulation de la matrice des pertes annuellesPour chaque catégorie de risque j ∈ [[1, J ]], nous simulons tout d’abord les distributions

de chacune de leurs pertes annuelles, c’est-à-dire la matrice

` = ( `1 . . . `J ) =

`(1)1 . . . `

(1)J

......

`(S)1 . . . `

(S)J

avec pour tout s ∈ [[1, S]], `(s)j =

∑N(s)i

k=1 ξ(s)j,k où N

(s)j ∼ P

(λj)

et ξ(s)j,k est simulé selon la loi

de sévérité choisie et préalablement estimée, ici LN(µj , σj

).

Cette matrice matérialise donc les marges empiriques simulées S fois, que nous allonsagréger selon la structure de dépendance définie par la copule C1.

1. Nous supposons ici que le type de la copule C a été spécifié. Le problème du choix de la forme de cettecopule sera discuté en §9.1.6 p.79.

77

Page 87: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Simulation de la copule C1

Afin de pouvoir mettre en œuvre l’agrégation, il faut à présent simuler 2 des réalisationsde la copule C1. Nous obtenons donc la matrice

C1 =

u(1)1 . . . u

(1)J

......

u(S)1 . . . u

(S)J

où chacune des S lignes est une réalisation des composantes de la copule C1 de dimensionJ .

Obtention de la matrice des simulations de la perte agrégée totaleEn combinant la matrice des simulations des pertes annuelles ` et la matrice des simula-

tions de la copule C1, il est possible de simuler la distribution de perte multidimensionnelleL ainsi que la perte agrégée Lagreg =

∑k `k, où l’indice k parcourt les catégories de risque

considérées.Ainsi pour chaque ligne la matrice C1, il est possible d’obtenir une réalisation de L selon

la transformation (9.1) présentée plus haut : les différentes composantes de L sont obte-nues comme les quantiles empiriques des colonnes de `, qui representent les distributionsmarginales, pris aux niveaux contenus dans les lignes de la matrice C1.

Cette matrice comportant S lignes, nous obtenons donc autant de simulations du vecteurL de dimension J . Il suffit enfin de sommer les lignes de cette matrice pour obtenir unvecteur représentant S simulations de la perte agrégée Lagreg (de dimension 1) : la chargeen capital liée à l’agrégation des risques est alors obtenue en calculant le quantile empiriquede ce vecteur au niveau désiré.

9.1.3 Etape 2 : agrégation des entités

L’objet est maintenant d’agréger les pertes annuelles des I entités, dont les catégories derisques ont été agrégées à l’étape précédente.

Il s’agit donc de dérouler la même méthode qu’auparavant, avec cette fois en entréeles vecteurs pertes annuelles des entités : Lagreg1 , ..., LagregI qui constituent les marginalesà agréger, et une structure de dépendance modélisée au moyen d’une fonction copule C2

supposée spécifiée, de dimension I.Plus formellement, nous avons donc une matrice

L = ( Lagreg1 . . . Lagreg

I ) =

Lagreg(1)1 . . . L

agreg(1)I

...Lagreg(S)1 . . . L

agreg(S)I

ainsi qu’une matrice

C2 =

v(1)1 . . . v

(1)I

......

v(S)1 . . . v

(S)I

à partir desquelles nous désirons simuler des valeurs de la perte totale agrégée au niveaugroupe : Lagreggroupe =

∑k L

agregk .

Comme auparavant nous utilisons la transformation (9.1) pour obtenir S simulationsde la perte multidimensionnelle Lgroupe = (Lagreg

1 , Lagreg2 , ..., Lagreg

I ) dans une matricede dimension S × I, puis il suffit de sommer les lignes de cette matrice pour aboutir à Ssimulations de la perte des entités agrégées au niveau groupe Lagreggroupe.

2. Les techniques de simulation des copules ont été abordées §7.5.6 p.68

78

Page 88: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

La charge en capital CaRgroupe = CaR(Lagreggroupe

)requise pour le risque opérationnel

au niveau du groupe se déduit alors simplement de ce vecteur en en calculant le quantileempirique au niveau choisi.

9.1.4 Etape 3 : Allocation

Afin d’allouer le capital calculé précédemment entre les différentes entités du groupenous utilisons logiquement une allocation basée sur la mesure de risque VaR, dont les fon-dements et les propriétés théoriques ont été présentés préalablement (§7.3.3 p. 60).

Cette méthode d’allocation se fonde sur la contribution de la perte annuelle de chaqueentité à la perte annuelle totale du groupe. En notant Ki le capital devant être alloué à laieme entité, nous avons formellement :

Ki = E[Lagreg

i | Lagreggroupe = CaRα(Lagreggroupe

)]En pratique, nous déterminons cette espérance par simulations. Le calcul de CaRgroupe

présenté précédemment est mené p fois, et à chaque valeur obtenue nous gardons en mé-moire les différentes contributions des vecteurs Li à la valeur de CaRgroupe. Il ne reste en-suite qu’à moyenner ces contributions pour obtenir l’allocation du capital CaRgroupe entreles différentes entités.

9.1.5 Exemple en dimension 2

Afin de bien comprendre la méthodologie d’agrégation exposée dans la section précé-dente, nous l’appliquons sur un exemple simple en dimension 2.

L’objet est donc d’agréger deux risques `1 et `2 (correspondants aux pertes annuelles dedeux catégories de risque, ou de deux entités) dont la dépendance est modélisée par unefonction copule notée C1. Les distributions `1 et `2 étant de type Poisson-composé, nousprocédons par simulations : S = 100 tirages de chaque variable aléatoire sont effectuésdans cet exemple. La figure 9.1 illustre alors comment la distribution de Lagreg = `1 + `2est reconstituée à partir des tirages de `1 et `2 triés dans des vecteurs `′1 et `′2, et de lamatrice des simulations de la copule C1. Chaque composante du vecteur Lagreg est alorsobtenue en sommant les quantiles empiriques de `′1 et `′2 dont les niveaux sont donnés parles composantes des lignes de la matrice C1.

Une simulation des contributions de `1 et `2 à la CaR agrégée est également représen-tée. Ces deux contributions sont obtenues en sur la composante du vecteur des simulationsde Lagreg correspondant à sa CaR. Cette composante est constituée de la somme de deuxtermes provenant respectivement de `′1 et `′2 et sont précisément des réalisations des contri-butions recherchées.

En réitérant Salloc fois cette étape d’agrégation et en calculant à chaque itération cesdeux contributions, nous avons donc bien en moyenne :

contribi = E [`i | `1 + `2 = CaRα (Lagreg)] (9.2)

9.1.6 Discussion sur le choix de la copule

Dans les paragraphes précédents de ce chapitre, nous avons raisonné en supposant quela copule modélisant la dépendance entre les risques à agréger était prédéterminé, car laquestion point est délicat à traiter dans le cadre du risque opérationnel. En effet, les pro-cédures d’inférence et d’estimation classiques pour les copules ne peuvent s’appliquer : lespertes annuelles étant collectées sur un historique de 5 ans, nous ne disposons donc que de5 points pour chaque risque à agréger. Or les méthodes de sélection de copule optimale 3

3. Voir à ce propos la démarche proposée par Armel, Planchet et Kamega (2010) dans : “Quelle structure dedépendance pour un générateur de scénarios économiques en assurance ?”

79

Page 89: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 9.1 – Illustration de l’agrégation de deux pertes annuelles par copule

s’appuient généralement sur des outils graphiques (en dimension 2) ou sur la mesure d’unedistance entre la copule empirique (construite à partir des données collectées) et une copuleparamétrique, ce qui nécessite de disposer de suffisamment d’observations. Nous sommesdonc obligés d’intuiter la structure de dépendance au cas par cas, en se basant sur les pro-priétés des principales copules présentées auparavant. De même, une fois le choix de lacopule effectué, l’estimation de son ou ses paramètres est difficilement envisageable, fautede données suffisantes.

La solution la plus naturelle pour appréhender la dépendance en dimension n quel-conque est d’utiliser une copule de la famille elliptique (Normale ou Student). En effet, cetype de copule prend en paramètre une matrice de corrélation de dimension n, ce qui per-met de différencier les dépendances entre chacune de ses composantes. De plus, par soncaractère intuitif, ce type de matrice peut facilement être fourni par des experts métiersdont le rôle est d’apprécier les corrélations entre différentes branches d’activité ou entitésd’un même groupe. Ceci solutionne par la même occasion l’étape d’estimation du paramètrematrice de corrélation de la copule.

Les autres types de copules, en particulier les copules archimédiennes, ont l’avantagede pouvoir modéliser des dépendances plus diverses, notamment une asymétrie et une dé-pendance forte des valeurs extrêmes. En revanche, toute la dépendance n’est résumée quedans un seul paramètre scalaire et les composantes sont alors toutes corrélées de la mêmefaçon, ce qui ne parait donc pas réaliste dans la pratique. L’estimation de ce paramètre pardes experts est en outre rendue complexe du fait que le domaine de définition du para-mètre peut varier avec le type de copule envisagé. Pour les copules archimédiennes, unesolution est d’envisager une construction hiérarchique mais cela pose un certain nombre decomplications et de contraintes que nous détaillerons au chapitre suivant (chapitre 10, p.88).

En conséquence, nous nous centrerons dans la suite sur l’utilisation de copules issuesde la famille elliptique pour modéliser les dépendances entre pertes annuelles, à savoir lescopules normale et de Student, dont la matrice de corrélation est estimée à dires d’experts.

80

Page 90: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

9.2 L’exemple du Groupe Crédit Agricole

9.2.1 Mise en œuvre de la méthodologie d’agrégation précédente dansle cadre de l’ICAAP

Nous présentons ici une application pratique de la méthode d’agrégation présentée dansla section précédente pour le groupe Crédit Agricole, en utilisant les données de pertescollectées par ses entités validées en approche avancée AMA. Pour des raisons de confiden-tialité, certains résultats présentés dans la suite ont été transformés, sans que cela ne nuiseà l’analyse et l’interprétation des calculs.

Etape préliminaire

L’objectif est de mutualiser les données de plusieurs entités selon une nouvelle définitiondes lignes métiers afin d’être plus en phase avec la définition des lignes métiers présentéedans le texte Bâle II. Pour le Groupe Crédit Agricole, les quatre pôles métiers suivants ontété définis :

1. Banque de financement et d’investissement (BFI) : CA-CIB

2. Gestion d’actifs : Amundi

3. Crédit à la consommation : CA-CF (résultat de la fusion entre Finaref et Sofinco), Agos

4. Banque de détail : LCL, Caisses régionales

Les données de pertes ont donc été regroupées par catégories de risques au sein de chaquepôle métier, et de nouveaux scénarios stand alone concernant ces différents pôles ont étéélaborés par des experts métiers. Comme rappelé au paragraphe 9.1.2 (p.77), les scéna-rios stand alone mutualisés sont ensuite considérés comme autant de catégories de risquessupplémentaires aux pôles métiers.

FIGURE 9.2 – Principe d’agrégation des risques opérationnels proposé (bottom-up en 2 étapes)

Etape 1 : agrégation des catégories de risques au sein des pôles métiers

Dans cette première étape, il est question d’agréger les différentes catégories de risques(ainsi que les scénarios) de chaque pôle métier, en tenant compte de leur dépendance. Cela

81

Page 91: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

aboutit alors à la construction d’une distribution annuelle de perte pour chaque pôle métier,par simulation.

Plaçons nous au sein d’un pôle métier – la démarche étant la même pour tous – etappliquons la méthodologie de la section 9.1 précédente. L’ajustement d’une loi de fré-quence (Poisson) et de sévérité (ici lognormale) pour chacune des catégories aboutit à 7triplets (µ, σ, λ), qui viennent s’ajouter aux nS triplets résultants des nS scénarios standalone concernant le pôle en question.

Pour reprendre les notations précédentes, ces paramètres permettent alors de simu-ler les pertes annuelles de chaque catégorie de risque, regroupés dans la matrice ` =( `1 . . . `7+nS ). Il est ensuite possible de simuler la copule choisie pour représenter ladépendance entre catégories de risques/scénarios dans la matrice C1 de dimension 7+nS , etd’obtenir par simulations le vecteur Lagreg, représentant la distribution de la perte annuelledu pôle métier considéré.

Etape 2 : agrégation des pôles métiers

Une fois obtenus les vecteurs des distributions de la perte annuelle pour chaque pôlemétier, il est question de les agréger en tenant compte de leur dépendance, afin d’obtenir ladistribution de la perte annuelle pour l’ensemble du groupe. Cela permet alors d’en extrairela charge en capital diversifiée, ou capital économique au titre des risques opérationnels.

Avec les notations précédentes, cela revient à utiliser la matrice L =(Lagreg

1 . . . Lagreg4

)et la matrice C2 de dimension 4 modélisant la dépendance entre les pôles pour obtenir levecteur Lagreggroupe.Ces différentes étapes de la méthodologie d’agrégation sont représentées en figure 9.2.

9.2.2 Parallèle avec la formule standard de Solvabilité II

Le Capital de Solvabilité Requis (SCR, Solvency Capital Requirement) dans SolvabilitéII est l’analogue du capital règlementaire requis dans Bâle II, mais calculé au niveau deconfiance 99.5%. Au niveau d’un groupe d’assurance, le calcul règlementaire du SCR globalse fait de la manière suivante :

SCRglobal = BSCR−Adj + SCRop

Avec :

BSCR : capital de solvabilité requis de base

Adj : terme d’ajustement dû aux effets d’absorption des provisions techniques et des impôtsdifférés

SCRop : capital requis pour le risque opérationnel (voir 2.4.2 p.12 pour les préconisationsde calcul dans le cadre de Solvabilité II).

Le terme résultant de l’agrégation des modules de risques est le BSCR : un SCR doit être ainsiêtre calculé pour chacun de ces modules de risque. Ces SCR peuvent être calculés par une“formule standard”, c’est-à-dire fournie par les autorités de régulation européennes. Celle-ci définit pour chaque classe des facteurs de risques spécifiques et une méthode standardd’évaluation.

Selon les spécifications de la cinquième étude quantitative d’impact (QIS 5), l’agrégationdes risques se fait donc en 2 étapes (voir figure 9.3).

Etape 1 : agrégation entre risques d’un même module

Au sein du module de risque i, il est question d’agréger les J sous-modules de risque. Laformule standard indique alors que :

82

Page 92: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 9.3 – Structure générale d’agrégation bottom-up des risques dans Solvabilité II (QIS 5)

SCR(module)i =

√∑p,q∈J

ρp,q × SCRp × SCRq

Où ρp,q est le coefficient de corrélation (linéaire) entre les sous-modules p et q, et SCRpet SCRq les capitaux correspondants.

La formule standard fournit les valeurs des matrices de corrélation, et donc des coeffi-cients ρp,q.

Etape 2 : agrégation entre modules de risque

Les SCR des modules de risque ainsi obtenus sont alors agrégés pour obtenir le BSCR,selon la même formule (en ajoutant un terme provenant du capital requis au titre du risquelié aux actifs incorporels). Là encore, les coefficients de corrélations sont fournis par lerégulateur. Ils sont actuellement soumis à discussion, mais le QIS 5 a abouti à la matricerépertoriée dans le tableau 9.1.

ρ Marché Contrepartie Vie Santé Non-vieMarché 1

Contrepartie 0.25 1Vie 0.25 0.25 1

Santé 0.25 0.25 0.25 1Non-vie 0.25 0.5 0 0 1

TABLE 9.1 – Matrice de corrélation fournie par le QIS 5 entre les modules de risques de laformule standard de Solvabilité II

83

Page 93: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Interprétation

Il apparait clairement que les formules d’agrégation fournies par la formule standardpour les différentes étapes sont en fait équivalentes à celles obtenues au chapitre précé-dent (voir l’équation (8.3) p.72). L’agrégation des risques par la formule standard, telle queproposée actuellement, fait donc l’hypothèse d’un univers Gaussien avec toutes les simplifi-cations que cela implique (hypothèse de dépendance linéaire entre les risques).

9.3 Résultats obtenus

Nous mettons ici en application la méthodologie d’agrégation des risques opérationnelsprécédente basée sur les copules au Groupe Crédit Agricole et ses différents pôles métier,afin d’obtenir un capital économique au niveau groupe au titre des risques opérationnels,dans le cadre de l’ICAAP.

9.3.1 Capitaux non diversifiés

Afin d’avoir un aperçu du bénéfice de diversification engendré par cette méthode d’agré-gation, le tableau 9.2 recense les CaR non diversifiées pour chaque pôle métier du Groupe,au niveau 99.97%. Ces CaR sont simplement obtenues en sommant les CaR de chaque caté-gorie de risque les composant. De même, la CaR groupe non diversifiée est obtenue commela somme des CaR non diversifiées des différents pôles du Groupe Crédit Agricole.

CaR (MC) Banque de détail Crédit conso. Asset management BFI Groupeα = 99.97% 1839 85.6 389 1301 3615

Répartition

TABLE 9.2 – Valeur et répartition des capitaux non diversifiés pour chaque pôle du GroupeCrédit Agricole

Nous notons que la charge en capital la plus importante est celle du pôle Banque dedétail, et représente plus de la moitié du capital total non diversifié au niveau du Groupe.

9.3.2 Un mot sur les matrices de corrélation

Corrélations à dires d’experts

Dans la suite, nous calculons les valeurs des capitaux obtenus en prenant en compteles effets de diversification dus à la dépendance entre catégories de risques, et entre pôlesmétiers. Comme rappelé au paragraphe 9.1.6 (p.79), nous privilégions les méthodologiesfaisant directement intervenir des matrices de corrélation pour effectuer l’agrégation et l’al-location. Parmi elles, nous testons donc l’agrégation par copules elliptiques (Normale etStudent), que nous comparons à la formule d’agrégation ’standard’ reposant sur une hypo-thèse de normalité du vecteur des pertes annuelles à agréger. Dans la suite, cette matrice decorrélation est déterminée en interne, sur la base de résultats de discussions entre expertsmétiers lors de divers ateliers.

84

Page 94: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

Pour la première étape, les corrélations entre les différentes catégories de risques dechaque pôle métier sont obtenues en pondérant les corrélations des catégories de risque desentités qui font partie du regroupement. Afin de rester cohérent avec le contexte de l’ICAAP,cette pondération sera choisie comme la CaR au niveau 99.97% de l’entité considérée.

La deuxième étape nécessite pour sa part de connaitre les corrélations entre les diffé-rents pôles métiers du groupe. Par mesure de conservatisme, chaque coefficient est alorsobtenu en prenant le maximum des coefficients apparaissant dans les matrices de corréla-tion disponibles pour chaque entité formant le pôle.

Alternatives et justification

La matrice de corrélation constituant le paramètre de la copule utilisée – auquel nouspouvons rajouter le degré de liberté ν pour une copule de Student – le cadre classique dela statistique paramétrique impose alors de les estimer à partir des données empiriques ànotre disposition. Ces données étant les pertes annuelles sur un historique de 5 ans, elles nesont donc pas assez nombreuses pour permettre une estimation satisfaisante.

Une alternative serait néanmoins de travailler sur des données mensualisées. La dé-marche serait alors de calculer les tau de Kendall empiriques τij entre ces pertes mensuelles,puis d’utiliser la relation les liant au coefficient de corrélation linéaire 4 pour obtenir les es-timations ρij des coefficients de la matrice de corrélation Σ. Dans le cas de l’utilisationd’une copule de Student, il reste à estimer le degré de liberté ν qui se fait classiquement parmaximum de vraisemblance sur ces mêmes données 5.

Pour autant cette démarche, si elle est plus rigoureuse mathématiquement, ne paraitpas acceptable dans sa logique. Elle utilise en effet des données de pertes mensuelles pourestimer les paramètres d’une copule censée modéliser la dépendance entre pertes annuelles.De plus, elle n’interdit pas d’obtenir des corrélations négatives entre risques, qui en plusd’être peu réalistes sont difficilement justifiables auprès du régulateur car sources d’unediversification très importante.

Nous utiliserons donc dans la suite des matrices de corrélations construites par des ex-perts métiers, selon la méthodologie exposée dans le paragraphe précédent.

9.3.3 Considérations numériques et précision des estimateurs

Dans la méthodologie d’agrégation par copules, la première étape est la plus consom-matrice d’espace mémoire (lors de la seconde seuls 4 risques doivent être agrégés). Il s’agiten effet d’agréger 7 +nS risques, qui sont des vecteurs obtenus par simulations de longueurNMC .

Pour cette étape le pôle métier le plus consommateur est la banque de détail, où enraison des nombreux scénarios standalone nous nous devons de travailler avec un totalde 26 risques, soit potentiellement effectuer des opérations sur une matrice de dimensionNMC × 26.

Tous les calculs de charges en capital précédents ont été effectués avec une valeur NMC

de 4 millions de simulations : cela constitue en effet la limite qui pouvant être atteinte enterme d’espace mémoire alloué par MATLAB sur les machines utilisées. Néanmoins, nousavons constaté que cette valeur suffit à garantir une précision inférieure à 1% pour lescalculs CaR diversifiées (la précision étant évaluée par le coefficient de variation relatif,défini comme le ratio entre l’écart-type des CaR obtenues et leur moyenne).

4. Avec ces notations nous avons la relation ρij = sin (πτij/2)

5. En notant c la densité de la copule de Student, Fi les marginales empiriques, xi les données à notre dispo-sition et ui = Fi(xi), alors le degré de liberté est estimé en maximisant la pseudo log-vraisemblance (méthodeCML) :

ν = argmaxν>0

[n∑i=1

ln c ˆ(ui; ν; Σ)

]

85

Page 95: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

En ce qui concerne le calcul des contributions à la CaR agrégée afin d’obtenir les allo-cations (équation (9.2) p.79), nous le faisons avec Salloc = 1000 itérations. Ce choix estcontraint par le temps de calcul nécessaire, mais permet empiriquement d’obtenir des al-locations dont le coefficient de variation relatif est inférieur à 5%. La précision est doncmoindre que sur les charges en capital mais ceci est moins contrariant dans la mesure oùces allocations sont des chiffres internes au groupe, et non des capitaux règlementaires quisont eux calculés avec la précision suffisante (inférieure à 1%).

9.3.4 Agrégation et capital économique avec hypothèse gaussienne

Nous appliquons ici la méthodologie d’agrégation présentée au chapitre 8 (p.71), quinous l’avons vu est similaire à celle de la formule standard de Solvabilité II. Les capitauxdiversifiés obtenus à l’issue des deux étapes sont présentés dans le tableau 9.3.

CaR (MC) Etape 1 Etape 2 Diversification totaleBanque de détail 672 . -63%

BFI 38 . -55%Asset management 242 . -38%

Crédit conso. 789 . -39%Groupe 1742 1310 -64%

TABLE 9.3 – Capitaux obtenus via la formule d’agrégation Gaussienne

9.3.5 Agrégation et capital économique avec copule normale

Les résultats sont regroupés dans le tableau 9.4, au dessous duquel figure égalementl’allocation du capital économique obtenu selon la contribution de chaque pôle métier.

Valeur des capitauxCaR (MC) Etape 1 Etape 2 Diversification totale

Banque de détail 413 . -78%BFI 31 . -63%

Asset management 214 . -45%Crédit conso. 751 . -42%

Groupe 1411 941 -74%

Allocation

TABLE 9.4 – Capitaux obtenus via une agrégation par copule Gaussienne, et allocation ducapital économique du Groupe selon la contribution de chaque pôle métier

Le pourcentage de diversification total conséquent obtenu au niveau groupe (74%) peuts’expliquer par le fait que la copule normale ne prend pas en compte les dépendances entreles risques extrêmes (coefficient de dépendance de queue nul). Notons que l’agrégation parcopule normale parait encore moins conservateur que

L’allocation induite par la contribution de chaque pôle métier à la CaR fait quant àelle apparaitre une grande partie du capital alloué à la Banque de détail. La banque de

86

Page 96: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

financement et d’investissement (BFI), qui potentiellement comporte les risques les plusextrêmes, ne se voit allouer quant à elle qu’une faible part du capital.

Cela apparait donc cohérent avec la remarque précédente, à savoir que la contribution dece pôle à la CaR est faible si nous ne prenons pas en compte les dépendances qu’il pourraity avoir dans les extrêmes, d’où une allocation insuffisamment conservatrice.

9.3.6 Agrégation et capital économique avec copule de Student

Comme l’estimation du degré de liberté de la copule est très délicat en pratique (voirp.85) , nous avons ici choisi de travailler avec un degré de liberté très faible (ν = 3) parmesure de conservatisme. Nous constatons alors dans le tableau 9.5 un bénéfice de diversi-fication plus réaliste que dans les deux cas précédents.

CaR (MC) Etape 1 Etape 2 Diversification totaleBanque de détail 1171 . -36%

BFI 58 . -31%Asset management 294 . -24%

Crédit conso. 973 . -25%Groupe 2499 2068 -43%

Allocation

TABLE 9.5 – Capitaux obtenus via une agrégation par copule de Student (ν = 3), et allocationdu capital économique du Groupe selon la contribution de chaque pôle métier

Nous pouvons aussi noter qu’en plus de ce bénéfice de diversification moindre attendu,l’allocation induite par ce choix de copule laisse apparaitre une part du capital bien plusimportante à la Banque de Financement et d’Investissement (BFI), ce qui apparait plusprudent. De plus, la répartition proposée est ici comparable au prorata des CaR de chaqueentité, ce qui d’un point de vue métier apparait plus logique.

Pour toutes ces raisons, c’est la valeur du capital au niveau groupe obtenue par cetteméthode qui a été initialement validée par le Groupe comme capital économique au titre del’ICAAP.

87

Page 97: Mémoire présenté devant l’Institut de Science Financière ...

Chapitre 10

Approfondissements etperspectives

Dans ce dernier chapitre, nous donnons quelques pistes qui pourraient être envisagéespour modéliser la dépendance entre risques opérationnels, l’objet étant de donner un aperçudes concepts mathématiques en jeu et de leurs champs d’application. Le détail de leur utili-sation pratique et de leur implémentation est un champ de recherche largement ouvert, etqui reste à explorer.

10.1 Les copules archimédiennes hiérarchiques

10.1.1 Motivations

Nous avons présenté précédemment les copules archimédiennes (7.5.5 p.67). Nous avonségalement vu que, bien qu’elles présentent des caractéristiques de dépendance adaptées aurisque opérationnel (notamment au niveau des dépendances de queue asymétriques), leurutilisation en dimension supérieure à 2 est limitée par leur unique paramètre scalaire quia pour conséquence de corréler tous les risques de la même façon ce qui constitue unehypothèse trop peu réaliste.

Un moyen de remédier à cet écueil, et qui semble assez naturel, est d’envisager uneconstruction hiérarchique, ou ’imbriquée’, entre ces types de copule. Cela constitue alors unmoyen simple – du moins en apparence – de différencier et de caractériser plus précisémentles dépendances entre risques.

10.1.2 Définition

Une copule C de dimension d est une copule archimédienne hiérarchique (hierarchicalou nested Archimedean copula) si c’est une copule archimédienne, dont les arguments sontéventuellement des copules archimédiennes hiérarchiques. Cette définition récursive s’ini-tialise pour d = 2 avec la définition d’une copule archimédienne classique (équation (7.4)p.67).

Afin de mieux comprendre cette définition, considérons un exemple simple en dimensiond = 3 avec une structure faisant intervenir les générateurs archimédiens ψ0 et ψ1et s’écrivantcomme suit :

C3 (u1, u2, u3) = Cψ0(u1, Cψ1

(u2, u3)) (10.1)

La définition de copule archimédienne hiérarchique est respectée pour C3 car c’est bienune copule archimédienne (de générateur ψ0) dont le deuxième argument est lui-mêmeune copule archimédienne hiérarchique (de dimension 2 donc coïncidant avec une copule

88

Page 98: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

archimédienne classique de générateur ψ1). Notons que cette structure peut facilement sereprésenter sous forme d’arbre, ce qui est fait sur la figure 10.1.

FIGURE 10.1 – Représentation sous forme d’arbre d’une copule archimédienne hiérarchique endimension 3

La copule intervenant au niveau le plus haut est généralement appelée racine (root co-pula). Plus généralement, une copule est dite parent (parent copula) si au moins une de sescomposantes est une copule hiérarchique, auquel cas cette copule est appelée copule enfant(child copula). Le niveau de hiérarchie (nesting level) est définie comme la profondeur del’arbre, ici égale à 2.

10.1.3 Contraintes

Pour que la structure définie au paragraphe précédent vérifie toutes les propriétés d’unefonction copule, il faut respecter certaines conditions sur les générateurs utilisés dans saconstruction.

McNeil (2008, [26]) présente une condition suffisante pour que la structure hiérarchiqueconstruite soit effectivement une copule. Il faut que ψ−1

i ψj soit strictement monotone (oude manière équivalente : doit être l’inverse d’une transformée de Laplace) pour tous lesnœuds de la structure, de parent i et enfant j.

En pratique, cette condition peut être facilement vérifiée si les générateurs utilisés fonttous partie d’une seule et même famille de copule archimédienne. Ainsi pour une copule hié-rarchique à n niveau de hiérarchie, avec des générateurs ψk de paramètre de dépendance θkissus d’une même famille, ψ0 étant le générateur de la copule racine et ψn celui de la copulede niveau de hiérarchie le plus élevé, cela revient à imposer à ce que les θk soient croissants.Ceci est valable pour toutes les familles copules Archimédiennes classiques (Frank, Gumbel,Clayton), et impose donc de coupler en premier lieu les risques les plus corrélés.

Lorsque la structure hiérarchique comporte des générateurs issus de différentes famillesarchimédiennes, la condition énoncée auparavant devient bien plus complexe, voir pour celales travaux de Marius Hofert (2010). En conséquence, les combinaisons entre générateursde différentes familles seront exclus dans l’exemple qui suit.

10.1.4 Exemple

Afin d’avoir un aperçu de l’utilité d’une construction hiérarchique en grande dimension,nous considérons la copule de Clayton hiérarchique C9 suivante :

C9(u) = Cψ0 (u3, u6, u1, Cψ1 (u9, u2, u7, u5, Cψ2 (u8, u4))) (10.2)

avec θ0 = 0.5, θ1 = 2, θ2 = 8

Cette structure de dimension 9 comporte trois niveaux de hiérarchie et C9 définit bienune copule car les générateurs étant tous issus de la famille de Clayton, nous vérifions bien :0 6 θ0 6 θ1 6 θ2 . Une représentation de C9 et de ces différents paramètres de dépendancesous forme d’arbre est donné figure 10.2.

89

Page 99: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

FIGURE 10.2 – Représentation sous forme d’arbre de la copule hiérarchique de Clayton C9

Afin de vérifier les propriétés particulières de cette structure, il est possible de simulerune telle copule et de tracer les dépendogrammes obtenus pour chaque composante, sousforme de matrice. La figure 10.3 (obtenue avec le package nacopula de R) permet alors debien résumer la structure de dépendance obtenue avec la copule de Clayton hiérarchiqueC9, bien plus riche qu’avec une copule de Clayton classique.

En effet, nous observons alors que la dépendance entre les risques u4 et u8 est la plusforte, ce qui est logique puisqu’ils sont liés avec le paramètre de dépendance le plus grand,θ2 = 8. Nous observons ensuite clairement les deux autres niveaux de dépendance : lesrisques u9, u2,u7 et u5 sont liés à u4 et u8 avec une dépendance moins élevée (θ4 = 2),tandis que les risques u3, u6 et u1 sont tous liés aux autres par le coefficient le plus faible,proche de l’indépendance (θ0 = 0.5).

FIGURE 10.3 – Dépendogrammes obtenus entre les 9 risques couplés par la copule hiérarchiquede Clayton C9

90

Page 100: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

10.1.5 Avantages et inconvénients

L’intérêt d’une telle structure par rapport à une copule archimédienne classique est im-médiat et a été montré au paragraphe précédent. Cela permet de s’affranchir des propriétésdes copules elliptiques parfois peu réalistes pour modéliser la dépendance entre risque (no-tamment la symétrie des dépendance de queue) tout en conservant leur principal intérêt, àsavoir la différenciation et la spécification des dépendance entre risque. De plus, la structuresous forme d’arbre est assez souple et permet d’avoir une approche naturelle et compréhen-sible par tout le risk management de l’entreprise.

L’utilisation d’une telle copule dans le cadre de l’exemple traité au chapitre précédentdans le cadre de l’ICAAP (§9.2.1p.81) pourrait paraitre naturel car cela reviendrait à uti-liser une seule et même structure hiérarchique Archimédienne pour l’agrégation, recréantnaturellement la hiérarchie des étapes 1 et 2. Cependant, le nombre de risques à couplerserait très important et les possibilités quasiment infinies (sans compter les différents choixpossibles des générateurs intervenant dans la structure), tout cela sans qu’aucune solutionsoit mathématiquement préférable à une autre faute de données suffisantes pour en évaluerl’adéquation. De plus, la récursivité induite par une telle structure engendre des temps decalcul très importants en dimension élevée.

10.2 Les vine copulas

10.2.1 Motivations

Afin de contourner les restrictions induites par l’approche précédente, il est possibled’utiliser une technique assez intuitive basée sur la décomposition en copules bivariées : lesvine copulas. Elles ne constituent pas en toute rigueur une famille de copule telle qu’enten-due précédemment, et il s’agit plutôt d’une manière de décomposer la densité multivariéedes risques considérés au moyen de copule bivariées. Elles ont été originellement proposéespar Bedford et Cooke (2001, 2002). C’est une approche assez similaire à la précédente (lesstructures de dépendances obtenues s’écrivent naturellement sous forme d’arbres, d’où leurnom de vine, “plante grimpante” en anglais), qui bénéficie d’une souplesse plus grande dansle choix des familles des copules et de leur paramètre de dépendance.

10.2.2 La décomposition de Vine (Vine decomposition)

Rappel

Nous avons vu à la section précédente que les les structures hiérarchiques archimé-diennes sont obtenues directement depuis l’écriture de la fonction de répartition de la co-pule, ou des risques considérés. Ainsi pour la copule hiérarchique de dimension 3 représen-tée figure 10.1 p.89 cela revient à considérer, avec des notations évidentes, la fonction derépartition tri-variée suivante :

F (x1, x2, x3) = Cψ0 (F (x1), Cψ1 (F (x2), F (x3)))

Principe

Pour obtenir une décomposition en vines copulas, l’idée est désormais de considérer ladécomposition de la densité multivariée des risques considérés en n’utilisant que des copulesbivariées conditionnelles. En dimension 3, il est ainsi possible d’écrire :

f (x1, x2, x3) = f (x2) .f (x1 | x2) .f (x3 | x1, x2)

91

Page 101: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

où en utilisant la formule de Bayes

f (x1 | x2) = c12 (F (x1) , F (x2)) .f (x1)

avec c12 (F (x1) , F (x2)) la densité de la copule liant les deux marginales F (x1) etF (x2).

En gardant les même notation, il vient donc :

f (x3 | x1, x2) = c13|2 (F (x1 | x2) , F (x3 | x2)) .f (x3 | x2)

= c13|2 (F (x1 | x2) , F (x3 | x2)) .c23 (F (x2) , F (x3)) .f (x3)

Et finalement :

f (x1, x2, x3) = f (x1) .f (x2) .f (x3)

×c12 (F (x1) , F (x2)) .c23 (F (x2) , F (x3)) (10.3)

×c13|2 (F (x1 | x2) , F (x3 | x2))

Cette décomposition est appelée décomposition de Vine, et est généralisable en dimensionn (voir [27] pour les formules de décompositions d’ordres supérieurs à 3 et les algorithmespour les obtenir). Quelque soit la dimension, la décomposition finale ne fait intervenir quedes copules bivariées (vine copulas), ce qui constitue l’intérêt de l’approche. Remarquonsenfin que cette décomposition n’est pas unique et qu’il est possible d’en obtenir d’autresen permutant les indices des variables. Ces différentes décompositions sont alors appeléesC-Vine ou D-Vine (voir de nouveau [27] pour leurs définitions exactes et leurs propriétés).

La décomposition de Vine (10.3) aboutit alors naturellement à une structure de dépen-dance par arbre, dessinée en figure 10.4. Observons que les différents niveaux de l’arbrecorrespondent aux différentes lignes de l’équation de décomposition (10.3).

FIGURE 10.4 – Représentation de la décomposition en vine copula de 3 risques selon l’équation(10.3)

10.2.3 Avantages et inconvénients

L’utilisation de structures de Vine permet de représenter des types de dépendances extrê-mement divers, sans pour autant être limité au niveau des paramètres de dépendance et deschoix des copules. En effet, le choix des copules bivariées intervenant dans la décompositionest libre, ainsi que la valeur de leur paramètre de dépendance. Ce sont donc des structurestrès souples pouvant théoriquement s’adapter à tout type de modélisation de dépendance.

92

Page 102: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

L’unique limitation de cette méthode est le nombre de différentes décompositions àconsidérer, qui en grande dimension s’avèrent très élevés (n!/2 possibilités de décompo-sition en dimension n > 4). Théoriquement, il faudrait pouvoir toutes les examiner et sefixer un critère d’adéquation pour en choisir la meilleure, ce qui est impossible en pratiqueà cause du nombre limité de données et du temps de calcul nécessaire.

Toutefois cette approche reste un champ de recherche encore assez vaste et prometteur,et peu utilisé en pratique. Le lecteur pourra se référer à [28] pour une première applica-tion de ce type de structure à des données issues de risques opérationnels bancaires, endimension 10.

93

Page 103: Mémoire présenté devant l’Institut de Science Financière ...

Conclusion et perspectives

Dans ce mémoire, nous avons travaillé sur la quantification des risques opérationnelsbancaires dans le contexte règlementaire actuel (Bâle II). Les exemples applicatifs que nousavons présentés concernent les données du Groupe Crédit Agricole. Nous avons essayé d’ap-porter des solutions aux problèmes pratiques des risk managers et plus généralement auxdifficultés pouvant être rencontrés par ceux travaillant dans le domaine de la gestion quan-titative des risques. En particulier, nous avons proposés des solutions aux problèmes d’esti-mation de la sévérité (biais, non-convergence de l’algorithme liée aux données tronquées...)dans le cadre du calcul de charge en capital au titre du pilier 1, et nous avons ensuite pro-posé un modèle permettant de calculer le capital économique au niveau Groupe en agré-geant les risques des différentes entités et permettant de modéliser leur dépendances, dansle cadre du pilier 2.

En effet, l’ajustement de la sévérité est un paramètre déterminant dans le modèle de cal-cul des fonds propres destinés à couvrir le risque opérationnel. Lors de la première partie,nous avons proposé des méthodes basées sur la minimisation d’une distance inter-quantiles,qui fournit de bons résultats par rapport aux méthodes classiques dérivées du maximum devraisemblance ou des tests d’adéquation. Ce sont, avec la MMG, les seules méthodes pré-sentant des résultats d’estimation acceptables dans tous les cas de figure (données simuléesselon un mélange de loi, ou données réelles). De plus, contrairement aux autres méthodesprésentées, leurs comportements est stable lorsque le nombre de données disponibles estfaible, ou quand le modèle ajusté est mal spécifié. Nous avons proposé une calibration desparamètres apparaissant naturellement dans la méthode QD fournissant de meilleurs résul-tats sur les queues de distribution, dont l’impact est déterminant pour le calcul de la chargeen capital. Cette méthode d’estimation permet alors d’obtenir un montant de fonds propresplus représentatif de l’exposition de la banque au risque opérationnel pour chaque catégo-rie de risque, ce qui est l’enjeu principal du modèle. Allié à une méthodologie d’agrégationpar copules, dont les hypothèses sont plus réalistes qu’une agrégation par formule ferméeavec hypothèse gaussienne, cela nous a permis de calculer un capital économique plus enadéquation avec les risques opérationnels encourus par la banque.

Le dernier chapitre de ce mémoire reste le plus ouvert. Abandonnant les structures dedépendance basées sur des hypothèses de lois elliptiques, nous avons donné d’autres formesde copules (hiérarchiques, Vines...) qui pourraient mieux s’adapter à la modélisation des dé-pendances rencontrées dans le domaine du risque opérationnel. Des travaux restent à menerdans cette voie, notamment lorsque l’historique et la quantité de pertes collectée sera plusimportante, ce qui permettrait d’avoir une idée plus précise de la forme de la dépendanceentre les différentes catégories de risque opérationnel et d’en estimer plus fidèlement lesparamètres.

Terminons enfin en précisant que des travaux ont aussi été menés dans le cadre de lathéorie des valeurs extrêmes, mais qu’ils ont été volontairement exclus de ce mémoire. Eneffet, l’utilisation d’une telle approche dans le modèle LDA pose encore un certain nombrede problèmes insurmontables en pratique. Citons entre autres le choix du seuil de modé-lisation des extrêmes qui doit se faire de manière subjective (en arbitrant entre quantitéde données et biais des estimations) , la sensibilité du capital à ce seuil, l’obtention depotentielles distributions de sévérités à moyennes infinies dont la convolution produit des

94

Page 104: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

capitaux totalement irréalistes. Dans ce cadre, la question de la méthode d’estimation desparamètres de la loi GPD (Generalized Pareto Distribution) reste tout autant cruciale, no-tamment en raison des ’mauvaises’ propriétés des méthodes usuelles (Maximum likelihoodet Probability Weighted Moments). Nous avons alors constaté des améliorations en utilisantla méthode QD, dont la définition peut aisément se transposer à tous les types de lois.

95

Page 105: Mémoire présenté devant l’Institut de Science Financière ...

Bibliographie

[1] FRACHOT A, MOUDOULAUD O, RONCALLI T (2003), Loss Distribution Ap-proach in Practice, The Basel Handbook : A Guide for Financial Practitioners

[2] RONCALLI T (2009), La gestion des risques financiers, 2ème édition, Eco-nomica

[3] HANSEN LP (1982), "Large Sample Properties of Generalized Method ofMoments Estimators", Econometrica, 50, 1029-1054

[4] HANSEN LP, HEATON J, YARON A (1996), “Finit-Sample Properties of SomeAlternative MMG Estimators." Journal of Business and Economic Statistics,14, 262-280.

[5] CHAUSSE P (2010), “Computing Generalized Method of Moments andGeneralized Empirical Likelihood with R." Journal of Statistical Software,34(11), 1-35.

[6] FRACHOT A, GEORGES P, RONCALLI T (2001), “Loss Distribution Approachfor operational risk”, Groupe de Recherche Opérationnelle, Crédit Lyonnais,France

[7] RANNEBY B (1984), “The Maximum Spacing Method. An EstimationMethod Related to the Maximum Likelihood Method”, Swedish Universityof Agricultural Sciences

[8] COX D. R, HINKLEY D. V (1974), “Theoretical statistics”. Chapman & Hall,London

[9] LARICCIA V, WEHRLY T (1985), “Asymptotic Properties of a Family of Min-imum Quantile Distance Estimators” Journal of the American Statistical As-socation, Vol.80, No.391

[10] CHENG R.C.H, TRAYLOR L (1995), “Non-regular maximum likelihood prob-lems (with discussions)”. J. Roy. Statist. Soc. Ser. B 57, 3-44

[11] CHENG R.C.H, AMIN N.A.K (1983), “Estimating parameters in continuousunivariate distribution with a shifted origin” J. Roy. Statist. Soc. Ser. B 45,394-403

[12] WHITE H (1982),”Maximum Likelihood Estimation of Misspecified Models”,Econometrica, Vol.50, No.1

[13] CHERNOBAI A, RACHEV S, FABOZZI F (2005), “Composite Goodness-of-FitTests for Left-Truncated Loss Samples”, Departement of Statistics and AppliedProbability, University of California, USA

[14] ERGASHEV B (2008), “Should Risk Managers Rely on Maximum LikelihoodEstimation Method While Quantifying Operational Risk?”, The Journal OfOperational Risk, Vol. 3, No.2

[15] WOLFOWITZ J (1953) “Estimation by the Minimum Distance Method”, An-nals of the institute of Statistical Mathematics, Springer

96

Page 106: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

[16] PARR W.C. (1981) “Minimum distance estimation: a bibliography”, Com-mun. Stat. Theory Meth.

[17] MARCEAU E (2010), “Modèles et méthodes actuariels pour l’évaluationquantitative des risques” (polycopié ISFA)

[18] DENUIT M, CHARPENTIER A (2004), Mathématiques de l’assurance non-vie,Tomes I et II, Economica

[19] DENAULT M (2001), “Coherent allocation of risk capital”, Ecole des H.E.C.(Montréal)

[20] PANJER H (2001), “Measurement of risk, solvency requirement and alloca-tion of capital within financial conglomerates”, Departement of Statisticsand Actuarial Science, University of Waterloo

[21] E-convergence (2004), “Allocation du capital économique lié aux risquesopérationnels dans un groupe”

[22] CLAUSS P (2011) “Théorie des copules”, Cours ENSAI

[23] NELSEN RB (1999) “An introduction to Copulas”, Lectures Notes in Statistics,Springer

[24] LEHERISSE V (2011), “Gestion des risques bancaires”, Cours ENSAI

[25] PANJER H (1981), “Recursive Evaluation Of A Family Of Compound Distri-butions”, Astin Bulletin 12, pp. 22-26

[26] MCNEIL AJ (2008), “Sampling Nested Archimedean Copulas", Journal ofStatistical Computation and Simulation, 78, 567-581.

[27] AAS K, CZADO C, FRIGESSI A, BAKKEN H (2009), “Pair copula constructionsof multiple dependence”, Insur. Math. Econ., 44, 182–198

[28] GUEGUAN D, HASSANI B (2011), “Multivariate VaR for Operationnal RiskComputation : A Vine Structure Approach”, Université Paris 1 Panthéon-Sorbonne, Working Paper

[29] GAMONET J (2009), “Modélisation du risque opérationnel dans l’assuran-ce”, mémoire d’actuariat , Centre d’Etudes Actuarielles

97

Page 107: Mémoire présenté devant l’Institut de Science Financière ...

Table des figures

1.1 Boxplot pour différentes catégories de pertes opérationnelles . 5

2.1 Les trois piliers Bâle II . . . . . . . . . . . . . . . . . . . . . 82.2 Illustration de la répartition du capital entre risque de crédit,

opérationnel et risque de marché dans une grande banque . . 13

3.1 Les différentes étapes de la méthode LDA pour l’estimation dela charge en capital . . . . . . . . . . . . . . . . . . . . . . . 17

3.2 Comparaison des distributions issues du modèle LDA avec laprise en compte de polices d’assurance (courbes rouges) et sans(en bleu) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

4.1 Biais des estimateurs de µ et σ obtenus avec le choix W = I . 294.2 Biais des estimateurs de µ et σ obtenus avec le choix W = Wopt 294.3 Comportement du terme au dénominateur de la vraisemblance

pour H = 1000 . . . . . . . . . . . . . . . . . . . . . . . . . 314.4 Opposé de la log-vraisemblance d’un échantillon réel de la ca-

tégorie ’dommages’ (banque de détail) en fonction de µ, pourσ = 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4.5 Densité empirique de pertes réelles de la catégorie ’dommage’ 334.6 Valeur absolue de l’écart relatif sur l’estimation des paramètres

µ et σ par MMG . . . . . . . . . . . . . . . . . . . . . . . . 34

5.1 Distances K-L entre deux distributions normales pour diffé-rents paramètres (source : présentation de Rudolf Kulhavy,“A Kullback-Leibler Distance Approach to System Identifica-tion”, Academy of Sciences of the Czech Republic) . . . . . 36

5.2 Principe de l’estimation par Maximum Spacing (source : Wiki-pedia) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

5.3 QQ-plots log-normaux avec les paramètres estimés par MS etMMG, pour la fraude externe de la banque d’investissement . 39

5.4 Fonctions quantiles empiriques (en bleu) et quantiles empi-riques interpolés (en rouge) ; illustration sur un échantillon defraude monétique . . . . . . . . . . . . . . . . . . . . . . . . 42

5.5 Quantiles choisis uniformément (en rouge) dans un échantillonréel (montants de pertes en échelle logarithmique) . . . . . . 44

5.6 Estimations de µ (bleu) et σ (vert) sur données simuléesLN (8, 2) et LN (12, 1.5) de tailles n = 100 (en haut) etn = 1000 (en bas) en fonction du nombre de quantiles utili-sés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

98

Page 108: Mémoire présenté devant l’Institut de Science Financière ...

I.S.F.A. Mémoire d’actuariat A. RENAUDIN

5.7 Quantiles exponentiellement répartis (en rouge) dans unéchantillon trié de la catégorie ’exécution’ avec m = 5 (mon-tants en échelle logarithmique) . . . . . . . . . . . . . . . . 45

5.8 Influence du paramètre m sur l’estimation des paramètres desévérité (µ en bleu, σ en vert) . . . . . . . . . . . . . . . . . 46

6.1 Biais relatifs des estimateurs de µ (en haut) et σ (en bas) pourles 12 modèles simulés, avec N=1000 simulations . . . . . . 50

6.2 Indicateurs de précision pour µ (à gauche) et σ (à droite) surles 12 modèles simulés, avec N=1000 simulations . . . . . . 51

6.3 Coefficients de variation obtenus pour les 12 modèles pour µ(à gauche) et σ (à droite), avec N=1000 simulations . . . . 52

7.1 Densité bivariée de la copule normale (ρΣ = 0.6) . . . . . . . 667.2 Densité bivariée de la copule de Student (ν = 1, ρΩ = 0.6) . . 667.3 Mesure de dépendance des extrêmes en fonction du niveau de

corrélation pour une copule de Student de dimension 2 . . . . 677.4 Densités bivariées de copules Archimédiennes usuelles, de para-

mètre θ = 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 687.5 Densité bivariée de deux risques gaussiens corrélés par une co-

pule normale (ρ = 0.4) . . . . . . . . . . . . . . . . . . . . . 707.6 Densité bivariée de deux risques gaussiens corrélés par une co-

pule de Gumbel (θ = 5) . . . . . . . . . . . . . . . . . . . . 70

8.1 Niveau du capital agrégé (niveau 99.9%) entre deux catégoriesde risques en fonction de leur coefficient de corrélation linéaireρ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

8.2 Allocation du capital agrégé selon la CaR99.9% entre deux ca-tégories de risques en fonction de leur coefficient de corrélationρ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

9.1 Illustration de l’agrégation de deux pertes annuelles par copule 809.2 Principe d’agrégation des risques opérationnels proposé

(bottom-up en 2 étapes) . . . . . . . . . . . . . . . . . . . . 819.3 Structure générale d’agrégation bottom-up des risques dans

Solvabilité II (QIS 5) . . . . . . . . . . . . . . . . . . . . . . 83

10.1 Représentation sous forme d’arbre d’une copule archimédiennehiérarchique en dimension 3 . . . . . . . . . . . . . . . . . . 89

10.2 Représentation sous forme d’arbre de la copule hiérarchique deClayton C9 . . . . . . . . . . . . . . . . . . . . . . . . . . . 90

10.3 Dépendogrammes obtenus entre les 9 risques couplés par la co-pule hiérarchique de Clayton C9 . . . . . . . . . . . . . . . . 90

10.4 Représentation de la décomposition en vine copula de 3 risquesselon l’équation (10.3) . . . . . . . . . . . . . . . . . . . . . 92

99

Page 109: Mémoire présenté devant l’Institut de Science Financière ...

Liste des tableaux

1.1 Classification des catégories de risque (ELs) pour le risque opérationnel selonBâle II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4

1.2 Classification lignes métier (BLs) pour le risque opérationnel selon Bâle II . . . . 4

4.1 Résultat des différentes méthodes d’optimisation de la log-vraisemblance surdonnées réelles (catégorie ’dommages’ de la banque de détail) . . . . . . . . . . 33

5.1 Résultats d’estimation sur la catégorie Fraude Interne de la banque d’investisse-ment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

5.2 Caractéristiques des échantillons de pertes mis en évidence dans le backtesting2009 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

5.3 Cohérence et convergence des différentes méthodes d’estimation sur les 12 échan-tillons issus du backtesting 2009 . . . . . . . . . . . . . . . . . . . . . . . . . . 48

6.1 Valeurs des CaRs (MC) calculées sur modèles hybrides et écart relatif par rapportà la CaR réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

7.1 Allocation entre les 3 entités considérées au prorata de leur CaR . . . . . . . . . 577.2 Allocation entre les 3 entités considérées selon une méthode cohérente . . . . . . 577.3 Expressions des générateurs et des copules Archimédiennes associées en dimen-

sion 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67

9.1 Matrice de corrélation fournie par le QIS 5 entre les modules de risques de laformule standard de Solvabilité II . . . . . . . . . . . . . . . . . . . . . . . . . 83

9.2 Valeur et répartition des capitaux non diversifiés pour chaque pôle du GroupeCrédit Agricole . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

9.3 Capitaux obtenus via la formule d’agrégation Gaussienne . . . . . . . . . . . . 869.4 Capitaux obtenus via une agrégation par copule Gaussienne, et allocation du

capital économique du Groupe selon la contribution de chaque pôle métier . . . . 869.5 Capitaux obtenus via une agrégation par copule de Student (ν = 3), et allo-

cation du capital économique du Groupe selon la contribution de chaque pôlemétier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

100