Mots clés - Institut des actuaires

99

Transcript of Mots clés - Institut des actuaires

Page 1: Mots clés - Institut des actuaires
Page 2: Mots clés - Institut des actuaires

Mots clés : Provisionnement ligne-à-ligne, GLM, Tweedie, Filtrage collaboratif, Validationcroisée, Chain Ladder, Solvabilité II, Risque de réserve, Méthode de re-reserving

Résumé

Par nature, l’assurance est une activité à cycle de production inversé. En effet, les com-pagnies d’assurance perçoivent des primes de la part des assurés en vue de l’indemnisationdes sinistres futurs : par conséquent, toute leur activité économique et commerciale estfondée sur l’anticipation des risques. La constitution de provisions techniques est donc unexercice incontournable. Ces provisions doivent permettre de régler les sinistres et consti-tuent donc une dette envers les assurés. De ce fait, elles doivent posséder un caractèresuffisant, sous peine de conséquences graves pouvant aller jusqu’à la remise en cause de lasolvabilité de l’assureur. C’est pourquoi, le mode de constitution des provisions représenteun enjeu majeur pour les compagnies d’assurance.

La pertinence des méthodes de provisionnement actuelles peut, dans certaines situations,être remise en question. La "best practice" recommande une utilisation simultanée de plu-sieurs méthodes par l’actuaire afin de se faire une opinion sur la stabilité des résultatsselon les différentes approches. Cependant les méthodes à la disposition de l’actuaire àl’heure actuelle sont assez restreintes dans le sens où elles se basent toutes sur l’hypothèseque la sinistralité constatée par le passé va se reproduire dans le futur et elles n’utilisentque les montants de sinistres et éventuellement les montants de primes. De plus ces don-nées sont généralement triangulées engendrant une "compression" et donc une perte del’information.

Les avancées technologiques récentes en termes de collecte, d’analyse et de stockage dedonnées rendent la modélisation des méthodes de provsionnement ligne à ligne possible.Ce type de provisionnement est caractérisé par l’utilisation des données individuelles dessinistres observés, et non des données agrégées. Dans le cadre de ce mémoire, nous pré-sentons deux approches de provisionnement ligne à ligne : l’une s’inscrivant dans le cadredéveloppé par Pietro Parodi [23] et l’autre s’appuyant sur le principe du "filtrage collabo-ratif". Nous proposons d’utiliser toutes les informations qui permettent aux gestionnairesde sinistres d’évaluer le coût du préjudice. Ces modèles sont ensuite testés par validationcroisée sur une base de données de sinistres de la branche GAV (Garantie Accident de laVie) d’un bancassureur français. Puis le pouvoir prédictif de ces modèles est comparé aveccelui de la méthode de Chain Ladder à l’aide de l’indicateur d’écart MSE (Mean SquareError).

Enfin, nous analysons ces nouvelles méthodes de provisionnement d’un point de vueréglementaire. Plus précisément, la régulation prudentielle Solvabilité II préconise auxcompagnies d’assurance d’évaluer leur risque de réserve. Le risque de réserve ou risquede provsionnement correspond au risque d’une perte inattendue engendrée par une sous-estimation des paiements à effectuer sur les 12 prochains mois, en lien avec les sinistressurvenus avant la date de calcul. Ainsi à l’aide de la méthode de re-reserving qui est uneadaptation de la méthode du boostrap à horizon un an, nous mesurons le risque de réserve,en vue de déterminer si ces nouvelles méthodes présentent ou non, un risque de réserveplus faible que la méthode de Chain Ladder.

2

Page 3: Mots clés - Institut des actuaires

Key words : Individual claims reserving, GLM, Tweedie, Collaborative filtering, Cross-validation,Chain Ladder, Solvency II, Reserve risk, Re-reserving

Abstract

Insurance industry has by nature a reverse production cycle. The insurer sells promises,he collects premiums well before settling claims or other commitments. Its business modelis therefore based on anticipating risks. In this context the constitution of technical pro-visions is unavoidable. These provisions must enable the insurer to settle the claims andthus represent liabilities towards the insureds. Therefore, they must be sufficient, other-wise serious consequences may ensue, and in extreme cases, it could lead the insurer toinsolvency. This is why the method used to constitute the provisions is of crucial impor-tance.

The relevance of commonly used reserving methods may, in some situations, be chal-lenged. Best practice requires the actuary to use several methods simultaneously in orderto form an opinion about the stability of results under different approaches. However,practical techniques have a common limitation : they all rely on the assumption thatpast claims experience is representative of the future one. In addition, they use only asmall amount of data : the cost of claims and eventually the premiums. Moreover thesedata are generally summarized in triangles resulting in a "compression" and hence a lossof information.

Recent developements in data collection, storage and analysis techniques make properindividual claims modelling possible. Such reserving methods are characterized by the useof observed individual claims data, and not aggregated data. In this thesis, we presenttwo individual claims reserving approaches: the first one within the framework developedby Pietro Parodi [23] and the other one based on the principle of "collaborative filtering".We propose to use all the information needed by claims handlers in order to assess the costof claims. These approaches are implemented in a case study based on real-world data ofa French bancassurance on the line of business "Personal Accident" and are tested withcross-validation techniques. Lastly these models are compared with the Chain Laddermethod with respect to predictive power using the Mean Square Error (MSE).

To finish, we analyse these new reserving methods from a regulatory point of view. Morespecifically, the Solvency II prudential regulation requires that insurance companies eval-uate their reserve risk. The reserve risk corresponds to the risk of an unexpected loss dueto an underestimation of the payments to be made on the next 12 months in relation tothe claims already occurred at the valuation date. Using the re-reserving method, whichcorresponds to an adapted bootstrap approach to a one-year horizon, one can measurethe reserve risk, with the aim of determining whether or not, these new methods have alower reserve risk than the Chain Ladder method.

3

Page 4: Mots clés - Institut des actuaires

Remerciements

En préambule de ce mémoire, je souhaitais adresser mes remerciements aux personnes quim’ont apporté leur aide et contribué à l’élaboration de ce mémoire.

Je tiens tout d’abord remercier Emmanuel DUBREUIL, associé au sein du service Actuariat dePwC, pour m’avoir permis de réaliser mon mémoire sur mon temps de travail et pour l’intérêtqu’il a porté à mes travaux.

J’aimerais exprimer ma gratitude à Alexandre VEBER et Christian KLUMPP pour leurs pré-cieux conseils, leur suivi ainsi que leur disponibilité tout au long de la réalisation de ce mémoire.

Je remercie tout particulièrement Paul OTTOU, stagiaire chez PwC qui préparait aussi son mé-moire d’actuariat, pour sa gentilesse, sa motivation sans faille et pour nos nombreux échangestrès constructifs.

J’adresse également mes chaleureux remerciements à Jonathan KARSENTY et Aurélien PA-CARD pour m’avoir fait profiter de leurs compétences techniques notamment en programma-tion.

Mes remerciements s’adressent enfin au corps enseignant de l’ISFA pour m’avoir permis desuivre la formation d’actuariat et plus particulièrement à Christian ROBERT pour ses conseilset le suivi qu’il m’a accordé.

Page 5: Mots clés - Institut des actuaires

Table des matières

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1 Présentation des données et des principaux retraitements 61.1 Retraitement de la base des flux financiers . . . . . . . . . . . . . . . . . . . . . 6

1.1.1 Pas de temps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61.1.2 Construction de la base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.2 Retraitement des autres bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Sinistres sans suite/ non garantis . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2 Provisionnement ligne à ligne selon l’approche de Parodi 122.1 Modèle linéaire généralisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

2.1.1 Modèle de régression linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 132.1.2 Caractéristiques des GLM . . . . . . . . . . . . . . . . . . . . . . . . . . 14

2.2 Méthodes de régularisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.2.1 Ridge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162.2.2 Lasso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 172.2.3 Elastic Net . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.3 Choix de modèle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.3.1 Régression logistique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202.3.2 Modèle Tweedie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.4 Limites de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Provisionnement ligne à ligne selon le principe du filtrage collaboratif 263.1 Application au provisionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . 27

3.1.1 Mesure de similarité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.1.2 Prédictions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273.1.3 Schéma récapitulatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3.2 Limites de l’approche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4 Validation du modèle 304.1 Validation croisée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 304.2 Méthode de Chain Ladder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

5 Risque de réserve 345.1 Contexte réglementaire de Solvabilité II . . . . . . . . . . . . . . . . . . . . . . . 34

5.1.1 Solvabilité I : la première tentative . . . . . . . . . . . . . . . . . . . . . 345.1.2 Solvabilité II : la révolution . . . . . . . . . . . . . . . . . . . . . . . . . 365.1.3 Le capital cible de Solvabilité II . . . . . . . . . . . . . . . . . . . . . . . 40

5.2 Le risque de réserve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435.2.1 Définition du risque de réserve . . . . . . . . . . . . . . . . . . . . . . . . 43

1

Page 6: Mots clés - Institut des actuaires

5.2.2 Le modèle de Merz et Wüthrich . . . . . . . . . . . . . . . . . . . . . . . 445.2.3 La méthode de re-reserving . . . . . . . . . . . . . . . . . . . . . . . . . 50

6 Application des méthodes 546.1 Méthode de Chain Ladder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556.2 Méthode selon l’approche de Parodi . . . . . . . . . . . . . . . . . . . . . . . . . 606.3 Méthode du filtrage collaboratif . . . . . . . . . . . . . . . . . . . . . . . . . . . 706.4 Erreur quadratique moyenne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 746.5 Risque de réserve . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78Liste des figures . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

Bibliographie 82

Annexe A Le filtrage collaboratif 84A.1 Évaluation du profil des utilisateurs . . . . . . . . . . . . . . . . . . . . . . . . . 84A.2 Les méthodes de filtrage collaboratif . . . . . . . . . . . . . . . . . . . . . . . . 84

A.2.1 Algorithmes basés sur la mémoire . . . . . . . . . . . . . . . . . . . . . . 85A.2.2 Algorithmes basés sur les modèles . . . . . . . . . . . . . . . . . . . . . . 86

A.3 Les limites du filtrage collaboratif . . . . . . . . . . . . . . . . . . . . . . . . . . 86

Annexe B La méthode du Bootstrap 87B.1 Estimation plug-in . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87B.2 Estimation bootstrap . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88

Annexe C Undertaking Specific Parameters 91C.1 Méthode 1 ou méthode log-normale . . . . . . . . . . . . . . . . . . . . . . . . . 91C.2 Méthode 2 ou méthode des triangles . . . . . . . . . . . . . . . . . . . . . . . . 93C.3 Méthode 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

2

Page 7: Mots clés - Institut des actuaires

Introduction

Les méthodes de provisionnement de type link ratio sont aujourd’hui les plus utilisées enassurance non-vie, avec la méthode de Chain Ladder qui vient en tête du classement, suivie dela méthode de Bornhuetter-Ferguson. Ces méthodes s’appliquent à des triangles de liquidationqui compressent les données, entraînant inévitablement une perte d’information. Pietro Parodisoulève ce point dans l’article [23], en faisant une analogie intéressante avec la photographie : ildit que regrouper les données dans un triangle est équivalent à compresser une image digitalecomme illustré ci-dessous :

Figure 1 – Photographie compressée par rapport à la version originale

Ce qui nous mène à l’interrogation suivante : pourquoi devrait-on se contenter d’une visiongrossière alors que les avancées technologiques permettent des visions de plus en plus fines etprécises ?

En effet, d’une part les assureurs ont à leur disposition de grandes quantités de données, qui deplus, devraient croître à un rythme exponentielle dans un avenir très proche si l’on en croit lesinvestissements dans leur transformation digitale. D’autre part, le monde des données connaîtà l’heure actuelle une profonde révolution liée à l’évolution des capacités technologiques (nu-mérisation) pour produire, conserver et traiter les données. Ce phénomène est désigné par leterme de données massives ou big data en anglais.

Cette interrogation est d’autant plus légitime que dans un environnement de plus en plusconcurrentiel où la réglementaion est de plus en plus exigeante avec l’entrée en vigueur de Sol-vabilité II, les assureurs ne peuvent plus se contenter d’évaluations approximatives et volatilesde leurs provisions.

3

Page 8: Mots clés - Institut des actuaires

En plus du problème de la triangulation des données, le provisionnement de type Chain Ladderrepose sur des hypothèses de stablilité très fortes, résultant à des failles de la méthode dans denombreuses situations, dont quelques unes sont listées ci-dessous :

• Changement dans le délai du traitement des sinistres ;• Changement dans les pratiques d’estimation des PSAP par les gestionnaires sinistres ;• Changement dans la tendance de la sinistralité ;• Sinistres larges ;• Branches volatiles ;• Produites mixtes ;• Etc.

Par conséquent, plusieurs auteurs ont exploré ces dernières années d’autres types de provi-sionnement, dont notamment le provisionnement dit ligne à ligne. Un courant de littératurese focalisant sur des méthodes de provisionnement stochastiques s’appliquant sur des donnéesindividuelles a ainsi émergé. Quelques contributions importantes de ce courant sont citées ci-après :

- Arjas (1989), dans l’article [3], développe un cadre mathématique utilisant la théorie desprocessus ponctuels et des martingales ;

- Haastrup et Arjas (1996), dans l’article [12], continuent de développer l’approche de l’ar-ticle [3], et mettent en oeuvre un modèle stochastique sur des données individuelles desinistres. Dans ce modèle, les périodes de survenance et de développement sont modéli-sées par des processus ponctuels marqués et un sinistre est caractérisé par sa survenance,deux covariables, qui dans l’étude de cas de l’article sont le sexe et l’âge de l’assuré, et sondéveloppement. Le développement comprend le délai de déclaration, le délai de règlementet un processus des paiements partiels. Cependant l’utilisation de statistiques bayésiennesnon paramétriques rende cette approche très complexe.

- Larsen (2007), dans l’article [16], revisite le travail de Haastrup et Arjas en l’illustrant avecune petite étude de cas. Il y présente un ensemble de modèles stochastiques basés sur deshypothèses moins fortes que les hypothèses habituels souvent irréalistes dont notammentl’indépendance entre les montants incrémentaux aggrégés. Ces modèles sont capables degérer les effets saisionniers ainsi que les évolutions du portefeuille (type d’affaires) et dela sinistralité (type de sinistres, taille de sinistes).

- Antonio et Plat (2014), dans l’article [2], présente une étude de cas approfondie dévelop-pée dans le cadre probabiliste proposé par Arjas [3]. En effet, ils utilisent des processusde Poisson marqués dépendants de la position mais auxquels ils combinent des outilsstatistiques pour les événements récurrents. Pour l’étude de cas ils utilisent des informa-tions détaillées quant à la date de survenance du sinistre, le délai entre la survenance etla déclaration à l’assurance, les flux de paiements et le règlement final. Contrairementà l’approche bayésienne non-paramétrique de Haastrup et Arjas [12], leur approche est(semi) paramétrique et basée sur la vraisemblance.

- Enfin Parodi (2014), dans l’article [23], propose un cadre pour estimer les réserves etleur incertitude sans compresser les données individuelles de sinistres dans des triangles.Cet article explique qu’afin d’éviter la perte d’information inhérente à la triangulationdes données, il peut être intéressant d’adopter une approche similaire à celle utilisée en

4

Page 9: Mots clés - Institut des actuaires

tarification, c’est-à-dire développer séparément un modèle de fréquence et un modèle desévérité puis les combiner à l’aide de simulations de Monte Carlo ou d’autres techniquesnumériques en vue d’obtenir la distribution des pertes totales.

Le provisionnement ligne à ligne suscite beaucoup d’intérêt car il présente de vrais potentiels,dont les plus importants sont les suivants :

• La prise en compte de variables prédictives rendant les estimations plus fiables ;• La réduction de la nécessité de jugement subjectif, augmentant considérablement la tra-

çabilité et l’auditabilité par rapport au provisionnement traditionnel,• L’évaluation des sinistres à l’ultime de manière complètement automatisée et en temps

réel ;• De moindres besoins en risk margin dans le cadre de Solvabilité II, grâce à des estimations

plus fiables et moins volatiles ;• Etc.

Dans ce mémoire nous nous intéressons dans un premier temps à l’approche proposée par Pie-tro Parodi qui consiste à utiliser des méthodes similaires aux méthodes de tarification. Plusprécisément, il suggère de modéliser les facteurs de développement des IBNER, acronyme pourIncurred But Not Enough Reserved, à l’aide d’un modéle linéaire généralisé (GLM). Ce choixest motivé par l’inadéquation entre des méthodes de provisionnement assez simplistes finale-ment et des techniques plus sophistiquées en tarification. En effet les méthodes de tarificationse sont beaucoup développées depuis l’approche traditionelle du Burning Cost, créant ainsi unedisparité incohérente puisque la tarification et le provisionnement sont interdépendants.

Cependant, nous avons identifié une limite de cette méthode assez contraignante puisqu’ellerestreint considérablement les données utilisables pour l’apprentissage du modèle. Effective-ment seules les variables invariantes au cours du temps peuvent être utilisées comme variablesexplicatives du modèle. Si le modèle apprend sur des variables susceptibles d’évoluer au coursdu temps, il sera capable de prédire la variable à expliquer à la période suivante mais pas au-delà.

Face à cette limite, nous nous sommes intéressés à la création d’un modèle capable de pré-dire aussi bien les variables explicatives que la variable à expliquer. Ce modèle est basée surle principe du filtrage collaboratif (de l’anglais collaborative filtering), très utilisée par les sitescommerciaux afin de faire des propositions ciblées en regroupant les profils des consomma-teurs en fonction de leurs caractéristiques. Dans la même logique, en regroupant les sinistresayant le même profil jusqu’à une période de développement k, nous pourrons estimer les dé-veloppements futurs en utilisant les sinistres du groupe ayant plus de k développements connus.

Enfin dans une dernière partie, nous effectuons une analyse de ces nouvelles méthodes de pro-visionnement dans le contexte réglementaire actuel Solvabilité II. Cette nouvelle réforme entréeen vigueur au 1er janvier 2016, réglemente le niveau de fonds propres nécessaire pour couvrirles risques de l’année à venir. Nous nous focalisons sur le risque de réserve qui correspond aurisque de sous-provisionnement, c’est-à-dire à la sous-évaluation des engagements pris enversles assurés. L’objectif de cette analyse est de déterminer si ces nouvelles méthodes présententun risque de réserve, et donc un besoin en capital, plus faible que la très populaire méthode deChain Ladder.

5

Page 10: Mots clés - Institut des actuaires

Chapitre 1

Présentation des données et desprincipaux retraitements

Notre client, bancassureur français, nous a fournit 9 fichiers regroupant une grande quantitéet variété d’information concernant la branche Garantie Accident de la Vie (GAV). Dans ces 9tables sont regroupés plus de :

• 300 variables

• 75 000 sinistres

• 800 000 contrats

Notre variable à expliquer étant les facteurs de développement, nous décrétons la table desflux financiers comme table de référence à laquelle nous joindrions les informations des autrestables.

1.1 Retraitement de la base des flux financiers1.1.1 Pas de temps

Afin d’analyser le développement des sinistres, nous avons besoin de définir un pas de tempsfixe entre les périodes d’observation. Une analyse de la durée entre deux flux financiers successifspour un même sinistre a été menée. La durée moyenne entre deux flux financiers successifs estde 113 jours. De plus comme montré dans le tableau ci-dessous, 80% des flux financiers sontespacés d’une durée inférieure à 3 mois.Par conséquent un pas de temps trimestriel semble être un choix raisonnable.

Durée Nombre de flux financiers≤ 1 jour 41%≤ 1 semaine 50%≤ 1 mois 65%≤ 1 trimestre 80%≤ 1 année 92%

Figure 1.1 – Fonction de répartition empirique de la durée entre deux flux financiers successifs

6

Page 11: Mots clés - Institut des actuaires

1.1.2 Construction de la baseLe pas de temps étant défini nous pouvons maintenant construire la base de données de

sorte à pouvoir déterminer la trajectoire complète des facteurs de développement pour chacundes sinistres entre la date de survenance et la date d’évaluation. Nous procéderons en deuxétapes :

• Étape 1 : regrouper les flux financiers de façon à avoir une vision de la situation financièrede chaque sinistre à chaque arrêté trimestriel

• Étape 2 : ajouter les visions manquantes correspondant aux trimestres de développementn’enregistrant pas de mouvements financiers

Illustrons ces retraitements par un exemple simple : considérons un sinistre enregistrant les fluxfinanciers suivants :

Trimestre Trimestren° sinistre n° flux survenance développement Paiement Provision95504 1 Q3 2016 0 100 1 00095504 2 Q3 2016 0 100 1 50095504 3 Q3 2016 0 500 1 00095504 4 Q3 2016 2 0 50095504 5 Q3 2016 2 500 500

Le variable "n° flux" donne la chronologie des mises à jour de la base.

L’étape 1 consiste à

• calculer les montants cumulés des paiements effectués à chaque mise à jour de la base ;

• retenir la mise à jour la plus récente de la provision et des paiements cumulés pour chacundes trimestres de développement.

Ainsi après cette étape l’information se présente comme suit :

Trimestre Trimestren° sinistre survenance développement Paiement Provision95504 Q3 2016 0 700 1 00095504 Q3 2016 2 1 200 500

A la date d’évaluation Q2 2017, la situation financière de ce sinistre aux trimestres de dévelop-pement 1 et 3 est manquante car aucun mouvement n’a été enregistré sur ces deux périodes.Par conséquent nous reprenons la situation financière du trimestre de développement précedent,cette dernière n’ayant pas changé.

Trimestre Trimestren° sinistre survenance développement Paiement Provision95504 Q3 2016 0 700 1 00095504 Q3 2016 1 700 1 00095504 Q3 2016 2 1 200 50095504 Q3 2016 3 1 200 500

7

Page 12: Mots clés - Institut des actuaires

La charge ultime est la somme des règlements et de la provision pour sinistre à payer. Noussommes donc en mesure de déterminer la charge ultime de chaque sinistre à chaque trimestre dedéveloppement et par conséquent la trajectoire complète des facteurs de développement pourchacun des sinistres.

Les autres tables contenant les variables explicatives potentielles doivent se présenter de lamême façon.

1.2 Retraitement des autres basesSeules les bases fournissant les échanges entre l’assureur et ses assurés et le statut des

sinistres sont historisées, les autres bases fournissent seulement l’information la plus à jour àla date d’extraction. Une question s’est alors posée concernant ces variables non historisées : àquel moment l’information fournie a-t-elle été mise à jour ?Resituer cette information dans le temps est primordial afin de pouvoir déterminer si la variableest explicative ou non. Nous avons décidé de nous baser sur les échanges entre l’assureur et sesassurés pour resituer cette information dans le temps. Mais avant cela quelques retraitementsde cette base des échanges ont été nécessaires de sorte à faciliter le jointure avec la base desflux financiers.

Base des échangesLa variable la plus importante de cette table est la nature des échanges, les autres ne présentantque peu d’intérêt. Cette variable se distingue en 162 catégories. Nous avons décidé de la réduireà 35 catégories qui nous semblent les plus pertinentes compte tenu des variables à historiser.Ces 35 catégories sont les suivantes :

Assignation Avis sur pièce Compagnie Tiers ConsolidationConfirmation réception Courrier Assuré Courrier Autre Courrier SinEdiDéclaration sinistre Demande règlement Émission chéque FactureFiche d’information GAV AR Vie GAV Refus InformationInteraction Avocat Interaction Expert Interaction Expertise Interaction MédecinInteraction Médicalé Interaction Divers Instruction dossier NPAIOffre d’indemnisation Rapport Expertise Rapport Médecin QuittanceRéclamation Recontacter Recours RèglementRelance Révision Autre

Ensuite pour chacune de ces catégories, nous avons renseigné le nombre d’échanges entre letrimestre de survenance et chaque trimestre de développement, et ce pour chaque sinistre.

A titre d’illustration , considérons que le sinistre de l’exemple précédent enregistre les échangessuivants :

8

Page 13: Mots clés - Institut des actuaires

n° sinistre Date de l’échange Nature de l’échange95504 15/07/2016 Déclaration sinistre95504 30/07/2016 Pièces médicales95504 10/08/2015 Courrier Assuré médical95504 01/09/2015 Courrier compagnie médical95504 15/09/2016 Émission chèque95504 30/09/2016 Courrier Assuré médical95504 20/10/2016 Pièces médicales95504 15/11/2016 Courrier Assuré médical95504 10/12/2016 Pièces médicale95504 10/01/2017 Courrier compagnie médical95504 25/01/2017 Émission chèque95504 01/02/2017 Courrier Assuré médical

Après correspondance avec les nouvelles catégories de la nature des échanges, nous procédons audécompte des échanges entre le trimestre de survenance et chaque trimestre de développementcomme présenté ci-dessous :

Déclaration sinistre → Déclaration sinistrePièces médicales → Interaction MédicaleCourrier Assuré médical → Interaction MédicaleCourrier compagnie médical → Interaction MédicaleÉmission chèque → Émission chèque

Trimestre Trimestre Déclaration Interaction Émissionn° sinistre survenance développement sinistre médicale chèque95504 Q3 2016 0 1 4 195504 Q3 2016 1 1 7 195504 Q3 2016 2 1 9 295504 Q3 2016 3 1 9 2

Ainsi cette base se présente sous un format adéquat à la jointure avec la base des flux financiers.

Variables non historiséesTout d’abord chacune des variables non historiées est associée à la nature des échanges la plusappropriée parmi les 35.Par exemple les variables "TAUXIPP" (Taux Incapacité Permanente Partielle) et "MTHOM"(Honoraires Médecin) seront associées à "Interaction Médicale".Ensuite pour resituer l’information des variables non historiées dans le temps nous allons nousappuyer sur l’hypothèse suivante : l’information est connue à partir du trimestre de développe-ment où tous les échanges entre l’assuré et l’assureur sont observés.En reprenant l’exemple du sinistre n°95504, considérions que :

n° sinistre TAUXIPP MTHOM95504 30 285

9

Page 14: Mots clés - Institut des actuaires

Ainsi ces informations seront connues lorsque tous les échanges de nature "Interaction Médicale"seront observés, c’est-à-dire au trimestre de développement 2 :

Trimestre Trimestre Interactionn° sinistre survenance développement médicale TAUXIPP MTHOM95504 Q3 2016 0 4 0 095504 Q3 2016 1 7 0 095504 Q3 2016 2 9 30 28595504 Q3 2016 3 9 30 285

1.3 Sinistres sans suite/ non garantisUne très grande quantité de sinistres de notre base est déclarée sans suite ou non garantis.

En effet sur les 76 180 sinistres présents dans notre base 61 763 sont sans suite ou non garantis,comme illustré dans le tableau ci-dessous :

État du sinistre Nombre de sinistres1 OUVERT 89422 FERMÉ 50353 RÉOUVERT 4404 SANS SUITE 31 5805 NON GARANTI 30 183

Cela s’explique par une particularité du mode de gestion adoptée par notre client. En effet unsinistre sera ouvert dès lors qu’une prise de contact est effectuée par un assuré.

Aussi, nous avons mené une analyse du délai pour qu’un sinistre soit déclaré sans suite ou nongaranti. Comme illustré ci-dessous, seulement 47% des sinistres ont un délai inférieur à 3 moispour être déclaré sans suite ou non garanti. De plus, 20% de ces sinistres sont encore ouvertsaprès 2 ans.

Délai Nombre de sinistres % de sinistres0-1 semaine 2 972 5%1-2 semaines 3 177 10%2-3 semaines 3 023 15%3-4 semaines 3 206 20%1-2 mois 10 047 36%2-3 mois 6 799 47%3-6 mois 9 719 63%6-12 mois 7 553 75%1-2 ans 3 142 80%2-5 ans 11 675 99%+ 5 ans 450 100%

Compte tenu de la proportion démesurée des sinistres sans suite ou non garantis ainsi que dudélai non négligeable pour qu’ils soient déclarés sans suite ou non garantis, nous avons décidé

10

Page 15: Mots clés - Institut des actuaires

de retirer ces sinistres de notre modélisation.

En pratique il sera nécessaire de calculer la probabilité pour un sinistre d’être classé sans suiteafin de pondérer le montant de provision.Si p est la probabilité pour un sinistre S d’être classé sans suite et R le montant de provisionde ce sinistre alors :

R = p× 0 + (1− p)× E(R | S n’est pas classé sans suite).

11

Page 16: Mots clés - Institut des actuaires

Chapitre 2

Provisionnement ligne à ligne selonl’approche de Parodi

Cette section a pour vocation de présenter une nouvelle méthode de provisionnement pro-posée par Pietro Parodi.Contrairement aux méthodes classiques, cette méthode ne s’appuie pas sur la triangulation desdonnées, celle-ci engendrant une trop grande perte d’information (the "triangle trick"). Parodipropose de modéliser séparément les IBNYR (Incurred But Not Yet Reported) et les IBNER(Incurred But Not Enough Reserved) de la façon suivante :

• En combinant, comme en tarification, un modèle de fréquence et un modèle de coût pourles IBNYR ;

• En modélisant les facteurs de développement des IBNER à l’aide d’un modèle linéairegénéralisé (GLM).

Les IBNYR sont des provisions pour les sinistres tardifs, c’est-à-dire les sinistres survenus maisdont l’assureur n’a pas encore connaissance. Deux éléments sont ainsi indispensables pour leurévaluation : leur nombre et leur coût.Traditionnellement la fréquence des IBNYR est estimée par la méthode de Chain Ladder, ouune de ses variantes, appliquée au triangle de liquidation du nombre de sinistres. Quant au coûtmoyen, il peut être simplement estimé en divisant la charge finale relative aux sinistres déclaréspar le nombre de sinistres déclarés.

Les IBNER viennent compléter les provisions dossier-dossier pour les sinistres ouverts (danscertains cas, de manière négative, lorsque ces dernières sont trop prudentes).Les méthodes classiques proposent de modéliser le développement des IBNER à partir des don-nées historiques en définissant des facteurs de développement moyens par année de survenance.Parodi propose de modéliser ces facteurs de développement à l’aide d’un GLM, permettantainsi de prendre en compte plusieurs autres variables telles que :

• l’année de développement

• la gravité des sinistres

• le pourcentage des indemnités restant à payer

• le type de sinistre

• etc.

12

Page 17: Mots clés - Institut des actuaires

Ainsi les facteurs de développement des IBNER pourront s’écrire comme la transformationd’une combinaison linéaire de différentes variables explicatives :

ft,t+1 = h(a1f1(X1, X2, ..., Xp, t) + ...+ anfn(X1, X2, ..., Xp, t))

où X1, X2, ..., Xp sont les variables explicatives,h, f1, f2, ..., fn sont les relations fonctionnelles,a1, a2, ..., an sont les paramètres,t et t+ 1 sont deux périodes de développement successives.

2.1 Modèle linéaire généraliséEn modélisation statistique, la loi normale s’impose dans de nombreuses situations. Ce-

pendant certains phénomènes observés sont difficilement modélisables par cette loi. Citons, parexemple, les cas de relevés de durées de vie de matériels, de l’observation du nombre d’individusdans une population ayant une certaine caractéristique, ou encore du décompte d’événementsrares. Afin de permettre l’analyse de telles données, non gaussiennes, une extension en termesde loi des modèles linéaires classiques a conduit au développement de la classe plus large quesont les modèles linéaires généralisés (GLM).

Pour la suite considérons un échantillon statistique de taille n de R(p+1) :

(x1i , x

2i , ..., x

pi , yi) i = 1, ..., n

• Y = (y1, ..., yn) est une variable aléatoire observée appelée variable à expliquer,

• X = (X1, ..., Xp) = (x1i , ..., x

pi )i∈{1,...,n} sont des variables aléatoires observées appelées

variables explicatives.

2.1.1 Modèle de régression linéairePour rappel, le modèle de régression linéaire ou modèle gaussien s’écrit de la façon suivante :

yi = β0 + β1x1i + β2x

2i + ...+ βpx

pi + εi, i = 1, ..., n

• β = (β0, ..., βp) sont des paramètres inconnus à estimer, appelés coefficients de régression,

• ε = (ε1, ..., εn) sont des variables aléatoires non observées, appelées erreurs ou bruits, quirésument l’information manquante dans l’explication linéaire des valeurs de Y à partirdes X1, X2, ..., Xp.

Ce modèle repose sur un certain nombre d’hypothèses énumérées ci-dessous :

H1 : X est non aléatoire, i.e. X est sans erreurH2 : rg(X) = p+ 1, i.e. non colinéarité des variables explicativesH3 : n > p+ 1, i.e. le nombre d’observations est supérieur au nombre de paramètres

13

Page 18: Mots clés - Institut des actuaires

H4 : E(ε) = 0, i.e. le modèle est bien spécifié en moyenneH5 : Var(ε) = σ2In, i.e. homoscédasticité des erreurs (variance constante)H6 : Cov(εi, εj) = 0 ∀i 6= j, i.e. pas d’auto-corrélation des erreursH7 : Cov(Xi, εj) = 0 ∀i 6= j, i.e. exogénéité des variables explicativesH8 : ε ∼ Nn(0, σ2) ∀i 6= j, i.e. les erreurs suivent une loi normale multidimensionnelle

Les hypothèses de Gauss-Markov (H4 à H6) et l’hypothèse de normalité (H8) garantissent despropriétés particulièrement intéressantes des estimateurs des coefficients de régression. Cepen-dant ces hypothèse ne sont pas conciliables avec la complexité des problèmes statistiques quise posent à l’Actuaire.

2.1.2 Caractéristiques des GLMLa classe des GLM, introduite pour la première fois par Nelder et Wedderburn en 1972, est

une extension des modèles linéaires classiques en termes de loi. Elle permet l’analyse de donnéesdiscrètes mais aussi de données continues pour lesquelles la loi normale n’est plus adaptée. Eneffet le caractère normal de la variable à expliquer n’est plus imposé, seule l’appartenance à unefamille exponentielle est indispensable. Néanmoins, une caractéristique importante des GLMest qu’ils supposent des observations indépendantes (ou au moins non corrélées).L’idée du GLM est d’utiliser une transformation mathématique sur la variable à expliquertenant compte cette fois-ci de la véritable distribution des erreurs (par exemple, une loi dePoisson dans le cas de comptage, une loi Binomiale dans le cas de pourcentage, etc.).

2.1.2.1 Famille de lois exponentiellesOn suppose que les composantes (y1, ..., yn) de Y sont indépendantes et distribuées selon

une loi appartenant à la famille exponentielle au sens de Nelder et Wedderburn, i.e. que lafonction de densité s’écrit sous la forme suivante :

fY (yi, θi) = exp(yiθi − b(θi)ai(φ) + c(yi, φ)

)où θi est un paramètre canonique et φ un paramètre de dispersion. Les fonctions b et c sontspécifiques à chaque distribution et la fonction ai s’écrit de la façon suivante :

ai(φ) = φ

wi, où wi est un poids connu associé à la réalisation yi.

L’espérance et la variance de la variable associée s’exprime à l’aide des fonctions ai et b et deleurs dérivées :

E(Yi) = b′(θi)Var(Yi) = ai(φ)b′′(θi)

Il existe donc une relation directe entre l’espérance (notée µi) et la variance de Yi :

Var(Yi) = ai(φ)b′′(b′−1(µi))= ai(φ)v(µi)

Cette fonction v = b′′ ◦ b′−1 est appelée fonction de variance.

Les lois usuelles appartenant à la famille exponentielle sont :

14

Page 19: Mots clés - Institut des actuaires

• la loi Normale

• la loi de Poisson

• la loi Gamma

• la loi Binomiale

• la loi Exponentielle

• la loi Inverse Gaussienne

• la loi de Tweedie

2.1.2.2 Fonction de lienOn définit le prédicteur linéaire :

η = Xβ

où β est un vecteur de paramètres inconnus de taille p et X la matrice des variables explicativesfixée par l’expérience de dimension n× p.

Le lien entre E(Yi) et la ième composante du prédicteur linéaire est déterminée par la fonc-tion g (monotone et différentiable) appelée fonction de lien :

ηi = g(E(Yi))

Une fonction de lien pour laquelle ηi = θi est appelée fonction de lien canonique.Le choix de g est très important car cette fonction permet de s’assurer que les valeurs préditespar le modèle vont respecter la nature des valeurs d’origine de la variable Y . Par exemple, pourdes données de comptages, le modèle doit prédire des valeurs positives ou nulles car des valeursnégatives seraient aberrantes. Dans ce cas, une fonction de lien g = log est appropriée car partransformation inverse, g−1 = exp, les valeurs prédites par le prédicteur linéaire η seront toutespositives ou nulles.

Si plusieurs fonctions de lien peuvent convenir vis-à-vis d’une variable Y , on choisira toujoursla fonction de lien qui permet de minimiser les écarts entre les valeurs prédites par le modèleet les valeurs réelles.

2.1.2.3 Estimation des paramètresLes principales méthodes d’estimation du vecteur des paramètres β sont les suivantes :

• Méthode du maximum de vraisemblance

• Méthode des moindres carrés ordinaires

• Méthode des moments

La méthode du maximum de vraisemblance s’applique sur tous types de données tandis que lesdeux autres méthodes ne seront valables que pour des données quantitatives.Chacune de ces méthodes présente des avantages et inconvénients. De manière générale, laméthode du maximum de vraisemblance donne la meilleure estimation en offrant un spectre

15

Page 20: Mots clés - Institut des actuaires

d’utilisation plus large sur le type de données tout en réduisant les hypothèses à satisfaire surles conditions des résidus. Toutefois, il est à noter que cette estimation peut être biaisé enéchantillon fini.En raison du biais possible des estimateurs par maximum de vraisemblance, certains opéra-teurs privilégieront des estimations non biaisées données par la méthode des moindres carrésordinaires même si elles nécessitent un cadre théorique spécifique.Dans le cadre de ce mémoire seules les estimations par maximum de vraisemblance seront re-tenues. Ces estimations correspondent à la résolution d’un système d’équations des dérivées dela fonction de log-vraisemblance par rapport à chacun des paramètres. En effet le principe decette méthode est de maximiser la log-vraisemblance suivante :

l =n∑i=1

ln fY (yi, θi) =n∑i=1

yiθi − b(θi)ai(φ) +

n∑i=1

c(yi, φ)

où E(Yi) = b′(θi) = µi et g(µi) = Xiβ.

Ainsi les estimateurs β0, β1, ..., βp seront les β0, β1, ..., βp qui vérifient les équations suivantes :∂l

∂βi= 0, i = 0, 1, ..., p

Ces équation n’étant pas linéaires pour la plupart des modèles linéaires généralisés, les logicielsde calcule calculent utilisent un algorithme itératif pour la résolution d’équations non linéaires,notamment le très connu algorithme de Newton-Raphson.

2.2 Méthodes de régularisationEn modélisation statistique, il est généralement souhaitable d’effectuer une sélection de va-

riables explicatives afin d’éviter le risque de sur-apprentissage. Un modèle trop précis sur lesdonnées d’apprentissage se comportera de manière instable sur de nouvelles données, malgréla complexité introduite. Idéalement, on veut choisir un modèle qui reflète avec précision lesrégularités dans les données d’apprentissage sans pour autant représenter le bruit aléatoire dujeu d’apprentissage. En d’autres termes et conformément au principe du rasoir d’Occam oncherche à sélectionner le modèle le plus parcimonieux afin d’assurer une bonne qualité de géné-ralisation. Pour rappel la généralisation désigne la capacité du modèle à pouvoir effectuer desprédictions robustes sur des nouvelles données.La réduction de la dimension et la sélection de variables peuvent diminuer la variance tout ensimplifiant les modèles. Plusieurs techniques de régularisation et de sélection de variables ontété proposées ces dernières années. La sélection de variables peut être difficile, en particulierdans les situations où un grand nombre de variables explicatives est disponible, avec la présencepossible de corrélations élevées entre elles.

2.2.1 RidgeLa régularisation de Ridge conserve toutes les variables mais, contraignant la norme des

paramètres βj, elle les empêche de prendre de trop grandes valeurs et limite ainsi la variance.L’estimateur ridge de β dans le modèle

Y = Xβ + ε

16

Page 21: Mots clés - Institut des actuaires

est défini par un critère des moindres carrés, avec une pénalité de type l2 par :

βRidge = arg minβ

n∑i=1

yi − β0 −p∑j=1

xjiβj

2

+ λp∑j=1

β2j︸ ︷︷ ︸

Pénalisation Ridge

où λ est un paramètre positif à choisir, appelé paramètre de complexité. Ce paramètre contrôlela puissance de la régularisation imposée, à savoir que plus la pénalité augmente et plus lasolution obtenue est régulière ou encore, plus le biais augmente et la variance diminue. Il y asur-ajustement avec une pénalité nulle : le modèle passe par tous les points mais oscille dange-reusement ; il y a sous-ajustement avec une pénalité trop grande. Comme dans tout problèmede régularisation, le choix de la valeur du paramètre λ est crucial est déterminera le choix demodèle. La validation croisée est généralement utilisée pour optimiser ce choix.Le problème de minimisation peut être reformulé de la façon suivante dans le but de rendreexplicite le coefficient de pénalisation :

βRidge = arg minβ

n∑i=1

yi − β0 −p∑j=1

xjiβj

2

sous la contraintep∑j=1

β2j ≤ c

La régularisation de Ridge est généralement utilisée sur des variables centrées et réduites, sansprendre en compte le coefficient à l’origine β0 dans la régression, puisque ce dernier aura étéinitialisé auparavant avec la valeur moyenne des observations de Y . La standardisation desvariables est nécessaire, et ce pour tout type de pénalisation, de façon à pouvoir travailler avecun unique paramètre λ pour toutes les variables.

Ainsi la régularisation de Ridge permet de contourner les problèmes de colinéarité même enprésence d’un nombre important de variables explicatives. La principale faiblesse de cette mé-thode est qu’elle ne produit pas un modèle parcimonieux, i.e. simple à interpréter et qui peutse généraliser à la population globale de la variable réponse, car, sans sélection, toutes les va-riables sont concernées dans le modèle. D’autres approches par régularisation permettent unesélection, c’est le cas de la régularisation LASSO.

2.2.2 LassoLa régularisation Lasso, acronyme de Least Absolute Shrinkage and Selection Operator et

développée par Tibshirani en 1996 correspond à la minimisation d’un critère des moindrescarrés avec une pénalité de type l1 (et non plus l2 comme dans la régularisation de Ridge).On note ‖β‖1 = ∑p

j=1 |βj|.L’estimateur Lasso de β dans le modèle

Y = Xβ + ε

est défini par :

βLasso = arg minβ

n∑i=1

yi − β0 −p∑j=1

xjiβj

2

+ λp∑j=1|βj|︸ ︷︷ ︸

Pénalisation Lasso

où λ est un paramètre positif à choisir, qui contrôle la parcimonie du modèle de façon à ce que :

17

Page 22: Mots clés - Institut des actuaires

• Si λ = 0, on retrouve l’estimateur des moindres carrés.

• Si λ tend vers l’infini, on annule tous les βj, j = 1, ..., p.

Contrairement à la régularisation de Ridge qui conserve l’intégralité des variables explicatives,la régularisation Lasso peut imposer à un coefficient de prendre la valeur 0.

De même que pour la régularisation Ridge, on peut montrer que l’estimation de βLasso équivautà la résolution du problème de minimisation suivant :

βLasso = arg minβ

n∑i=1

yi − β0 −p∑j=1

xjiβj

2

sous la contraintep∑j=1|βj| ≤ c

La pénalisation est optimisée par validation croisée comme pour la pénalisation de Ridge. Plusc sera faible, plus le nombre de variables explicatives écartées sera grand. Ainsi, le paramètre cest à optimiser de façon à minimiser l’erreur de prédiction du modèle final.

Grâce à ses solutions parcimonieuses, cette méthode est surtout utilisée pour sélectionner desvariables dans des modèles de grande dimension. En effet on peut l’utiliser si p > n c’est-à-dire s’il y a plus de variables que d’observations. Bien entendu, dans ce cas, les colonnes de lamatrice X ne sont pas linéairement indépendantes. Il n’y a donc pas de solution explicite, onutilise des procédures d’optimisation pour trouver la solution.

Il faut néanmoins utiliser la méthode avec précaution lorsque les variables explicatives sontcorrélées. Pour que la méthode fonctionne, il faut que le nombre de variables influentes (cor-respondant aux coefficients différents de 0) ne dépasse pas n et que les variables non influentesne soient pas trop corrélées à celles qui le sont.Aussi la méthode ne sera pas toujours applicable aux très grandes dimensions. Verzalen amontré qu’aucune méthode d’estimation et de sélection de variables n’était pertinente si

k

nlog

(p

k

)>

12

où k est le nombre de coefficients non nuls.

2.2.3 Elastic NetLa méthode Elastic Net, proposée par Zou et Hastie en 2005, combine les régulations Ridge

et Lasso afin de fournir un modèle parcimonieux et de tenir compte de la corrélation entre lesprédicteurs. L’estimateur Elastic Net de β dans le modèle

Y = Xβ + ε

est défini par :

βEN = arg minβ

n∑i=1

yi − β0 −p∑j=1

xjiβj

2

+ λp∑j=1

α|βj|+ (1− α)β2j︸ ︷︷ ︸

Pénalisation Elastic Net

Le paramètre α, très dépendant de la structure des données, introduit une pondération entreles deux méthodes de régularisation. On remarque que

18

Page 23: Mots clés - Institut des actuaires

• lorsque α = 1, on retrouve la pénalité Lasso,

• lorsque α = 0, on retrouve la pénalité Ridge.

Ce paramètre doit être optimisé afin de réduire l’erreur de prédiction du modèle final.

La figure ci-dessous représente les régions de contrainte dans le cas d’une régression avec deuxvariables explicatives pour les trois méthodes de régularisation présentées ci-dessus :

Figure 2.1 – Représentation de la pénalisation de Ridge, Lasso et Elastic Net

2.3 Choix de modèleComme détaillé dans le chapitre 1, la base a été retraitée de sorte à fournir une vue de

chaque sinistre à chaque trimestre de développement.Ce retraitement a eu pour conséquence d’introduire un grand nombre de facteur de dévelop-pement égal à 1, partiellement expliqué par les sinistres réglés rapidement, d’autant plus si cessinistres sont anciens.En effet considérons le sinistre n° 587104 survenu le 29/06/2002. La date d’évaluation étant Q22017, le facteur de développement sera donc calculé pour 58 trimestres de développement. Orce sinistre enregistre des mouvements financiers dans seulement 3 trimestres de développement.Ainsi il aura un facteur de développement égal à 1 pour 55 trimestres de développement.Une analyse de ces facteurs de développement dans l’échantillon d’apprentissage révèle que 92%d’entre eux sont égal à 1, ce qui rend la modélisation instable.

Une solution pour remédier à ce problème est d’associer deux modèles :

• une régression logistique visant à estimer la probabilité que le facteur de développementsoit égal à 1 ;

• un modèle Tweedie qui apprendra sur les données associées à des facteurs de développe-ment différents de 1.

19

Page 24: Mots clés - Institut des actuaires

Soient p1 la probabilité que le facteur de développement soit égal à 1 et fTw l’estimateurdu facteur de développement par le modèle Tweedie. Ainsi l’estimateur final f du facteur dedéveloppement sera donné par la formule suivante :

f = p1 + (1− p1)× fTw

2.3.1 Régression logistiqueLa régression logistique vise à prédire/expliquer à partir d’un ensemble de variables expli-

catives les valeurs prises par une variable cible qualitative à 2 modalités : 1 ou 0, succès ouéchec, présence ou absence de maladie, bon ou mauvais client, etc.L’utilisation de ce modèle est largement répandue en épidémiologie par exemple, pour isoler lesfacteurs qui séparent les individus sains des individus malades, ou encore en marketing pourdéterminer les facteurs favorables à l’achat de produits ou services.La régression logistique est un GLM pour lequel la variable réponse suit une loi de Bernoulli deparamètre π (avec π la probabilité de succès) lorsque l’expérience est répétée une fois, ou uneloi Binomiale de paramètres (n, π) si l’expérience est répétée n fois. Le paramètre de probabilitéπ est ici une fonction d’une combinaison linéaire des variables explicatives :

g(πi) = Xiβ

où Xi = (x1i , ..., x

pi ).

2.3.1.1 Fonction de lienLes fonctions g les plus couramment utilisées pour relier la probabilité πi aux variables

explicatives Xi sont• probit : g est alors la fonction inverse de la fonction de répartition d’une loi normale,

mais son expression n’est pas explicite.

• log-log : g est définie parg(π) = ln(− ln(1− π))

mais cette fonction est dissymétrique.

• logit : g est définie par

g(π) = ln(

π

1− π

)avec g−1(x) = exp(x)

1 + exp(x)

Plusieurs raisons, tant théoriques que pratiques, font préférer cette dernière fonction. En ef-fet certaines propriétés du modèle logit sont particulièrement utiles pour simplifier les calculsainsi que l’interprétation économique des résultats d’estimation des paramètres β associés auvariables explicatives Xi.La régression logistique s’écrit donc :

ln(

πi1− πi

)= β0 + β1x

1i + ...+ βpx

pi

avec πi = P(Yi = 1|Xi) et 1− πi = P(Yi = 0|Xi).

Ainsi nous en déduisonsπi = exp(Xiβ)

1 + exp(Xiβ)

20

Page 25: Mots clés - Institut des actuaires

2.3.1.2 Estimation des paramètresL’estimation des paramètres β est obtenue en maximisant la log-vraisemblance du modèle.

La variable à expliquer suit un loi de Bernoulli, donc sa densité s’écrit :

P(Yi = yi) = πyii (1− πi)1−yi

Par conséquent la vraisemblance s’écrit :

L(β) =n∏i=1

(exp(Xiβ)

1 + exp(Xiβ)

)yi(

1− exp(Xiβ)1 + exp(Xiβ)

)1−yi

Nous en déduisons la log-vraisemblance :

l(β) =n∑i=1

yi[Xiβ − ln

(1 + eXiβ

)]− (1− yi) ln

(1 + eXiβ

)=

n∑i=1

yiXiβ − ln(1 + eXiβ

)En annulant les dérivées de la log-vraisemblance, on obtient le système suivant :

∂l(β)∂β0

=n∑i=1

yi − πi

∂l(β)∂βj

=n∑i=1

xji (yi − πi) j = 1, ..., p

Ces équations, non linéaires en β, n’ont pas de solution analytique, leur résolution requiertl’utilisation de méthodes itératives, dans lesquelles interviennent le Hessien (algorithme deNewton-Raphson), ou la matrice d’information de Fisher (méthodes des scores de Fisher).L’algorithme de Newton-Raphson est la méthode implémentée sous R, logiciel qui a été utilisépour mener les études. Cet algorithme s’appuie sur la relation suivante :

βi+1 = βi −(∂2l(β)∂2β

)−1

× ∂l(β)∂β

Les itérations sont interrompues lorsque la différence entre deux vecteurs de solutions successifsest négligeable.

2.3.1.3 Interprétation des paramètresComme mentionné précédemment la fonction de lien logit permet d’interpréter facilement

les résultats d’une régression logistique car les coefficients estimés par le modèle sont liés à laquantité π ÷ (1− π) qui exprime un odds.L’odds-ratio, également appelé rapport de cotes ou rapport de chances, permet d’évaluer ladépendance entre différentes variables aléatoires qualitatives en comparant la probabilité desurvenance d’un évènement dans deux populations différentes.Si π1 est la probabilité de survenance d’un événement dans le groupe 1 et π2 dans le groupe 2,alors l’odds-ration sera égal à

π1 / (1− π1)π2 / (1− π2)

Notons que la valeur issue de la formule ci-dessus sera toujours un nombre positif entre zéro etl’infini. L’odds-ratio (OR) est interprété ainsi :

21

Page 26: Mots clés - Institut des actuaires

• OR < 1 indique une association "protectrice", ce qui signifie qu’il est peu probable quel’évènement se produise.

• OR = 1 indique qu’il n’y a pas associations entre les deux variables.

• OR > 1 indique qu’il y a une association d’autant plus forte que le nombre est grand.

2.3.2 Modèle TweedieHistoriquement introduits par Tweedie (1984), les distributions Tweedie sont très utiles

pour modéliser une distribution continue pour des valeurs supérieures à 0 avec une masse à 0les distributions Tweedie appartiennent à la classe des modèles de dispersion exponentielle etsont caractérisées par une fonction de densité de la forme :

f(y|µ, φ) = A(y, φ) exp(

[yθ(µ)− κ(θ(µ))])

θ(µ) =

µ1−γ

1− γ γ 6= 1

ln(µ) γ = 1et κ(θ(µ)) =

µ2−γ

2− γ γ 6= 2

ln(µ) γ = 2La fonction A n’a pas d’expression analytique, elle est généralement évaluée par des méthodesde décomposition en séries décrites dans Dunn et Smyth (2005).Soit Y une variable aléatoire suivant une distribution de Tweedie, alors on a la relation suivante :

Var(Y ) = a [E(Y )]p

où a et p sont des constantes positives.La famille des lois Tweedie contient certaines lois bien connues telles que la loi normale, la loigamma, la loi de Poisson ou encore la loi inverse gaussienne. En effet en fonction de la valeurde la puissance p de l’équation ci-dessus on retrouve

• la loi normale, lorsque p = 0

• la loi de Poisson, lorsque p = 1

• la loi gamma, lorsque p = 2

• la loi gaussienne inverse, lorsque p = 3

Nous nous intéressons au cas où 1 < p < 2, impliquant une loi Poisson composé avec sautsgamma :

Y ∼ CP(µ2−γφ(2− γ) , G

(− 2− γφ(1− γ) , φ(2− γ)µγ−1

))Cette distribution possède des propriétés très intéressantes pour nos données. En effet elle estpositive, très asymétrique à droite et possède une masse en 0.

Comme pour la régression logistique, l’estimation des paramètres est obtenue par la méthodedu maximum de vraisemblance. La log-vraisemblance s’écrit :

l(β) =n∑i=1

a(yi, φ) +n∑i=1

(yiµ

1−γ

1− γ −µ2−γ

2− γ

)

22

Page 27: Mots clés - Institut des actuaires

où a(yi, φ) = ln(A(yi, φ)).

Dans notre modélisation, nous choisissons la fonction de lien logarithmique. Cependant certainsfacteurs de développement sont inférieurs à 0, leur logarithme sera donc négatif et la loi Tweediene prend que des valeurs positives. Une façon de remédier à ce problème est de modéliserln(f + 1), où f représente les facteurs de développement.Ainsi on a ln(µ+ 1) = Xβ, donc µ = exp(Xβ)− 1, ce qui implique :

l(β) =n∑i=1

a(yi, φ) +n∑i=1

(yi exp [(1− γ)(Xβ − 1)]

1− γ − exp [(2− γ)(Xβ − 1)]2− γ

)

Le processus de maximisation peut se faire de différentes façons, l’article de Dunn et Smyth(2005) propose une méthode basée sur l’algorithme BFGS (Broyden-Fletcher-Goldfarb-Shanno).L’idée principale de cette méthode est d’éviter de construire explicitement la matrice hessienneet de construire à la place une approximation de l’inverse de la dérivée seconde de la fonctionà minimiser, en analysant les différents gradients successifs.

2.4 Limites de la méthodeLors de l’application de la méthode, une limite quant à l’information pouvant prétendre au

titre de variable explicative s’est présentée.En effet considérons un sinistre récapitulant les informations suivantes :

Variables explicativesDéveloppement X1 X2 ... Xp

1 X11 X2

1 ... Xp1

2 X12 X2

2 ... Xp2

... ... ... ... ...t X1

t X2t ... Xp

t

Le facteur de développement entre la période t et t+1, noté ft, est estimé à partir de X1t , ..., X

pt .

De même l’estimation de ft+1 se fera à partir de X1t+1, ..., X

pt+1, or ces informations ne sont pas

connue car t est la dernière période connue, comme illustré ci-dessous :

23

Page 28: Mots clés - Institut des actuaires

En d’autres termes, nous somme capables de prédire

fk|Xk,

mais les estimations ne seront plus fiables pour les cadences suivantes :

fk+1|Xk, fk+2|Xk.

Par conséquent cette méthode est difficilement applicable à une approche par cadence.

Comme illustré ci-dessous, une façon de remédier à cette limite est de modéliser un GLM quiprédirait le facteur de développement de la période suivante k + 1, puis un second GLM quiprédirait le facteur de développement de la période k + 2 et ainsi de suite.

Cependant cette modélisation est lourde et très coûteuse en temps. En effet le portefeuille utilisépour l’application des méthodes proposées dans le cadre de ce mémoire contient un historiquede 15 années, représentant 60 périodes trimestrielles de développement. Ainsi 60 GLM devraientêtre modélisés avec une adaptation de la base de données pour chacune de ces modélisations.Cette alternative a donc été écartée.Une autre façon de remédier à cette limite est de créer un modèle permettant d’estimer lesvariables explicatives à chaque cadence. Néanmoins cette alternative présente un risque propa-gation d’erreur particulièrement élevé étant donné que les prédictions des facteurs de dévelop-pement seront basées sur des estimations des variables explicatives. Par conséquent cette optiona aussi été écartée et il a été décidé de ne garder que les variables explicatives invariantes dansle temps, limitant considérablement l’information mise à notre disposition.

24

Page 29: Mots clés - Institut des actuaires

Enfin, cette approche présente un fort risque de propagation d’erreur, tout comme la mé-thode de Chain Ladder. En effet comme les résultats intermédiaires sont dépendants, s’il ya une erreur sur le premier facteur de développement, elle se transmettra à tous les facteursde développement qui suivront. Cependant l’individualisation des facteurs de développementpermet de diminuer l’impact de ce risque. En effet comme la méthode de Chain Ladder agrègetous les sinistres, s’il y a une erreur sur le premier facteur de développement l’intégralité desréserves sera impactée.

25

Page 30: Mots clés - Institut des actuaires

Chapitre 3

Provisionnement ligne à ligne selon leprincipe du filtrage collaboratif

Le système de filtrage collaboratif a été popularisé par Amazon avec la fonctionnalité "lesgens qui ont acheté x ont aussi acheté y".Le filtrage d’information regroupe une variété de processus se rapportant à la fourniture del’information adéquate aux personnes qui en ont besoin. Il regroupe des techniques qui visentà opérer une sélection sur les éléments à présenter aux utilisateurs (filtrage) en se basant sur lecomportement et les goûts exprimés de très nombreux autres utilisateurs (collaboration).Le principe repose sur le fait que les meilleures recommandations proviennent des individusqui présentent des goûts ou comportements similaires. Ainsi on cherche à identifier à partird’une base de données les régularités de comportement ou les associations (patterns) entre lesutilisateurs et les items (produits, thèmes, etc.) en se basant sur leurs évaluations (notes) etleurs attitudes passées (clics, achats).On distingue deux grands types de filtrage collaboratif :

• User Based Collaborative Filtering, basée sur les similarités des goûts ou comportementsdes utilisateurs ;

• Item Based Collaborative Filtering, basée sur les similarités des objets.

Afin d’illustrer simplement ce principe, considérons la matrice ci-dessous regroupant les goûtsde 5 utilisateurs :

Figure 3.1 – Exemple illustratif du principe du filtrage collaboratif

26

Page 31: Mots clés - Institut des actuaires

Ainsi l’utilisateur 5 ayant des goûts similaires à ceux des utilisateurs 2 et 3 on pourra supposerqu’il n’aimera pas les ordinateurs.

De plus amples informations concernant le filtrage collaboratif se trouvent en annexe A.

3.1 Application au provisionnementL’idée de cette méthode est de prédire le développement d’un sinistre en se basant sur ledéveloppement des sinistres qui ont des caractéristiques similaires à ce sinistre.En conservant les mêmes notations que précédemment, considérons queXt regroupe les variablescaractéristiques d’un sinistre à la période de développement t :

Xt = (X1t , X

2t , ..., X

pt , X

p+1t )

où Xpt est la charge totale du sinistre et Xp+1

t = ft = Xpt+1Xp

t.

Ainsi, considérons un sinistre Si dont le développement est connu jusqu’à n− 1, i.e.

X1(i), X2(i), ..., Xn−1(i) sont connus.

Nous cherchons à estimer Xn(i).

3.1.1 Mesure de similaritéNous cherchons, dans un premier temps, à déterminer le degré de similarité entre le sinistre Siet les autres sinistres. Pour cela, nous avons besoin d’une mesure de similarité. Une multitudede mesures de similarité existe dans la littérature, dans le cadre de ce mémoire nous avonschoisi la mesure cosinus qui, pour deux sinistres Si et Sj, s’écrit pour comme suit :

sim(Si, Sj) =

n−1∑t=1

p+1∑k=1

Xkt (i)Xk

t (j)√n−1∑t=1

p+1∑k=1

(Xkt (i))2

√n−1∑t=1

p+1∑k=1

(Xkt (j))2

oùXki (·) = Xk

i (·)−min(Xki )

max(Xki )−min(Xk

i )

3.1.2 PrédictionsUne fois les similarités calculées, les variables du sinistre Si au développement n seront estiméesde la façon suivante :

Xkn(i) =

N∑j=1j 6=i

sim(Si, Sj)×Xkn(j)

27

Page 32: Mots clés - Institut des actuaires

3.1.3 Schéma récapitulatifLe schéma ci-dessous synthétise l’approche de provisionnement présentée dans ce chapitre :

Figure 3.2 – Schéma récapitulatif de l’application du principe du filtrage collaboratif au provi-sionnement

3.2 Limites de l’approcheLe filtrage collaboratif a le mérite de présenter des calculs simples, des résultats faciles à

expliquer et d’être applicable sur une base de données qui évolue constamment. Cependant ilprésente aussi d’importants inconvénients.Tout d’abord parcourir la base pour chaque sinistre afin d’identifier le voisinage est coûteux.Aussi sur le plan technique, toute l’information d’un sinistre doit être présentée sur une seuleligne comme illustré sur la figure ci-dessous :

Le nombre de colonnes peut ainsi rapidement devenir une source de problème. En effet unebase de données avec un grand nombre de colonnes consomme beaucoup de mémoire, ce quiaffecte la performance des traitements. Les conséquences sur le temps d’exécution d’un scriptprendront rapidement de grandes proportions car la performance chute de manière quadratiqueau nombre des colonnes.

Enfin la limite la plus contraignante de cette méthode est qu’il s’agit d’une approche en moyenne

28

Page 33: Mots clés - Institut des actuaires

donc le modèle sera incapable de modéliser les sinistres présentant un caractère extrême ou aty-pique.

29

Page 34: Mots clés - Institut des actuaires

Chapitre 4

Validation du modèle

Ce chapitre a pour but de présenter les techniques mises en oeuvre pour évaluer la perfor-mance des méthodes détaillées dans les chapitres précédents.

4.1 Validation croiséeLa validation croisée ("cross-validation" en anglais) est une méthode d’estimation de fiabi-

lité d’un modèle fondé sur une technique d’échantillonnage. Il existe plusieurs techniques devalidation croisée dont les trois principales sont les suivantes :

• test set validation : cette méthode consiste à diviser la base de données en deux sous-échantillons, le premier d’apprentissage et le second de test ou de validation. Le modèleest construit en utilisant les observations de l’échantillon d’apprentissage, et la puissanceprédictive est testée en utilisant les observations de l’échantillon test. L’erreur est estiméeà l’aide d’une mesure ou d’un score de performance du modèle sur l’échantillon de test.

• k-fold cross-validation : cette seconde méthode consiste à diviser la base de donnée origi-nale en k échantillons, puis un des k échantillons est sélectionné comme ensemble de vali-dation et les (k− 1) autres échantillons constitueront l’ensemble d’apprentissage. Commedans la première méthode un score de performance est évalué. Puis l’opération est répétéeen sélectionnant un autre échantillon de validation parmi les (k − 1) échantillons consti-tuant l’ensemble d’apprentissage. L’opération se répète ainsi k fois de sorte que chaquesous-échantillon ait été utilisé exactement une fois comme ensemble de validation. Enfinla moyenne des k score de performance est calculée pour estimer l’erreur de prédiction.

• leave-one-out cross-validation : cette dernière méthode est un cas particulier de la secondeméthode dans le sens où k est égal au nombre d’observations contenu dans la base dedonnées originale. Ainsi chaque découpage laisse exactement une observation hors del’échantillon d’apprentissage et le modèle est validé sur cette observation.

Le score de performance pour mesurer l’erreur choisi dans le cadre de ce mémoire est l’erreurquadratique moyenne ou MSE pour Mean Square Error. Par définition la MSE est la moyennearithmétique des carrés des écarts entre les prévisions et les observations.

Maintenant, afin de pouvoir émettre une opinion sur la performance de ces nouvelles méthodes,nous avons besoin d’un point de comparaison. Nous choisissons la méthode de Chain Laddercomme point de comparaison car cette dernière s’est imposée comme un référence en matière

30

Page 35: Mots clés - Institut des actuaires

de provisionnement sur le marché de l’assurance. Un rappel de cette méthode est proposé dansla section suivante.

4.2 Méthode de Chain LadderSimple à manipuler, facile d’interprétation et souvent jugée satisfaisante, la méthode de

Chain Ladder est la plus utilisée en pratique. Cette méthode est déterministe, c’est-à-direqu’elle ne tient pas compte du caractère aléatoire des variables à expliquer : son but étantd’évaluer l’espérance (parfois référencée comme « moyenne » ou « best estimate ») des provi-sions.

Les avantages des modèles déterministes sont leur facilité d’implémentation, et la possibilitéde les affiner ou corriger aisément, au moyen de lissages ou exclusions de points par exemple.Ils présentent également l’atout de pouvoir s’appliquer à tous types de données : règlements,charges, primes, nombre de sinistres etc., permettant ainsi d’estimer leurs valeurs ultimes. Eneffet l’évaluation des Provisions pour Primes Non Acquises (PPNA) par exemple peut se fairepar le biais de ces méthodes, appliquées au triangle de primes.

La méthode de Chain Ladder consiste à déterminer une cadence de développement moyenne àpartir des données historiques agrégées par période de survenance et période de développement.Le choix de la période repose sur la vitesse de développement des sinistres, elle pourra êtreannuelle, trimestrielle, mensuelle, etc. On considère pour la suite une période annuelle.Cette méthode s’applique à des triangles de paiements cumulés et/ou de charges cumulés, qu’onappelle triangle de liquidation.On notera :

• i l’année de survenance ou d’origine,• k le délai de développement ou de règlement,• Cik le montant cumulé des règlements (ou charges) pour l’année d’origine i et jusqu’au

délai de règlement k.Un triangle de liquidation de dimension n+ 1 se présente sous la forme suivante :

Année de développement (k)Année d’origine (i) 0 1 ... k ... n-1 n

0 C0,0 C0,1 ... C0,k ... C0,n−1 C0,n

1 C1,0 C1,1 ... C1,k ... C1,n−1... ... ... ... ... ...

n-k Cn−k,0 Cn−k,1 ... Cn−k,k... ... ... ...

n-1 Cn−1,0 Cn−1,1

n Cn,0

Figure 4.1 – Triangle de liquidation

Les montants Cik pour lesquels i + k ≤ n sont connus et on cherche à estimer les Cik pour

31

Page 36: Mots clés - Institut des actuaires

lesquels i+ k > n, en particulier les valeurs des charges ultimes, Cin pour 1 ≤ i ≤ n.

La méthode de Chain Ladder repose sur l’hypothèse qu’il existe une relation de proportionnalitéentre les montants cumulés, d’une année de développement à la suivante. De plus, il est supposéque le coefficient de proportionnalité entre deux années de développement consécutives estidentique pour toutes les années de survenance. En d’autres termes, pour deux années dedéveloppement k et k + 1, on a la relation suivante :

C0,k+1

C0,k= C1,k+1

C1,k= ... = Ci,k+1

Ci,k= ... = Cn−k−1,k+1

Cn−k−1,k

Ces coefficients de proportionnalité sont appelés coefficients de passage et sont estimés de lafaçon suivante :

fk =

n−k−1∑i=0

Ci,k+1

n−k−1∑i=0

Ci,k

, k = 0, ..., n− 1

Il est alors possible d’estimer les montants des sinistres survenus en année i, après k années dedéveloppement, par la relation suivante :

Ci,k = Ci,n−ik−1∏j=n−i

fj.

Une fois le triangle inférieur complété, nous disposerons des charges ultimes pour chaque annéede survenance. Par conséquent, la somme à mettre en réserve sera la charge ultime estiméecorrigée de ce qui aura déjà été payé (ou mis en réserve).Soit Ri la réserve pour les sinistres survenus durant l’année i,

Ri =Ci,n−i n−1∏

j=n−ifj

− Ci,n−i, i = 0, ..., n.

Enfin la provision globale appelée Provision pour Sinitres à Payer (PSAP) sera égale à

PSAP =n∑i=1

Ri.

Il est à noter que pour utiliser cette méthode, il est nécessaire de disposer d’un portefeuillehomogène, grand et sans événements extrêmes. Ces conditions sont indispensables pour obtenirdes résultats satisfaisants. De plus cette méthode présente une certain nombre de limites.

Tout d’abord supposer que la progression des montants cumulés est identique quelle que soitl’année d’origine ne permet pas prendre en compte d’éventuels changements pouvant affecterla cadence des paiements. Par exemple, un changement de jurisprudence pourrait faire varier lemontant ou le nombre des sinistres, ou encore un changement de management dans la gestiondes sinistres pourrait accélérer ou ralentir les rythmes de remboursements. Pour résumer, cetteméthode repose sur l’hypothèse d’une très grande stabilité au niveau des facteurs de dévelop-pement de la sinistralité, ce qui n’est pas forcément réaliste.

Une autre limite de la méthode de Chain Ladder concerne l’estimation des coefficients de pas-sage et en particulier le dernier coefficient, fn−1, qui n’est estimé qu’à l’aide de deux données :

32

Page 37: Mots clés - Institut des actuaires

C0,n et C0,n−1. Et ce, d’autant plus que, le modèle étant multiplicatif, une erreur d’estimationà ce niveau peut présenter une distorsion importante du résultat final.Aussi le montant de lacharge ultime dépend entièrement de la dernière position connue et donc si celle-ci est nulle, lacharge ultime le sera aussi.

Enfin l’utilisation de données agrégées entraîne nécessairement une perte d’information. Aussicette méthode de calcul se base uniquement sur l’observation du développement des paiements(ou charges) alors que nous disposons de nombreuses caractéristiques individuelles des sinistresqui nous permettraient de faire de meilleures estimations.

33

Page 38: Mots clés - Institut des actuaires

Chapitre 5

Risque de réserve

Avant d’entrer dans le vif du sujet en détaillant le mode de calcul de l’exigence en capital autitre du risque de réserve, nous proposons d’introduire le contexte réglementaire de SolvabilitéII.

5.1 Contexte réglementaire de Solvabilité IILe projet Solvabilité II est né avec l’ambition de mesurer la solvabilité d’un organisme assu-

reur en fonction de son profil de risque. Plus précisément cette réglementation vise à garantirque les compagnies d’assurances sont financièrement solides et capables de faire face à des cir-constances défavorables, afin de protéger les assurés et l’ensemble du système financier. L’anciensystème était entièrement déterministe et ne tenait pas compte du risque réellement supportépar la compagnie. En effet deux organismes assureurs avec des profils de risque très différentsmais des éléments comptables similaires avaient la même exigence de capitaux propres. Unepremière tentative de mise à jour de la réglementation au sujet de la solvabilité, sous le nom deSolvabilité I, a eu lieu en 2002. Cependant, l’intensification de la concurrence et les transforma-tions du secteur accentuant les tensions qui s’exercent sur les entreprises d’assurance ont justifiéun renfort du contrôle prudentiel, afin d’offrir une protection toujours satisfaisante aux assurés.Ainsi, Solvabilité II a introduit des modifications profondes en mettant la gestion des risquesau coeur du système et notamment en procédant à une mise à jour des risques susceptiblesd’affecter significativement la santé financière d’une compagnie d’assurance.

5.1.1 Solvabilité I : la première tentativeAvant Solvabilité I, le régime reposait sur un cadre législatif datant des années 1970. Il a

fait l’objet d’un réexamen en 2002, constituant le régime communément appelé Solvabilité I.La réforme Solvabilité I s’est concentrée sur la marge de solvabilité.

Marge de solvabilité sous Solvabilité ILa marge de solvabilité est la réserve de capital supplémentaire que les institutions d’assurancedoivent détenir pour pouvoir faire face à des événements inattendus.Le ratio entre la marge de solvabilité constituée au bilan (MSC) et l’exigence de marge de solva-bilité réglementaire (EMS) est l’élément sur lequel se base les autorités de contrôle pour détermi-ner la solvabilité de l’entreprise. L’organisme d’assurance sera solvable si ce ratio (MSC/EMS)

34

Page 39: Mots clés - Institut des actuaires

est supérieur à 1. Détaillons le calcul des deux éléments de ce ratio :

1. Calcul de la MCS

Une formule simplifiée de cette marge de solvabilité est la suivante :

MSC = SNC + PV L

oùSNC est la situation nette comptable ou les capitaux propres,

PV L est la plus-value latente des placements (excédent de l’estimation du montantde cession par rapport à la valeur d’acquisition)

Remarque. Cette marge est corrigée d’éventuels rappels de cotisations pour le sociétésde mutuelles d’assurance dont les cotisations des assurés sont variables.

2. Calcul de la EMS

La marge de solvabilité réglementaire (EMS) vise à définir le montant des fonds propresindispensable à l’activité courante de l’organisme assureur, qui vient s’ajouter aux provi-sions techniques afin de garantir la solvabilité effective de l’entreprise en cas de survenanced’un évènement exceptionnel. Elle est directement dépendante du volume d’affaires sous-crites. En assurance non-vie, elle est calculée en pourcentage du montant des primes oudu montant des sinistres. En effet, la réglementation exige une dotation à hauteur soit del’indice de primes, soit de l’indice de sinistres, le plus élevé étant retenu. Ces indices sontcalculés de la façon suivante :

• Indice de Primes = [ 18% de la première tranche de 50 millions d’euros des primesbrutes + 16% des primes brutes restantes ] × taux de rétention

• Indice de Sinistres = [ 26% de la première tranche de 35 millions d’euros dessinistres bruts + 23% des sinistres bruts restants ] × taux de rétention

Remarque.

- Le taux de rétention est égal au rapport entre les sinistres nets (après déduction dela réassurance) et la moyenne des sinistres bruts sur trois ans. Ce taux doit être de50% minimum.

- La part réassurée peut être déduite partiellement du montant de la marge, elle nepourra réduire le résultat de plus de 50%.

Les critiques à l’encontre de Solvabilité ILe système Solvabilité I a l’avantage d’être simple à appliquer, cependant, il présente un certainnombre de faiblesses qui prouvent le besoin d’une évolution de la réglementation :

• Le passé est l’unique référence dans l’évaluation de la solvabilité de l’assureur, ainsi il estsupposé que la passé va se reproduire.

35

Page 40: Mots clés - Institut des actuaires

• La marge de solvabilité est calculée selon des facteurs représentatifs des engagementsou du volume d’affaires souscrites et non pas en fonction des risques assumés par lesorganismes assureurs. Or, les différentes lignes d’activité présentent des profils de risquetrès différents.

• Le risque relatif aux actifs, notamment aux investissements des montants en représenta-tion des provisions techniques, n’apparaît pas dans le calcul des fonds propres. Considéronsles portefeuilles d’actifs de deux compagnies d’assurance composés uniquement d’actionset d’obligations dans des proportions différentes. La compagnie, avec une proportion plusélevée d’actions a un profil de risque plus élevé. Cependant cet aspect n’est pas pris encompte dans le calcul des fonds propres. Ainsi, les assureurs plus prudents se trouventpénalisés par rapport à leurs concurrents moins prudents.

• Les transferts de risque, tels que la réassurance ou la titrisation ainsi que les corrélationsentre les actifs et les passifs ne sont également pas pris en compte.

Pour résumer les principales limites de Solvabilité I sont d’imposer une prudence difficilementquantifiable, donc difficilement justifiable et d’ignorer le profil de risque propre à chaque orga-nisme assureur.

5.1.2 Solvabilité II : la révolutionEn 2001, la Commission Européenne a lancé le projet Solvabilité II visant à fixer un nou-

veau cadre prudentiel pour l’ensemble des organismes d’assurance européens dont le principeest simple :

"chaque assureur et réassureur doit être à même de comprendre les risques inhérentsà son activité afin de pouvoir allouer suffisamment de capital pour les couvrir"

L’origine et les phases de travail de Solvabilité IIEn 1997, le rapport Müller présente un premier travail de réflexion approfondie sur la solvabilitédes organismes d’assurance entrepris par la Conférence des Services de Contrôle des Assurancesdes États Membres de l’Union Européenne.Ce rapport, qui jugeait le système de solvabilité européen globalement satisfaisant proposaittout de même un certain nombre d’améliorations, notamment concernant les règles de margede solvabilité.

En 2001, la Commission Européenne a voté la création du CEIOPS (Committee of EuropeanInsurers and Occupational Pensions Supervisors), aujourd’hui EIOPA (European Insurance andOccupational Pensions Authority). Cette instance joue un rôle central dans la conception, lamise en place et le suivi de la nouvelle Directive.

L’élaboration des nouvelles normes ont nécessité deux phases de travaux :

• Phase I : Réflexion sur la forme globale du futur système européen de solvabilité.

• Phase II : Mise en place de méthodes d’évaluation des différents risques encourus par lescompagnies d’assurance.

36

Page 41: Mots clés - Institut des actuaires

La phase I a aboutit à l’élaboration d’un système fondé sur une structure à trois piliers, àl’image de la réglementation du secteur bancaire Bâle II.

Les trois piliers de Solvabilité IILa directive Solvabilité II s’organise en trois piliers :

1. Le pilier 1, intitulé exigences quantitatives, a pour objectif de définir des seuils quantitatifsaussi bien pour les provisions techniques que pour les fonds propres. Deux niveaux de fondspropres sont définis : le Capital Minimum Requis (MCR) et le Capital de SolvabilitéRequis ou Capital Cible (SCR) :

• le MCR représente le niveau minimum de fonds propres en-dessous duquel l’inter-vention de l’autorité de contrôle sera automatique ;

• le SCR représente le capital cible nécessaire pour absorber le choc provoqué par unesinistralité exceptionnelle.

2. Le pilier 2, appelé exigences qualitatives, fixe des règles de gestion des risques, en par-ticulier concernant la gouvernance d’entreprise, le contrôle interne, les rapports avec lesautorités de tutelle et la validation du modèle interne. L’identification des sociétés lesplus risquées est un objectif de Solvabilité II et les autorités de contrôle auront en leurpouvoir la possibilité de réclamer à ces sociétés de détenir un capital plus élevé que lemontant suggéré par le calcul du SCR ou de réduire leur exposition aux risques.

3. Le pilier 3, nommé discipline de marché, expose la réglementation de la publication d’in-formations financières et le reporting aux superviseurs, aux agences de notation et auxacteurs de marché. L’objectif est notamment de progresser vers une coordination et uneharmonisation des informations diffusées dans les États membres à différents niveaux (as-surés, marchés, autorités de contrôle) afin de permettre une meilleure transparence dumarché et une comparabilité simplifiée entre les acteurs.Ces informations doivent être fournies périodiquement par le biais de deux types de do-cument :

• Des rapports narratifs, qui donnent une vision descriptive de la politique prudentiellemise en place par l’assureur.

• Des reportings quantitatifs, appelés QRT (Quantitative Reporting Template), quis’organisent en tableaux de bord dont le format a été définies par l’EIOPA, ilscouvrent les principaux domaines d’activité d’un assureur.

Dans le cadre de cette étude nous cherchons à déterminer le SCR du risque de réserve Non-Vie.Ainsi seules les exigences quantitatives du pilier 1 vont nous intéresser.

Les exigences quantitatives de Solvabilité IIL’objectif majeur du pilier 1 est de définir les modalités de calcul des composantes du bilanSolvabilité II :

Les actifs sont valorisés au montant pour lequel ils pourraient être échangés dansle cadre d’une transaction conclue, dans des conditions de concurrence normales,entre des parties informées et consentantes. (Article 75 de la Directive)

37

Page 42: Mots clés - Institut des actuaires

Les passifs sont valorisés au montant pour lequel ils pourraient être transférés ouréglés dans le cadre d’une transaction conclue, dans des conditions de concurrencenormales, entre parties informées et consentantes. (Article 75 de la Directive)

Le schéma suivant représente de façon simplifiée le bilan d’une compagnie d’assurance en yaffectant les exigences quantitatives de Solvabilité II.

Figure 5.1 – Bilan Solvabilité II

Les provisions techniques correspondent au montant total permettant un transfert des engage-ments d’un assureur à un autre. Comme le montre la représentation simplifiée ci-dessus, lorsde l’évaluation des provisions techniques une distinction est faite entre les passifs réplicables(hedgeable) et les passifs non-réplicables(non-hedgeable). Pour rappel, un passif est réplicablesi les flux qu’il engendre peuvent être parfaitement répliqués et couverts par des actifs financiersdisponibles sur un marché liquide et transparent.

Un des principes phares de Solvabilité II est d’attribuer, dès que cela est possible, aux ac-tifs et aux passifs leurs prix de marché. Ainsi, lorsque les passifs sont réplicables, la valeuractuelle du portefeuille répliquant valorisera ces passifs. On parle d’évaluation marked to mar-ket. Dans le cas de passifs non-réplicables, les provisions techniques seront égales à la sommedu best estimate et de la marge pour risque. L’article 77 de la Directive 2009/138/CE4 définitle cadre général du calcul des provisions techniques à inscrire au bilan prudentiel.

Best EstimateL’alinéa 2 définit le cadre général du calcul des best estimates :

La meilleure estimation correspond à la moyenne pondérée par leur probabilité desflux de trésorerie futurs, compte tenu de la valeur temporelle de l’argent (valeur

38

Page 43: Mots clés - Institut des actuaires

actuelle attendue des flux de trésorerie futurs), estimée sur la base de la courbe destaux sans risque pertinente.

Ainsi, pour valoriser les best estimates, l’entreprise d’assurance ou de réassurance doit identifiertous les encaissements et décaissements relatifs à ses engagements.La directive n’introduit pas de nouvelle technique d’évaluation mais remplace les hypothèsesprudentes par des hypothèses réalistes (prise en compte de la valeur temporelle de l’argent, "fairvalue" ou valeur de marché).

Marge pour risqueL’alinéa 3 définit le cadre général du calcul de la marge pour risque :

La marge pour risque est calculée de manière à garantir une valeur des provisionstechniques équivalente au montant que les entreprises d’assurance et de réassurancedemanderaient pour reprendre et honorer les engagements d’un assureur.

Le calcul de la marge de risque est encadré par des règles strictes, il ne s’agit donc pas d’unemarge de prudence. Elle est évaluée en actualisant le coût généré par l’immobilisation du SCR,ce coût étant estimé à 6% par an.

Les fonds propresLes fonds propres doivent être évalués à leur valeur économique. Chaque élément est différenciéentre fonds propres de base et fonds propres auxiliaires et est classé selon sa qualité en troisniveaux (appelés Tiers en anglais), respectivement 1 (de meilleure qualité), 2 et 3. Seuls leséléments répondant aux critères d’éligibilité à un niveau peuvent prétendre à l’éligibilité à lacouverture du capital de solvabilité requis (SCR) et au minimum de capital requis (MCR). Leséléments ne répondant aux critères d’aucun Tier sont déclassés, c’est-à-dire ne font pas partiedes fonds propres prudentiels.Le classement en niveaux des éléments de fonds propres dépend notamment de la mesure danslaquelle ils répondent à des conditions de disponibilité permanente et de subordination.

Les exigence en capitalComme mentionné précédemment, le pilier 1 introduit deux seuils quantitatifs réglementaires :

• Minimum Capital Requirement (MCR)Le MCR correspond au montant minimal de fonds propres en deçà duquel les preneurset bénéficiaires seraient exposés à un niveau de risque inacceptable.Il est calculé à partir d’une approche combinée qui fait intervenir une formule linéaire(calibrée selon une VaR à 85% à un an) et un corridor (entre 25% et 45% du SCR).

MCR = max(MCRcombined , AMCR)

avecMCRcombined = min(max(MCRlinear , 25%× SCR) , 45%× SCR),

AMCR est le seuil de plancher absolu (2,2 M€ en assurance non-vie).

Où MCRlinear correspondant à une combinaison linéaire des primes et des provisionstechniques sans marge, les coefficients de cette combinaison linéaire étant définis en fonc-tion de la branche d’activité.

39

Page 44: Mots clés - Institut des actuaires

• Solvency Capital Requirement (SCR)Le SCR représente le capital cible nécessaire pour absorber les chocs d’une sinistralitéexceptionnelle.

En vue d’évaluer le risque de réserve, l’enjeu se situe au niveau du SCR, nous détaillonsdonc ses modalités de calcul dans la partie suivante.

5.1.3 Le capital cible de Solvabilité IILe Capital de Solvabilité Requis (SCR) constitue l’indicateur essentiel du pilier 1. Concrè-

tement il correspond à la Value-at-Risk (VaR) des fonds propres de base de l’entreprise d’as-surance ou de réassurance, avec un niveau de confiance de 99, 5% à horizon un an. En d’autrestermes ce niveau de capital est défini de sorte à réduire la probabilité de ruine de la compagnied’assurance à 0, 5% à horizon un an (soit une ruine tous les 200 ans).

La notion d’"horizon à un an" est un concept clé dans la définition du SCR, qui devra no-tamment être pris en compte dans les méthodes de provisionnement.

Le SCR doit être calculé au moins une fois par an et être notifié aux autorités de contrôlecompétentes. En cas de changement significatif du profil de risque affectant les hypothèsessous-jacentes de calcul, le SCR doit être réévalué sans délai et son résultat doit être communi-qué aux autorité de contrôle.

Les différentes approche de calcul du SCRDifférentes approches de calcul du SCR existent, l’entreprise peut choisir l’approche qui luiconvient en respect du principe de proportionnalité : l’approche retenue doit être adaptée à lanature, à l’ampleur et à la complexité des risques à modéliser. Ces approches sont les suivantes :

• La Formule Standard qui repose sur des hypothèses, méthodes et calibrages fixés par ladirective. La Formule Standard étant par définition commune à l’ensemble des acteursdu marché européen, elle ne permet donc pas de refléter précisément les risques propresà chaque organisme.

• Les Undertaking Specific Parameters (USP) permettant à l’entreprise de calibrer certainsparamètres de la Formule Standard de manière propre à son portefeuille. Cependantl’entreprise devra utiliser les méthodologies de calibrage données par la réglementation.

• Le modèle interne permettant une modélisation propre à l’entreprise, en se basant surson profil de risque spécifique, pour différentes raisons (appétit pour le risque différent,souscription de risques atypiques, système de gouvernance développé, ...). Il peut êtrepartiel (pour certains facteurs de risques seulement) ou total (pour la globalité), et estsoumis à l’approbation des autorités de contrôle. A l’inverse de la formule standard,le modèle interne permet de définir des exigences de capital compte tenu des risquesréellement portés par la société d’assurance.

La formule standardLa formule standard s’inspire beaucoup du modèle de type RBC (Risk Based Capital) américaindont le principe est d’associer à chacun des risques supporté par l’assureur une exigence de

40

Page 45: Mots clés - Institut des actuaires

capital. Elle se décompose en plusieurs modules et sous-modules classés parmi les 7 risquessuivants :

• le risque de souscription en non-vie,

• le risque de souscription en vie,

• le risque de souscription en santé,

• le risque de marché,

• le risque de défaut,

• le risque opérationnel,

• le risque relatif aux actifs incorporels.

La structure modulaire de la formule standard est représentée sur la figure ci-dessous :

Figure 5.2 – Structure modulaire de la Formule Standard

Le SCR global se calcule comme suit :

SCR = BSCR− Adj +Op,

- BSCR est le SCR de base,

41

Page 46: Mots clés - Institut des actuaires

- Op est le SCR au titre du risque opérationnel,

- Adj est un ajustement proposé par l’EIOPA ayant pour objectif de tenir compte de lacapacité de l’assureur à absorber les pertes futures via les mécanismes de participationaux bénéfices ou les impôts différés.

Le BSCR (Basic Solvency Capital Requirement) s’obtient à partir des SCR modulaires, d’unematrice de corrélation et du SCR relatif aux actifs incorporel (SCRintangible) selon la formulesuivante :

BSCR =√∑

i,j

Corri,j × SCRi × SCRj + SCRintangible.

Une attention particulière est souvent portée sur le risque de souscription en raison de la signifi-cativité de l’impact qu’il est susceptible d’avoir sur la solvabilité d’une compagnie d’assurance.

SCR du risque de souscriptionLe besoin en capital au titre du risque de souscription non-vie s’écrit :

SCRNL = ρ(σ)× V

1. V est une mesure de volume d’activité non-vie tout segments confondus :

V =∑s

Vs

où Vs est le volume d’un segment donné tel que :

Vs = (Vp,s + Vr,s)× (0, 75 + 0, 25×DIVs)

avec

- Vp,s l’indicateur de volume de primes,- Vr,s l’indicateur de volume de réserves correspondant au best estimate des provisionspour sinistres à payer nettes de réassurance,

- DIVs l’effet de diversification géographique.

2. σ est le coefficient de variation associé à la volatilité globale liée au risque de prime et deréserve. Il se calcule en deux étapes :

(a) Pour chaque segment, dénoté LoB, détermination d’un coefficient de variation pourle risque de prime et de réserve, avec l’hypothèse que la corrélation α entre le risquede prime et le risque de réserve est égale à 50% :

σLoB =

√(σ(p,LoB) + V(p,LoB)

)2+ 2ασ(p,LoB)σ(r,LoB)V(p,LoB)V(r,LoB) +

(σ(r,LoB) + V(r,LoB)

)2

V(p,LoB) + V(r,LoB)

(b) Agrégation du coefficient de variation pour tous les segments suivant une matrice decorrélation fourni par la cinquième étude quantitative d’impact (QIS5).

42

Page 47: Mots clés - Institut des actuaires

3. ρ(σ) est une fonction du coefficient de variation σ reflétant une volatilité globale liée aurisque de primes et de réserves et permettant d’obtenir l’écart entre le quantile à 99, 5%du risque et son espérance. Dans l’hypothèse d’une distribution Log-Normale du risquesous-jacent, cette fonction s’écrit comme suit :

ρ(σ) =exp

(N99,5% ×

√ln(1 + σ2)

)√

1 + σ2− 1

avec N99,5% est le quantile à 99, 5% d’une loi Normale centrée réduite.Par simplification, l’approximation suivante est faite : ρ(σ) ≈ 3σ. Nous en déduisons quele besoin en capital au titre du risque de souscription non-vie est estimé par la formulesuivante :

SCRNL = 3σV

Dans ce mémoire, nous nous intéressons essentiellement au risque de réserve, que nous détaillonsdans la section suivante.

5.2 Le risque de réserveComme représenté sur la figure 5.2, le risque de réserve est l’une des composantes du module

risque de souscription non-vie. En effet ce module comporte les 3 risques suivants :

• Le risque de prime et de réserve :

– Le risque de prime correspond au risque de sous-tarification. Il représente le risqueque le coût des sinistres futurs soit supérieur aux primes perçues.

– Le risque de réserve correspond au risque de sous-provisionnement. Il réside dansla nature aléatoire de l’évaluation des sinistres et à une mauvaise estimation desengagements pris envers les assurés.

• Le risque catastrophe résultant d’événements extrêmes ou exceptionnels non capturés parles risques de tarification et de provisionnement ;

• Le risque de rachat lié aux contrats intégrant une clause de reconduction annuelle etunilatérale disponible pour l’assuré ou une option permettant de terminer le contrat avantla date initialement prévue.

Seul le risque de réserve nous intéresse dans le cadre de ce mémoire puisque nous cherchonsà savoir si les estimations obtenues avec la méthode de Parodi présentent moins d’incertitudeque celles obtenues avec la méthode de Chain Ladder. Par conséquent nous détaillons ce risquedans la suite de ce document et nous présentons une méthode d’évaluation de ce risque.

5.2.1 Définition du risque de réserveLe risque de réserve mesure l’incertitude qui pèse sur le développement des sinistres à l’ul-

time. Les montants restant à payer des sinistres déjà survenus ne sont pas connus au momentdu calcul des provisions, il existe donc un risque de sous-évaluation des réserves.

43

Page 48: Mots clés - Institut des actuaires

Le risque de réserve couvre deux sources d’incertitudes : l’erreur d’estimation (mauvaise esti-mation du niveau des provisions) et l’aléa statistique (l’écart entre le montant réel des sinistreset l’estimation moyenne).

Jusqu’en 2008, l’approche du risque de réserve était à long terme. Les travaux de Merz etWüthrich remettent en question cette vision long terme et préfèrent mettre en place une visionà un an du risque, plus pertinente et significative pour l’entreprise qui adapte alors une poli-tique de provisionnement plus réactive. Dans la section suivante nous détaillons cette approchepermettant dévaluer le risque de réserve à horizon un an.

5.2.2 Le modèle de Merz et WüthrichL’approche de Merz et Wüthrich permet d’estimer la volatilité du risque de réserve. Il s’agit

d’une adaptation de la méthode de Mack à horizon un an et reposant sur l’estimation de lavolatilité du CDR (Claims Development Result).

Notion du CDRDans la littérature classique traitant du provisionnement en assurance non-vie, l’incertitude surle développement des sinistres déjà survenus est évaluée jusqu’à l’ultime, c’est-à-dire jusqu’àla clôture des sinistres. Thomas Mack a été le premier a étudié l’incertitude dans les estima-tions issues de la méthode de Chain Ladder. La plupart des méthodes stochastiques qui ont étéproposées jusqu’à présent se concentre sur cette vision à l’ultime. Cependant la directive Sol-vabilité II a introduit une vision à court terme. En effet le régulateur demande à une entreprised’assurance d’être solvable dans 99.5% des cas dans l’année à venir. La vision à court terme estimportante pour plusieurs raisons :

• Si les provisions d’une entreprise s’avèrent être insuffisantes à court terme, l’entrepriserisque d’être déclarée insolvable et par conséquent elle n’atteindra tout simplement pasl’horizon de temps se référant à l’ultime.

• Une vision à court terme est plus adaptée pour les décisions de gestion car des actionsdoivent être prises régulièrement. En effet les prises de décisions concernant la gestion del’entreprise sont généralement effectuées sur une base annuelle.

• La performance à court terme d’une entreprise est d’un grand intérêt pour les régulateurs,les clients, les investisseurs, les agences de notation, les marchés boursiers, etc. Sa cohé-rence et sa stabilité aura en somme un impact sur la solidité financière et la réputationde l’entreprise.

Concrètement le CDR correspond à la ré-estimation "best estimate" de la charge ultime de lacompagnie entre deux années consécutives.

NotationsNous définissons les notations suivantes pour la suite :

• Les paiements cumulés pour l’année de survenance i ∈ {0, ..., n} et l’année de développe-ment j ∈ {0, ..., n} : Ci,j

44

Page 49: Mots clés - Institut des actuaires

• L’information disponible à la date I : DI = {Ci,j : i+ j ≤ n et i ≤ n}

• L’information disponible à la date I + 1 : DI+1 = {Ci,j : i+ j ≤ n+ 1 et i ≤ n}

• Les provisions estimées à la date I : RIi = Ci,n − Ci,n−i pour 1 ≤ i ≤ n

• Les provisions estimées à la date I + 1 : RI+1i = Ci,n − Ci,n−i+1 pour 1 ≤ i ≤ n

• Les paiements incrémentaux réalisés entre I et I + 1 : Xi,n−i+1 pour 1 ≤ i ≤ n

On peut alors définir le CDR comme la différence des provisions estimées aux dates I et I + 1ajustée des paiements effectués entre I et I + 1 :

CDRi(I + 1) = RIi −RI+1

i −Xi,n−i+1.

Les hypothèses sous-jacentes du modèleLe modèle de Merz et Wüthrich repose sur les hypothèses suivantes :

1. Les années de survenance sont indépendantes entre elles, i.e.

{Ci,1, ..., Ci,n} et {Cj,1, ..., Cj,n} sont indépendants ∀i 6= j

2. Les (Ci,j)j≥0 sont des chaînes de Markov et il existe des constantes fj > 0 et σj > 0 pourj = 0, ..., n− 1 telles que ∀i ∈ {1, ..., n} on a :

E(Ci,j+1|Ci,j) = fjCi,j

V ar(Ci,j+1|Ci,j) = σ2jCi,j

Remarque. Dans le modèle de Mack la seconde hypothèse est moins forte, à savoir l’hypo-thèse du processus de Markov est remplacée par une hypothèse seulement sur les deux premiersmoments.

Comme expliqué plus haut, le risque de réserve à horizon un an s’appuie sur l’analyse du CDRcar la prise en compte de nouvelles information à la date I + 1 va modifier notre estimation dela charge ultime.Le CDR est sujet à deux facteurs d’incertitude :

• Un facteur de variance lié à l’évaluation des paiements futurs (erreur de processus).

• Un facteur d’estimation lié aux paramètres estimés (erreur d’estimation).

L’erreur de prédiction du CDR peut être vue sous deux angles différents :

• Sous un angle rétrospectif : à la date I + 1 le développement des sinistres est connu, onobtient la réalisation du CDR. Le CDR obtenu est dit réel.

• Sous un angle prospectif : généralement on prédit que le CDR sera nul pour l’année comp-table (I, I+1). Il subsiste néanmoins une incertitude sur l’exactitude de cette affirmation,nous analysons alors l’incertitude de cette prédiction. On parle de CDR observable.

45

Page 50: Mots clés - Institut des actuaires

Le CDR réelLe CDR réel pour l’année de survenance i et l’année calendaire ]I, I + 1] est défini par :

CDRi(I + 1) = E[RIi |DI ]− (Xi,I−i+1 + E[RI+1

i |DI+1])= E[CI

i,n|DI ]− E[CI+1i,n |DI+1]

De plus, le CDR réel total est donné par la formule suivante :n∑i=1

CDRi(I + 1)

Remarque. Les (Ci, j)j≤0 ayant par hypothèse les propriétés d’une martingale, on a :

E[CDRi(I + 1)|DI ] = 0

Pour des facteurs de Chain Ladder connus, la valeur attendue du CDR réel vue à t = I seradonc égale à 0. En pratique, les facteurs de développement ne sont pas connus à cette date et leCDR réel n’est pas observable. On l’estime toutefois en remplaçant les facteurs de Chain Ladderpar leurs estimateurs.

Le CDR observableLe CDR observable est l’estimateur du CDR réel. Pour une année de survenance i, il est définipar :

CDRi(I + 1) = RDIi − (Xi,n−i+1 + R

DI+1i )

= CIi,n − CI+1

i,n

où RDIi et RDI+1

i sont définis comme suit :

RDIi = CI

i,n − Ci,I−iRDI+1i = CI+1

i,n − Ci,I−i+1

De plus, le CDR observable total est donné par la formule suivante :n∑i=1

CDRi(I + 1)

Erreur de provisionnement à horizon un anIl s’agit de mesurer deux erreurs de prédiction : le CDR observable par rapport à la valeur 0 etle CDR réel par rapport au CDR observable.

1. L’erreur quadratique moyenne de prédiction conditionnelle ou mean square error of pre-diction (notée MSEP) du CDR observable est définie par :

MSEPCDRi(I+1)|DI

(0) = E[(CDRi(I + 1)− 0

)2|DI

](5.1)

Ce terme correspond à la vision prospective. Il permet de quantifier l’incertitude dans lebudget pour les CDR observables à la fin de l’année comptable. La marge de solvabilitédoit contenir le capital nécessaire pour faire face aux éventuelles déviations du CDRi(I+1)autour de 0.

46

Page 51: Mots clés - Institut des actuaires

2. L’erreur de prédiction conditionnelle du CDR réel par rapport au CDR observable estdonnée par la formule suivante :

MSEPCDRi(I+1)|DI

(CDRi(I + 1)

)= E

[(CDRi(I + 1)− CDRi(I + 1)

)2|DI

](5.2)

Ce terme correspond quant à lui à la vision rétrospective. Il permet de mesurer la distanceentre le CDR réel et le CDR observable.

Merz et Wüthrich définissent les variables suivantes dans leur article afin de simplifier lesexpressions des estimateurs des deux MSEP énoncées en (5.1) et (5.2) :

SIj =n−j−1∑i=0

Ci,j et SI+1j =

n−j∑i=0

Ci,j

∆Ii,n = σ2

n−i/(f In−i)2

SIn−i+

n−1∑j=n−i+1

(Cn−j,j

SI+1j

)2 σ2j/(f Ij )2

SIj

ΦIi,n =

n−1∑j=n−i+1

(Cn−j,j

SI+1j

)2 σ2j/(f Ij )2

Cn−j,j

ΨIi = σ2

n−i/(f In−i)2

Ci,n−i

ΓIi = ΦIi,n + ΨI

i

Maintenant nous sommes en mesure de donner les formules des estimateurs de tous les termesd’erreurs. Tout d’abord la variance du CDR réel est estimée par :

V ar[CDRi(I + 1)|DI ] = (CIi,n)2ΨI

i

Pour une année de survenance i, les MSEP énoncées en (5.1) et (5.2) sont estimée par :

MSEPCDRi(I+1)|DI

(0) = (CIi,n)2(ΓIi,n + ∆I

i,n)

MSEPCDRi(I+1)|DI

(CDRi(I + 1)) = (CIi,n)2(ΦI

i,n + ∆Ii,n)

Cela implique que :

MSEPCDRi(I+1)|DI

(0) = MSEPCDRi(I+1)|DI

(CDRi(I + 1)) + V ar[CDRi(I + 1)|DI ]

≥ MSEPCDRi(I+1)|DI

(CDRi(I + 1))

Les erreurs de prédiction toutes années de survenance confondues tiennent compte d’un termede corrélation puisque les mêmes observations sont utilisées pour déterminer les coefficients

47

Page 52: Mots clés - Institut des actuaires

de Chain Ladder et sont par la suite appliqués à différentes années de survenance. Elles sontestimées par les formules suivantes :

MSEP∑n

i=1 CDRi(I+1)|DI(0) =

n∑i=1

MSEPCDRi(I+1)|DI

(0) + 2∑k>i>0

CIi,nC

Ik,n(ΞI

i,n + ΛIi,n)

MSEP∑n

i=1 CDRi(I+1)|DI

(n∑i=1

CDRi(I + 1))

=n∑i=1

MSEPCDRi(I+1)|DI

(CDRi(I + 1))

+ 2∑k>i>0

CIi,nC

Ik,n(ΦI

i,n + ΛIi,n)

avec

ΛIi,n = Ci,n−i

SI+1n−i

σ2n−i/(f In−i)2

SIn−i+

n−1∑j=n−i+1

(Cn−j,j

SI+1j

)2 σ2j/(f Ij )2

SIj

ΞIi,n = ΦI

k,n + σ2n−i/(f In−1)2

SI+1n−i

Comme précédemment, nous obtenons l’inégalité suivante :

MSEP∑n

i=1 CDRi(I+1)|DI(0) = MSEP∑n

i=1 CDRi(I+1)|DI

(n∑i=1

CDRi(I + 1))

+n∑i=1

V ar(CDRi(I + 1)|DI

)+ 2

∑k>i>0

CIi,nC

Ik,n(ΞI

i,n − ΦIi,n)

≥ MSEP∑n

i=1 CDRi(I+1)|DI

(n∑i=1

CDRi(I + 1))

Pour la mesure du risque de provisionnement à horizon un an, c’est l’erreur de prédiction duCDR observable, MSEP∑n

i=1 CDRi(I+1)|DI(0), qui est utilisé.

Comparaison avec le modèle de MackComme détaillé précédemment, la MSEP du modèle de Merz et Wüthrich pour une année

de survenance i est égale à :

MSEPCDRi(I+1)|DI

(0) = (CIi,n)2

σ2n−i/(f In−i)2

Ci,n−i︸ ︷︷ ︸(1)

+ σ2n−i/(f In−i)2

SIn−i+

n−1∑j=n−i+1

Cn−j,j

SI+1j

σ2j/(f Ij )2

SIj︸ ︷︷ ︸(2)

• Le terme (1) représente l’erreur de processus. A la différence du modèle de Mack, le modèle

de Merz et Wüthrich ne prend en compte qu’une seule diagonale. C’est la différence entrela vision à horizon un an et la vision ultime.

48

Page 53: Mots clés - Institut des actuaires

• Les deux autres termes (2) représentent l’erreur d’estimation. Le premier terme fait réfé-rence à la première diagonale simulée alors que le second terme renvoie aux autres diago-nales. Ce dernier terme est pondéré par le rapport entre la dernière diagonale connue etle reste de l’année de développement considérée.

Selon le modèle de Mack, l’erreur d’estimation des provisions est donnée par la formule suivante :

MSEP (Ri) = C2i,n

n−1∑j=n−i

(σIj )2/(f Ij )2

Ci,j︸ ︷︷ ︸(3)

Erreur de processus

+(σIj )2/(f Ij )2

Sj︸ ︷︷ ︸(4)

Erreur d’estimation

Nous notons que :

MSEPCDRi(I+1)|DI

(0) ≤ MSEP (Ri)En effet :

• (1) ≤ (3) puisque (1) est le premier terme de (3) qui est une somme de termes positifs

• (2) ≤ (4) puisque Cn−j,j

SI+1j

< 1

De façon analogue, les MSEP toutes survenances confondues peuvent s’écrire de la façon sui-vante :

- Pour le modèle de Merz et Wüthrich :

MSEP∑n

i=1 CDRi(I+1)|DI(0) =

n∑i=1

MSEPCDRi(I+1)|DI

(0)

+ 2n∑i=1

n∑k=i+1

Ci,nCk,n

σ2n−i/(f In−i)2

SIn−i+

n−1∑j=n−i+1

Cn−j,j

SI+1j

σ2j/(f Ij )2

SIj

︸ ︷︷ ︸

(1′)

- Pour le modèle de Mack

MSEP (R) =n∑i=1

MSEP (Ri) + 2n∑i=1

n∑k=i+1

Ci,nCk,nn−1∑j=n−i

σ2j/f

2j

SIj︸ ︷︷ ︸(2′)

Comme précédemment, on a :

MSEP∑n

i=1 CDRi(I+1)|DI(0) ≤ MSEP (R),

puisque :

• (1′) ≤ (2′) puisque Cn−j,j

SI+1j

< 1

• ∑ni=1 MSEP

CDRi(I+1)|DI(0) ≤ ∑n

i=1 MSEP (Ri)

Ainsi la formule approchée de Merz et Wüthrich implique que la volatilité à horizon un an estinférieure à la volatilité à l’ultime.

49

Page 54: Mots clés - Institut des actuaires

Critiques du modèle de Merz et WüthrichLe modèle de Merz et Wüthrich présente l’avantage de mesurer le risque de provisionnement

à horizon un an par l’application d’une formule fermée. Il est facile à implémenter et à utiliser,ce qui présente un réel avantage dans le cadre Solvabilité II où la publication de résultats est fré-quente. De plus, la structure du modèle permet de retracer toutes les étapes de calculs aisément.

Néanmoins, sa simplicité induit inévitablement des limites. Notamment le modèle souffre desmêmes inconvénients que sa version à l’ultime, à savoir des hypothèses fortes pas toujours réa-listes (indépendance des années de survenance et sensibilité importante liée aux facteurs dedéveloppement).La formule proposée par Merz et Wüthrich se base sur une approximation qui contraint l’es-timation de la volatilité à un an à être inférieure à l’estimation de la volatilité à l’ultime.Intuitivement cette remarque semble correcte, mais il peut exister des cas particuliers où ellene serait pas vérifiée.Enfin, le modèle de Merz et Wüthrich ne permet pas d’obtenir une distribution de l’estimationdu CDR.

Une autre méthode qui pourrait palier à certaines insuffisances du modèle de Merz et Wü-thrich serait d’utiliser une méthode de ré-échantillonnage : la méthode du bootstrap adaptée àun an, dite méthode de re-reserving.

5.2.3 La méthode de re-reservingLa méthode Merz Wüthrich présentée précédemment possède le défaut majeur de ne fournir

que les moments d’ordre un et deux. C’est pourquoi on s’intéresse désormais à la technique dubootstrap qui permet notamment d’obtenir une distribution complète d’un estimateur.

De manière analogue à l’adaptation du modèle de Mack à horizon un an, il existe une adapta-tion de la méthode du bootstrap pour mesurer la volatilité des réserves à horizon un an. Cetteméthode s’appelle la méthode de re-reserving. Elle consiste à obtenir des simulations de ladiagonale future à partir d’une procédure bootstrap, puis pour chaque simulation à ré-estimerle montant de réserve par une méthode prédéfinie. De plus amples informations au sujet de laméthode du bootstrap se trouvent en annexe B.

L’algorithme de cette méthode se décompose en 3 grandes étapes :

• Estimation des provisions à la date I par une méthode de provisionnement choisie : RIi

• Simulation d’une nouvelle diagonale correspondant à la nouvelle information : Xi,n−i+1

• Ré-estimation des provisions à la date I + 1 par la méthode de provisionnement choisie :RI+1i

Ainsi nous sommes en mesure de déduire le CDR :

CDRi(I + 1) = RIi −RI+1

i −Xi,n−i+1

Après un certain nombre de simulation, cet algorithme permet d’obtenir la distribution du CDRà un an.

50

Page 55: Mots clés - Institut des actuaires

Remarque. La méthode re-reserving pour le calcul du CDR présente l’avantage du choix de laméthode de provisionnement et d’être généralisable à horizon k.De plus, le fait d’obtenir une distribution du CDR permet de calculer diverses statistiques surcette variable, notamment la V aR99,5% pour la détermination du SCR du risque de réserve dansle cadre Solvabilité II.

Plus précisément, les étapes de l’algorithme sont détaillées ci-après :

1. Estimation des provisions RIi à la date I avec la méthode de provisionnement choisie.

2. Calcul des résidus de Pearson ajustés propres au modèle de Mack :

rajustéi,j =

√Ci,j(fi,j − fj)

σj×√

n− jn− j − 1

3. Phase simulatoire à répéter n fois :

(a) Ré-échantillonnage des résidus. Soient ri,j les nouveaux résidus.(b) Calcul des nouveaux facteurs de développement individuels pour 0 ≤ i+ j ≤ n− 1 :

f Ii,j = fj +

√√√√ σ2j

Ci,jri,j

(c) Calcul des nouveaux facteurs de développement à la date I, pour 0 ≤ j ≤ n− 1 :

f Ij =∑n−j−1i=0 Ci,j f

Ii,j∑n−j−1

i=0 Ci,j

(d) Simulation de la nouvelle diagonale Ci,n−i+1, avec les nouveaux facteurs de dévelop-pement f Ij et l’erreur de prédiction associée σ2

n−i par un tirage aléatoire selon uneloi de probabilité choisie. En considérant que :

E(Ci,n−i+1) = Ci,n−i · f In−iVar(Ci,n−i+1) = Ci,n−i · σ2

n−i

et en sélectionnant les lois Normale, Log-Normale et Gamma, nous obtenons :

Ci,n−i+1 = N[Ci,n−if

In−i ;

√Ci,n−iσ2

n−i

]

Ci,n−i+1 = LN

ln(Ci,n−if

In−i

)− 1

2 ln(

1 + σ2n−i

Ci,n−i(f In−i)2

);

√√√√ln(

1 + σ2n−i

Ci,n−i(f In−i)2

)

Ci,n−i+1 = Γ[Ci,n−i(f In−i)2

σ2n−i

; σ2n−i

fn−i

]

51

Page 56: Mots clés - Institut des actuaires

En effet soit X une variable aléatoire :• si X ∼ N(µ, σ) alors

E(X) = µ et Var(X) = σ2

• si X ∼ LN(µ, σ) alors

E(X) = eµ+ 12σ

2 et Var(X) = eµ+ 12σ

2(eσ2 − 1)

• si X ∼ Γ(k, θ) alors

E(X) = kθ et Var(X) = kθ2

Nous sommes ainsi en mesure d’obtenir les paiements incrémentaux entre I et I+1 :

Xi,ni+1 = Ci,n−i+1 − Ci,n−i

(e) Calcul des facteurs de développement en tenant compte de la nouvelle diagonale :

f I+1j =

∑n−j−1i=1 Ci,jfi,j + Cn−j,j f

I+1n−j,j∑n−j

i=1 Ci,j

(f) Ré-estimation des provisions à la date I + 1 pour 2 ≤ i ≤ n :

RI+1i = Ci,n−i+1

n−1∏j=n−i+1

f I+1j − Ci,n−i+1

(g) Calcul du CDR par année de survenance :

CDRi(I + 1) = RIi −RI+1

i −Xi,n−i+1

Le CDR global défini par

CDR(I + 1) =n∑i=1

CDRi(I + 1)

est stocké à chaque itération dans le but de constituer la distribution du CDR.

Ainsi en prenant l’écart-type de cette distribution nous obtiendrons le coefficient de variationassocié au risque de réserve.

Cette méthode peut être schématisée comme suit :

52

Page 57: Mots clés - Institut des actuaires

Figure 5.3 – Schéma récapitulatif de la méthode de re-reserving

53

Page 58: Mots clés - Institut des actuaires

Chapitre 6

Application des méthodes

Dans ce chapitre, nous présentons les résultats, analyses et conclusions sur la performancedes différentes méthodes détaillées précédemment. Chacun des modèles a été calibré sur le mêmeéchantillon d’apprentissage constitué de 90% des sinistres de la base de données présentée dansle chapitre 1 et testé sur les 10% de sinistres restants.Le test a été défini de la façon suivante : prédiction de la charge de sinistre à Q2 2017 à partirde la charge de sinistre à Q3 2012 , comme illustré sur la figure ci-dessous :

Figure 6.1 – Définition du test

La performance de chacune des méthodes est évaluée en comparant la charge de sinistre préditeavec la charge de sinistre observée à Q2 2017.

54

Page 59: Mots clés - Institut des actuaires

Figure 6.2 – Charges de sinistre et provision observées

Nous constatons une baisse de la charge de sinistre entre Q3 2012 et Q2 2017, se traduisantpar un boni de 4,8m€.

6.1 Méthode de Chain LadderLa méthode de Chain Ladder permet d’évaluer les IBNR (Incurred But Not Reported), i.e. lasomme des IBNER et des IBNYR. Nous avons besoin d’isoler les IBNER car dans le cadre dutest nous projetons un groupe de sinistres connus, les IBNYR ne sont donc pas pris en compte.Par conséquent nous calculons dans un premier temps les IBNR puis, dans un second tempsles IBNYR, la différence des deux permettant d’obtenir les IBNER.

Calcul des IBNRLa méthode de Chain Ladder a été appliquée sans jugement d’expert, c’est-à-dire qu’aucuncoefficient intermédiaire n’a été exclu. Les facteurs de développement ont été calculés en utilisantau maximum les 7 années de survenance les plus récentes. La table ci-dessous présente laprovision IBNR :

Figure 6.3 – Provision IBNR

55

Page 60: Mots clés - Institut des actuaires

Calcul des IBNYRNous utilisons une méthode "fréquence x coût" pour l’évaluation des IBNYR. Cette méthodeconsiste à :

• Projeter le triangle des nombres de sinistres

• Par différence des diagonales de Q3 2012 et Q2 2017, nous obtenons le nombre de sinistresdéclarés tardivement : N IBNY R

i

• Projeter le triangle des coûts moyens, nous obtenons les coûts moyens à Q2 2017 : CQ217i

• Ainsi les IBNYR seront égaux à

IBNY Ri = N IBNY Ri × CQ217

i

Remarque. Les facteurs de développement ont été calculés en utilisant les 5 années de surve-nance les plus récentes et sans jugement d’expert.

La table ci-dessous présente la provision IBNYR :

56

Page 61: Mots clés - Institut des actuaires

Figure 6.4 – Provision IBNYR

Calcul des IBNERAinsi nous sommes en mesure de définir les IBNER par différence entre les IBNR et IBNYR.La table ci-dessous présente la provision IBNER :

57

Page 62: Mots clés - Institut des actuaires

Figure 6.5 – Provision IBNER

Résultats du testLes résultats du test sont présentés dans la table qui suit :

Figure 6.6 – Comparaison de la provision estimée par la méthode de Chain Ladder avec laprovision observée

Nous constatons que la provision estimée par la méthode de Chain Ladder est beaucoup pluspessimiste que la provision réelle. En effet la méthode de Chain Ladder prédit un boni de 1.2m€alors qu’en réalité nous observons un boni de 4,8m€. Par conséquent l’erreur commise est del’ordre de 75%.Les estimations s’avèrent particulièrement erronées dès lors que nous observons des développe-ments non homogènes, comme c’est le cas pour les années de survenance 2010 et 2011.

58

Page 63: Mots clés - Institut des actuaires

Figure 6.7 – Représentation graphique de la provision estimée par la méthode de Chain Ladderet de la provision observée

59

Page 64: Mots clés - Institut des actuaires

6.2 Méthode selon l’approche de ParodiVariables explicativesComme expliqué dans le chapitre 2, seules les variables invariantes ont été retenues commevariables explicatives du modèle. Ces variables sont les suivantes :

Figure 6.8 – Variables explicatives du modèle de Parodi

Remarque. La variable "CHARGE.TOTALE.CUMULEE" varie au cours du temps, néan-moins nous sommes en mesure de l’estimer tout au long du développement futur du sinistregrâce au facteur de développement que le modèle estime à chaque trimestre de développementfutur.

Nous détaillons maintenant les modalités de chacune des variables du modèle :

1. GARSINCette variable se répartit en 2 modalités selon les proportions suivantes :

Modalité FréquenceGAV 97, 99%GADC 2, 01%

2. SILTYPDOSCette variable présente 2 modalités avec les fréquences suivantes :

Modalité FréquenceA 96, 96%C 0, 80%Non renseigné 2, 24%

3. SILSSCAUSECette variable se répartit en 41 modalités selon les proportions suivantes :

60

Page 65: Mots clés - Institut des actuaires

4. SALCODECette variable présente 6 modalités avec les fréquences suivantes :

61

Page 66: Mots clés - Institut des actuaires

Modalité Fréquence1 17, 01%2 0, 64%3 0, 43%4 0, 83%7 8, 96%8 7, 93%Non renseigné 64, 19%

5. COQGENTARLes fréquences des 5 modalités de cette variables sont les suivantes :

Modalité Fréquence2008A 3, 28%2013A 9, 04%2014B 26, 07%2015A 3, 73%2015B 18, 03%Non renseigné 39, 85%

6. COLTYPCOCette variable se répartit en 2 modalités selon les proportions suivantes :

Modalité FréquenceD DIRECT 99, 84%J JUSTIFICATIF 0, 16%

7. COQFORMULECette variable se répartit en 12 modalités selon les proportions suivantes :

Modalité FréquenceG1 20, 39%G2 19, 41%G3 12, 90%G4 5, 97%G5 5, 07%G6 12, 81%G7 1, 67%G8 16, 36%GA 2, 15%GB 1, 17%GC 0, 46%GD 1, 63%

8. TTITRECette variable présente 4 modalités principales :

62

Page 67: Mots clés - Institut des actuaires

• MLE• MME• MR• AUTRE (qui regroupe les modalités de faible fréquence)

Un sinistre peut compter plusieurs victimes, ainsi à l’aide de cette variable un décomptedes victimes dans chacune des 4 catégories énumérées ci-dessus est calculé.

9. CHARGE TOTALE CUMULEELa base présente les catégories de flux financiers suivantes :

0 PROVISION1 PAIEMENT PRINCIPAL2 PRÉVISION D’ENCAISSEMENT SUR SINISTRE3 RECOURS ENCAISSÉ5 ANNULATION D’UN PAIEMENT6 ANNULATION D’UN RECOURS ENCAISSÉD ANNULATION ENCAISSEMENTE ENCAISSEMENT DIVERS

Ainsi la charge totale cumulée d’un sinistre est définie comme suit :

(1)− (5)− (3) + (6)− (E) + (D) + (0)− (2)

Paramètres des modèlesComme détaillé dans le chapitre 2, l’estimation des facteurs de développement se fera parl’association de deux modèles :

1. Une régression logistique ayant pour but d’estimer la probabilité que le facteur de déve-loppement soit égal à 1.Les paramètres de cette régression seront estimés sous le logiciel de statistiques R, à l’aidede la librairie "glmnet" développé par Friedman, Hastie et Tibshirani. Cette librairie per-met de modéliser des données par des régression de type GLM en utilisant la pénalisationRidge, Lasso ou Elastic net.De plus la fonction "cv.glmnet" (cross-validation for glmnet) permet valider l’évaluationdu modèle par validation croisée de type "k-fold".

2. Un modèle Tweedie qui estimera facteurs de développement différents de 1.Nous utiliserons, dans ce cas, la librairie "HDtweedie", qui permet également d’évaluer lesparamètres du modèle par validation croisée de type "k-fold", par le biais de la fonction"cv.HDtweedie".

Les paramètres de ces deux modèles sont présentés dans la table suivante :

63

Page 68: Mots clés - Institut des actuaires

Figure 6.9 – Paramètres de la régression logistique et du modèle Tweedie

64

Page 69: Mots clés - Institut des actuaires

Adéquation des modèles1. RÉGRESSION LOGISTIQUE

La "courbe ROC", acronyme pour receiver operating characteristic, permet de visualiserle pouvoir discriminant d’un modèle en représentant la sensibilité en fonction du complé-mentaire de la spécificité pour des valeurs de seuil s allant de 0 à 1.La sensibilité représente la probabilité de bien détecter un évènement au seuil s, tandisque la spécificité représente la probabilité de bien détecter un non-évènement au seuil s.Un bon modèle est capable de capturer un maximum de vrais évènements avec un mini-mum de faux évènements. Ainsi graphiquement, plus la courbe ROC s’approche du coinsupérieur gauche, meilleur est le modèle.Il existe une possibilité de caractériser numériquement la courbe ROC en calculant la sur-face située entre la courbe ROC et l’axe des abscisses. Cet aire sous la courbe est appelécritère AUC (Area Under the ROC Curve).Le tableau ci-dessous fournit des règles générales permettant d’interpréter les valeurs del’AUC :

AUC = 0.5 Aucune discrimination0.5 < AUC < 0.7 Discrimination faible0.7 ≤ AUC < 0.8 Discrimination acceptable0.8 ≤ AUC < 0.9 Discrimination excellente0.9 ≤ AUC < 1 Discrimination parfaite

Ainsi nous déterminons la courbe ROC et l’AUC de la régression logistique sur l’échan-tillon d’apprentissage d’une part, puis sur l’échantillon de test d’autre part.

• Sur l’échantillon "train"

Avec un AUC > 0.9, la discrimination est excellente. Cependant le modèle ayant ap-pris sur ce même échantillon, nous vérifions l’adéquation du modèle sur l’échantillonde test.

65

Page 70: Mots clés - Institut des actuaires

Figure 6.10 – Courbe ROC de la régression logistique sur l’échantillon d’apprentissage

• Sur l’échantillon "test"

Avec un AUC de l’ordre de 0.9, l’adéquation du modèle est confirmée. Aussi le faibleécart entre l’AUC en apprentissage et l’AUC en validation, nous permet de vérifierl’absence de signe de sur-apprentissage.

66

Page 71: Mots clés - Institut des actuaires

Figure 6.11 – Courbe ROC de la régression logistique sur l’échantillon de test

2. MODÈLE TWEEDIELe graphique ci-dessous présente la déviance du modèle en fonction du paramètre decomplexité λ :

67

Page 72: Mots clés - Institut des actuaires

La déviance est très couramment utilisée pour quantifier la qualité d’une régression. Elleest calculée de la façon suivante :

Deviance(β) = −2(log l(β|Y )− log l∗(Y )

)Où l(β|Y ) est la vraisemblance du modèle étudié et log l∗(Y ) la vraisemblance du modèlesaturé.Comme expliqué dans la section 2.2, plus λ augmente, plus la régularisation est forte, etdonc plus l’erreur du modèle est grande. Naturellement on serait tenté de choisir le λ pourlequel la déviance est la plus faible, représenté par la ligne verticale de gauche, cependantle principe de la régularisation est de chosir la meilleure combinaison "erreur-parcimonie"du modèle. Ce λ optimal est représenté par la seconde ligne verticale en partant de lagauche.

Maintenant afin d’évaluer l’adéquation du modèle, nous réalisons un test de Khi-deux.Ce test permet de savoir s’il y a correspondance entre les valeurs observées et les valeursthéoriques. Le test du Khi-deux permet donc de voir si un échantillon est conforme à lathéorie ou s’il en diffère significativement.La p-value donne la probabilité de non-validation de l’hypothèse nulle, c’est-à-dire laprobabilité de voir une conformité entre la théorie et l’observation.Plus p-value est petite,plus la théorie et l’observation diffèrent.

Ainsi, au seuil de 5% nous ne sommes pas en mesure de rejeter l’hypothèse nulle puisquela p-value est de l’ordre de 20%. Nous pouvons donc déduire que les résultats observéssont conformes à la théorie.

68

Page 73: Mots clés - Institut des actuaires

Résultats du testComme expliqué en début de chapitre, nous avons effectué l’apprentissage des modèles sur 90%des sinistres et conservé le reste pour évaluer la performance de ces modèles. Ainsi la tableci-dessous compare la provision estimée par la méthode inspirée de l’approche de Parodi et laprovision réelle :

Figure 6.12 – Comparaison de la provision estimée par la méthode inspirée de l’approche deParodi avec la provision observée

Avec une erreur globale d’environ 14%, la méthode selon l’approche de Parodi présente un bienmeilleur pouvoir de prédiction que la méthode de Chain Ladder.On notera toutefois une performance plus mitigée de la méthode pour les années de survenance2004 et 2007, comme illustrée sur le graphique ci-dessous :

Figure 6.13 – Représentation graphique de la provision estimée par la méthode inspirée del’approche de Parodi et de la provision observée

Comme illustré sur le graphique ci-dessous jusqu’en 2008, la méthode inspirée de l’approchede Parodi ne présente pas une meilleure performance que la méthode de Chain Ladder, elle

69

Page 74: Mots clés - Institut des actuaires

est même légèrement moins performante, cependant après 2008 elle est significativement plusperformante.

Figure 6.14 – Représentation graphique de la provision observée et de la provision estimée parla méthode de Chain Ladder et de Parodi

6.3 Méthode du filtrage collaboratifCette méthode présente l’avantage de pouvoir prédire aussi bien la variable à expliquer que

les variables explicatives. Ainsi nous ne sommes plus restreints aux seules variables invariantes.Toutefois comme expliqué dans le chapitre 3, un trop grand nombre de colonnes rendra trèsdifficile l’exécution du script. Par conséquent il a été décidé de sélectionner les 25 variablesles plus significatives résultant d’une modélisation de type "XGBoost", réalisée par Paul Ottoudans le cadre de son mémoire d’actuariat.A titre informatif, l’algorithme XGBoost est un algorithme ensembliste qui agrège des arbres.À chaque itération, le nouvel arbre apprend de l’erreur commise par l’arbre précédent. Ainsi,même si chaque arbre a un pouvoir prédictif faible, la règle de décision construite en sommant lerésultat de chaque arbre est quant à elle très fiable. Pour plus d’information sur cette méthode,le lecteur est invité à se référer au chapitre 3 du mémoire de Paul Ottou [21].

Variables explicativesLes variables utilisées dans la modélisation de la méthode du filtrage collaboratif sont les sui-vantes :

70

Page 75: Mots clés - Institut des actuaires

Figure 6.15 – Sélection des 25 variables les plus significatives

Les variables qualitatives ont été transformées en "dummies", c’est-à-dire en variables indica-trices pour chacune des modalités de la variable. Pour une même variable qualitative, chacunedes modalités n’aura pas le même pouvoir explicatif, c’est pour cette raison que les variablesqualitatives faisant partie des 25 variables les plus significatives prendront part pour une mo-dalité particulière.

La table ci-dessous donne une brève description de ces variables :

71

Page 76: Mots clés - Institut des actuaires

Figure 6.16 – Variables explicatives de la méthode du filtrage collaboratif

Résultats du testLa méthodologie du test est la suivante : pour chacun des sinistres de l’échantillon "test" nouscalculons sa similarité avec tous les sinistres de l’échantillon "train". Puis à l’aide de ces simi-larités nous projetons la charge de sinistre jusqu’à Q2 2017 à partir de la charge de sinistre àQ3 2012.La table ci-dessous compare la provision estimée par la méthode du filtrage collaboratif et laprovision réelle :

Figure 6.17 – Comparaison de la provision estimée par la méthode du filtrage collaboratif avecla provision observée

A travers ce test la méthode révèle une performance particulièrement mauvaise avec une erreur

72

Page 77: Mots clés - Institut des actuaires

globale d’environ 166%.Une représentation graphique de ces résultats suit ci-dessous :

Figure 6.18 – Représentation graphique de la provision estimée par la méthode du filtrage etde la provision observée

De plus, comme illustré sur le graphique ci-dessous, la méthode de Chain Ladder présenteun pouvoir prédictif relativement faible mais bien supérieur à celui de la méthode du filtragecollaboratif.

Figure 6.19 – Représentation graphique de la provision observée et de la provision estimée parla méthode de Chain Ladder et du filtrage collaboratif

Maintenant nous comparons l’ensemble des méthodes présentées d’un point du vue de l’erreurcommise.

73

Page 78: Mots clés - Institut des actuaires

6.4 Erreur quadratique moyenneL’étude des erreurs de prédiction permet d’évaluer la qualité des valeurs prédites. Ils existentplusieurs indicateurs permettant de mesurer la qualité de la prévision d’une variable. Ils per-mettent également de déterminer la précision de la prévision par rapport à une méthode al-ternative : pour ce faire, nous pouvons comparer, par exemple, l’erreur quadratique moyenneobtenue pour chacune des méthodes de prévision.L’erreur quadratique moyenne, notée MSE (Mean Square Error), permet de quantifier les écartsentre les valeurs prédites par un modèle et les valeurs réellement observées. Plus précisémentla MSE est égale à la moyenne des erreurs individuelles élevées au carré.

Soit f it le facteur de développement entre les périodes t et t + 1 d’un sinistre i, si nous no-tons f it son estimation alors la MSE sera définie par l’expression suivante :

N∑i=1

T∑t=1

(f it − f it )2

où N est le nombre de sinistres et T la période de développement maximale observée.

Dans la pratique nous utilisons généralement la racine carrée de cette erreur quadratiquemoyenne, notée RMSE (Root Mean Square Error).La table suivante présente la RMSE des 3 méthodes étudiées dans ce mémoire :

Figure 6.20 – Comparaison de la RMSE des 3 méthodes

La méthode inspirée de l’approche de Parodi obtient la plus petite RMSE, traduisant unemeilleure qualité de prédiction de la méthode.

Comme illustré dans le graphique ci-dessous, la méthode inspirée de l’apporoche de Parodi sedistingue des deux autres méthodes par une RMSE plus faible à partir de l’année de survenance2006. A l’inverse la méthode du filtrage collaboratif enregistre la plus mauvaise performance.

74

Page 79: Mots clés - Institut des actuaires

Figure 6.21 – Représentation graphique de la RMSE des 3 méthodes

6.5 Risque de réserveComme détaillée en section 5.2.3, la méthode de re-reserving, permet d’obtenir une distributiondu "Claim Development Result" (CDR) en émettant une hypothèse de loi sous-jacente. Cetteméthode présente également l’avantage du choix de la méthode de provisionnement.Ainsi nous comparons les distributions du CDR avec différentes méthodes de provisionnement :la méthode de Chain Ladder et la méthode de Parodi, et avec différentes hypothèses de loi :Normale, Log Normale et Gamma.

Hypothèse de loi Normale

Figure 6.22 – Distribution du CDR avec hypothèse de loi Normale

75

Page 80: Mots clés - Institut des actuaires

Hypothèse de loi Log Normale

Figure 6.23 – Distribution du CDR avec hypothèse de loi Log Normale

Hypothèse de loi Gamma

Figure 6.24 – Distribution du CDR avec hypothèse de loi Gamma

Nous constatons qu’avec la méthode inspirée de l’approche de Parodi les montants de CDRsont globalement plus faibles. De plus nous observons le caractère plus "étalé" de la distributiondu CDR avec la méthode de Chain Ladder caractérisant une volatilité plus importante. Parconséquent, il ressort de cette simple analyse graphique que la méthode inspirée de l’approchede Parodi permet de diminuer le risque de mauvaise estimation des réserves par rapport à laméthode de Chain Ladder.

Plus quantitativement, l’erreur de prédiction (MSEP) correspond tout simplement à l’écart-

76

Page 81: Mots clés - Institut des actuaires

type de la distribution du CDR. Elle est présentée dans le tableau ci-après en fonction de laméthode de provisionnement choisie et de l’hypothèse de loi sous-jacente :

Figure 6.25 – Erreur de prédiction des provisions

Quelque soit l’hypothèse de loi sous-jacente, la méthode de Chain Ladder présente une erreurde prédiction plus importante que la méthode inspirée de l’approche de Parodi. Plus précisé-ment, avec une hypothèse de loi Normale, Log Normale et Gamma, l’erreur de prédiction desprovisions évaluées avec la méthode de Chain Ladder est respectivement 18%, 16% et 23% plusélevée que l’erreur de prédiction des provisions évaluées avec la méthode inspirée de l’approchede Parodi.

Ainsi la méthode inspirée de l’approche de Parodi permet de diminuer la volatilité des ré-serves. De ce fait, en utilisant des Undertaking Specific Parameters, dits USP, alternative àl’utilisation de la formule standard et au modèle interne, il serait possible de diminuer le besoinen capital au titre du risque de réserve.En effet les USP permettent de remplacer un sous-ensemble de paramètres de la formule stan-dard par des paramètres propres à un assureur calibrés suivant des méthodes standardiséesdétaillées dans les spécifications techniques. Concernant le risque de réserve deux méthodessont disponibles : le facteur de volatilité du volume de réserve peut être déterminé soit parune approche Log-Normale qui établit la volatilité des Boni/Mali à un horizon un an, soit parune approche par « triangle de règlement » (Merz-Wüthrich) qui établit la volatilité des bestestimate à un an. Ces méthodes sont plus amplement détaillées dans l’annexe C.

Cependant nous tenons à porter à l’attention du lecteur que la méthode inspirée par l’ap-proche de Parodi a montré un meilleur pouvoir de prédiction seulement sur les survenancesrécentes. Aussi nous n’avons aucune certitude sur la performance de cette méthode si nousl’appliquons à d’autres lignes de business. Par conséquent la possibilité de réduire le SCR durisque de réserve est à prendre avec précaution, sans compter que cette méthode doit êtreacceptée par le régulateur.

77

Page 82: Mots clés - Institut des actuaires

Conclusion

Deux approches innovantes de provisionnement ligne-à-ligne ont été présentées dans ce mé-moire dans le but de permettre à un assureur d’avoir une vision plus fine de sa sinistralité.Les méthodes couramment utilisées n’utilisent que très peu d’information et reposent sur deshypothèses de stabilité très fortes, pas toujours réalistes. A l’inverse les méthodes présentéesvisent à optimiser l’utilisation de l’information disponible. De plus, elles nécessitent beaucoupmoins de jugement d’expert augmentant ainsi la traçabilité et l’auditablilité.

La performance de ces approches a été mesurée par validation croisée et par comparaison àla méthode de Chain Ladder. En effet l’estimation du coût de chaque sinistre de l’échantillontest a été comparé au coût réel et au coût estimé par la méthode de Chain Ladder. La méthodede Parodi présente un meilleur pouvoir de prédiction que la méthode de Chain Ladder aveccependant un bémol sur les survenances anciennes. De plus l’information utilisable pour le ca-librage du modèle a due se limiter aux caractéristiques des sinistres invariantes dans le temps,ce qui va à l’encontre de l’intuition de cette méthode puisque les variables qui évoluent dans letemps sont très susceptibles d’expliquer les évolutions du coût des sinistres.La seconde méthode révèle, quant à elle, une performance particulièrement mauvaise et notam-ment plus mauvaise que celle de la méthode de Chain Ladder. S’agissant d’une approche parmoyenne le modèle est incapable de modéliser les sinistres présentant un caractère extrême ouatypique. De plus cette méthode présente un autre inconvénient majeur : parcourir la base pourchaque sinistre afin d’identifier le voisinage nécessite un temps d’exécution très long.

Dans une dernière partie nous avons cherché à savoir si les méthodes de provisionnement ligneà ligne permettaient de diminuer le besoin en capital réglementaire au titre du risque de réservedans le cadre de la Directive Solvabilité II. Dans cette optique, nous avons évalué le risque deréserve en utilisant la méthode dite de "re-reserving" car elle présente l’avantage du choix dela méthode de provisionnement. Nous avons donc évalué l’erreur de prédiction des provisionsavec la méthode inspirée de l’approche de Parodi et la méthode de Chain Ladder. La méthodedu filtrage collaboratif a été abandonnée du fait de sa performance médiocre. Il ressort de cetteanalyse comparative que la méthode inspirée de l’approche de Parodi présente une volatilitédes provisions à horizon un an plus faible offrant une éventuelle possibilité de réduire le besoinen capital au titre du risque de réserve en utilisant des USP.

En conclusion, malgré les résultats prometteurs de la méthode inspirée de l’approche de Parodinous nous interrogeons sur la compatibilité du provisionnement ligne-à-ligne avec une approchepar cadence. En effet dans une approche par cadence nous ne pouvons pas utiliser les variablesévoluant dans le temps alors qu’elles sont d’un grand intérêt. J’aimerais citer le mémoire d’uncollègue, Paul Ottou, qui analyse aussi des méthodes de provisionnement ligne-à-ligne mais avecune approche à l’ultime. Nous avons utilisé la même base de données mais Paul a pu utilisertoutes les variables disponibles. Ses méthodes ont montré une meilleure performance en terme

78

Page 83: Mots clés - Institut des actuaires

de pouvoir de prédiction que toutes les méthodes étudiées dans ce mémoire. Il faut toutefoisnoter que l’application de ce type de méthodes nécessite que tout l’historique des variables soitconservé. Or pour certaines variables de notre base de données nous n’avions que la dernièrevaleur connue. Des hypothèses ont été émises pour reconstituer l’historique de ces variableset elles ont sans doute biaiser les résultats. De manière générale, le traitement de la base dedonnées a été très coûteux en termes d’effort et de temps. Par conséquent, il y a un arbitrageà faire entre les efforts requis et l’intérêt qu’on peut retirer de ces méthodes.

79

Page 84: Mots clés - Institut des actuaires

Table des figures

1 Photographie compressée par rapport à la version originale . . . . . . . . . . . . 3

1.1 Fonction de répartition empirique de la durée entre deux flux financiers successifs 6

2.1 Représentation de la pénalisation de Ridge, Lasso et Elastic Net . . . . . . . . . 19

3.1 Exemple illustratif du principe du filtrage collaboratif . . . . . . . . . . . . . . . 263.2 Schéma récapitulatif de l’application du principe du filtrage collaboratif au pro-

visionnement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

4.1 Triangle de liquidation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

5.1 Bilan Solvabilité II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385.2 Structure modulaire de la Formule Standard . . . . . . . . . . . . . . . . . . . . 415.3 Schéma récapitulatif de la méthode de re-reserving . . . . . . . . . . . . . . . . 53

6.1 Définition du test . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 546.2 Charges de sinistre et provision observées . . . . . . . . . . . . . . . . . . . . . . 556.3 Provision IBNR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 556.4 Provision IBNYR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 576.5 Provision IBNER . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 586.6 Comparaison de la provision estimée par la méthode de Chain Ladder avec la

provision observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 586.7 Représentation graphique de la provision estimée par la méthode de Chain Lad-

der et de la provision observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596.8 Variables explicatives du modèle de Parodi . . . . . . . . . . . . . . . . . . . . . 606.9 Paramètres de la régression logistique et du modèle Tweedie . . . . . . . . . . . 646.10 Courbe ROC de la régression logistique sur l’échantillon d’apprentissage . . . . 666.11 Courbe ROC de la régression logistique sur l’échantillon de test . . . . . . . . . 676.12 Comparaison de la provision estimée par la méthode inspirée de l’approche de

Parodi avec la provision observée . . . . . . . . . . . . . . . . . . . . . . . . . . 696.13 Représentation graphique de la provision estimée par la méthode inspirée de

l’approche de Parodi et de la provision observée . . . . . . . . . . . . . . . . . . 696.14 Représentation graphique de la provision observée et de la provision estimée par

la méthode de Chain Ladder et de Parodi . . . . . . . . . . . . . . . . . . . . . 706.15 Sélection des 25 variables les plus significatives . . . . . . . . . . . . . . . . . . . 716.16 Variables explicatives de la méthode du filtrage collaboratif . . . . . . . . . . . . 726.17 Comparaison de la provision estimée par la méthode du filtrage collaboratif avec

la provision observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 726.18 Représentation graphique de la provision estimée par la méthode du filtrage et

de la provision observée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

80

Page 85: Mots clés - Institut des actuaires

6.19 Représentation graphique de la provision observée et de la provision estimée parla méthode de Chain Ladder et du filtrage collaboratif . . . . . . . . . . . . . . 73

6.20 Comparaison de la RMSE des 3 méthodes . . . . . . . . . . . . . . . . . . . . . 746.21 Représentation graphique de la RMSE des 3 méthodes . . . . . . . . . . . . . . 756.22 Distribution du CDR avec hypothèse de loi Normale . . . . . . . . . . . . . . . . 756.23 Distribution du CDR avec hypothèse de loi Log Normale . . . . . . . . . . . . . 766.24 Distribution du CDR avec hypothèse de loi Gamma . . . . . . . . . . . . . . . . 766.25 Erreur de prédiction des provisions . . . . . . . . . . . . . . . . . . . . . . . . . 77

81

Page 86: Mots clés - Institut des actuaires

Bibliographie

[1] ACP. « Solvabilité 2 : Principaux enseignements de la cinquième étude quantitative d’im-pact (QIS5) ». In : Paris, Banque de France (2011).

[2] K. Antonio et R. Plat. « Micro–level stochastic loss reserving for general insurance ».In : Scandinavian Actuarial Journal Vol 7.No. 2 (2014).

[3] E. Arjas. « The claims reserving problem in non-life insurance : some structural ideas ».In : ASTIN bulletin Vol 19.No. 2 (1989).

[4] CEIOPS. « QIS5 Technical Specifications ». In : Bruxelles, EIOPA (2010).[5] A. Charpentier. Computational Actuarial Science with R. Chapman & Hall/CRC The

R Series., 2015.[6] A. Charpentier et M. Denuit. Mathématiques de l’assurance non-vie - tome 2. Eco-

nomica, 2005.[7] R. Christensen. « Thoughts on prediction and cross-validation ». In : Department of

Mathematics and Statistics University of New Mexico (2015).[8] D. Diers. « Stochastic re-reserving in multi-year internal models : An approach based

on simulations ». In : Helsinki : Astin Colloquium (2009).[9] T. Durand. « Évaluation et optimisation de la rentabilité d’un portefeuille automobile ».

Mém.de mast. EURIA, 2016.[10] M.D. Ekstrand, J.T. Riedl et J.A. Konstan. « Collaborative Filtering Recommender

Systems ». In : Foundations and Trends in Human-Computer Interaction Vol 4.No. 2(2010).

[11] J. Friedman, T. Hastie et R. Tibshirani. Lasso and Elastic-Net Regularized Genera-lized Linear Models. url : http://www.jstatsoft.org/v33/i01/.

[12] S. Haastrup et E. Arjas. « Claims reserving in continuous time ; a non-parametricbayesian approach ». In : ASTIN bulletin Vol 26.No. 2 (1996).

[13] S. Jaziri. « Méthodes de provisionnement non-vie et risque de réserve à un an ». Mém.demast. Institut de Science Financière et d’Assurances, 2011.

[14] R. Kohavi. « A Study of Cross-Validation and Bootstrap for Accuracy Estimation andModel Selection ». In : International Joint Conference on Artificial Intelligence (IJCAI)(1995).

[15] A. Lacoume. « Mesure du risque de réserve sur un horizon de un an ». Mém.de mast.Institut de Science Financière et d’Assurances, 2008.

[16] C. Larsen. « An Individual Claims Reserving Model ». In : ASTIN Bulletin Vol 37(2007).

82

Page 87: Mots clés - Institut des actuaires

[17] T. Mack. « Distribution-free calculation of the standard error of Chain Ladder reserveestimates ». In : ASTIN bulletin Vol 23.No. 2 (1993).

[18] M. Merz et M. Wüthrich. « Modelling The Claims Development Result For SolvencyPurposes ». In : Casualty Actuarial Society E-Forum (Fall 2008).

[19] M. Merz, M. Wüthrich et N. Lysenko. « Uncertainty of the claims development resultin the chain ladder method ». In : Scandinavian Actuarial Journal Volume 2009, 2009 -Issue 1.Pages 63-84 (2009).

[20] S. Nouar. « QIS4 : À quel quantile de la distribution des charges restant à payer cor-respondent les provisions techniques évaluées selon la quatrième étude d’impact quanti-tatif ? » Mém.de mast. Institut de Science Financière et d’Assurances, 2009.

[21] P. Ottou. « Méthodes d’apprentissage automatique appliquées au provisionnement ligneà ligne en assurance non-vie ». Mém.de mast. Université Paris Dauphine, 2017.

[22] G. VIROT P. LE. « Méthode d’évaluation stochastique des provisions techniques d’uneentreprise d’assurance dommages par une approche ligne à ligne ». Mém.de mast. ENSAE,2013.

[23] P. Parodi. « Triangle-free reserving : a non-traditional framework for estimating reservesand reserve uncertainty ». In : British Actuarial Journal Vol 19.Issue 1 (2014).

[24] W. Qian, Y. Yang et H. Zou. The Lasso for the Tweedie’s Compound Poisson ModelUsing an IRLS-BMD Algorithm.

[25] R. Rakotomalala. « Filtrage collaboratif et Système de recommendation ». In : CoursUniversité Lumière Lyon 2 (2017).

[26] D. Sengdy. « Optimisation du SCR Risque de Réserve sous Solvabilité II ». Mém.demast. Centre d’Etudes Actuarielles, 2014.

[27] X. Su et T. Khoshgoftaar. « A Survey of Collaborative Filtering Techniques ». In :Advances in Artificial Intelligence Volume 2009.Article ID 421425 (2009).

83

Page 88: Mots clés - Institut des actuaires

Annexe A

Le filtrage collaboratif

La motivation filtrage collaboratif est d’étendre la notion de "bouche à oreille" entre amis à desmilliers de personnes sur Internet : quelques amis peuvent recommander ce qu’ils ont appréciéalors que sur Internet des milliers d’individus sont susceptibles de donner leur avis.Les étapes d’un système de recommandation sont les suivantes :

• collecter les appréciations des utilisateurs sur les objets étudiés,

• intégrer ces informations dans les profils d’utilisateur,

• et utiliser ces derniers pour suggérer aux utilisateurs des objets susceptibles de leur plaire.Chaque recommandation est accompagnée d’une mesure de confiance dépendant de facteurstels que le nombre d’utilisateurs utilisé pour la recommandation, la consistance de la valeurfournie par ces utilisateurs, etc...

A.1 Évaluation du profil des utilisateursPour définir le profil des utilisateurs, deux choix sont possibles :

• Soit il sera demandé aux nouveaux utilisateurs de définir leur profil initial, en passant parune phase de notation, selon une échelle de notes fixée, d’articles qui leurs sont proposés ;

• Soit le profil des utilisateurs sera deviné en fonction des informations détenues sur cesutilisateurs. Par exemple un site sera en mesure de suggérer des articles susceptibles deplaire à un membre en fonction de ses précédents achats.

Les données caractéristiques du profil des utilisateurs seront alors stockées dans la base dedonnées "utilisateur". Typiquement, on représente ces données par une matrice de notes donnéespar les utilisateurs aux objets étudiés.

A.2 Les méthodes de filtrage collaboratifDeux classes d’algorithmes de filtrage collaboratif sont distinguées :• les algorithmes basés sur la mémoire, utilisant l’intégralité de la base de données utilisateur

pour faire des prédictions,

• les algorithmes basés sur les modèles, utilisant la base de données utilisateur pour estimerou apprendre un modèle, qui sera ensuite utilisé pour les prédictions.

84

Page 89: Mots clés - Institut des actuaires

A.2.1 Algorithmes basés sur la mémoireLes systèmes basés sur la mémoire reposent dur l’idée suivante :

• Le système maintient un profil des utilisateurs, c’est-à-dire les intérêts, aussi bien positifsque négatifs, des utilisateurs pour certains articles.

• Puis il évalue le degré de similarité du profil considéré avec celui de tous les autresutilisateurs.

• Enfin, il sélectionne les profils les plus similaires et utilise l’information de ces profils pourrecommander à l’utilisateur des articles qu’il n’a pas encore évalués.

Pour prédire la pertinence d’un article pour un utilisateur, on calcule donc la moyenne des notesdonnées aux articles par les utilisateurs ayant les mêmes goûts, en utilisant des poids différentsselon la mesure de similarité entre utilisateurs.

Plus précisément, si Iu désigne l’ensemble des articles pour lesquels l’utilisateur u a donnéune note. Alors on définit la note moyenne nu pour l’utilisateur u par :

nu = 1Iu

∑i∈Iu

nu,i

où nu,i représente la note donnée par l’utilisateur u à l’article i.

Ainsi l’estimation de la note que donnerait l’utilisateur u à l’article j, notée nu,j, s’écrit :

nu,j = nu +∑Nk=1 w(u, k)(nk,j − nk)∑N

k=1 |w(u, k)|

où N est le nombre d’utilisateurs de la base dont le poids n’est pas nul et ayant notés l’articlej. Les poids w(u, k) peuvent refléter la distance, la corrélation, ou la similarité entre chaqueutilisateur k et l’utilisateur u.

La similarité entre utilisateurs est mesurée en représentant chaque utilisateur comme un vecteurde notes pour les articles de la base, puis en calculant le cosinus de l’angle formé par les deuxvecteurs représentant les deux utilisateurs considérés. Soient u et v deux utilisateurs, alors lasimilarité entre ces deux utilisateurs s’écrit :

w(u, v) =∑j nu,j × nv,j(∑

j n2u,j

∑j n

2v,j

)1/2

Mais le coefficient de corrélation de Pearson s’est avéré être une mesure plus efficace, en consi-dérant plutôt le cosinus de l’écart à la moyenne des deux utilisateurs considérés :

w(u, v) =∑j∈Iu∩Iv

(nu,j − nu)(nv,j − nv)(∑j∈Iu∩Iv

(nu,j − nu)2∑j∈Iu∩Iv

(nv,j − nv)2)1/2

85

Page 90: Mots clés - Institut des actuaires

A.2.2 Algorithmes basés sur les modèlesD’un point de vue probabiliste, le filtrage collaboratif peut être vue comme l’évaluation de lavaleur la plus probable d’une note, compte tenu des informations connues au sujet de l’utilisa-teur, et le modèle que l’on aura construit à partir de la base de données utilisateur.

L’idée du modèle "cluster" est de regrouper en clusters les gens ayant les mêmes goûts ainsique les articles portant sur les mêmes sujets, ou qui tendent à plaire aux mêmes personnes.Ainsi, pour prédire la note qu’un utilisateur donnera à un article, on pourra utiliser les avisdes utilisateurs qui appartiennent à son groupe. Le principe général en clustering consiste àmaximiser la similarité des observations à l’intérieur d’un cluster, et minimiser la similarité desobservations entre clusters, pour arriver à une partition de la base aussi pertinente que possible.L’idée de ce modèle est alors de former des blocs les plus pertinents et significatifs possibles, àpartir de la matrice d’appréciations des articles par les utilisateurs.

Puis la partition est évaluée en estimant, pour chaque bloc formé, la probabilité que les utili-sateurs d’un même cluster k apprécient les articles d’un même cluster j, le but étant que cesprobabilités soient les plus proches possible de 1, c’est à dire que tout le monde soit du mêmeavis dans le groupe.

A.3 Les limites du filtrage collaboratifLe filtrage collaboratif présente plusieurs limites dont les plus contraignantes sont les suivantes :

• l’échelle de notation proposée : parfois l’affiner ou au contraire l’élargir permet d’obtenirde meilleures prédictions ;

• le renseignement des notes de la part des utilisateurs : on peut se retrouver confronté auproblème que peu d’utilisateurs ont noté un article donné ou qu’un utilisateur donné aévalué très peu d’articles de la base ;

• le nombre de personnes comparables : on peut se retrouver confronté au problème qu’unutilisateur n’est comparable avec aucun autre utilisateur ;

• dépasser un seuil critique avant lequel les recommandations ne sont pas pertinentes ;

• un système collaboratif doit faire mieux que la procédure par défaut qui consiste à prédirela réponse majoritaire.

86

Page 91: Mots clés - Institut des actuaires

Annexe B

La méthode du Bootstrap

En statistiques, les techniques de bootstrap sont des méthodes d’inférence statistique da-tant de la fin des années 1970. Elles sont basées sur des simulations, comme les méthodes deMonte-Carlo, à la différence près que le bootstrap ne nécessite pas d’autre information que celledisponible dans l’échantillon. En effet, cette méthode ne repose sur aucune hypothèse forte defamille de distribution paramétrique, ce qui souligne son caractère robuste. De plus, elle fournitla distribution complète de la variable à expliquer, et donc les moments de tout ordre.

Plus précisément, cette méthode consiste à obtenir, à partir d’un échantillon initial de tailleN , de nouvelles informations statistiques en simulant n nouveaux échantillons de même tailleN . On parvient ainsi à simuler la variabilité du phénomène dans le but d’approcher les lois descaractéristiques liées à l’échantillon. L’idée est que si n est grand, la distribution empirique seraune bonne approximation de la loi suivie. Cette méthode repose sur une hypothèse fondamen-tale : les éléments de l’échantillon sont indépendants et identiquement distribués.Donc, la méthode du bootstrap est une méthode de ré-échantillonage particulière dont le butest d’estimer, de façon robuste, la variabilité d’un paramètre.On notera que l’hypothèse d’indépendance impliquera un ré-échantillonage par des tirages avecremise.

B.1 Estimation plug-inPrincipe du plug-inSoit X = {X1, ..., Xn} un échantillon de taille n de loi inconnue F . Soit θ un paramètre donton suppose que c’est une fonction de F . On écrit alors

θ = t(F )

On appelle estimateur plug-in d’un paramètre θ de F l’estimateur obtenu en remplaçant la loiF par la loi empirique de l’échantillon F :

θ = t(F )

Par exemple, considérons le paramètre µ tel que

µ = E(F )

87

Page 92: Mots clés - Institut des actuaires

Alors X tel queX = 1

n

n∑i=1

Xi

est la statisique qui estime µ et donc il s’agit d’un estimateur plug-in.

Estimation de l’écart-type de la moyenneSoit la variable X définie ci-dessus. Posons l’espérance et la variance de X comme suit :

µF = EF (X) et σ2F = VarF (X) = E[(X − µF )2]

Alors X = ∑ni=1 Xi aura pour espérance µF et pour variance σ2

F/n. Ainsi on remarque qu’enmoyennant plusieurs observations on réduit la variance inhérente à une observation. De plussous certaines conditions de la loi F et en appliquant le théorème central limite, X converge enloi vers la loi normale.L’estimateur plug-in de σ2

F est défini par :

σF2 = σ2

F= VarF (X)

= EF[(X − EF (X))2

]= 1n

n∑i=1

(Xi −X)2

L’estimateur plug-in de σ2F est généralement biaisé mais il a l’avantage d’être simple et de

pouvoir s’appliquer à tout paramètre même lorsque l’on ne peut pas calculer la vraisemblancedu modèle.

B.2 Estimation bootstrapEchantillon bootstrapAvec les mêmes notations, F est la distribution empirique de l’échantillon X = {X1, ..., Xn}.On appelle échantillon bootstrap de X un échantillon de taille n suivant la loi F noté

X∗ = {X∗1 , ..., X∗n}

où X∗ est un ré-échantillonnage de X avec remise.

Estimation de l’écart-typeOn appelle estimation bootstrap de l’écart-type σF (θ) de θ son estimation plug-in σF (θ).Hormis le cas de l’exemple ci-dessus où θ est une moyenne, il n’y a pas de formule explicitede cette estimateur. Une approximation de cet estimateur est obtenue par simulation commedécrit dans l’algorithme ci-dessous :

88

Page 93: Mots clés - Institut des actuaires

Soit X un échantillon et θ un paramètre. On note θ = s(X) l’estimation obtenue sur cetéchantillon. Sur un échantillon bootstrap X∗, l’estimation sera donnée par θ∗ = s(X∗).Début boucle

Pour k = 1 à NSélectionner un échantillon bootstrap X∗k par tirage avec remiseEstimer sur cet échantillon : θ∗(k) = s(X∗k)

Fin boucleCalculer l’écart-type de l’échantillon construit :

σ2N = 1

N − 1

N∑k=1

(θ∗(k)− θ∗(.))2

avec θ∗(.) = 1N

N∑k=1

θ∗(k)

σN est l’approximation bootstrap de l’estimation plug-in recherchée de l’écart-type de θ.

Estimation du biaisAvec les mêmes notations :

θ = t(F ) et θ = s(X),

le biais de l’estimateur θ s’écrit :

BF (θ) = EF (s(X))− t(F ).

Les estimateurs plug-in sont généralement biaisés. Le biais est aussi une mesure de la précisiond’un estimateur.

On appelle estimateur bootstrap l’estimateur plug-in suivant :

BF (θ) = BF (θ) = EF (s(X∗))− t(F ).Il n’existe généralement pas d’expression analytique et il faut avoir recours à une approximationpar simulation comme celle décrite dans l’algorithme ci-dessous :

Avec les mêmes notations,Début boucle

Pour k = 1 à NSélectionner un échantillon bootstrap X∗k par tirage avec remiseEstimer sur cet échantillon : θ∗(k) = s(X∗k)

Fin boucleAinsi nous pouvons approcher EF (s(X∗)) par θ∗(.) = 1

N

∑Nk=1 θ

∗(k).L’approximation bootstrap du biais est : BN(θ) = θ∗(.)− θ.

En résumé, le bootstrap repose sur l’hypothèse très élémentaire suivante : θ∗ se comportepar rapport à θ comme θ par rapport à θ. Il est ainsi possible de définir des intervalles de

89

Page 94: Mots clés - Institut des actuaires

confiance bootstrap en considérant la distribution et les quantiles de θ∗.Il est à noter que, dans certains cas, il est plus justifié de répliquer le tirage sur les résidusplutôt que sur les observations.Enfin, l’estimation bootstrap est justifiée par des propriétés asymptotiques (convergence en loi)lorsque le nombre de réplications N croit conjointement avec la taille de l’échantillon n.

90

Page 95: Mots clés - Institut des actuaires

Annexe C

Undertaking Specific Parameters

Les Undertaking Specific Parameters, dits USP, permettent de remplacer un sous-ensemblede paramètres de la formule standard par des paramètres propres à une compagnie d’assurancecalibrés à l’aide de méthodes standardisées détaillées dans les spécifications techniques.L’utilisation d’USP est une alternative à la formule standard et au modèle interne. Ils per-mettent de mieux refléter le risque d’un assureur par rapport à la formule standard classiqueet avec une complexité et un coût moindre par rapport à l’élaboration d’un modèle interne.L’utilisation d’USP peut être une solution intéressante pour les compagnies dont le risque n’estpas reflété correctement par les paramètres prédéfinis de la formule standard (activité spéci-fique, caractéristiques propres à l’entreprise).Concernant le risque de réserve, l’EIOPA a présenté trois méthodes différentes pour calibrer lavolatilité des réserves. Toutes ces méthodes ont été décrites lors de l’exercice du QIS 5 TechnicalSpecifications.

C.1 Méthode 1 ou méthode log-normaleCette méthode est utilisée pour évaluer les facteurs de volatilité du risque de provisionnement,mais aussi du risque de tarification.

Inputs du modèleDans le cadre du risque de provisionnement les inputs du modèles sont :

• T le nombre d’exercices comptables ;

• xt la provision au début de l’exercice comptable t ;

• yt la somme des paiements incrémentaux de l’exercice et des provisions de fin de l’exercicerelatifs aux survenances strictement antérieures à t.

Hypothèses du modèleLes hypothèses suivantes sont indépendantes de l’entité, de l’année et de la ligne d’activité :

91

Page 96: Mots clés - Institut des actuaires

• (H1) : l’espérance de la charge de sinistre cumulée attendue après la première année dedéveloppement est proportionnelle à l’exposition :

E(yt) = βxt;

• (H2) : la variance de yt est quadratique à l’exposition :

Var(yt) = σ2((1− δ)xxt + δx2t ),

où x = 1T

∑Tt=1 xt ;

• (H3) : la charge de sinistre cumulée après une année de développement suit une loi log-normale ;

• (H4) : l’estimation par maximum de vraisemblance est adaptée.

Par ailleurs les données doivent remplir les conditions suivantes :

• les données doivent être retraitées des sinistres issus des phénomènes de catastrophesnaturelles ;

• les best estimates et les paiements incrémentaux doivent prendre en compte les frais ;

• les données doivent refléter le risque des 12 prochains mois.

Évaluation de l’USPD’après (H3),

E(y) = exp(µ+ 1

2ω),

avec y ∼ LN(µ, ω).D’après (H1),

E(y) = exp(µ+ 1

2ω)

= βx.

Ainsi,µ = ln(β)− 1

La variance de y s’écrit :

Var(y) = exp(2µ+ ω)(exp(ω)− 1)

=[exp

(µ+ ω

2

)]2(exp(ω)− 1)

= (βx)2(exp(ω)− 1),

d’oùω = ln

(Var(y)(βx)2 + 1

).

92

Page 97: Mots clés - Institut des actuaires

En utilisant l’hypothèse (H2), on obtient :

ω = ln(σ2((1− δ)xx+ δx2)

(βx)2 + 1)

= ln(σ2((1− δ)β−2xx−1 + δβ−2) + 1

).

En posant σβ−1 = eγ, on obtient :

ω = ln(e2γ((1− δ)xx−1 + δ) + 1) = π−1.

En posant z = ln(yx

), on obtient l’expression de la log-vraisemblance :

l(σ, δ, β) = 12∑

πt

(zt + 1

2ωt − ln β)2

+ 12∑

lnωt.

En posant ut = zt + 12ωt + γ, l’expression de la log-vraisemblance s’écrit :

l(σ, γ, δ) = 12∑

πt(ut − ln σ)2 + 12∑

lnωt.

Afin d’optimiser la log-vraisemblance, on annule sa dérivée partielle par rapport à σ :

∂l(σ, γ, δ)∂σ

= 1σ

∑πt(ut − ln σ) = 0.

Ainsi l’estimateur de maximum de vraisemblance de σ est égal à :

σ = exp(∑

πtut∑πt

).

La log-vraisemblance devient donc :

l(γ, δ) = 12∑

πt(ut − ln σ)2 + 12∑

lnωt.

Cette optimisation se résout numériquement avec la contrainte 0 ≤ δ ≤ 1.

Une fois les valeurs de δ et γ estimées, elles sont utilisées pour estimer σ. Enfin on applique unfacteur à σ pour corriger le biais :

σunbiased = σ(T + 1T − 1

)1/2.

C.2 Méthode 2 ou méthode des trianglesCette méthode, basée sur le modèle de Merz et Wüthrich, est utilisée pour évaluer le facteur

de volatilité du risque de provisionnement.Le modèle cherche à étudier la variabilité des boni/mali d’une année calendaire sur l’autre,c’est-à-dire le changement dans la prédiction de la charge totale. La différence entre deux esti-mations successives de la charge totale est appelée Claims Development Result et notée CDR.

93

Page 98: Mots clés - Institut des actuaires

Inputs du modèleLes inputs du modèle sont :

• I le nombre d’année de survenance ;

• J le nombre d’année de développement ;

• Ci,j les paiements cumulés pour l’année de survenance i et l’année de développement j ;

• PCOlob le best estimate des réserves par branche.

A l’aide de ces inputs nous pouvons calculer les éléments intermédiaires suivants :

• fj le facteur de développement de l’année de développement j ;

• σj la volatilité de l’année de développement j ;

• f tj le facteur de développement estimé dans l’année de développement j avec l’informationdisponible jusqu’à t ;

• Cti,j le paiement cumulé pour l’année de survenance i et l’année de développement j estimé

avec l’information disponible jusqu’à t.

Hypothèses du modèleCette méthode repose sur les hypothèses suivantes :

• (H1) : les variables aléatoires Ci,j et Ck,j sont indépendantes pour i 6= k.

• (H2) : la variable (Ci,j) suit un processus de Markov et il existe des constantes fj > 0 etσj > 0 telles que

E(Ci,j|Ci,j−1) = fj−1Ci,j−1

etVar(Ci,j|Ci,j−1) = σ2

j−1Ci,j−1.

• (H3) : le modèle de Merz et Wüthrich prend en compte des hypothèses supplémentairesau modèle de Mack :

– le processus (Ci,j)j≥1 est une martingale ;

– σ2i

f2i

� CI−i+1,i.

Par ailleurs les données doivent remplir les conditions suivantes :

• les données des triangles doivent être annuelles et suffisamment récentes ;

• l’entité doit être capable d’expliquer le lien entre la duration du portefeuille et la volatilitéestimé ;

• toutes les données doivent être ajustées sur des tendances prudentes, fiables et objectivesqui auraient été identifiée ;

• les règlements de sinistre doivent être majorés des frais.

94

Page 99: Mots clés - Institut des actuaires

Évaluation de l’USPLes facteurs de développement sont estimés par :

fj =∑I−j−1i=0 Ci,j+1∑I−j−1i=0 Ci,j

.Il est alors possible de compléter le triangle des paiements cumulés :

Ci,j = Ci,I−i × fI−i × ...× fj−2 × fj−1

Ainsi nous déduisons les PSAP :

PCOlob =I∑i=0

(Ci,J − Ci,J−i)

Les facteurs de volatilité sont estimés par :

σ2j = 1

I − j − 1

I−j−1∑i=0

Ci,j

(Ci,j+1

Ci,j− fj

)2

.

En posant Qj = σ2j

f2j

, l’erreur de prédiction, notée MSEP, s’écrit comme suit :

MSEP =I∑i=1

(Ci,J)2 × QI−i

Ci,I−i+

I∑i=1

I∑k=1

Ci,JCk,J

QI−i

SI−i+

J−1∑j=I−i+1

CI−j,jS ′j

× Qj

Sj

.Enfin la volatilité du risque du réserve est donnée par :

σ =√MSEP

PCOlob

.

C.3 Méthode 3Une dernière méthode est présentée dans l’étude quantitative d’impact QIS5. Cette méthodereprend la valeur de la MSEP calculée précédemment. La différence entre les méthodes 2 et3 vient de l’estimation des réserves : la méthode 2 laisse libre l’entreprise dans le choix del’estimation, alors que la méthode 3 impose Chain Ladder. On a alors :

σ =√MSEP

CLPCOlob

,

où CLPCOlob est le montant des réserves best estimate de sinistres estimé par la méthode deChain-Ladder.

95