Caroline Mazziotto - ressources-actuarielles.net

101

Transcript of Caroline Mazziotto - ressources-actuarielles.net

Page 1: Caroline Mazziotto - ressources-actuarielles.net
Page 2: Caroline Mazziotto - ressources-actuarielles.net

Caroline MazziottoEric Joly-Pottuz

Evaluation de l’erreur de table d’expérience-

Cas d’une table de mortalité

ENSAE ParisTech, 3A ActuariatMai 2012

1

Page 3: Caroline Mazziotto - ressources-actuarielles.net

Table des matières

1 Le contexte réglementaire : mise en place de la directive Solvabilité II 71.1 Qu’est ce que Solvabilité II ? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Pilier 1 : les exigences quantitatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

1.2.1 Evaluation des actifs et des passifs . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.2 Les provisions techniques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91.2.3 Le Minimum de Capital Requis (MCR) . . . . . . . . . . . . . . . . . . . . . . 11

1.3 Le Capital de Solvabilité Requis (SCR) . . . . . . . . . . . . . . . . . . . . . . . . . . 121.3.1 La formule standard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131.3.2 Le modèle interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.4 Pilier 2 : les exigences qualitatives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.4.1 Principes généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161.4.2 Lien entre le pilier 1 et le pilier 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 17

2 Les tables d’expérience : concepts théoriques et applications 192.1 Les tables d’expérience . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

2.1.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192.1.2 Méthodologie générale de construction . . . . . . . . . . . . . . . . . . . . . . 212.1.3 Validation des données initiales et justification du contexte d’analyse . . . . . . 222.1.4 Estimation des taux annuels bruts de décès . . . . . . . . . . . . . . . . . . . . 222.1.5 Lissage des taux annuels de décès . . . . . . . . . . . . . . . . . . . . . . . . . 22

2.2 Application à la modélisation stochastique d’un passif . . . . . . . . . . . . . . . . . . . 252.2.1 Définition du risque de mortalité : terme aléatoire à 2 niveaux . . . . . . . . . . 252.2.2 Définition du risque d’estimation . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.3 Présentation de la table de mortalité TDBTP Ouvriers . . . . . . . . . . . . . . . . . . . 272.3.1 Préambule . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.3.2 Construction de la table . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

3 Evaluation des méthodes mises en place par PRO BTP 343.1 Distribution des taux bruts par simulation . . . . . . . . . . . . . . . . . . . . . . . . . 34

3.1.1 Transformation Logit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353.1.2 Normalité des chocs Logit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373.1.3 Modèle de Brass et simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . 383.1.4 Mise en oeuvre et résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403.1.5 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.2 Evaluation de l’erreur d’échantillonage pour la méthodologie PRO BTP . . . . . . . . . 443.2.1 Rappels théoriques sur l’estimateur de Kaplan-Meier . . . . . . . . . . . . . . . 443.2.2 Intervalles de confiance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463.2.3 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 503.2.4 Impact sur les Provisions Mathématiques . . . . . . . . . . . . . . . . . . . . . 52

3.3 Utilisation de méthodes de lissage non paramétriques pour les taux bruts de mortalité etvariation des paramètres associés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.3.1 Méthode d’origine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533.3.2 Variation des paramètres usuels de la méthode Whittaker-Henderson . . . . . . . 563.3.3 Résultats : perspective globale . . . . . . . . . . . . . . . . . . . . . . . . . . . 573.3.4 Impact du lissage sur la constitution de Provisions Mathématiques . . . . . . . . 64

2

Page 4: Caroline Mazziotto - ressources-actuarielles.net

4 Proposition d’une méthode alternative 694.1 Changement de taux bruts . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

4.1.1 Fondements théoriques des taux de Hoem . . . . . . . . . . . . . . . . . . . . . 704.1.2 Résultats . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 714.1.3 Impact du choix des taux bruts sur les taux ajustés . . . . . . . . . . . . . . . . 734.1.4 Conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

4.2 Changement de la méthode de lissage . . . . . . . . . . . . . . . . . . . . . . . . . . . 764.2.1 Principes des méthodes de lissage . . . . . . . . . . . . . . . . . . . . . . . . . 764.2.2 Lissage par simulation des résidus . . . . . . . . . . . . . . . . . . . . . . . . . 764.2.3 Lissage par simulation directe des taux bruts de Hoem . . . . . . . . . . . . . . 804.2.4 Conclusion sur les modélisations relationnelles . . . . . . . . . . . . . . . . . . 83

4.3 Conclusion sur la méthode alternative . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

5 Annexe 87

3

Page 5: Caroline Mazziotto - ressources-actuarielles.net

Extrait

Mots clés : taux bruts, Kaplan, Meier, Hoem, logit, taux ajustés, lissage, optimisation, Whittaker,Henderson, Lowrie, Schuette, modèles relationnels, Brass, provisions mathématiques.

La réglementation européenne " Solvabilité II ", aujourd’hui en cours de mise en place chez les assu-reurs, préconise l’instauration de nouvelles méthodes de calcul de solvabilité et de besoin en capital, enparticulier pour le calcul des montants à provisionner. Parallèlement, elle encourage ces acteurs à déve-lopper leurs propres méthodes de calcul, par l’implémentation de modèles internes partiels ou completspar exemple pourvu que leur robustesse puisse être vérifiée et certifiée par le régulateur.

Dans cette optique, PRO BTP a construit sa propre table de mortalité afin de modéliser la valeur deses engagements sur les contrats de décès entre autres. Toutefois, les choix faits et la calibration des mo-dèles utilisés doivent être justifiés pour pouvoir s’inscrire dans la nouvelle démarche prudentielle et êtrevalidés par les instances régulatrices.

L’objet de ce mémoire est de reprendre les décisions faites par PRO BTP dans le choix des estimateurset des paramètres, et d’évaluer leur pertinence mais aussi leur caractère plus ou moins prudent. Nous dé-velopperons ainsi les méthodes utilisées et profiterons de cette étude pour approfondir ces modèles, endévelopper des variantes, ou proposer des approches alternatives parfois moins répandues.

Après avoir rappelé notre objectif dans une partie détaillant le fonctionnement de la directive et sesrecommandations, nous présenterons les étapes de la construction de la table de mortalité.

Nous étudierons ensuite la méthode d’estimation des taux bruts retenus et évaluerons les effets dulissage de Whittaker mis en place pour obtenir les taux de mortalité ajustés. A cette occasion, nous pro-cèderons à un encadrement des taux bruts de Kaplan Meier et développerons des extensions du lissageutilisé par notamment une modification du polynôme de régularité ou un changement de norme.

Enfin, nous étudierons la pertinence d’une solution alternative en changeant d’une part la nature destaux bruts et d’autre part la méthode de lissage. L’utilisation de l’estimateur de Hoem sera cette foisprivilégiée et nous montrerons quel peut être l’apport de techniques de lissage différentes, basées sur unemodélisation relationnelle des taux ajustés.

4

Page 6: Caroline Mazziotto - ressources-actuarielles.net

Abstract

Key words : gross rate, Kaplan, Meier, Hoem, logit, adjusted rate, curve smoothing, optimization,Whittaker, Henderson, Lowrie, Schuette, relational models, Brass, mathematical reserving.

The European regulatory rule "Solvability II" which is currently being implemented within insurancecompanies, advises the use of new techniques to evaluate the solvency requirements as well as the pro-prietary funds, particularly when it comes to capital reserving calculations. Besides, it fosters them todevelop their own methods, through the implementation of total or partial internal models for example,as long as their solidity can be shown and certified by the regulator.

To this extent, ProBTB has built its own mortality table in order to model the value of its incurringin the field of death amid others. However, both the choices that have been made and the calibration ofthe model used must be justified so as to fit in the new regulatory frame and be validated by the authorities.

The purpose of this thesis is to review the decisions taken by PRO BTP, especially concerning thechoice of the estimators and the parameters, and to ascertain their relevance but also their prudent aspect.We will then detail the methods which have been used and take advantage of this study to go into thesemodels in depth, implementing variants or suggesting alternative approaches which can be uncommon.

After recalling our goal in a section which will present the architecture of the solvency rules and re-commendations, we will present the different steps of the mortality table construction.

Next, we will study the selected method for the estimation of the gross rates and will evaluate theeffects of the Whittaker smoothing employed to get the adjusted mortality rates. In particular, we willcarry out a framing of the Kaplan Meier’s gross rates and will develop updates of the smoothing usedthanks to a modification in the fidelity polynomial or a change in the distance.

We will finally study the relevance of another solution which would consist in the change of, alterna-tively, the nature of the gross rates and the kind of the smoothing. Hoem’s estimator will be chosen andwe will demonstrate the contribution of other types of smoothing based on a relational modeling of theadjusted rates.

5

Page 7: Caroline Mazziotto - ressources-actuarielles.net

Introduction

La Directive Solvabilité II, promue par la commission européenne, vise à harmoniser dès 2014 si lecalendrier est respecté les règles prudentielles de solvabilité imposées aux assureurs de l’Union Euro-péenne. Dans la lignée de Bâle II pour les banques, son objectif est d’encourager les organismes à mieuxconnaître et évaluer leurs risques, notamment en adaptant les exigences réglementaires aux risques réel-lement encourus.

En terme d’exigences quantitatives, Solvabilité II se fonde sur une valorisation économique des élé-ments de bilan pour les besoins prudentiels, et notamment le calcul des provisions techniques. Cetteévaluation peut être effectuée par l’entreprise d’assurance ou bien à l’aide de la formule standard pro-posée par l’autorité du contrôle prudentiel, ou bien implémenter un modèle interne. D’autre part, ledispositif ORSA (« Own Risk and Solvency Assessment ») de la directive invite les entreprises à modi-fier leur système de gouvernance, afin d’appréhender au mieux les risques auxquels elles sont réellementsoumises.

Dans ce contexte, PRO BTP souhaite justifier sa propre évaluation des risques techniques liés auxgaranties Vie, en vue de mieux connaître et maîtriser ses risques et d’éventuellement construire un mo-dèle interne partiel, en complément de la formule standard du référentiel Solvabilité II. Celui-ci reposantsur une approche prospective des risques, il implique dans un premier temps l’utilisation de tables d’ex-périence, permettant de mieux capter les risques relatifs à la population des travailleurs du Bâtiment etdes Travaux Public (BTP). Dans le cadre du modèle interne, il apparaît de plus nécessaire de mesurerl’erreur de table éventuellement commise. Celle-ci traduit alors l’inadéquation de la table d’expériencepar rapport à son utilisation (erreur de fréquence des décès ou de longévité par exemple). Cette erreurpotentielle induit alors une plus grande volatilité dans la distribution des passifs possibles, qui conduit àl’immobilisation de fonds propres complémentaires.

L’objectif de notre mémoire consiste donc à identifier puis évaluer des erreurs de table à partir detables d’expérience utilisées dans le cadre de la tarification de décès pour des portefeuilles de prévoyancecollective, qui correspondent à la couverture des ouvriers du BTP. Il s’agit donc de préciser les caracté-ristiques des tables d’expérience, notamment en se penchant sur les modalités de leur construction, afinde définir le risque de table. Celle-ci doit conduire à la définition d’une mesure de risque correspondante,puis à la modélisation de l’impact d’une erreur d’estimation des tables d’expérience sur le niveau desprovisions constituées.

Pour notre étude, nous disposions de la table d’expérience TDBTP Ouvrier. PRO BTP utilise cettedernière afin d’estimer le prix des garanties vie entière proposées aux ouvriers. Notre démarche s’estalors organisée de la façon suivante : dans une première partie, nous revenons sur le contexte réglemen-taire qui entoure notre problème, afin de comprendre les raisons pour lesquelles il se pose, et l’intérêtqu’a une entreprise d’assurance à le résoudre. Dans une seconde partie, nous développons les notionsthéoriques qui interviennent dans la construction d’une table d’expérience, puis les mettons en relationavec les données contenues dans notre table. Dans une troisième partie, nous nous proposons d’évaluerles méthodes mises en place par PRO BTP pour construire la table TDBTP ouvriers, et d’étudier les ef-fets qu’aurait un éventuel lissage des taux Kaplan-Meier de la table. Notre quatrième partie propose enfinune méthode alternative de détermination des taux de mortalité, se fondant sur un article de recherchescientifique récent, et invite à une comparaison de ses résultats avec la méthode actuellement implémen-tée. Dans les deux dernières parties nous veillons à fournir une traduction pratique de nos évaluations, entermes de provisions techniques.

6

Page 8: Caroline Mazziotto - ressources-actuarielles.net

1 Le contexte réglementaire : mise en place de la directive Solvabilité II

1.1 Qu’est ce que Solvabilité II ?

La proposition de directive Solvabilité II, publiée par la Commission Européenne en juillet 2007, aété votée par le Parlement Européen en avril 2009 et doit être transposée en droit français d’ici fin 2013.Elle introduit des modifications profondes par rapport aux règles prudentielles actuelles en matière d’as-surance en mettant la gestion des risques au coeur du système.

Dans la lignée de Bâle II pour les banques, son objectif est d’encourager les organismes à mieuxconnaître et évaluer leurs risques, notamment en adaptant les exigences réglementaires aux risques queles entreprises encourent dans leur activité. Cette réforme vise enfin à harmoniser les pratiques pruden-tielles au niveau européen. Les exigences sont structurées en trois piliers constitués par les exigencesquantitatives (pilier1), la gouvernance et le processus de contrôle (pilier 2) et les informations communi-quées par l’entreprise au superviseur et au public (pilier 3).

FIGURE 1 – De Solavbilité I à Solvabilité II

Pour le pilier 1, Solvabilité II se fonde sur une valorisation économique des éléments de bilan pour lesbesoins prudentiels, et notamment le calcul des provisions techniques. De nouvelles exigences de capital(SCR et MCR) seront déterminées soit avec une formule standard, soit par un modèle interne, intégralou partiel, validé par l’autorité de contrôle. Les règles quantitatives sur les placements seront remplacéespar le principe de la « personne prudente »(prudent person principle), ainsi que par une charge en capitalqui dépendra du risque que représente le placement.

Solvabilité II met aussi l’accent sur les exigences qualitatives, en soulignant l’importance de la bonnegouvernance pour la gestion du risque de l’assureur et pour l’efficacité de la supervision (pilier 2). Le

7

Page 9: Caroline Mazziotto - ressources-actuarielles.net

« système de gouvernance »est défini dans un sens très large dans la directive : règles d’honorabilité et decompétence (« fit and proper »), gestion des risques, contrôle interne, audit interne, fonction actuarielleet sous-traitance. L’évaluation interne du risque et de la solvabilité (ORSA - Own Risk and SolvencyAssessment), qui est comme son nom l’indique un processus interne, constituera également un outil àpart entière de la supervision. Enfin, les entreprises devront publier un rapport annuel plus complet que cequ’elles font actuellement sur leur solvabilité et leur situation financière (pilier 3). Par souci de concisionet de pertinence quant au sujet de notre étude, nous ne développerons ici que les deux premiers piliers dela directive.

FIGURE 2 – Les trois piliers de Solvabilité II

La directive pose des principes généraux, qui correspondent aux mesures dites « de niveau 1 »duprocessus Lamfalussy. Elle doit être complétée par des mesures d’application détaillées, dites mesuresde niveau 2, ainsi que par des recommandations (niveau 3). Ces dernières sont élaborées par l’AutoritéEuropéenne des Assurances et des Pensions professionnelles (sigle anglais EIOPA, ex-CEIOPS), afind’assurer une convergence des pratiques prudentielles et d’accroître la coopération entre les différentesautorités de contrôle. L’EIOPA conseille ainsi la Commission européenne sur les aspects techniquescontenus dans les textes de niveaux 1 et 2. En effet, l’objectif du processus Lamfalussy est d’assurer undialogue permanent et transparent entre le législateur et les acteurs du marché, notamment par le biais deconsultations publiques à chaque niveau de la procédure.

8

Page 10: Caroline Mazziotto - ressources-actuarielles.net

1.2 Pilier 1 : les exigences quantitatives

1.2.1 Evaluation des actifs et des passifs

Solvabilité II se fonde sur une valorisation économique des éléments de bilan pour les besoins pru-dentiels. Ainsi, les actifs et les passifs sont évalués à leur « juste valeur », c’est-à-dire au « montant pourlequel un actif (ou un passif) peut être échangé (ou réglé) entre deux parties informées et consentantes,dans des conditions normales de concurrence ».

Aucun ajustement visant à prendre en compte la qualité de crédit propre à l’entreprise considéréen’est autorisé dans le cadre de l’évaluation des passifs.

1.2.2 Les provisions techniques

Les provisions techniques correspondent aux dettes de l’assureur à l’égard des assurés, des victimeset des bénéficiaires, au titre des engagements pris lors de la souscription des contrats d’assurance. Ellessont calculées d’une manière prudente, fiable et objective.

Dans le cadre de Solvabilité II, les provisions techniques sont définies par la valeur actualisée de lameilleur estimation (« best estimate »), à laquelle on ajoute une marge pour risque :

• Meilleure Estimation : La meilleure estimation correspond à la moyenne pondérée par leur pro-babilité des flux de trésorerie futurs. Les probabilités associées à la projection des flux futurs cor-respondent aux probabilités de survenance de différents scénarios. Ce calcul tient donc compte dela part d’incertain qu’il y a dans les entrées et sorties de trésorerie nécessaire pour faire face auxengagements de l’entreprise pendant toute la durée de ceux-ci.

• Valeur actualisée : La meilleure estimation est actualisée. Le taux d’actualisation correspond à untaux sans risque sur un horizon de temps approprié. La commission préconise l’utilisation des tauxd’obligations d’Etats notés AAA, publiés quotidiennement par la Banque Centrale Européenne.

• La Marge pour Risque est calculée selon la méthode suisse d’évaluation du coût du capital. Enthéorie, elle correspond, dans le cadre de la liquidation des passifs de la compagnie d’assurance,au montant que peut espérer tirer l’acheteur potentiel de la gestion run-off des portefeuilles cédés.Son calcul dépend du secteur d’activité, et utilise certains modules de la formule standard de calculdu capital requis (« SCR »)

• Les flux de trésorerie couvrables (pour lesquels il existe un marché) ne rentrent pas en compte dansle calcul de la juste valeur du passif, et son marqués à leur valeur de marché.

La Meilleure Estimation Comme mentionné ci-dessus, il s’agit de la moyenne pondérée par leur pro-babilité des flux de trésorerie futurs, compte tenu de la valeur temporelle de l’argent (valeur actuelleattendue des flux de trésorerie futurs), estimée sur la base d’une courbe des taux sans risques pertinente.

9

Page 11: Caroline Mazziotto - ressources-actuarielles.net

Solvabilité II permet donc bien une vision économique des bilans, dans la mesure où les probabilitésassociées font référence à différents scénarios économiques. Afin de modéliser l’incertitude relative aucalcul des provisions techniques, on pourra faire varier les paramètres de ces derniers. Ceux-ci corres-pondent à l’incertitude portant sur :

– la date de survenance, la fréquence et le coût moyen des sinistres– le montant des indemnités et la durée nécessaire au versement de l’intégralité des sommes– la charge totale de sinistres (dépense agrégée de tous les sinistres)– la valeur de l’indice financier utilisé pour déterminer le montant à verser à l’assuré– les spécificités du portefeuille étudié : aspect légal (lois différentes suivant les régions), environne-

ments sociaux ou économiques– la dépendance par rapport aux dates antérieures (la valeur actuelle des flux de trésorerie est établie

sachant les valeurs passées de ces derniers)– le coefficient de corrélation pouvant exister entre ces différents paramètres

Finalement, la meilleure estimation des provisions techniques découlera de simulations sur différentsscénarios économiques ou de techniques déterministes et analytiques. Il convient ici de noter que lessimulations seront plus adaptées à la détermination des passifs de l’assurance vie (recettes futures pourcontrats collectifs) tandis que les méthodes déterministes et analytiques seront plus pertinentes dans lecadre de passifs non vie. Enfin, la meilleure estimation est calculée brute, sans déduction des créancesdécoulant des contrats de réassurance et des véhicules de titrisation. Ces montants sont calculés séparé-ment.

La Marge pour Risque La Marge pour Risque doit être ajoutée à la meilleure estimation de manièreà garantir que la valeur totale des provisions techniques est équivalente au montant que les entreprisesd’assurance et de réassurance demanderaient pour reprendre et honorer les engagements de l’assureursi celui-ci devenait insolvable. Dans ce contexte, les provisions techniques correspondent à la valeurde liquidation des passifs en cas de cessation d’activité. Dans le cadre de Solvabilité II, la marge pourrisque se calcule en pratique comme un coût d’usage du capital (CoC). En effet, pour maintenir dans lacompagnie d’assurance la marge de solvabilité, l’actionnaire va immobiliser ce montant, qui va générerdes produits financiers sur la base du taux de rendement des actifs de la compagnie. Or, l’actionnaireattend sur tous ses investissements le taux d’actualisation : il y a donc une perte pour l’actionnaire (coûtd’opportunité), correspondant à la différence entre le taux de rendement des actifs de la compagnie (netde frais de gestion financière et d’impôt) et le taux d’actualisation. Le coût du capital (CoC) correspondà la valeur actuelle du coût défini précédemment sur toute la durée des projections.

Ici, le coût d’usage du capital est évalué à 6 % au dessus du taux sans risque. Ce 6% est cohérent avecle taux de rendement demandé par les investisseurs pour investir dans le secteur des assurances. Danscette approche CoC, la marge pour risque se calcule en déterminant le coût du capital nécessaire pourassurer la continuité de l’activité (honorer les contrats tout au long de leur durée de vie). Dans ce cas, ils’agit du SCR (pour les risques non-couvrables), défini par la directive Solvabilité II (cf partie suivante).La méthode pratique est la suivante :

1. Projection du SCR pour les risques non-couvrables pour toutes les périodes futures, jusqu’à ce quetous les contrats du portefeuille soient arrivés à échéance

2. Multiplication du SCR par le taux CoC (6%)

3. Actualisation au taux sans risque

4. Somme des valeurs actualisées

10

Page 12: Caroline Mazziotto - ressources-actuarielles.net

On obtient donc la formule calcul de la Marge pour Risque (MR) :

MR = ∑t

6%×SCRt

(1+ rt)t

1.2.3 Le Minimum de Capital Requis (MCR)

Le Minimum de Capital Requis correspond au niveau minimal de sécurité en dessous duquel le mon-tant des ressources financières de l’entreprise ne doit pas tomber. Lorsque le montant de fonds propresdevient inférieur au Minimum de Capital Requis, si l’entreprise ne rétablit pas la situation rapidement,la réglementation prévoit le retrait de son agrément. L’EIOPA recommande de calculer le MCR à l’aided’une formule simple auditable.

L’article 127 de la directive ne précise que les principes de calcul du MCR, qu’il définit comme :

– Un montant clair, simple et auditable– Le niveau de fonds propres en deçà duquel le risque pour les preneurs et bénéficiaires est inaccep-

table– Le capital nécessaire pour ne pas être en ruine à horizon 1 an avec une probabilité comprise entre

80 et 90%

Il doit être calculé au moins une fois par trimestre, avec soumission du montant aux autorité de contrôle.A l’heure actuelle, il existe un débat encore ouvert sur sa méthode de calcul : soit par une méthodecompacte, où on a MCR = x% du SCR, soit par un version simplifiée de la formule standard. On anéanmoins la relation :

MCR = Max{Min[Max(MCRlinear;20%SCR);45%SCR];AMCR}

où le terme MCRlinear est la somme des modules du risque de sourcription des activités vie, non-vieet mixtes, et où le terme AMCR représente le minimum absolu (1 million d’euros en assurance vie, et 2millions d’euros en assurance non-vie).

11

Page 13: Caroline Mazziotto - ressources-actuarielles.net

1.3 Le Capital de Solvabilité Requis (SCR)

Contrairement aux provisions techniques, le SCR a pour rôle d’absorber les pertes inattendues : ilcorrespond au capital cible nécessaire pour atténuer le choc provoqué par une perte exceptionnelle, nonanticipée.

Le SCR doit être calibré de façon à prendre en considération tous les risques quantifiables auxquelsl’entreprise est exposée, en tenant compte des techniques d’atténuation et de diversification des risquespossibles. Il couvre donc le portefeuille en cours, ainsi que le nouveau portefeuille dont la souscriptionest attendue dans les 12 mois à venir. Pour ce qui concerne le portefeuille en cours, il couvre seulementles pertes non anticipées.

De plus, le SCR correspond à la valeur en risque (Value-at-Risk) des fonds propres de base de l’en-treprise avec un niveau de confiance de 99,5% à l’horizon d’un an. Dit autrement, le SCR représentele capital économique de la compagnie d’assurance, c’est à dire le montant de fonds propres qui luiassure qu’elle ne fera face à une ruine économique qu’une fois tous les 200 ans. La ruine économiquecorrespond à une situation où la valeur de marché de l’actif est inférieure à la juste valeur des passifs.L’horizon d’une année impose de pouvoir disposer de la distribution des fonds propres économiques surun an. Enfin, le seuil de 99,5% représente le niveau de solvabilité requis. La probabilité de l’événement"ruine économique" pour l’année en cours est dans ce cas inférieure à 0.5%.

Selon la Directive Solvabilité II, ce capital de solvabilité requis est calculé soit à l’aide de la formulestandard proposée par l’EIOPA, soit à l’aide d’un modèle interne.

FIGURE 3 – Vers une nouvelle vision, plus économique, du bilan

12

Page 14: Caroline Mazziotto - ressources-actuarielles.net

1.3.1 La formule standard

Principes de calcul Le SCR calculé à l’aide de la formule standard correspond à la somme des élé-ments suivants :

1. Le SCR « de base »(BSCR), comme défini par l’article 104 ;

2. le capital requis pour couvrir le risque opérationnel ;

3. l’ajustement visant à tenir compte de la capacité d’absorption de pertes des provisions techniqueset des impôts différés

Le SCR de base se compose de modules de risque individuels agrégés. Il comprend au moins les mo-dules de risque suivants : risque de souscription en vie, risque de souscription en non-vie, risque santé,risque de marché et risque de contrepartie.

Les risques élémentaires sont agrégés au moyens de matrices de corrélation (cf figure) afin de déter-miner les besoins en capital induits par les principales classes de risques (risque de marché, risque desoucription vie/ non-vie). Les besoins de capital pour les autres risques sont agrégés suivant le mêmeprincipe, au moyen de matrice de corrélation, ce qui conduit finalement au BSCR, auquel on ajoute unecharge de capital supplémentaire pour le risque opérationnel. On a la formule :

SCR = BSCR−Ad j+SCROp

Structure d’un modèle « Best Estimate »dans le cadre de la formule standard On rappelle toutd’abord que le bilan économique de la compagnie d’assurance peut être modélisé de la façon suivante :

Bilan en t

At : Actif en valeur de marché en tNAVt : Fonds propres économique en t

V EPt : Valeur économique des passifs en t

V EPt : Espérance de flux de trésorerie de passifs, en valeur actuelle nette (prestations, commissions,frais . . .) sous la probabilité risque neutre.

NAVt : Espérance des marges futures, en valeur actuelle nette, sous la probabilité risque neutre.

D’autre part, on a la relation suivante :

NAVt = At −V EPt

où, pour t > 0, les éléments V EPt , NAVt et At sont des variables aléatoires.

13

Page 15: Caroline Mazziotto - ressources-actuarielles.net

Il s’agit ensuite de projeter les flux de trésorerie de la compagnie d’assurance définis par les donnéesdes assurés, les paramètres des contrats, les données de l’Actif, les hypothèses non économiques (démo-graphie . . .) et les hypothèses économiques (taux d’intérêt, taux de rendement des actions . . .). Le modèlepermet alors de valoriser de manière « market consistent »les postes du bilan. Néanmoins cette estimationne porte que sur la période initiale. On a alors la formule suivante :

NAV (0) = ANC0 +EQ[∑

u≥1δuRu|F0]

Mise en oeuvre pratique de la formule standard : L’approche formule standard repose en fait surtrois étapes fondamentales :

– Etape 1 : détermination d’un capital économique ou SCR pour chaque « risque élémentaire »(ex :risque actions, taux, mortalité . . .)

– Etape 2 : agrégation des capitaux au sein de chaque module de risque (risque marché, vie, non vie),i.e agrégation intra-modulaire

– Etape 3 : agrégation des capitaux des différents modules, i.e agrégation inter-modulaire.

Etape 1 : Le capital économique correspond à la différence en t = 0 entre la NAV centrale et la NAVchoquée. On peut ainsi étudier l’impact de chocs, par exemple une augmentation non anticipé dutaux de mortalité dans le cadre de l’assurance vie, ou bien l’exercice d’une option contractuelle parl’assuré sur la distribution des fonds propres économiques. Il peut donc être intéressant d’étudierle comportement de l’assuré, et dans cet exemple l’impact de changements dans les conditionsfinancières et non financières sur l’exercice des options. Les chocs ainsi modélisées correspondentdonc à une variation d’un paramètre du scénario économique utilisé pour l’estimation du SCR.Enfin les chocs instantanés sont homogènes à des déviations extrêmes (i.e de seuil 0,5%) sous laprobabilité physique (ou probabilité historique).

Etape 2 et 3 : agrégation à l’aide des matrices de corrélations

De façon pratique le BSCR se calcule à l’aide de la relation :

BSCR =

√∑

(i, j)∈M2

ρMi j SCRiSCR j

où SCRi est le capital associé au module de risque « i », avec :

SCRm =

√∑

(i, j)∈Rm

ρRmi j CiC j

où Ci est le capital associé au risque élémentaire « i ».

14

Page 16: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 4 – SCR : calcul par la formule standard

1.3.2 Le modèle interne

La Directive Solvabilité II stipule que les entreprises d’assurance et de réassurance peuvent utiliserdes modèles internes ou partiels pour calculer un ou plusieurs des modules ou sous-modules de risquedu SCR de base, ou bien pour calculer l’exigence de capital pour risque opérationnel. L’organe d’admi-nistration, de gestion ou de contrôle de l’entreprise avalise ensuite la demande d’approbation du modèleinterne par les autorités de contrôle, ainsi que la demande d’approbation de toute modification majeureultérieurement apportée à ce modèle. Il incombe enfin à l’organe d’administration de mettre en place dessystèmes garantissant le bon fonctionnement du modèle interne de manière continue.

Principes de calcul Dans le cadre d’un modèle interne, calculer le capital économique revient à obte-nir une distribution de situations nettes en t = 1. L’actif est calculé en valeur de marché et la valeur despassifs à la date t correspond au « prix »de ces passifs vu en t.

Un modèle interne permet d’intégrer l’ensemble des risques de la compagnie afin de calculer la dis-tribution de la situation nette globale à horizon 1an. Le modèle permet ainsi d’obtenir une distributionde bilans économiques en fin de 1ère année. Enfin, l’agrégation des risques est effectuée « automatique-ment »au sein du modèle (il n’y a donc pas d’agrégation sur deux niveaux avec l’enchaînement d’étapesintra puis inter-modulaires). On utilise directement une matrice globale de l’ensemble des facteurs derisques, ce qui permet de tenir compte d’éventuels effets croisés entre des risques de modules différents.

15

Page 17: Caroline Mazziotto - ressources-actuarielles.net

1.4 Pilier 2 : les exigences qualitatives

1.4.1 Principes généraux

La Directive Solvabilité II intègre le fait que certains risques ne peuvent être convenablement contrésqu’au moyen d’exigences concernant la gouvernance, et non par des exigences quantitatives expriméesdans le capital de solvabilité requis. D’après le pilier 2, le système de gouvernance doit inclure la fonc-tion de gestion des risques, la fonction de vérification de la conformité, la fonction d’audit interne et lafonction actuarielle.

Ainsi, les entreprises d’assurance sont tenues de mettre en place un système de gestion des risquesefficace, qui comprenne les stratégies et processus nécessaires pour mesurer, contrôler, gérer et déclarer,en permanence les risques, aux niveaux individuel et agrégé, auxquels elles peuvent être exposées ainsique les interdépendances entre ces risques. Chaque entreprise procède donc à une évaluation internedes risques et de la solvabilité. Cette dernière, résumée par le sigle « ORSA »(Own Risk and SolvencyAssessment) couvre entre autres les domaines suivants :

– la souscription et le provisionnement ;– la gestion actif-passif ;– les investissements, en particulier dans les instruments dérivés et engagements similaires ;– la gestion du risque de liquidité et de concentration ;– la gestion du risque opérationnel ;– la réassurance et les autres techniques d’atténuation du risque.

D’autre part, dans le système établi par Solvabilité II, les entreprises disposent d’un système decontrôle interne. La fonction d’audit interne évalue ensuite l’adéquation et l’efficacité du système decontrôle interne et les autres éléments du système de gouvernance. L’indépendance entre la direction del’audit interne, rendant compte d’une vision globale de l’entreprise, et le contrôle interne, maîtrisant lerisque opérationnel, constitue une particularité fondamentale du projet Solvabilité II. Finalement, l’auditinterne ne dépend que de la direction générale de l’entreprise, et peut contrôler la fonction de contrôleinterne.

Enfin, la Directive Solvabilité II précise le rôle de la fonction actuarielle dans le système de gouver-nance de l’entreprise. Ainsi, l’actuaire doit :

– coordonner le calcul des provisions techniques tout en garantissant le caractère approprié des mé-thodologies, des modèles sous-jacents, des hypothèses utilisées et la qualité des données ;

– comparer les meilleurs estimations aux observations empiriques ;– informer l’organe d’administration du caractère adéquat du calcul des provisions techniques ;– émettre un avis sur la politique globale de souscription ;– émettre un avis sur l’adéquation des dispositions prises en matière de réassurance ;

De plus, l’actuaire doit disposer d’une connaissance des mathématiques actuarielles et financières poin-tue, permettant d’apprécier pleinement les risques inhérents aux activités d’assurance et de réassurancedans le cadre des normes professionnelles et autres normes applicables.

16

Page 18: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 5 – Le dispositif ORSA

1.4.2 Lien entre le pilier 1 et le pilier 2

Dans l’objectif d’amener à une véritable prise de recul sur les risques, l’ORSA doit apporter descompléments aux travaux quantitatifs menés dans le cadre du Pilier 1. Nous nous appuyons ici sur leDossier technique d’Optimind intitulé « Solvabilité II : une mobilisation générale du marché », publié enJanvier 2011. ([9])

Le rôle du régulateur Le pilier 2 prévoit l’intervention d’un contrôle externe du capital économique.Dans le cadre d’un modèle interne, le régulateur vérifie que celui-ci décrit l’entreprise dans sa réalité.Dans le cas contraire, celle-ci devra procéder à certains ajustements. Ainsi, sous certaines conditions,le régulateur est en mesure d’imposer une marge de solvabilité supplémentaire (« add-on capital ») àl’entreprise, s’il estime que celle-ci a mal estimé les risques auxquels elle fait face. Cet ajout de capitaléventuel ne peut être imposé que dans trois cas de figure :

– insuffisance du point de vue quantitatif de la formule standard ;– insuffisance du point de vue quantitatif du modèle interne ;– faiblesse de la gestion des risques du système de gouvernance

L’étude critique des calculs du Pilier 1 L’assureur doit avant toute chose contrôler et qualifier le calculdes provisions Best Estimate et des capitaux réglementaires. Les possibles imprécisions par exemple liéesà une qualité insuffisante des données doivent être mises en évidence. L’ORSA devra également amenerles assureurs à confronter plusieurs méthodologies de calcul, notamment pour évaluer la robustesse desrésultats. Enfin les assureurs sont invités dans le cadre de l’ORSA à intégrer au maximum leurs propresdonnées d’expérience.

17

Page 19: Caroline Mazziotto - ressources-actuarielles.net

L’ORSA et le modèle interne Dans le cadre du test de validation relatif à l’utilisation du modèleinterne, les assureurs sont invités à étendre le périmètre d’utilisation de leur modèle au delà des seulscalculs des capitaux réglementaires, notamment à la mesure du capital économique. Un modèle internequi ne serait pas utilisé dans le cadre des processus stratégiques perdrait en effet naturellement de sapertinence et de sa crédibilité du point de vue du superviseur. À ce titre, l’utilisation des « briques »demodélisation des facteurs de risques issues du modèle interne sera nécessaire dans le cadre de l’ORSA.L’ORSA sera également l’occasion de challenger les résultats du modèle interne par le biais d’indicateursplus pragmatiques tels que ceux pouvant être issus de stress tests.

Travaux quantitatifs propres à l’ORSA L’ORSA correspond à l’anticipation de l’assureur par rap-port à ses propres risques. N’ayant en aucun cas vocation à être comparé entre deux assureurs, l’ORSAs’affranchit des normes très cadrées du Pilier 1, prévues pour assurer un objectif de comparabilité descapitaux réglementaires. À ce titre, l’assureur doit justifier d’une véritable prise de recul par rapport à sesrisques. Cela passe par la définition d’indicateurs alternatifs pertinents par rapport à sa stratégie et auxspécificités de son profil de risque. Il appartient enfin à l’assureur de réconcilier le capital ORSA et lecapital réglementaire.

18

Page 20: Caroline Mazziotto - ressources-actuarielles.net

2 Les tables d’expérience : concepts théoriques et applications

Dans la partie précédente, nous avons vu que la mise en place de la nouvelle norme de solvabilité pourle secteur de l’assurance reposait sur une meilleure connaissance des risques. Pour le calcul du besoin desolvabilité, cela implique une analyse plus fine des risques réellement encourus par l’entreprise, reposantidéalement sur des données d’expérience plutôt que des données réglementaires.

Si, dans la formule standard, il suffit d’établir des tables d’expérience qui captent le risque de façonprécise, dans le cadre du modèle interne, il est nécessaire de mesurer l’erreur de table commise dans lecas d’une inadéquation de la table d’expérience utilisée avec la réalité observée. Cela peut par exemple setraduire par une erreur de fréquence pour le décès, ou une erreur de longévité pour les rentes éducation.Cette erreur potentielle induirait une plus grande volatilité dans la distribution des passifs possibles etconduirait à l’immobilisation de fonds propres complémentaires.

Dans le cadre de l’établissement d’un modèle interne partiel propre, en complément de la formulestandard, PRO BTP souhaite justifier de sa propre évaluation des risques techniques liés aux garantiesVie. Il s’agit ainsi d’évaluer les erreurs de table potentiellement commises sur des tables d’expériencede décès et de rentes éducation utilisées dans les portefeuilles de prévoyance collective de l’entreprise.Il convient donc dans un premier temps de revenir sur le concept de table d’expérience, afin de l’appli-quer dans un deuxième temps à la modélisation stochastique de passif de l’entreprise. Finalement, nousconsidérons les caractéristiques de la table de mortalité des ouvriers, sur laquelle se fonde notre étude.

2.1 Les tables d’expérience

2.1.1 Présentation

Afin d’étayer notre présentation, nous nous appuyons de nouveau ici sur un dossier technique d’Op-timind intitulé « Les tables de mortalité », publié en 2007 ([8]). Les tables de mortalité constituent leréférentiel central de toutes les activités d’une compagnie d’assurance exerçant dans la branche vie, puis-qu’elles permettent d’estimer la probabilité de survie ou de décès des personnes assurées. Il existe deuxcatégories de tables :

– Les tables de mortalité statiques, périodiques ou instantanées ; ces tables caractérisent la mor-talité de la population actuelle dans sa globalité : une même probabilité de décès est appliquéequelle que soit la génération de la personne assurée, qui peut être identique pour toute la popu-lation ou segmentée suivant des variables influençant de manière significative le risque de décès(Homme/Femme, Fumeur/Non-Fumeur, type de contrat) ;

– Les tables dynamiques ou prospectives, dites de « génération » ; Ce sont des tables bidimen-sionnelles : deux variables expliquent le décès, à la fois l’âge de l’assuré mais aussi le temps. Lesprobabilités de survenance du risque de mortalité intègrent les évolutions potentielles de la morta-lité avec le temps (recul de la mortalité, phénomène de longévité).

19

Page 21: Caroline Mazziotto - ressources-actuarielles.net

Récentes évolutions réglementaires : La réglementation, via le Code des Assurances, le Code de laSécurité Sociale et le Code de la Mutualité, établit clairement quelles tables de mortalité sont à utiliser.Différents arrêtés ont par ailleurs modifié les codes à ce sujet, les tables utilisées par le passé ayant étéjugées obsolètes pour refléter le risque de mortalité réelle de la population. Le tableau ci-dessous présenteles principales tables de mortalité utilisées actuellement en actuariat. Il rappelle également leur utilisationet leur origine.

Tables Origine UtilisationTV 88-90 Mortalité de la population

féminine française pourla période d’observation1988-1990

Tarification et provisionnement des garanties« Vie »(autres que les rentes viagères) par les compa-gnies d’assurance, les Institutions de Prévoyance (IP) etles mutuelles. Table de référence jusqu’au 31/12/2005.

TD 88-90 Mortalité de la populationmasculine française pourla période d’observation1988-1990

Tarification et provisionnement des garanties « Dé-cès »par les compagnies d’assurance, les IP et les mu-tuelles. Table de référence jusqu’au 31/12/2005.

TF 00-02 Mortalité de la populationféminine française pourla période d’observation2000-2002

Tarification et provisionnement des garanties « Dé-cès »ou « Vie »par les compagnies d’assurance, les IP etles mutuelles. Table de référence depuis le 01/01/2007.

TH 00-02 Mortalité de la populationmasculine française pourla période d’observation2000-2002

Tarification et provisionnement des garanties « Dé-cès »ou « Vie »par les compagnies d’assurance, les IP etles mutuelles. Table de référence depuis le 01/01/2007.

TG/TPRV 1 Mortalité prospective de lapopulation féminine fran-çaise

Tarification et provisionnement des rentes viagères parles compagnies d’assurance, les IP et les mutuelles. De-puis le 01/01/07 pour les compagnies d’assurance et le01/01/08 pour les institutions de prévoyance et les mu-tuelles, ces tables ne sont plus applicables.

TGF05TGH05

Mortalité prospective dela population féminine etmasculine des rentiers as-surés auprès d’entreprisesd’assurance

Tarification et provisionnement des rentes viagères parles compagnies d’assurance (depuis le 01/01/07), les IPet les mutuelles (depuis le 01/01/08). Période transitoirede 15 ans pour mettre à niveau les provisions.

Ainsi, pour tous les contrats autres que les rentes viagères, les tables TH 00-02 et TF 00-02 (construitessur la base de données relatives à la population française dans sa globalité, publiées par l’INSEE) rem-placent respectivement les tables TD 88-90 et TV 88-90.

Depuis 1993, les entreprises du secteur de l’assurance peuvent de façon alternative utiliser une tabled’expérience certifiée par un actuaire indépendant agrée par l’Institut des Actuaires. Il s’agit dans ce casd’établir les probabilités de décès suivant l’observation de la mortalité caractéristique de la populationconcernée ou d’une population soumise à un risque identique. Sans suivi régulier, la validité de la tablen’est que de 2 ans et est portée à 5 ans avec un suivi annuel.

1. Tables Générationnelles/ Tables Prospectives pour de Rentes Viagères

20

Page 22: Caroline Mazziotto - ressources-actuarielles.net

Impact des tables de mortalité sur la tarification : Si l’assureur utilise les bases techniques qui nereflètent pas la sinistralité réelle, il se verra très probablement confronté à des pertes techniques et sera,a fortiori, dans l’obligation d’utiliser ses fonds propres pour pouvoir respecter les termes du contrat,le capital constitutif initial devenant insuffisant à financer les arrérages réels à servir. Le graphique ci-dessous illustre les écarts entre les tables de mortalité TD 88-90, TF 00-02 et TH 00-02.

FIGURE 6 – Écarts entre différentes tables de mortalité

Intérêt de construire des tables d’expérience : Certifiée par un actuaire indépendant agréé par laCommission de l’Institut des Actuaires, une table d’expérience permet de modéliser le risque de morta-lité en se fondant sur une étude précise du portefeuille donné. Les assureurs ont tout intérêt à opter pour cegenre de tables, car ils peuvent mieux cerner le risque de mortalité inhérent à leur portefeuille, et appré-hender notamment le phénomène d’anti-sélection. La connaissance du portefeuille constitue d’ailleurs unpoint clé dans le processus de gestion et de la maîtrise des risque d’entreprise : comme vu dans la partieprécédente, l’évolution actuelle de la réglementation pour le secteur des assurances suggère un pilotageperformant se fondant sur une bonne perception du profil de risque.

2.1.2 Méthodologie générale de construction

La construction d’une table d’expérience se déroule en plusieurs étapes :

21

Page 23: Caroline Mazziotto - ressources-actuarielles.net

– Validation des données initiales et justification du contexte d’analyse– Estimation des taux annuels brut de décès– Lissage des taux annuels brut de décès– Méthodes d’extrapolation dans le cas de données insuffisantes– Validation de la table construite

2.1.3 Validation des données initiales et justification du contexte d’analyse

Pour avoir des résultats pertinents et représentatifs de la mortalité d’une certaine population, il fautdisposer de données qui soient fiables et exploitables. Il s’agit en particulier de procéder à une analysedescriptive de la population étudiée, de vérifier son homogénéité ou de mettre en évidence certaines va-riables explicatives de la mortalité qui permettront éventuellement par la suite d’effectuer une segmenta-tion (typiquement, différencier les hommes et les femmes). Plus cette phase de nettoyage sera rigoureuseet poussée, plus les résultats seront précis et de bonne qualité.

2.1.4 Estimation des taux annuels bruts de décès

Une estimation des taux annuels buts de décès consiste à évaluer les probabilités de décès qx pourles différents âges x de la vie, à partir des données relevées au cours de la période d’observation. Pource faire, il est nécessaire de connaître le nombre d’individus en vie à l’âge x, et le nombre d’individusdécédés pendant leur x+1ème année. Il est de plus supposé que, sur l’intervalle d’âge [x;x+1] tous lesdécès sont indépendants et que la probabilité de décès est identique quel que soit l’individu. Toute la dif-ficulté réside alors dans la présence de données tronquées ou censurées qui sont liées à une observationpartielle et qui nécessitent des méthodes particulières d’estimation, comme la méthode de Kaplan-Meier(1958)([10]).

Plus précisément, trois types de données peuvent être définis pour l’estimation des taux bruts :– Une donnée complète : l’individu atteint l’âge x après le début de la période d’observation ; il est

décédé ou fête son x+1ème anniversaire avant la fin de la période d’observation ;– Une donnée tronquée à gauche : l’individu a déjà entamé sa x+1ème année au début de la période

d’observation ;– Une donnée censurée à droite : la date du x+1ème anniversaire de l’individu n’est pas observable ;

Le graphique suivant donne une première intuition des différents cas de figure concernant l’observationdes assurés.

2.1.5 Lissage des taux annuels de décès

Les taux annuels de décès présentent en général des irrégularités en rapport avec les fluctuations del’échantillonnage. Il est donc nécessaire de lisser ces taux afin d’obtenir une courbe de mortalité quiprogresse graduellement avec l’âge. Il existe différentes techniques qui peuvent faire aussi l’objet d’uneutilisation conjointe :

22

Page 24: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 7 – Les différents types de données

– les modèles paramétriques– les lissages paramétriques– les lissages non paramétriques– les modèles relationnels.

Les modélisations paramétriques ou relationnelles sont à privilégier dans le cas de petits échantillons.Elles permettent théoriquement d’extrapoler facilement l’estimation des taux de mortalité à des âges sansobservations ou qui n’ont pas participé à l’ajustement par manque d’informations suffisantes. Les mé-thodes de lissage sont plutôt indiquées dans le cas de données importantes. Elles restent assez prochesdes taux bruts mais ne sont pas adaptées pour être employées en dehors de la plage d’estimation. En fait,il est préférable d’effectuer plusieurs essais de sorte à choisir la méthode qui représente le mieux la mor-talité du groupe observé, en s’appuyant sur différents critères de décision. Dans le cadre de notre étude,nous développons ici la méthode de lissage paramétrique, dans la mesure où il s’agit de celle employéepar PRO-BTP, qui utilise la méthode Whitthaker pour la construction de ses tables d’expérience lis-sées. Nous présentons ensuite les modèles relationnels, qui nous serviront dans la partie de notre exposédestinée à présenter une méthode alternative (à la méthode Kaplan-Meier) de modélisation des taux bruts.

Lissages non paramétriques Le principe consiste à substituer aux données brutes des valeurs lissées,en supposant que la mortalité du groupe étudié est plutôt régulière, sans qu’aucune loi sous-jacente n’in-tervienne. Les méthodes les plus courantes sont celles des moyennes mobiles pondérées, et de Wittaker-Henderson. La partie suivante de notre exposé sera l’occasion de revenir sur cette méthode, et d’en voirles différents développements possibles.

23

Page 25: Caroline Mazziotto - ressources-actuarielles.net

Modèles relationnels Il s’agit de rapprocher les taux de mortalité bruts de ceux issus d’une tableconnue, construite à partir d’une population ayant des caractéristiques similaires et de transformer cettetable de référence pour aboutir à celle du groupe visé. Les modèles de Cox (1972), de Brass (1971)([5]) et de Hanerz (2001) constituent les modèles de référence. Ils peuvent être utilisés séparément oucombinés dans le cadre de modèles additifs généralisés. Le modèle de Brass met par exemple en jeu lesdeux équations suivantes :

logit(tq0) = α+βlogit(tqre f0 )

avec logit(x) = ln(x

1− x)

Validation de la table construite L’objectif est de s’assurer du respect de certaines règles de cohé-rence. Plusieurs éléments sont à vérifier : croissance des taux de mortalité avec l’âge, correspondanceavec les données initiales, respect des connaissances a priori de la mortalité. Par exemple, dans le casd’une différenciation par sexe, il est logique d’observer, pour un même âge, que les taux de décès desfemmes sont inférieurs à ceux des hommes. Différents critères et tests sont susceptibles de mesurer laqualité de la modélisation. Ces critères seront en outre mis en oeuvre dans les parties suivantes de notreexposé.

Critère ou test Description

Critère de fidélité aux taux bruts

CF = ∑x |q∗x− qx| ou CF = ∑x(q∗x− qx)2

où q∗x représente le taux brut.

Plus le critère est proche de 0, plus les taux lissés sont fidèles auxtaux bruts.

Critère de régularité des taux lissésCR = ∑x(∆

Z qx)2, soit pour Z=1 : CR = ∑x(qx− qx+1)

2.

Plus cette valeur est proche de 0 et plus le lissage est régulier.

Test du Chi-deux d’ajustement

Ce test rejette le modèle si les écarts entre les taux bruts et les tauxajustés sont trop significatifs pour être simplement dûs au hasard,pour un certain niveau de confiance α :χ2

x = ∑nx=0

(dx−1xqx)2

1xqx

Soit le degré de liberté k égal au nombre de tranches d’âgesenvisagées diminué du nombre de paramètres estimés, rejet si :χobs > χk

2(α)

24

Page 26: Caroline Mazziotto - ressources-actuarielles.net

2.2 Application à la modélisation stochastique d’un passif

Les techniques stochastiques sont traditionnellement utilisées dans la modélisation de l’actif, afind’estimer au mieux les différents risques et de palier entre autres les fluctuations des marchés financiers.Pour la modélisation du passif, ces techniques apportent des informations précieuses, notamment pourle contrôle des risques. Alors qu’un modèle déterministe ne fournit qu’une valeur moyenne, un modèlestochastique est capable de nous renseigner sur l’ensemble de la distribution de la quantité étudiée etpermet notamment d’en estimer la variance et les quantiles.

2.2.1 Définition du risque de mortalité : terme aléatoire à 2 niveaux

Pour évaluer au plus juste le risque de mortalité, la modélisation stochastique introduit des termesaléatoires à deux niveaux : on considère d’une part une durée de vie aléatoire des assurés, et d’autre partune loi de mortalité aléatoire. La modélisation de la durée de vie aléatoire des assurés par rapport à uneloi donnée permet la modélisation de l’effet de non-mutualisation : un portefeuille de petite taille peuts’écarter sensiblement de la loi des assurés supposée connue. La Loi des Grands Nombres atteste que cetimpact est d’autant plus réduit que le portefeuille est de taille importante. La loi de mortalité aléatoiredes assurés permet alors la modélisation d’un écart possible de la loi des assurés par rapport à la loid’expérience.

Loi de mortalité aléatoire des assurés : La mortalité modélisée est un processus stochastique : le taux demortalité pour un âge donné et une année donnée est la réalisation d’une variable aléatoire dont les para-mètres sont calibrés suivant la mortalité d’expérience.

Exemple : Le modèle de Leeqsto

t,x = αt,x×qthx + βt,x

où :– qsto

t,x est la mortalité stochastique utilisée dans le modèle ;– qth

x est la mortalité théorique ;– αt,x et βt,x représentent des modifications aléatoires de la mortalité théorique et suivent des lois

normales (notons que βt,x est un facteur facultatif)

Loi de durée de vie aléatoire des assurés : Une fois que l’on connaît la réalisation de la probabilité dedécès d’un individu (qsto

t,x ) à une certaine date, on suppose que le décès surviendra ou non en fonctionde la réalisation d’une variable aléatoire de Bernoulli de paramètre qsto

t,x . Ceci permet de caractériser lasurvie aléatoire de l’assuré considéré au sein du groupe.Concrètement, il suffit de générer la réalisation (u) d’une variable uniforme sur l’intervalle [0 ;1] et d’ap-pliquer la règle de décision suivante :{

si u > qstot,x alors l’assuré survit

si u≤ qstot,x alors l’assuré décède

25

Page 27: Caroline Mazziotto - ressources-actuarielles.net

2.2.2 Définition du risque d’estimation

Dans leur article intitulé « Mesure du risque d’estimation associé à une table d’expérience »(2010)([1]), Planchet et Kamega définissent le risque d’estimation de la façon suivante :

– Risque systématique associé à l’utilisation d’une loi de durée dont on sait qu’elle n’est pas exactedu fait des erreurs d’échantillonage affectant sa construction

– Mesure du risque associé à la construction d’une loi d’expérience à partir d’une population globale

C’est donc sur cette définition que se fonde la suite de notre exposé. De plus, dans la dernière partiede notre exposé, nous nous proposons d’appliquer la méthode d’estimation présentée par Planchet et Ka-mega à notre problème.

Finalement, si cette sous-partie nous a permis d’étudier les notions théoriques indispensables à labonne compréhension du concept de table d’expérience et du risque d’erreur associé, il nous faut main-tenant aborder ce sujet sous un angle pratique. Il s’agit donc de se pencher sur une table d’expérienceparticulière utilisée par PRO BTP dans la tarification de ses contrats et la détermination de ses provisionsà constituer. Aussi consacrons-nous la prochaine sous-partie à la description des données contenues danscette table d’expérience, à la lumière des étapes de construction citées plus haut. Cela constituera enfinune occasion de se pencher brièvement sur les activités de PRO BTP.

26

Page 28: Caroline Mazziotto - ressources-actuarielles.net

2.3 Présentation de la table de mortalité TDBTP Ouvriers

2.3.1 Préambule

BTP-Prévoyance couvre les risques sociaux des Ouvriers, des Employés, Techniciens et Agents deMaîtrise (ETAM) et des Cadres du Bâtiment et des Travaux Publics (BTP). Les couvertures reposentprincipalement sur des régimes collectifs. Néanmoins, des adhésions individuelles sont également pro-posées aux anciens salariés, chômeurs ou retraités de la profession.

BTP-Prévoyance gère deux régimes conventionnels, qui font chacun l’objet d’une clause de dési-gnation pour les travailleurs des BTP. Cette dernière a été renouvelée par les partenaires sociaux de laprofession en mars 2009, pour une période de cinq ans.

• Le Régime National de Prévoyance des Etam du BTP (R.N.P.E.) ;

• Le Régime National de Prévoyance des Ouvriers du BTP (R.N.P.O.). Ce dernier régime se subdiviseen plusieurs composantes :– La prévoyance de base obligatoire des ouvriers du BTP ;– Une surbase obligatoire propre aux ouvriers des travaux publics, et depuis 2010 une surbase

propre aux ouvriers du bâtiment ;– Une section des indemnités de fin de carrière Ouvriers, qui fonctionne sur le principe d’un régime

à cotisations définies.

Les tableaux suivants exhibent différentes caractéristiques des régimes de prévoyance de BTP-PREVOYANCE :

Nature des engagements Type de prestations

Temporaire décèsCapitaux décèsRentes éducationRentes de conjoint

Incapacité temporaire Indemnités journalières à compter du91ème jour d’arrêt

Invalidité permanente Rentes d’invaliditéDépart à la retraite Indemnités de départ à la retraite

Nombre de salariés couverts en 2010Ouvriers 1.059.872Etam 286.229Cadres 138.405Total 1.484.506

En complément, BTP-Prévoyance propose des couvertures supplémentaires et facultatives à tous lessalariés de la profession :

– des garanties de prévoyance au delà du socle conventionnel, dans le cadre de régime standard oude contrats particuliers ;

27

Page 29: Caroline Mazziotto - ressources-actuarielles.net

– des couvertures de santé, à la fois pour les actifs (dans le cadre de l’entreprise, ou, à défaut, suite àadhésion individuelle) et pour les retraités.

Parmi les garanties proposées, notre étude s’intéresse aux garanties temporaires décès. Il convientdonc d’en faire une rapide description. Ainsi, en cas de décès, les contrats temporaires décès prévoient :

• pour les ETAM et Cadres :

– un capital modulé selon la situation de famille et le salaire du participant ;

– une rente temporaire d’éducation versée pour les enfants à charge.

• pour les Ouvriers :– un capital modulé selon la situation de famille, fonction du salaire de référence - 1

4.400 ème partiedu salaire moyen des ouvriers du BTP- pour le régime de base ou du salaire du participant pourles régimes supplémentaires ;

– une rente temporaire au conjoint survivant, éventuellement majorée selon les conditions de res-sources. Cette rente, servie à la date de décès, est transformée en rente viagère à la date où leparticipant aurait pu bénéficier d’une pension vieillesse ;

– une rente temporaire d’éducation versée pour les enfants à charge.

Pour estimer le prix des garanties temporaires décès proposées aux ouvriers, PRO BTP utilise la tablede mortalité TDBTP Ouvrier, qui permet d’estimer les taux bruts de décès de la population concernée.Celle-ci a été construite à partir de l’observation des effectifs gérés, il s’agit donc d’une table d’ex-périence. Les différentes étapes de sa construction ont pu nous être communiquées à travers différentsdocuments internes de PRO BTP.

2.3.2 Construction de la table

La table de mortalité TDBTP Ouvrier a été élaborée à partir des observations de la population ouvrièresur une période de 4 ans (de 2005 à 2008). Elle utilise l’estimateur Kaplan-Meier pour l’estimation destaux bruts de décès. Si la troisième partie de notre mémoire sera l’occasion de définir mathématiquementcet estimateur, il convient ici de décrire son contexte d’utilisation, et les résultats de son application, quicorrespondent à la table TDBTP Ouvrier utilisée par Pro-BTP.

Comme vu dans la sous-partie précédente, les garanties temporaires décès s’adressent ou à des ou-vriers actifs, dans le cadre des régimes de prévoyance standards, ou bien aux ouvriers dans le cadred’adhésions individuelles.

Les Ouvriers actifs Pour les actifs, Pro-BTP a utilisé les bases d’affiliation dans le BTP. Une premièrebase, qui contient l’ensemble des actifs du BTP sur 7 ans (2003 à 2009 inclus) ayant eu au moins uneaffiliation durant cette période, permet d’obtenir pour chaque salarié les informations suivantes :

– Numéro d’adhérent– Date de naissance– Date de début d’affiliation

28

Page 30: Caroline Mazziotto - ressources-actuarielles.net

– Date de fin d’affiliation– Indicateur de décès– Date de décès s’il a lieu– Catégorie professionnelle– Date de départ à la retraite

Ce fichier provient d’une base IFC (Indemnités de Fin de Carrière). Or les ouvriers du BTP possèdentobligatoirement une garantie IFC souscrite auprès de PRO-BTP. De ce fait, nous sommes donc certainsd’étudier l’ensemble de la population ouvrière.

Le croisement de cette première base d’affiliation avec une deuxième base a ensuite permis d’ob-tenir la nature de l’affiliation ainsi que la cause de décès pour les éventuels décédés. D’autre part,l’étude se faisant sur une période de 4 ans, on peut être confronté à un changement de catégorie socio-professionnelle pour une personne donnée. Lors de la construction de la table, il a donc été convenu dene tenir compte que de la CSP pour la période observée. Par exemple, une personne qui était assimiléeOuvrier du 01/01/05 au 30/06/06 puis ETAM après, est classée dans la base utilisée en tant qu’ouvrierpour la période du 01/01/05 au 30/06/06 , puis ETAM pour le reste du temps.

Un premier tri est ensuite effectué en supprimant les cas suivants :– Les ouvriers décédés avant le début d’observation (1er janvier 2005)– Les ouvriers qui ont une fin d’affiliation antérieure au 1er janvier 2005– Les ouvriers qui ont un début d’affiliation après la fin de l’observation (31 décembre 2008)

Ainsi, avant tout traitement des données sous SAS, le nombre de décès entre la date de début d’obser-vation et la date de fin d’observation pour le collège des ouvriers est donné par le tableau ci-dessous :

Année de décès Nombre2005 4.3542006 4.7172007 5.1832008 5.429Total 19.683

Cette première estimation est ensuite retraitée en se penchant sur le cas des ouvriers actifs décédés(Indicateur de décès = OUI) mais dont la date de décès n’est pas renseignée.

D’autre part, en vue de l’utilisation de l’estimateur de Kaplan-Meier, il est intéressant de remarquerqu’un actif peut disparaître du fichier d’affiliation pour trois raisons :

– Fin d’affiliation dans le BTP (changement du secteur d’activité)– Départ à la retraite– Décès

Les Ouvriers retraités Les données des retaités proviennent d’une table SAS contenant plusieurs in-formations pour l’ensemble des retraités du BTP, parmi lesquelles :

– Numéro d’adhérent– Situation

29

Page 31: Caroline Mazziotto - ressources-actuarielles.net

– Cause de cette situation– Catégorie professionnelle– Type du bénificiaire– Date d’effet– Date de fin d’effet– Date de liquidation de la retraite– Date de décès du retraité

Un premier tri permet ensuite de ne retenir que les personnes ayant la catégorie socio-professionnelle« Ouvrier »(71% du portefeuille constitué), vivant en France. En effet, la mortalité des retraités résidantà l’étranger (13% du portefeuille) n’est pas la même que celle des résidents français, ce qui peut être liépar exemple à la qualité des soins. Enfin, on ne s’intéresse ici qu’aux bénéficiaires dits « participants »ouen « retraite progressive », dans la mesure où l’étude ne porte que sur la mortalité des adhérents du BTPet non sur celle de leurs conjoints et enfants.

A la suite d’autres retraitements plus techniques que nous ne détaillerons pas ici, la base obtenue estcroisée avec une table de renseignements généraux. Celle-ci permet d’obtenir la date de naissance desretraités, ainsi que la date de décès et l’indicateur de décès qui nous permettra de savoir si l’adhérent esten vie ou non.

Finalement, le nombre de décès entre la date de début d’observation et la date de fin d’observationpour les retraités du collèges des ouvriers résidant en France est donné par le tableau ci dessous :

Année de décès Nombre2005 19.1332006 26.6622007 26.9732008 27.293Total 100.061

Des retraitements complémentaires permettent enfin de supprimer 38 contrats dont les porteurs sontdécédés mais dont la date de décès et la date de fermeture du contrat ne sont pas connues.

Là encore, il est intéressant de citer quelques-unes des raisons qui conduisent à la fermeture d’undossier retraite :

– Annulation– Décès– Fongibilité– Remariage– Versement unique

Enfin, on remarque que 88 824 personnes se trouvent à la fois dans le fichier actif et dans le fichierretraité. Cela correspond au cas des personnes qui sont actifs et qui deviennent retraités pendant la pé-riode d’observation (2005-2008). Un retraitement est alors effectué afin de ne garder qu’une seule lignepour la personne concernée. Le programme de nettoyage se penche sur les dates de naissance, dates deretraite et dates de décès. En ce qui concerne la date de décès, aucune différence entre le fichier actif etle fichier retraité n’a été constatée. En revanche, 29 cas présentent une différence de dates de naissance.Pro-BTP a alors vérifié les contrats concernés et conclut que ces différences étaient dues à la mise à jour

30

Page 32: Caroline Mazziotto - ressources-actuarielles.net

du fichier actif, plus récente que la mise à jour des bases des retraités. Les dates de naissance du fichieractif ont alors été privilégiées.

Le programme Kaplan-Meier et ses résultats Une fois les données nettoyées, Pro-BTP construitl’estimateur de survie de Kaplan-Meier. Le programme utilisé définit pour chaque adhérent leurs datesde début et de fin d’observation. Si une personne a une date d’affiliation antérieure à la date de débutd’observation (1er janvier 2005), alors celle ci est remplacée par « 1er janvier 2005 »(donnée tronquée àgauche). De même, si l’assuré décède entre 2005 et 2008 alors, sa date de fin d’observation correspond àsa date de décès, sinon on considère comme date de fin d’observation le 31 décembre 2008.

Des indicateurs sont alors construits afin de rendre compte de l’état du participant :

– L’assuré est vivant– L’assuré est censuré– L’assuré est décédé

Le programme calcule ensuite l’âge d’entrée et de sortie pour chaque assuré à l’aide la fonction YRDIFde SAS.

On dispose alors de toutes les variables nécessaires à la construction de l’estimateur de survie deKaplan-Meier. Dans un premier temps, il s’agit de recenser à chaque étape le nombre d’adhérents ex-posés, censurés ou décédés. On obtient alors pour l’étape « i »le nombre ri. Dans un second temps, ondéfinit la variable di qui correspond à la différence entre le total des exposés et le total des censurés etdécédés. L’estimateur de survie est alors calculé à l’aide du produit cumulé des pi estimés avec :

pi = 1− qi

avec qi =di

ri

Les taux de mortalités alors obtenus par âge sont laissés en annexe. Nous comparons ensuite ces tauxde mortalité constatés par âge (courbe en gras) avec les taux de mortalité des tables réglementaires TH00-02, TH 00-02 avec décalage et TD 88-90, et ceux de la précédente table d’expérience TDBTP2 (quin’utilisait pas l’estimateur Kaplan-Meier). Nous obtenons alors les deux graphiques suivants, correspon-dant à un âge x allant de 25 à 65 ans et de 65 à 105 ans.

A partir de ces trois graphiques, nous pouvons faire quelques remarques sur les taux de mortalitéobtenus pour la population du BTP :

• Ils sont encadrés par les taux de mortalité avec décalage d’âge (borne supérieure) et les taux demortalité TH 00-02 (borne inférieure) : la mortalité de la population travaillant ou ayant travaillédans le BTP est bien différente et supérieure à celle de la population française globale utilisée pourla construction des tables réglementaires. La construction d’une table de mortalité d’expérience estdonc bien nécessaire pour des raisons de prudence.

• Ils sont très proches des taux de mortalité de la précédente table d’expérience TDBTP2.

31

Page 33: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 8 – Taux de mortalité des ouvriers du BTP de 25 à 65 ans

FIGURE 9 – Taux de mortalité des ouvriers du BTP de 65 à 105 ans

• Ils sont en revanche légèrement inférieurs aux taux de mortalité de l’ancienne table de mortalitéréglementaire, la TD 88-90.

Pour les âges extrêmes, l’effectif et le nombre de décès ne sont plus suffisants. C’est pourquoi il a étédécidé de raccorder aux âges extrêmes les taux de mortalité constatés pour la population du BTP avecceux de la table TD 88-90.

Finalement, les taux de mortalité de la table TDBTP OUVRIER sont ceux :

– de la table TD 88-90 pour x allant de 0 à 19 ans inclus ;– constatés pour la population du BTP en 2005, 2006, 2007 et 2008 pour x allant de 20 ans (inclus)

à 94 ans (inclus) ;– de la table TD 88-90 pour x allant de 95 ans (inclus) à 106 ans.

En conclusion, nous avons pu observer dans cette dernière sous-partie la façon dont PRO-BTP suivaitla méthodologie générale de construction de tables d’expérience, et en quoi ces dernières étaient adaptéespour la perception du risque de mortalité. En effet, dans le cadre de la formule standard de la directive

32

Page 34: Caroline Mazziotto - ressources-actuarielles.net

Solvabilité II, présentée dans la première partie de notre exposé, nous avons vu qu’il était pertinent d’uti-liser des données d’expérience, afin de saisir au mieux les risques réellement encourus par l’entreprise.Néanmoins, dans le cadre de l’établissement d’un modèle interne, en parallèle du dispositif ORSA, nousavons également pu constater qu’il devenait nécessaire de quantifier l’erreur de table pouvant être co-mise. Dans cette perspective, la partie suivante se propose d’évaluer les méthodes mises en oeuvre parPRO BTP lors de la construction de la table TDBTP Ouvrier.

33

Page 35: Caroline Mazziotto - ressources-actuarielles.net

3 Evaluation des méthodes mises en place par PRO BTP

L’objet de cette partie est de reprendre la méthodologie employée par PRO BTP afin d’en voir l’intérêtmais aussi les limites, en vue d’évaluer le risque de table encouru en utilisant ces méthodes. Il s’agiraainsi d’étudier les taux bruts construits grâce à l’estimateur de survie Kaplan Meier, mais également lafaçon dont on pourrait mettre en place un lissage de Whittaker Henderson.

Tout d’abord, nous allons nous intéresser à la distribution des taux de mortalité Kaplan Meier par uneméthode permettant d’en simuler une distribution. Cette approche introductrice nous permettra d’unepart de justifier l’utilisation de la transformation logit pour l’étude des taux de mortalité, et d’autre partde nous familiariser avec la distribution des taux de mortalité, d’en connaître les valeurs moyennes ouextrêmes ainsi que la dynamique. Cette démarche s’inscrit enfin dans les principes réglementaires deSolvabilité II, vus en première partie.

Dans un second temps, nous approfondirons l’étude des taux bruts Kaplan Meier en construisant leursintervalles et leurs bandes de confiance. Ainsi encadrés de manière plus fine, nous serons en mesure dedonner un premier avis quant à la marge d’erreur à laquelle l’on s’expose en utilisant l’estimateur deKaplan Meier.

Enfin, il s’agira de déterminer si l’absence de lissage pour les taux Kaplan-Meier de la table TDBTPOuvrier se trouve justifié. Pour se faire, nous mettons en place un lissage Whittaker-Henderson, et testonsla robustesse des résultats issus de ce dernier en faisant d’abord varier les paramètres utilisés (paramètred’arbitrage entre fidélité et régularité, ordre de différenciation). Nous mettrons ensuite en oeuvre deslissages alternatifs proposés par la littérature et les directives de l’Institut des Actuaires pour les pro-blématiques de mortalité. Ces-dernières reprennent le principe de Whittaker mais proposent des normesdifférentes (valeur absolue) ou un nouveau polynôme pour le critère de régularité (polynôme de Lowrie).

Après évaluation des ces différentes approches, et traduction en terme de montants de provisions, nousserons alors à même d’objectiver l’utilisation de la méthode retenue par PRO BTP ou, si les résultats lerecommandent, de proposer une méthode alternative.

3.1 Distribution des taux bruts par simulation

Le but de cette section est de construire une distribution des taux bruts Kaplan Meier pour se familia-riser avec la dynamique des taux de mortalité et en connaître un ensemble de définition. Pour arriver àcet objectif nous utilisons une méthode de simulation qui, à partir des taux bruts, simule un échantillonde nouveaux taux et permet d’en connaître la distribution. Plus précisément, les calculs sont basés sur unmodèle de Brass dans lequel les taux qx sont soumis à une transformation Logit.

Nous définirons d’abord cette transformation avant d’établir la normalité des chocs Logit pour exploi-ter le modèle de Brass et montrer comment il est possible d’en déduire une méthode de simulation. Enfin,nous présenterons les valeurs centrales et marginales de la distribution obtenue pour en analyser l’impactsur les provisions mathématiques. Il sera possible de comprendre, à l’issue de cette partie, comment une

34

Page 36: Caroline Mazziotto - ressources-actuarielles.net

sur ou une sous estimation de la mortalité se répercute sur le montant à provisionner en fonction de l’âgeauquel on s’intéresse.

3.1.1 Transformation Logit

La transformation Logit des taux bruts est souvent utilisée en actuariat car elle permet de représenterles déformations subies par les taux de mortalité de manière plus homogène. Elle se définit de la façonsuivante :

Soit qx le taux de mortalité brut pour un âge x :

∀qx ∈ [0;1] logit(qx) = ln(qx

1−qx) ∈]−∞;+∞[

D’un point de vue mathématique d’abord, cette transformation permet de se ramener à un intervalled’étude non borné en passant de [0;1] à ]−∞;+∞[. Représentés dans un ensemble plus vaste, nous pou-vons supposer que ces chocs seront plus faciles à appréhender.

FIGURE 10 – Transformation Logit sur l’intervalle [0,1]

Cette application semble élargir la fenêtre d’observation sur les taux faibles et élevés, c’est-à-direceux inférieurs à 0,2 et ceux supérieurs à 0,8.

Pour vérifier la véracité de ces remarques théoriques nous représentons successivement les taux demortalité issus des tables de mortalité construites par l’INSEE entre 1977 et 2009, et les transformationsLogit.

35

Page 37: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 11 – Taux de mortalité construits entre 1977 et 2009

On constate que les différences entre les courbes ne sont visibles que pour les âges les plus élevés,supérieurs à 70 ans. Ces différences sur les âges élevés sont dues au phénomène d’accroissement de l’es-pérance de vie observé entre les années 1977 et 2009. Dans une moindre mesure, on devine l’existencede différences pour la mortalité des individus les plus jeunes.

La représentation des différences n’est donc pas optimale dans la configuration actuelle et l’on aime-rait voir plus facilement les différences entre les courbes de mortalité. Nous traçons alors les transforma-tions Logit de ces taux de mortalité afin de savoir si elles permettent de pallier ce problème en rendantpossible l’observation des différences facilement pour tous les âges et pas seulement pour les plus élevés.

FIGURE 12 – Transformations Logit des taux de mortalité entre 1977 et 2009

36

Page 38: Caroline Mazziotto - ressources-actuarielles.net

Cette fois-ci, les différences entre les courbes sont bien visibles quel que soit l’âge. Plus particuliè-rement, le gain en clarté est le plus important pour les âges entre 0 et 40 ans même si l’intervalle danslequel se situent les courbes est plus large entre 40 et 80 ans. Enfin, il semblerait que l’on perde un peud’amplitude dans la représentation des âges supérieurs à 90 ans. Quoi qu’il en soit, la transformationLogit permet de représenter les taux de mortalité de manière pertinente dans la mesure où il rend l’iden-tification des différences entre les courbes plus facile.

3.1.2 Normalité des chocs Logit

Le but de cette section est de déterminer la nature de la distribution de ces chocs Logit, c’est-à-direde la différence entre les Logit de deux tables de mortalité, pour chacun des âges étudié. Ainsi, nousreprenons les 33 courbes issues de la transformation Logit des tables de mortalité de 1977 à 2009 etconstruirons les 32 chocs qui en découlent.

Plus formellement, il s’agit de calculer pour chaque âge x le choc identifié entre le passage de la tablede l’année t à celle de l’année t +1, soit :

Cx,t = logit(qx,t+1)− logit(qx,t)

L’étude graphique de la distribution des 32 chocs obtenus pour les différents âges laisse penser queles échantillons de chocs sont de nature gaussienne. Cependant il est important de préciser que l’analysedes histogrammes ne doit pas nous autoriser à conclure directement sur la normalité des chocs pour un xdonné : le faible nombre de données ne permet pas de conclusion statistiquement robuste d’une part, etpeux aussi provoquer de grandes perturbations sur la forme de la distribution en cas de valeur extrême. Ilest donc nécessaire de poursuivre l’analyse de la normalité des chocs.

FIGURE 13 – Distribution des chocs Logit pour x = 63

37

Page 39: Caroline Mazziotto - ressources-actuarielles.net

A titre de comparaison, nous avons tracé (en rouge sur le graphique suivant) la densité d’une loi nor-male de même espérance(−0,202) et de même écart type (0,0104). On observe donc l’adéquation de ladistribution des chocs Logit à une loi normale.

Généralement, les chocs sont pour la plupart de nature gaussienne pour les âges x étudiés et c’est pour-quoi nous décidons de poser l’hypothèse de normalité des chocs Logit. Cependant, il convient d’être pru-dent pour les raisons que nous évoquions plus haut et ne pas seulement se fier à l’allure des distributions.Nous mettons donc en oeuvre le test de Jarque Bera d’hypothèse nulle H0, où H0:la distribution del’échantillon est normale et de niveau de confiance 5%. Il permettra d’écarter ou non le fait queles échantillons peuvent être gaussiens.

Les résultats obtenus affirment que l’on ne peut pas rejeter l’hypothèse nulle de normalité pour les 99âges étudiés sauf pour 13 d’entre eux :

Age P-value0 0,02443 0,004110 0,010112 0,023514 0,037833 0,038734 0,014035 0,035343 0,029475 0,039386 0,038387 0,023994 0,0194

TABLE 1 – Résultats du test Jarque Bera quand H0 est rejetée

On peut constater que si les p-values sont faibles pour les âges extrêmes (soit très jeune, soit trèsvieux) elles sont relativement élevées pour les âges intermédiaires. Remarquons que si nous avions menéun test de niveau de confiance 3% l’hypothèse de normalité n’aurait pas été rejetée pour pratiquementtous les chocs entre 13 et 86 ans : si l’on assimile le 0,0294 du choc 43 ans à 3%, seule la distributionpour 34 ans ne peut pas être normale.

Finalement, dans la mesure où les tests de Jarque Bera n’excluent pas la gaussianité des chocs Logitet comme ces-derniers ont une allure normale pour la plupart des âges étudiés, il est raisonnable de for-muler l’hypothèse selon laquelle les chocs Logit sont gaussiens.

3.1.3 Modèle de Brass et simulation

Maintenant que nous avons identifié la gaussianité des chocs Logit, nous allons voir comment le mo-dèle de Brass permet d’exploiter cette affirmation pour simuler une distribution des taux bruts d’un point

38

Page 40: Caroline Mazziotto - ressources-actuarielles.net

de vue théorique.

En 1971, Brass a introduit le modèle suivant :

logit(qx) = θ1 +θ2logit(qre fx )

où qre fx représente le taux de mortalité brut d’une table de référence, autre que celle étudiée.

En prenant θ2 = 1, il vient :logit(qx)− logit(qre f

x ) = θ1

et, en utilisant l’hypothèse de normalité des chocs logits, on peut considérer que θ1 ∼ N(0,σ2).

On remarque que l’écart type est indépendant de x ce qui signifie que l’on déforme la table étudiée demanière uniforme, indépendamment de l’âge. Cette approche est justifiée par les méthodes utilisées parles réassureurs qui pratiquent des abattements globaux.

Dans notre cas, nous considérerons comme table de référence la table de taux bruts Kaplan-Meieret comme table déformée les taux Kaplan-Meier qx multipliés un coefficient 1−α. Cela revient à nousintéresser aux chocs Logit suivants :

logit((1−α)qx)− logit(qx)

Or l’objectif est de se rattacher au modèle que nous avons défini plus haut et pour cela il est nécessaired’identifier θ1. On peut remarquer l’approximation suivante :

logit((1−α)qx) = ln((1−α)qx

1− (1−α)qx)

' ln((1−α)qx

1−qx) = ln(1−α)+ logit(qx)

Ce qui aboutit à :logit((1−α)qx)− logit(qx)' ln(1−α)∼ N(0,σ2)

La dernière étape pour la spécification du modèle est de déterminer σ, c’est-à-dire de le calibrer. Pourcela, il faut traduire l’abattement de α que nous avons appliqué aux taux bruts en termes concrets, c’est-à-dire en niveau de Value at Risk.

La valeur prise par α dépend du cadre dans lequel on se trouve. Par exemple, les réassureurs pratiquentdes abattements de la mortalité de 20% pour un α de 0,8, correspondant à une Value at Risk (VaR) de60%, soit un quantile à 40%. Ainsi, σ vérifie :

ln(0.8) = qN(0,σ2)(0.4)

39

Page 41: Caroline Mazziotto - ressources-actuarielles.net

Dans le cas de la nouvelle réglementation Solvabilité 2, on aura l’équation suivante, qui correspond àun niveau en VaR à 95% :

−ln(1.15) = qN(0,σ2)(0.05)

On utilise le solveur de Matlab pour résoudre cette équation dont la solution numérique est : σ =0,881. Notons que prendre σ = 0 signifie ne pas prendre en compte le risque de table et rester centré surune approche déterministe de la distribution.

Finalement, dans ces deux cas, le modèle spécifié est :

logit((1−α)qx)− logit(qx)∼ N(0,σ2)

où σ2 a été correctement calibré.

Le but de ce modèle était de permettre de trouver une méthode de simulation d’une distribution destaux Kaplan Meier, c’est pourquoi nous présentons maintenant la démarche à suivre pour obtenir leséchantillons.Posons pour tout x :

Z ∼ N(logit(qx),σ2)

On peut alors retrouver une expression des taux bruts qx en fonction de Z : :

qx =eZ

(1+ eZ)

Il suffit alors de tirer Z le nombre de fois voulu pour obtenir une distribution de qx et de réitérer l’opé-ration pour chaque x afin d’avoir une distribution des taux bruts.

3.1.4 Mise en oeuvre et résultats

Pour la mise en oeuvre de cette méthode nous décidons de procéder à 1 000 simulations de la variableZ ce qui renvoie, pour chaque âge, une distribution des valeurs possibles de qx. La variance de la loi deZ est fixée selon la méthode précédente pour rendre compte de l’abattement des taux. Nous présentonsci-dessous les résultats issus de cette procédure.

Dans le cadre de la réassurance :

Après calculs, on obtient σ = 0,8808 et une distribution des taux bruts dont nous traçons ci-dessous,la moyenne et la médiane aux côtés des taux de Kaplan Meier.

La médiane de la distribution obtenue semble suivre de manière très fidèle les taux Kaplan-Meier touten ne subissant pas le passage en dents de scie à l’âge 95 ans. On peut donc supposer que cette séries’avère plus prudente que les taux eux-mêmes puisqu’ils ne subissent pas le choc à la baisse et restenttrès proches des données initiales. En revanche, la moyenne ne donne vraiment pas de bons résultats et

40

Page 42: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 14 – Cas réassurance : moyenne et médiane des taux KM

surestime largement les taux de mortalité sur l’ensemble de la plage de données.

Nous traçons ensuite les courbes associées aux quantiles à 95% et à 5% qui représentent la suite destaux telle que la valeur représentée soit la 950ème plus grande pour un âge x donné (respectivement la50ème pour la seconde courbe) :

FIGURE 15 – Cas réassurance : quantiles à 5% et 95 % des taux KM

Ici, les résultats sont très explicites la courbe des quantiles à 95% surestimant largement les taux KMet ceux à 5% les sous estimant. De plus, cet encadrement est assez grossier puisque l’allure de la courben’est pas retranscrit dans ces suites de quantiles.

Nous avons calculé les provisions mathématiques que PRO BTP devraient mettre de côté si les tauxde mortalité utilisés étaient, tour à tour, chacune de ces courbes prisent entre 50 et 94 ans puis raccordés.On obtient le tableau suivant :

41

Page 43: Caroline Mazziotto - ressources-actuarielles.net

Taux KM 26.779.834Moyenne 40.641.461Médiane 27.134.194Quantile 5 % -33.368.834Quantile 95 % 84.230.041

On retrouve ce que l’on avait constaté visuellement sur les graphiques, mais il est intéressant de voircomment les écarts entre les courbes sont traduits en termes de montants à provisionner. Par exemple,la courbe des quantiles à 5% engendre des provisions négatives c’est à dire que les tarifs sont tels, qu’ily aura des gains à coup sûr. Inversement, la courbe à 95% correspond à des provisions qui majorentlargement celles des taux Kaplan Meier. Par contre, on peut constater que la courbe médiane des tauxKaplan Meier préconise des provisions légèrement inférieures alors qu’on avait vu qu’elle semblait plusprudente.

Dans le cadre Solvabilité II :

On obtient σ = 0,085 et l’on suit la même démarche que dans le paragraphe précédent. Les courbesassociées aux moyennes et aux médianes de la distribution des taux bruts sont représentées ci-dessous.

FIGURE 16 – Cas Solvabilité 2 : moyenne et médiane des taux KM

Les moyennes et les médianes semblent être quasiment confondues avec les taux Kaplan Meier ce quicaractérise une certaine stabilité des valeurs centrales. On peut donc supposer que l’encadrement fournipar les quantiles sera lui aussi plus précis.

En effet, les courbes sont moins éloignées que dans le cas où l’abattement proposé était celui des ré-assureurs. De plus, l’allure de la courbe est parfaitement respectée dans l’encadrement inférieur (quantileà 5%) et supérieur (quantile à 95%).

Nous avons de même calculé les PM :

42

Page 44: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 17 – Cas Solvabilité 2 : quantiles à 5% et 95 % des taux KM

Taux KM 26.779.834Moyenne 26.907.786Médiane 26.732.220Quantile 5 % 20.340.334Quantile 95 % 33.240.421

On observe une légère différence entre les PM associées à la médiane et à la moyenne moyenne quisont toutes deux proches des la valeur des provisions mathématiques pour les taux Kaplan Meier d’ori-gine. L’encadrement proposé par les quantiles paraît large mais il prend maintenant des valeurs crédibles,il n’y a plus de valeurs absurdes.

3.1.5 Conclusion

Cette approche par simulation paramétrique nous aura permis de nous familiariser avec la populationétudiée et d’avoir un premier aperçu de l’ensemble des valeurs possibles pour les taux de mortalité. Enplus de cette connaissance de l’ensemble de définition des taux, nous avons pu voir quelles étaient lesconséquences d’une sous ou d’une sur estimation des taux et ce en fonction de l’âge. La connaissance decette dynamique nous permettra aussi d’analyser plus facilement les résultats des parties suivantes. Fi-nalement, quoique large, l’encadrement des taux issus de cette estimation nous aura permis de connaîtrela dynamique de la mortalité des salariés de PRO BTP et d’introduire le modèle de Brass, que nous réuti-liserons plus tard.

43

Page 45: Caroline Mazziotto - ressources-actuarielles.net

3.2 Evaluation de l’erreur d’échantillonage pour la méthodologie PRO BTP

3.2.1 Rappels théoriques sur l’estimateur de Kaplan-Meier

Nous nous appuyons ici sur les lignes directrices mortalité, publiées en 2006 par la Commissiond’Agrément de l’Institut des Actuaires ([7]), que nous mettons en relation avec les documents internesde PRO BTP relatifs à la construction de la table TDBTP Ouvrier.

Cadre de l’analyse Comme vu dans la partie précédente, pour estimer le taux annuel de décès à l’âgeentier x, traditionnellement noté qx, la première étape consiste à utiliser uniquement les individus ob-servés vivants sur une partie ou sur la totalité de leur x+1 ème année. Il n’est pas tenu compte desobservations relatives aux âges voisins, qu’elles proviennent des mêmes individus ou d’individus diffé-rents. On parle alors d’estimation brute du taux qx, par opposition aux estimations dites lissée qui, elles,prennent en compte un ensemble d’informations relatives à une plage d’âges.

Dans la suite, nous appelons Popx l’ensemble des individus utiles à l’estimation du taux qx. L’indice iest employé pour désigner un individu de Popx (i = 1,2, . . .Nx) où Nx représente la taille de la populationPopx.

La première hypothèse, commune à l’ensemble des méthodes présentées ici, consiste à supposer que,sur l’intervalle d’âge [x;x+1], tous les décès éventuels des individus sont des événements indépendantset que les Nx individus de Popx ont la même probabilité de décéder dans leur x+1ème année (rappelonsque, par définition de Popx, tous sont vivants à l’âge x).

Le problème soulevé dans la procédure d’estimation de la probabilité qx tient au fait que les individusne sont pas tous observables sur la totalité de la plage d’âge [x;x+1]. Le modèle binomial classique nepeut plus s’appliquer. De très nombreuses méthodes relevant pour la plupart d’hypothèses différentes surla loi de répartition des décès sur la plage [x;x+ 1] et (ou) d’approximations construites sur l’ordre degrandeur du taux qx ont été développées.

Il a également été vu précédemment qu’un individu de Popx pouvait ne pas être observable durant latotalité de sa x+1ème année (données complètes, tronquées à gauche ou censurées à droite).

Notations Rappelons que tout individu atteignant l’âge x+1 est considéré comme sortant de l’obser-vation.Notons x+ai l’âge de début d’observation de l’individu i sur la plage [x;x+1[Notons x+bi l’âge qu’aurait l’individu i en fin d’observation si il ne décédait pas et si il ne sortait pas demanière imprévisible de l’étude. On a donc :

0≤ ai ≤ bi ≤ 1

44

Page 46: Caroline Mazziotto - ressources-actuarielles.net

Valeurde ai

Valeurde bi

Réalisation tide Ti

Cause deSortie

Di Bilan

0 1 1 ] 2 0 Observation complète et non décès0 1 < 1 décès 1 Observation complète et décès> 0 1 1 ] 0 Observation tronquée à gauche et non décès> 0 1 < 1 décès 1 Observation tronquée à gauche et décès> 0 < 1 ti = bi ] 0 Observation tronquée à gauche et censurée à droite0 < 1 ti = bi ] 0 Observation censurée à droite0 < 1 ti < bi décès 1 Observation potentiellement partielle et décès0 1 < 1 autre 0 Observation censurée à droite à âge imprévisible0 < 1 ti < bi autre 0 Observation censurée à droite à âge imprévisible

TABLE 2 – Récapitulatif des différentes situations possibles

Notons x+Ti la variable aléatoire "âge de l’individu i à sa sortie de l’observation".Quand l’individu sort de l’observation à un âge inférieur strictement à bi on associe à cet événement lacause de sortie, variable à deux modalités : "décès" et "autre". Enfin Di représente la variable de Bernoulliindicatrice du décès de l’individu i

– Di = 0 si la variable aléatoire Ti prend la valeur bi ou si Ti prend une valeur inférieure strictement àbi et la cause de sortie n’est pas le décès.

– Di = 1 dans les autres cas.

Dx = ∑i=1...Nx Di représente le nombre de décès dans la population Popx

Kaplan-Meier Dans le cas classique de données complètes, la loi de répartition de la variable Min(T−x,1) est estimée par la distribution empirique (à l’origine de la méthode des moments) qui prend unique-ment les valeurs si−x et 1. La probabilité de la valeur 1 est alors la fréquence des survivants Nx−Dx

Nx, celle

des autres ponts est égale à 1Nx

. L’estimation de qx (égale à DxNx

) reste alors inchangée et cette approchen’ajoute rien au modèle binomial.

En présence de données incomplètes, l’extension naturelle de la fonction de survie empirique permetde proposer une estimation du taux qx sans faire aucune hypothèse sur la loi de répartition des décès sur[x ;x+1]. L’algorithme suivant conduit à la fonction de survie de Kaplan Meier :

1. On appelle fonction d’exposition au risque la fonction notée expo(t) et défini par :

expo(t) = ∑i=1...Nx

1ai≤t − ∑i=1...Nx

1si≤t

Cette fonction compte le nombre d’individus soumis au risque de décès à l’âge x+t et sous obser-vation.

Un individu entrant ou sortant par censure en t est conventionnellement considéré comme exposéau risque de décès. Ce choix est sans importance pour toutes les valeurs de t qui n’enregistrent pas

2. ] : signifie que l’assuré a été observé sur toute la période d’observation

45

Page 47: Caroline Mazziotto - ressources-actuarielles.net

de décès. Par contre, l’expression de expo(t) aux âges de décès étant cruciale, cette subjectivitépeut être gênante dans la mesure où une autre convention ne donne pas la même expression pourla fonction de survie Kaplan Meier. C’est la raison pour laquelle les lignes directrices mortalité([7]) recommandent de choisir l’unité de temps la plus fine possible afin de réduire au minimumles situations où entrées, censures et décès se produisent simultanément.

2. La fonction de survie (notée SKM) de Kaplan-Meier relève alors de l’algorithme récurrent décritci-dessous :

a SKM(0) = 1

b Sur tout l’intervalle [a ;b] tel que entre x+a et x+b on n’observe pas d’âge au décès, la fonctionSKM reste constante.

c Pour tout âge de décès x+t :

SKM(t+) = SKM(t−)×[1− n(t)

expo(t)

]où n(t) représente le nombre de décès observé à l’âge x+t (en général n(t) est égal à 1).

La justification intuitive de cet algorithme vient du fait que toute fonction de survie S vérifie, pourtout couple (y,y’), y < y′ : S(y′)× (1− y′−yqy) et que la probabilité de décès dans un intervalle[t−; t+] est estimée classiquement par la fréquence de décès observée soit n(t)/expo(t).L’estimateur de qx s’obtient à partir de la fonction de survie de Kaplan-Meier par la relation :

qKM(t) = 1− SKM(t)

La fonction de survie Kaplan-Meier présente de nombreux avantages :

– Pas d’hypothèse a priori sur la représentation des décès sur [x,x+1]

– Facilité de programmation

– Possibilité d’obtention d’intervalles de confiance

– Possibilité, si besoin est, d’estimer le taux b−aqx+a par 1− SKM(b)SKM(a) ; cette relation nous sera très utile

dans la suite de notre exposé.

– Possibilité si les capacités informatiques le permettent, de traiter simultanément l’ensemble de lapopulation et d’obtenir ainsi les estimations des qx pour tous les âges x sans avoir à isoler pourchaque âge x la population Popx.

3.2.2 Intervalles de confiance

Intervalles de confiance sur les taux bruts de mortalité On s’appuie ici sur l’ouvrage de Planchetet Théron (2010) intitulé « Modèles de Durée - Applications actuarielles »([2]). Au-delà de l’estimationponctuelle des taux bruts à chaque âge, les intervalles de confiance permettent d’avoir une idée de laprécision de l’estimation effectuée. Celle-ci dépend de deux facteurs :

– l’effectif sous risque, Nx

– le niveau du taux de mortalité à estimer qx

46

Page 48: Caroline Mazziotto - ressources-actuarielles.net

En effet, la précision sera d’autant meilleure que Nx est grand, et que qx est grand. La précision seramesurée par la largeur de l’intervalle de confiance. Pour déterminer celui-ci on peut utiliser ici l’approxi-mation gaussienne, dans la mesure où notre étude dispose d’un nombre important d’observations. Pourcela on remarque qu’une relation lie l’incertitude de l’estimation, le nombre d’observations et le niveaude confiance de l’intervalle désiré :

∆p = ua/2

√f (1− f )

N

où f est la valeur autour de laquelle est construit l’intervalle (i.e f est égale à la valeur estimée qx et up

désigne le quantile d’ordre p de la loi normale centrée réduite).

D’après le théorème central-limite :

Nxqx− qx√qx(1−qx)

−→ N(0,1) quand Nx→+∞

L’intervalle de confiance asymptotique de niveau α pour qx est donc donné par :

Iα =[qx−uα/2

√qx(1−qx)

Nx; qx +uα/2

√qx(1−qx)

Nx

]La variance étant inconnue, on la remplace par la variance estimée pour obtenir finalement l’approxi-

mation :

Iα =[qx±uα/2

√qx(1− qx)

Nx

]

Intervalles de confiance sur la fonction de survie Kaplan Meier Dans la sous partie précédente on avu la relation théorique suivante :

SKM(t+) = SKM(t−)×[1− n(t)

expo(t)

]

Or, dans la partie décrivant les étapes de construction de la table TDBTP Ouvrier construite PRO BTPon avait la relation :

pi = 1− qi

avec qi =di

ri

où :– pi la probabilité de survivre sur l’intervalle ]T(i−1);T(i)] sachant qu’on était vivant à l’instant T(i−1) ;– ri le nombre d’adhérents exposés recensé à chaque étape i ;– di la variable correspondant à la différence entre le total des exposés et le total des censurés et

décédés

47

Page 49: Caroline Mazziotto - ressources-actuarielles.net

Finalement, en mettant en rapport les deux relations, on obtient l’expression de l’estimateur de lafonction de survie Kaplan-Meier suivant :

S(t) = ∏T(i)≤t

(1− di

ri)

Cette expression permet d’écrire :

ln[S(t)] = ∑T(i)≤t

ln(1− di

ri) = ∑

T(i)≤tln(1− qi)

Si on suppose en première approximation l’indépendance des variables ln(1− qi), comme la loi deri pi est binomiale de paramètres (ri, pi), on a par la méthode delta :

V (ln pi)≈V (pi)[d

d pln(pi)]

2 =qi

ri(1− qi),

ce qui conduit à proposer comme estimateur de la variance de ln[S(t)] :

V [ln S(t)] = ∑T(i)≤t

qi

ri(1− qi)= ∑

T(i)≤t

di

ri(ri−di)

En appliquant la méthode delta, à la fonction logarithme, on obtient finalement :

V [S(t)] = S(t)2∑

T(i)≤t

di

ri(ri−di)

Cet estimateur est l’estimateur de Greenwood.

Il permet, avec la normalité asymptotique de l’estimateur de Kaplan-Meier de calculer des intervallesde confiance (asymptotiques) dont les bornes sont, pour la valeur de la survie en T(i) :

Si×{

1±u1− α

2

√d1

r1(r1−d1)+

d2

r2(r2−d2)+ · · ·+ di

ri(ri−di)

}

Finalement, on a :

V [S(t)] = S(t)2γ(x)2

avec γ(x) =

√∑

T(i)≤t

di

ri(ri−di)

avec l’intervalle de confiance :

S(x)±uα/2S(x)γ(x)

48

Page 50: Caroline Mazziotto - ressources-actuarielles.net

où uα/2 désigne le quantile d’ordre α/2 de la loi normale centrée réduite et 1−α désigne le niveaude confiance.

Néanmoins, ces intervalles de confiance ne fournissent pas des bandes de confiance mais des inter-valles « point par point »dits « ponctuels », et correspondent ainsi à des intervalles pour un âge x donné.Il peut alors être intéressant d’obtenir des bandes de confiance, c’est-à-dire des intervalles de confiancepour tous les âges compris entre xL et xU .

Bandes de confiance sur la fonction de survie Kaplan Meier Dans un contexte d’analyse des tauxde décès, en notant que qx = 1− S(x + 1)/S(x), on comprend que le choix des bandes de confiancepour la fonction de survie est plus approprié que celui des intervalles ponctuels. Ces dernières sont entreautres présentées dans l’ouvrage de Klein et Moeschberger (2005) ([4]). Il s’agit en fait de trouver desbandes de confiance, haute et basse (correspondant aux bornes inférieure et supérieure de l’intervalled’âge considéré) qui garantissent, pour un niveau de confiance donné, que la fonction de survie se trouvedans cette région, pour tout x dans un certain intervalle. Nous souhaitons donc déterminer deux fonctionsaléatoires L(x) et U(x) telles que :

1−α = P[L(x)≤ S(x)≤U(x)] pour tout xL ≤ x≤ xU

L’intervalle [L(x);U(x)] ainsi obtenu correspond à une bande de confiance pour S(x) au niveau deconfiance 1−α.

L’ouvrage présente ensuite deux approches permettant de déterminer des bandes de confiance pourS(x). Nous retenons ici les bandes de confiance linéaires de Nair (1984), qui présentent l’avantage d’êtresymétriques. Afin de construire ces bandes de confiance, on choisit un intervalle d’âge [xL;xU ]. Soit unéchantillon de taille n on définit :

aL =nσ2

S(xL)

1+nσ2S(xL)

et aU =nσ2

S(xU)

1+nσ2S(xU)

La construction des bandes de confiance implique que 0 < aL < aU < 1.

D’autre part, pour construire un intervalle de confiance pour S(x) (x ∈ [xL;xU ]) au niveau de confiance1−α on détermine tout d’abord à l’aide d’une table un coefficient cα(aL,aU). On obtient alors les bandeslinéaires de confiance suivantes :

∀x ∈ [xL;xU ], S(x)± cα(aL,aU)σS(x)S(x)

En reprenant les notations adoptées pour les intervalles de confiance ponctuels, l’équation précédentedevient :

∀x ∈ [xL;xU ], S(x)± cα(aL,aU)S(x)γ(x)

49

Page 51: Caroline Mazziotto - ressources-actuarielles.net

On remarque alors que ces bandes de confiance ont l’avantage d’être proportionnelles aux intervallesde confiance ponctuels. Pour mémoire, ceux-ci s’écrivent S(x)±uα/2S(x)γ(x) où uα/2 désigne le quantiled’ordre α/2 de la loi normale centrée réduite et 1−α désigne le niveau de confiance.

3.2.3 Résultats

Dans cette sous partie, nous avons appliqué les méthodes explicitées ci-dessus aux données contenuesdans la table TDBTP Ouvrier de PRO BTP, afin d’étudier la robustesse des estimations PRO BTP. Onrappelle ici que les taux de mortalité de la table TDBTP ouvrier sont ceux :

– de la table TD 88-90 pour x allant de 0 à 19 ans inclus ;– constatés pour la population du BTP en 2005, 2006, 2007 et 2008 pour x allant de 20 ans (inclus)

à 94 ans (inclus) ;– de la table TD 88-90 pour x allant de 95 ans (inclus) à 106 ans.

Dans la partie précédente, nous avons déjà comparé ces taux de mortalité constatés par âge avec lestaux de mortalité des tables réglementaires TH 00-02, TH 00-02 avec décalage et TD 88-90, et ceux dela précédente table d’expérience TDBTP2 (qui n’utilisait pas l’estimateur Kaplan-Meier).

Nous traçons ici les taux Kaplan-Meier entre 25 et 105 ans (sans le raccord intervenant après 95ans), et les intervalles de confiance correspondants, obtenus point par point. Nous effectuons ensuitedeux zooms, l’un sur la plage d’âges 25-65 ans, l’autre sur la plage 65-105 ans. Il faut cependant noterque ces intervalles de confiance sont construits à partir de la fonction Gamma que l’on a calculé entre25 et 105 ans, pour les deux graphiques. On rappelle en effet que l’estimateur variance de la fonction desurvie est défini par la relation :

V (S(t)) = S(t)2γ(x)2

avec γ(x) =

√∑

T(i)≤t

di

ri(ri−di)

et q(x) = 1− S(t)

Finalement, les deux graphiques peuvent être vus comme deux « zooms »de l’intervalle de confiancecalculé entre 25 et 105 ans. Cette plage d’âge nous a en effet semblé plus cohérente pour les calculs, carelle permet d’étudier l’âge donné à la lumière de l’ensemble des autres points.

Nous représentons ensuite les données utilisées pour le calcul des Provisions Mathématiques, en vuede quantifier l’impact d’une erreur de table sur les passifs de l’entreprise. Il s’agit des taux Kaplan-Meierallant de 50 à 105 ans, avec un raccordement à partir de 95 ans (inclus). Nous exhibons également lesintervalles de confiance calculés entre 50 et 94 ans. En effet, nous ne disposons pas des données néces-saires au calcul de la fonction Gamma pour la partie raccordée, à savoir le nombre de décès constatés. Deplus l’intervalle de confiance est bien calculé ici de 50 à 94 ans, il ne s’agit pas d’un zoom d’une plagede calcul plus grande comme précédemment.

50

Page 52: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 18 – IC pour les taux KM, zoom sur la plage [25-65] ans

FIGURE 19 – IC pour les taux KM, zoom sur la plage [65-105] ans

Le dernier graphique permet de voir qu’il existe bien un encadrement des taux de mortalité Kaplan-Meier, bien que visuellement ce dernier soit confondu avec les bornes de l’intervalle. On a ainsi Ecartinf = IC Inf - Taux KM raccordés. On calcule de même Ecart sup. Ces écarts seront sans doutemieux mis en exergue dans la suite de notre exposé, lors du calcul des Provisions Mathématiques.

Finalement, ces graphiques nous permettent de constater deux résultats principaux : les intervallesde confiance sont quasiment confondus avec les taux eux-même, et les bandes de confiance (dont lesprincipes avaient été énoncés plus haut) ne marchent pas.

Concernant les intervalles de confiance, nous avons vu que ceux-ci découlaient de la variance de lafonction de survie, elle même fondée sur la fonction Gamma, qui s’apparente au quotient du nombre dedécès sur l’effectif total exposé pour un âge x fixé. Or, dans l’échantillon de population étudié, on constatequ’il y a peu de décès et une forte population, ce qui conduit à une fonction Gamma extrêmement petite.Il en résulte alors une petite variance, et donc un petit écart par rapport aux taux, ce qui explique que lesbornes de l’intervalle soient visuellement confondues.

51

Page 53: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 20 – Taux KM utilisés lors du calcul des PM

FIGURE 21 – IC pour les taux KM raccordés

Pour les bandes de confiance, le fait d’avoir une fonction Gamma très petite explique que les valeursrenvoyées par les calculs pour les coefficients aU et aL soient si faibles qu’elles ne figurent pas dans lestables. On rappelle en effet que l’on a la relation :

∀x ∈ [xL;xU ], S(x)± cα(aL,aU)S(x)γ(x)

avec aL =nσ2

S(xL)

1+nσ2S(xL)

et aU =nσ2

S(xU)

1+nσ2S(xU)

3.2.4 Impact sur les Provisions Mathématiques

En termes de provisions mathématiques, on obtient le tableau suivant, qui correspond aux montants(en euros) provisionnés respectivement pour le taux brut de Kaplan Meier, la borne inférieure de l’inter-valle de confiance qui l’encadre, et la borne supérieure correspondante :

52

Page 54: Caroline Mazziotto - ressources-actuarielles.net

Taux Brut considéré PM (en euros)Taux KM 26.779.834IC borne inf. 26.775.494IC borne sup. 26.785.167

Ces résultats sont compatibles avec les observations graphiques de la sous-partie précédente. Onconstate que les différences de montants sont relativement faibles (entre 2 000 et 5 000 euros), ce quirenvoie au fait que visuellement les taux Kaplan-Meier sont confondus avec les bornes de leur intervallesde confiance. Néanmoins cet encadrement existe, puisqu’ici l’intervalle entre la courbe des taux de laborne inférieure et ceux de la courbe de la borne supérieure est d’environ 9 000 euros.

3.3 Utilisation de méthodes de lissage non paramétriques pour les taux bruts de mortalitéet variation des paramètres associés

La table d’expérience TDBTP ouvriers ne fait intervenir aucun lissage des taux bruts. PRO BTP a eneffet considéré que les taux bruts obtenus présentaient une régularité suffisante. Ce choix se fonde surune analyse graphique de la courbe de mortalité finale. Néanmoins, dans une démarche de modélisationde l’effet d’une erreur de table sur le niveau de provisions de l’entreprise, il nous a tout de même semblépertinent de quantifier l’impact qu’aurait l’utilisation de taux de mortalité lissés. De plus, PRO BTP ayantmis en place des méthodes de lissage non-paramétriques Whittaker-Henderson pour la construction detables d’expérience plus récentes (mais ne faisant guère intervenir une estimation Kaplan-Meier des tauxbruts), il a été décidé de réaliser un lissage Whittaker-Henderson sur les taux bruts de la table TDBTPOuvriers.

Comme vu précédemment dans la méthodologie générale de construction des tables d’expérience, lesestimations âge par âge des taux annuels de décès forment une courbe de mortalité qui peut se révélerassez irrégulière. Ces aspérités sont dues aux fluctuations d’échantillonnage et ne sont pas représentativesde la réalité. Il est alors possible d’utiliser des estimations « lissées »des taux de décès, qui corrigent lesestimations brutes.

Les méthodes de lissage (paramétriques ou non-paramétriques) permettent un ajustement assez fidèleaux données d’expérience. Contrairement aux modèles paramétriques, elles ne reposent pas sur l’hypo-thèse que la courbe de mortalité a une forme connue a priori et, à ce titre, ne sont pas prévues pour obtenirune estimation des taux de mortalité en dehors de la plage de lissage.

3.3.1 Méthode d’origine

Présentation Cette méthode de lissage doit son nom à E.T.Whittaker (1923), qui l’a introduite, et àR.Henderson (1924), qui a montré comment passer de la théorie à la pratique (bien que les méthodesactuellement utilisées soient très éloignées de ses propositions).La méthode de Whittaker-Henderson consiste à rechercher le meilleur compromis entre l’adéquation auxdonnées brutes et la régularité de la courbe de mortalité. Les taux de mortalité lissés sont obtenus enminimisant la mesure M = F +hS, où :

53

Page 55: Caroline Mazziotto - ressources-actuarielles.net

• F est la somme pondérée des carrés des écarts entre les valeurs lissées et les valeurs brutes, ellemesure la fidélité des taux de mortalité lissés aux taux bruts :

F =xsup

∑x=xin f

wx(gx− qx)2

Plus les taux lissés se rapprochent des taux bruts, plus la valeur de F diminue.

• S est la somme des carrés des différences d’ordre Z des taux lissés, elle permet d’évaluer la régu-larité de la courbe lissée :

S =xsup−Z

∑x=xin f

(∆Zgx)2

Plus l’aspect de la courbe est régulier, plus la valeur de S diminue.z est un entier positif. En pratique, les valeurs les plus utilisées sont z = 2, 3 ou 4. Pour mémoire,rappelons que :

∆Zgx = ∆

Z−1gx+1−∆Z−1gx pour z > 0;

∆0gx = gx

• h est un réel positif qui permet de contrôler l’influence que l’on souhaite donner à chacun des deuxcritères précédents. Plus h est grand, plus la minimisation porte sur le terme S et impose à la courbeune allure régulière. Plus h est petit, plus la minimisation accorde de l’importance au terme F etimpose à la courbe lissée de se rapprocher des données brutes. Soulignons que si h = 0, aucunlissage n’est effectué.

• wx sont les poids donnés à chaque âge (w0 ≥ 0)

Une hypothèse implicite de la méthode de Whittaker-Henderson est que la forme de la courbe demortalité est proche de celle d’un polynôme de degré z-1 au plus : en effet, sur une courbe polynômialed’ordre z-1, les différences d’ordre z sont nulles. Les observations de Miller (1946) ont conduit à donnerune nouvelle interprétation au paramètre h :

– plus h est élevé, plus les valeurs lissées approchent celles donées par un polynôme en x de degréz-1 ajusté aux données brutes par la méthode des moindres carrés pondérés,

– plus h est petit, plus la courbe lissée ressemble aux données brutes.

Résolution du problème de minimisation en dimension 1 On se fixe des poids (wi) et l’on pose pourle critère de fidélité :

F =p

∑i=1

wi(gi− qi)2,

et pour le critère de régularité :

S =p−z

∑i=1

(∆Zgi)2,

où z est un paramètre du modèle. Le critère à minimiser est une combinaison linéaire de la fidélité et dela régularité, le poids de chacun des deux termes étant contrôlé par un second paramètre h :

M = F +h×S

54

Page 56: Caroline Mazziotto - ressources-actuarielles.net

La solution de ce problème d’optimisation satisfait aux conditions :

∂M∂gi

= 0, 1≤ i≤ p

La résolution de ce système d’équations peut être effectuée au moyen de quelques manipulations matri-cielles.

A cet effet, si on pose g = (gi)1≤i≤p, q = (qi)1≤i≤p et w = diag(wi)1≤i≤p, on peut alors écrire :

F = t(g− q)w(g− q)

Pour ce qui concerne le critère de régularité, si on note ∆Zg = (∆Zgi)1≤i≤p, alors :

S = t(∆Zg)∆Zg

Pour détailler cette écriture, on introduit la matrice Kz de taille (p-z,p), dont les termes sont les coefficientsbinomiaux d’ordre z dont le signe alterne et commence positivement pour z pair. Par exemple pour z=2et p=5, on a :

K2 =

1 −2 1 0 00 1 −2 1 00 0 1 −2 1

Si p=3 et z=1, on obtient :

K2 =

(−1 1 00 −1 1

)

On vérifie aisément que ∆Zg = Kzg, ce qui permet finalement d’écrire le critère M sous la forme :

M = t(g− q)w(g− q)+htgtKzKzg

En développant l’expression ci-dessus on trouve :

M = tgwg−2tgwq+ t qwq+htgtKzKzg

ce qui conduit à :∂M∂g

= 2wg−2wq+2htKzKzg

La résolution de ∂M∂g = 0 conduit alors à l’expression des taux ajustés :

g∗ = (w+htKzKz)−1wq

L’inversion de la matrice C = w+ htKzKz nécessite toutefois certaines précautions, car hK′zKz n’est

pas inversible, et l’addition du terme w rend C inversible, mais de ce fait l’inversion de C peut être déli-cate. On peut en pratique utiliser la décomposition de Cholesky de la matrice symétrique positive C pourl’inverser.

55

Page 57: Caroline Mazziotto - ressources-actuarielles.net

Choix des pondérations Toujours selon les lignes directrices mortalité, plusieurs formules peuventêtre choisies pour les poids, wx. Il est fréquent d’utiliser une pondération par l’effectif à l’âge x rapportéà l’effectif moyen pour tous les âges :

wx =nx

n

où n =∑

xsupx=xin f nx

xsup− xin f +1

Ce choix permet de limiter le poids donné aux points aberrants. Il permet également d’avoir deux pro-priétés intéressantes : on obtient le même nombre total de décès et le même âge moyen au décès avec lestaux bruts et les taux lissés.

De façon générale, il est important de regarder si la pondération introduit un changement d’ordre degrandeur de la valeur de F par rapport à celle de S car cela aura une influence sur le choix du paramètreh.

3.3.2 Variation des paramètres usuels de la méthode Whittaker-Henderson

Changement de norme Un manque de robustesse a été reproché à la formule de Whittaker-Henderson.En effet, si la distribution du risque à l’âge x génère des points aberrants plus fréquemment que la loinormale, alors les méthodes utilisant les moindres carrés ne donnent pas forcément les meilleurs résultats.Elles sont trop sensibles aux points aberrants. En 1978, Donald R.Schuette propose une alternative à laméthode de Whittaker-Henderson : la distance utilisée n’est plus la distance quadratique mais la valeurabsolue. Ce changement conduit à minimiser la mesure suivante :

M =xsup

∑x=xin f

wx|gx− q|+hxsup−z

∑x=xin f

|∆Zgx|

La formule de D.R Schuette est théoriquement moins sensible aux points aberrants que celle deWhittaker-Henderson, et doit donc fournir une estimation plus robuste. C’est ce que nous nous pro-posons de vérifier.

En revanche, cette estimation présente une partcularité peu élégante : elle produit des valeurs lisséesqui évoluent par paliers avec h. De plus, l’article de D.R Schuette a initié d’autres définitions de la dis-tance dans la formule de Whittaker-Henderson. Par exemple, la norme Chebyshev permet de passer d’unenorme `p à une norme `∞.

Le choix de la norme est un arbitrage entre avantages et inconvénients de chacune :– Pour diminuer l’influence des points aberrants, il est préférable d’utiliser, dans le critère de fidélité,

une norme `p où p est petit. Le choix de D.R. Schuette est alors le plus adapté.– Au contraire, dans le critère de régularité, il vaut mieux choisir un p grand afin d’avoir une courbe

qui varie le plus uniformément possible. La norme Chebyshev (p = ∞) est la plus adaptée de cepoint de vue : S est alors égal à la plus grande valeur absolue des différences d’ordre z des valeurslissées.

56

Page 58: Caroline Mazziotto - ressources-actuarielles.net

Modification du critère de régularité : autres fonctions de référence On appelle fonction de réfé-rence une fonction qui donne une valeur nulle pour la mesure de régularité S. Le critère de régularitéimpose aux valeurs lissées de se rapprocher des valeurs données par une fonction de cette forme. Nousavons vu que, dans la formule originale de Whittaker-Henderson, la fonction de référence est un poly-nôme de degré z-1 au plus, c’est à dire de la forme :

a0 +a1x+a2x2 + · · ·+az−1xz−1

Walter B. Lowrie [1982] modifie ce critère et impose aux valeurs lissées d’être proches d’une fonctionde référence égale à la somme d’une exponentielle et d’un polynôme de degré z-2 au plus. La fonctionde référence prend la forme :

a0 +a1x+a2x2 + · · ·+az−2xz−2 +(1+ r)x où r >−1

(r est un réel) ; et le critère de régularité devient :

S =xsup−z

∑x=xin f

(∆Zgx− r∆Z−1gx)

2

Pour le choix de r, il a été suggéré de procéder par itérations et de retenir la valeur qui minimise laquantité S. On peut remarquer que :

1+ r = ∆Z−1gx+1/∆

Z−1gx

ce qui peut donner l’idée de prendre comme valeur de départ pour l’itération la moyenne des ∆Z−1gx+1/∆Z−1gx.

3.3.3 Résultats : perspective globale

Ici, nous réalisons une analyse globale des différentes méthodes de lissage, afin d’en saisir les prin-cipes et différences, sans dans un premier temps appliquer ces résultats au calcul des PM.

Méthode d’origine Ici nous appliquons la méthode classique de lissage Whittaker-Henderson vue pré-cédemment. Nous procédons donc à une résolution analytique du problème de minimisation M = F + hS,où F est le critère de fidélité, et S le critère de régularité. Ainsi, lorsque h = 0, il n’y a pas de lissage. Onrappelle que :

F =xsup

∑x=xin f

wx(gx− qx)2

S =xsup−Z

∑x=xin f

(∆Zgx)2

Les lignes directrices de mortalité stipulent qu’en général on a z = 2, 3 ou 4. Ainsi, pour z = 2, 3puis 4, nous traçons les courbes associées à h = 0,01, 0,05, 0,1, 0,5 et 0,9. Finalement on obtient troisgraphiques possédant six courbes chacun (la sixième courbe correspond aux taux Kaplan-Meier initiaux,qui nous servent de référence). Nous effectuons ensuite un zoom sur les âges supérieurs à 70 ans, lescourbes avant ce niveau étant indiscernables entre elles.

57

Page 59: Caroline Mazziotto - ressources-actuarielles.net

Pour z = 2 on constate que l’influence de h est très importante lorsque les valeurs qu’il prend sont trèspetites. On voit ainsi un saut pour les courbes de mortalité entre 0,01 et 0,05 comparable au saut entre 0,5et 0,9, alors que cet écart est 10 fois plus important que le premier. D’autre part, le graphique confirmebien que lorsque l’on augmente la valeur de h, la contrainte de régularité est accentuée au détriment decelle de fidélité, car les variations de fin de courbes sont clairement négligées. Dans ce cas, il sembledonc préférable de privilégier une valeur de h faible, qui lisse déjà beaucoup la courbe.

De plus, ce premier graphique amène deux remarques supplémentaires. Tout d’abord, il paraît inutilede prendre un h encore plus petit. En effet, nous ne parvenons pas à capter les dynamiques ayant échap-pées au lissage à h = 0,01 avec un lissage à h = 0,05 (voir graphique en annexe). Ce résulat reste vraipour les autres valeurs de z. De plus, il est important de signaler qu’aucune valeur particulière de h n’aété spécifiée dans les lignes directrices de mortalité ou nos autres références, notre démarche a consistéà tester des valeurs étalons très étalées.

Finalement, on observe que les lissages donnent des résultats moins prudents en terme de courbesdes taux de mortalité, ce qui semble logique. De plus, le phénomène est sûrement amplifié, car le lissagedémarre à 5 ans (i.e. x inf = 5).

FIGURE 22 – Lissage Whittaker-Henderson classique, z = 2

Pour z = 3 et z = 4, on observe que globalement les différentes courbes se resserrent. Cela pourraitpeut-être s’expliquer par le fait que les termes supplémentaires au sein du critère de régularité (la sommeS) introduisent des effets de compensation. On aboutirait finalement au même résultat que dans unesituation où le critère de fidélité aurait été augmenté. Nous exhibons ici le graphique z = 4, et laissonsle graphique z = 3 en annexe. Finalement, ce paragraphe nous a permis de comprendre comment secomporte la courbe des taux de mortalité en fonction de h et de z.

Changement de norme On a vu qu’il était possible de remplacer la norme quadratique utilisée parune autre norme `p ou plus largement `∞. Les avantages d’un tel changement ont été vu précédemmentdans le paragraphe théorique s’y rapportant. Nous gardons donc le polynôme classique pour le critère derégularité, mais nous changeons de façon alternative les normes des deux critères F et S. La solution du

58

Page 60: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 23 – Lissage Whittaker-Henderson classique, z = 4

problème de minimisation de la quantité F + hS n’est donc plus analytique mais algorithmique. Nous vé-rifions les résultats issus des optimisations algorithmiques par critère d’arrêt (minimisation de la fonctionobjectif) ET convergence de deux algorithmes différents. Nous obtenons alors les résultats suivants :

Norme Absolue pour S et F Notre objectif consistant à comparer les différentes méthodes de lissage,nous reprenons les paramètres utilisés précédemment, c’est à dire h = 0,01, 0,05, 0,1, 0,5 et 0,9, pour z= 2, 3 et 4.

Pour z = 2, nous remarquons que seules deux courbes se distinguent de celle des taux bruts Kaplan-Meier, et correspondent aux cas où h = 0,5 et h = 0,9. En fait, l’algorithme d’optimisation n’a pas convergépour ces valeurs de h. On observe ainsi que lorsqu’il y a convergence sous la norme absolue, la solutionest toujours la même : c’est la courbe des taux elle-même (ici la courbe des taux KM donc).

FIGURE 24 – Lissage Whittaker-Henderson norme valeur absolue, z = 2

Pour z = 3 (graphique en annexe), nous retrouvons quasiment le même schéma que pour z = 2, à ceci

59

Page 61: Caroline Mazziotto - ressources-actuarielles.net

près que les deux courbes qui se détachent ne sont pas h = 0,5 et h = 0,9 mais h = 0,05 et h = 0,9. Commedans le cas précédent, ces courbes sont issues d’optimisations n’ayant pas convergé, et le fait qu’ellessoient proches de la courbe KM ne peut constituer un résultat valable. Finalement, seule l’optimisationpour h = 0.01 a convergé, et donné comme solution optimale la courbe des taux KM elle-même.

Pour z = 4 (graphique en annexe), les résultats sont assez identiques au cas z = 3, dans la mesure oùseul le cas h = 0,01 converge pour donner la courbe des taux KM elle même comme solution.

Notons que pour les cas z = 3 et z = 4 nous avons essayé de résoudre le problème d’optimisation pourdes h inférieurs à 0,01 : l’algorithme converge et renvoie la même solution, la courbe elle-même.

Finalement, les résultats issus de l’utilisation de la norme absolue pour S et F nous amènent à deuxconclusions. D’une part, quand la solution du problème de minimisation existe, c’est la courbe elle-même. D’autre part, il semblerait qu’il y ait un h maximum pour lequel l’algorithme converge, maximumdont la valeur paraît diminuer quand z augmente (pour z = 2 il s’agissait de 0,1, et pour z = 3 et 4, ils’agissait de 0,01).

Norme Hybride Dans ce cas, on prend la norme absolue pour F, et la norme Chebyshev pour S (`∞).Comme vu dans la partie théorique, S est alors égal à la plus grande valeur absolue des différences d’ordrez des valeurs lissées. Nous repassons successivement en revue les cas h = 0,01, 0,05, 0,1, 0,5 et 0,9,pour z = 2, 3 et 4. On constate que les résultats de cette norme hybride sont similaires à ceux obtenuspour la norme valeur absolue (voir graphiques en annexe), c’est à dire que lorsque l’algorithme converge,il renvoie la courbe des taux KM elle-même.

Comme vu au cas précédent, on obtient pour chaque valeur de z une valeur de h maximale aprèslaquelle l’algorithme ne converge plus (donc le dernier h pour lequel il existe une solution au problèmed’optimisation). On a hmax = 0,5 pour z = 2, hmax = 0,1 pour z = 3 et hmax = 0,1 pour z = 4.

Finalement la norme hybride est constituée de la norme valeur absolue pour F et de la norme infiniepour S, qui est en fait le maximum des valeurs absolues. Il paraît donc logique de trouver des résulatsde même nature. Notons au passage que l’algorithme de résolution du problème de minimisation n’ayantpas d’étape d’initialisation, a fortiori on ne l’initialise pas avec les taux KM. Il est donc d’autant plusintéressant de constater que la solution trouvée est la courbe des taux KM. On peut également remarquerque le h maximal est plus grand pour la norme hybride que pour la norme absolue.

Conclusion Nous avons vu dans ce paragraphe ce qu’il était possible de faire à l’aide des algorithmesd’optimisation classiques. Notre principal résultat, à savoir que la solution optimale lorsqu’elle existecorrespond à la courbe des taux KM elle-même peut s’expliquer en partie par la méthode de résolutiondes algorithmes utilisés (TRR pour Trust Region Reflective et AS pour Active Set). Le fait que la plagede données soit très large, de 5 à 105 ans peut également avoir un impact (nous travaillons ici avec lestaux non raccordés). Cette dernière supposition pourra être vérifiée dans la sous partie suivante, puisquenous effectuerons alors des lissages sur les taux KM utilisés dans le cadre du calcul des PM, donc cor-respondant à une plage plus restreinte, de 50 à 105 ans.

60

Page 62: Caroline Mazziotto - ressources-actuarielles.net

Modification du critère de régularité : autres fonctions de référence On rappelle (voir la sous-partiethéorique précédente) que Lowrie modifie le critère de régularité, qui devient :

S =xsup−z

∑x=xin f

(∆Zgx− r∆Z−1gx)

2

où r est un réel strictement supérieur à 1. Nous étudions ici les résultats des trois méthodes de lissagevues précédemment (norme carrée, absolue et hybride) pour cette autre fonction de référence, que nousdésignerons comme « le polynôme de Lowrie ». Dans ce cas, la résolution du problème de minimisationde la quantité M = F + hS s’effectue de nouveau à l’aide des algorithmes d’optimisation.

On a vu que le r était fixé par itérations, on en fait ici au maximum 10. En effet, nous devons tenircompte de la condition portant sur r (r > -1), et ferons donc des optimisations (validées comme précé-demment par critère d’arrêt et convergence de deux algorithmes) tant que le calcul du nouveau r (obtenupour chaque itération) satisfera la contrainte. Ceci explique qu’on fasse 10 itérations au maximum et nonexactement 10.

Norme Carrée On reprend ici les des valeurs pour h comparables à celles utilisées précédemment, quel’on étudie pour z = 2, 3 et 4. Pour z = 2 on obtient les r suivants :

h 0,001 0,01 0,05 0,1 0,5r 0,9880 0,6323 0,5825 0,6299 0,6543

et le graphique suivant :

FIGURE 25 – Lissage avec le polynôme de Lowrie, norme carrée, z = 2

On remarque ici que par rapport au cas du polynôme classique les courbes sont moins proches de lacourbe initiale. Comme le polynôme classique est un polynôme de Lowrie où r = 0, on en déduit qu’unr positif a tendance à nous éloigner de la courbe. Cependant, cette affirmation est à nuancer, puisque parexemple avec un r relativement faible, la courbe associée à h = 0,05 est plus éloignée que celle de h =0,1. On se serait plutôt attendu au résultat inverse. Ce cas-ci mis à part, on remarque que les courbes sont

61

Page 63: Caroline Mazziotto - ressources-actuarielles.net

dans l’ordre attendu et que l’on a une inflexion très claire pour h = 0,5 et r = 0,65, alors que dans lecas classique où r = 0, cette caractéristique ne commençait à se voir que pour h = 0,9. Ainsi, on pourraitsupposer qu’un r plus grand favorise la régularité au détriment de la fidélité.

Pour z=3, on a le tableau suivant :

h 0,001 0,005 0,01 0,05 0,5 0,9r 0,2047 7,4987 -0,4663 0,3758 1,1315 1,3978

Ce cas diffère du précédent puisque les r obtenus prennent des valeurs très hétérogènes. Il en résulteque l’ordre des courbes ne suit plus ici l’ordre des h. Dans ces conditions, il est difficile de voir l’effet duchangement de z, passé de 2 à 3. Néanmoins, l’effet du z a déjà pu être constaté précédemment avec lesfonctions de référence classiques. On peut éventuellement s’accorder sur le fait que quand z augmente,les valeurs de r gagnent en hétérogénéité. Finalement, ces courbes surprenantes et/ou aberrantes mettentpeut-être en lumière des failles dans les algorithme utilisés.

FIGURE 26 – Lissage avec le polynôme de Lowrie, norme carrée, z = 3

Pour z = 4, les résultats (laissés en annexe) sont difficilement interprétables.

Norme valeur absolue Comme précédemment, on étudie ici le problème non plus à l’aide de la dis-tance quadratique, mais au moyen de la distance en valeur absolue, en utilisant le polynôme de Lowriecomme fonction de référence. On obtient le tableau suivant pour z = 2 :

h 0,001 0,005 0,01 0,05 0,1r 1,0668 1,0668 1,0668 1,0668 0,5793

On retrouve ici des conclusions assez similaires que dans le cas de la fonction de référence classique,où l’utilisation de la norme valeur absolue renvoyait comme solution de l’optimisation la courbe elle-même. On a donc des courbes visuellement confondues mais également des r identiques, mis à part le

62

Page 64: Caroline Mazziotto - ressources-actuarielles.net

cas où h = 0,1, où l’optimisation a convergé mais renvoie un résultat aberrant.

FIGURE 27 – Lissage avec le polynôme de Lowrie, norme valeur absolue, z = 2

Pour z = 3, il semblerait que, comme dans le cas classique, à partir d’une certaine valeur de h l’op-timisation n’aboutisse pas. Ici, le h limite prendrait la valeur 0,01. D’autre part, on constate de nouveauque les courbes sont confondues et les valeurs de r identiques.

Pour z = 4, on obtient des r aberrants, de l’ordre de 10.1012. Il est donc impossible de conclure.Finalement, l’augmentation du z dans le cadre de la norme valeur absolue associée au polynôme de Lo-wrie montre l’existence d’un h maximal après lequel il n’y a plus de convergence. D’autre part, lorsquel’algorithme converge et qu’une solution existe, cette dernière se trouve confondue avec la courbe destaux KM.

Norme hybride Comme nous l’avons vu plus haut, la norme hybride associe la norme valeur absoluepour le critère de fidélité à la norme Chebyshev pour le critère de régularité. Pour le cas z = 2, on obtientle tableau suivant :

h 0,001 0,005 0,01 0,05 0,1 0,5 0,9r 1,0668 1,0668 1,0668 1,0668 1,0668 1,1130 -0,0556

On retrouve ici les résultats classiques associés à la norme absolue : courbes confondues et r iden-tiques. Néanmoins, il est intéressant de constater que dans le cas hybride d’autres solutions, certes éloi-gnées, mais plausibles, sont trouvées. Cela diffère du cas précédent où lorsque les courbes n’étaient pasconfondues il n’y avait guère de solutions. Ici, nous avons donc deux solutions, non aberrantes.

Pour z = 3, on voit de nouveau apparaître un h maximal après lequel l’algorithme ne converge plus.Dans ce cas hmax = 0,5. Pour z = 4, aucun algorithme n’a convergé, mise à part dans le cas où h = 0,5,qui correspond à r = 1,8083. Dans les deux cas les représentations graphiques sont laissées en annexe.

63

Page 65: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 28 – Lissage avec le polynôme de Lowrie, norme hybride, z = 2

Conclusion Finalement, l’utilisation du polynôme de Lowrie comme fonction de référence a mené àdes résultats peu interprétables. Néanmoins, on peut remarquer que d’une façon générale, lorsque le zaugmente, il devient difficile de distinguer les effets distincts de chacune des variables. Ainsi, pour lanorme carrée, pour un z strictement supérieur à 2, les r deviennent très hétérogènes. De même, quand z= 4 pour la norme absolue les valeurs de r deviennent aberrantes. Enfin, dans le cas z = 4 pour la normehybride, aucun des algorithmes ne converge.

Enfin, il semblerait tout de même qu’une augmentation du r favorise la régularité, comme le montrentles résultats de la norme carrée. Dans les cas valeur absolue et hybride, on retrouve comme dans le casnormal un h maximal après lequel l’algorithme d’optimisation ne converge plus. De plus, lorsqu’il existeune solution, on constate qu’il s’agit comme précédemment de la courbe des taux KM elle-même, et queles r sont identiques pour différentes valeurs de h. En conclusion, nous pouvons ajouter que visiblementles algorithmes utilisés ici ne sont pas optimaux pour trouver une solution au problème de minimisationde la quantité F + hS.

3.3.4 Impact du lissage sur la constitution de Provisions Mathématiques

Dans la partie précédente, nous avons réalisé une analyse globale des différentes méthodes de lissagedisponibles, en étudiant les taux Kaplan-Meier non raccordés, entre 5 et 105 ans. Dans cette partie, nousnous éloignons de ces résultats de type scientifique pour aborder le problème en des termes plus pra-tiques pour l’entreprise d’assurance : comment le choix d’une méthode de lissage impacte-t-il le niveaudes Provisions Mathématiques ? Nous avons donc utilisé le système de calcul des passifs de PRO BTP,en y remplaçant les taux de mortalité KM par nos taux lissés. Dans cette perspective, nous basons notreétude sur les taux raccordés KM, entre 50 et 105 ans.

Nous avons donc pour chacune des méthodes étudiées précédemment déterminé les paramètres opti-maux en terme de rendu de courbe et de calcul des PM. Nous présentons donc à chaque fois 4 courbes :la courbe de référence, une courbe linéaire, une courbe collant à la courbe de référence et une courbeintermédiaire. Notre démarche consiste en fait à trouver dans chaque cas la meilleure de ces trois « for-

64

Page 66: Caroline Mazziotto - ressources-actuarielles.net

mules »en termes comptables pour l’entreprise. Nous joignons ainsi à ces graphiques des tableaux dé-taillant les résultats pour les PM. Néanmoins, comme ces tableaux sont issus des systèmes de calculsstandards de PRO BTP, nous avons choisi de ne les utiliser que dans le cadre des résolutions analytiquesde notre problème de minimisation, et faisant donc appel à la norme carrée.

Lissage Whittaker-Henderson classique avec résolution analytique(norme carrée) Nous prenonsici des h différents de ceux utilisés pour l’étude générale précédente, car les données sont différentes :plus régulières avec les raccordements, et moins nombreuses. Nous choisissons donc les valeurs de htelles qu’on ait une courbe qui suive correctement la courbe des taux KM, une plus franchement, et unedernière qui soit aussi proche que possible de la courbe des taux KM. On obtient le graphique suivantpour z = 2, correspondant à un zoom sur l’intervalle [94 - 98 ans] de la plage [50-105 ans] :

FIGURE 29 – Lissage de W-H classique pour le calcul des PM, z = 2

On observe que les courbes verte et violette sont très proches, sauf au début du zoom. Néanmoins, cepremier résultat visuel est incomplet. Il nous faut en effet déterminer si, en termes de PM, les périodes oùces deux courbes sont les plus proches sont plus importantes que celles où elles sont éloignées. D’autrepart, prendre un h plus petit pour se rapprocher de la courbe est ici inutile, étant donner que le but restede réaliser un lissage, non d’obtenir la courbe elle-même.

Pour z = 3, on obtient un graphique similaire, après changement des h pour justement conserver lamême structure de trois courbes caractéristiques.Enfin, le cas z = 4 est très proche du cas z = 3, il estdonc laissé en annexe.

En terme de PM, on obtient les deux tableaux correspondants. On retrouve en gras la courbe visuel-lement la plus proche de la courbe KM d’origine pour laquelle les PM valent 26 779 834 euros :

– Pour z = 2, on a :

65

Page 67: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 30 – Lissage de W-H classique pour le calcul des PM, z = 3

h PM (en euros)0,1 26.785.025

1 26.790.5265 26.785.595

– Pour z = 3, on a :

h PM (en euros)0,05 26.781.0910,5 26.775.714

5 26.805.941

Finalement, on constate des différences entre les courbes de l’ordre de 15 000 euros (jusqu’à 30 000euros dans le cas z=3). On peut noter que pour z=2, les PM pour les cas h = 0,1 et h = 5 sont sensiblementles mêmes. Pour le cas z = 3 on constate que bien que visuellement les courbes h = 0,5 et h = 5 (verte etviolette) soient très proches, elles conduisent à des PM différentes d’environ 30 000 euros), alors que siles courbes h = 0,5 et h = 0,05 sont éloignées sur le graphiques, la différence en terme de PM n’est pas sigrande (5 000 euros). On constate finalement un effet marqué du choix de h. D’autre part, les conclusionstirées de l’observation des courbes sont à relativiser, puisqu’il s’agit d’un zoom sur une partie de la plaged’âge [50-105 ans]

Lissage Whittaker avec polynôme de Lowrie et résolution analytique (norme carrée) Ici, noussommes toujours dans des problèmes de minimisation ayant une résolution analytique, mais faisant ap-pel dans le critère de régularité à une nouvelle fonction de référence, le polynôme de Lowrie. Commeprécédemment, on choisit les valeurs de h de façon à obtenir des courbes qui nous intéressent (une courbeproche traduisant les courbures de la courbe initiale, une autre plus éloignée et linéaire, et enfin une der-nière encore plus lissée).

Pour z = 2, on obtient les r suivant :

h 0,01 0,05 0,1r 1,2090 1,1674 1,1741

66

Page 68: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 31 – Lissage de Whittaker avec polynôme de Lowrie pour le calcul des PM, z = 2

Le tableau des PM associé se trouve ci dessous. Nous avons ajouté, en italique, les valeurs des h du casclassique, à titre de comparaison.

h PM (en euros)0,01 26.785.8600,05 26.809.0760,1 26.840.581

1 27.357.4695 31.104.859

Pour le cas z= 3, nous laissons le graphiques en annexe, mais exhibons ici le tableau des PM. L’ensembledu cas z = 4, assez semblable au cas z = 3, est laissé en annexe.

h PM (en euros)0,01 26.780.0440,05 26.780.1200,5 26.791.432

5 26.893.070

Le tableau des r associés est le suivant :

h 0,01 0,05 0,5r -0,1646 -0,4728 0,3383

On remarque tout d’abord que les différences en termes de PM pour z = 2 sont de l’ordre de 25 000euros entre les trois courbes, sensiblement plus importantes donc que dans le cas z = 2 classique, et pourdes h plus faibles. Pour z = 3, on constate que les différences entre les trois courbes sont de l’ordre de11 000 euros dans le cas où l’on compare les courbes h = 0,01 et h = 0,05 avec la courbe h = 0,5, etquasi-nulles dans le cas où l’on compare la courbes h = 0,01 avec h = 0,05. Pourtant, on constate commeprécédemment que sur le zoom graphique ces deux dernières courbes sont bien différenciées, alors queles courbes h = 0,05 et h = 0,5 sont relativement proches visuellement. Ceci peut s’expliquer par des

67

Page 69: Caroline Mazziotto - ressources-actuarielles.net

effets de compensation entre les différentes courbes qui interviennent sur l’ensemble de la plage de don-nées.

D’autre part, si l’on compare les cas classiques et les cas Lowrie, pour un même h, on constate que lesdifférences en terme de PM sont conséquentes dans le cas z = 2 : de l’ordre de 600 000 euros pour h = 1et de quasiment 1 000 000 d’euros pour h = 5. En revanche dans le cas z = 3, il y a moins de différences,celles ci sont de moins de 100 000 euros. On pourrait conclure que pour un z égal à 2, le choix de h estplus déterminant que dans les cas où z est supérieur. D’une façon générale, il semble logique de consta-ter que dans le cas Lowrie les différences de PM sont légèrement plus élevées, pour des h relativementfaibles, que dans le cas classique. En effet, comme la méthode de Lowrie impose aux valeurs lisséesd’être proche d’une fonction de référence égale à la somme d’une exponentielle et d’un polynôme dedegré z - 2, on s’attend donc à ce que le caractère « lissé »soit plus favorisé que dans le cas classique.

Finalement on peut dire que la méthode de Lowrie pour des h élevés oblige à immobiliser plus de ca-pital que la méthode classique, ce qui conduirait à supposer que des taux plus lissés amènent des réservesplus élevées. Cela semble compatible avec l’intuition selon laquelle pour des taux plus éloignés (lissés)des taux constatés, l’entreprise se comporte de façon plus prudente en immobilisant plus de capital pourse prémunir de trop gros écarts entre les taux. Cela valide enfin la volonté de s’appuyer sur des donnéesd’expérience les plus fidèles à la réalité possible.

Lissage Whittaker et résolution algorithmique Les études menées sur les variations de norme pourle cas Whittaker-Henderson classique et pour le cas de Lowrie, avec résultat algorthmique sur les tauxraccordés, n’ont rien apporté de nouveau par rapport à l’étude réalisée sur les taux non-raccordés. Deplus, nous avons vu qu’ils ne pouvaient être traduits en termes de Provisions Mathématiques. Nous avonsdonc choisi, par souci de concision de ne pas les mentionner dans notre rapport.

68

Page 70: Caroline Mazziotto - ressources-actuarielles.net

4 Proposition d’une méthode alternative

Jusqu’ici, le but était d’évaluer la méthode que proposait PRO BTP pour construire les taux de mor-talité utilisés dans le calcul de leur provisions mathématiques. Cette démarche s’inscrivait dans deuxgrandes étapes à savoir l’estimation des taux bruts Kaplan Meier, puis un lissage de Whittaker que nousreprendrons dans cette partie pour proposer une méthode alternative. Il existe bien sûr un très grandnombre de possibilités pour faire autrement, mais nous allons essayer d’adopter une démarche différenteprenant en quelques sortes le contre pied de ce qui a été fait avant. Notre étude s’appuiera sur l’article dePlanchet et Kamega, déjà cité précédemment dans notre exposé.([1]).

La première étape est de travailler au niveau des taux bruts puisque c’était aussi le point de départde PRO BTP. Nous allons donc estimer non plus les taux bruts de Kaplan Meier mais ceux de Hoem etnous en étudierons les caractéristiques afin de voir en quoi ils peuvent être différents. Ensuite, il s’agirade trouver un lissage le plus éloigné possible de celui de Whittaker. Alors que ce-dernier fait partie dela famille des lissages non paramétriques, nous adopterons des méthodes relevant de la modélisationrelationnelle autour notamment du modèle de Brass. Plus précisément, nous mettrons en oeuvre deuxméthodes basées sur la simulation directe des taux bruts pour la première et sur celle des résidus pour laseconde.

Ainsi, nous présenterons dans une première partie la construction des nouveaux taux bruts de Hoempour lesquels seront construits les intervalles de confiance, ce qui nous permettra de les comparer avecles taux de Kaplan Meier. A ce stade, il sera possible de calculer les provisions mathématiques qui y sontassociées et les confronter à celles obtenues dans le cadre Kaplan Meier. Afin de voir le changement denature des taux bruts dans le calcul des taux ajustés, nous lisserons également ces taux bruts avec parWhittaker et en évaluerons l’impact sur les provisions.

La seconde partie traitera du changement de la méthode de lissage et nous mènerons dans ce cadreun lissage des taux bruts de Kaplan Meier et de Hoem par la méthode de simulation des résidus avant demettre en oeuvre celle de simulation directe des taux bruts de Hoem. Ainsi nous pourrons constater l’im-pact de ces méthodes de lissage sur les taux de Hoem (ce qui constituera notre proposition de méthodealternative), mais également sur les taux de Kaplan Meier à titre de comparaison.

4.1 Changement de taux bruts

Dans l’optique de changement de méthode décrit plus haut, nous allons nous attacher à construire lestaux bruts de Hoem associés au portefeuille des assurés de PRO BTP. Nous en présenterons les fonde-ments théoriques avant de commenter les résultats auxquels nous aboutissons.

69

Page 71: Caroline Mazziotto - ressources-actuarielles.net

4.1.1 Fondements théoriques des taux de Hoem

L’estimateur des taux de survie de Hoem généralise l’estimateur binomial en introduisant des cen-sures et des troncatures, c’est-à-dire en tenant compte des dates de sorties des assurés et de pondérer leurprésence dans l’effectif d’une classe d’âge par la durée de leur présence au sein de cette classe.

Soit un âge x fixé : nx est le nombre d’assurés en vie à l’âge x et [αi;βi] l’intervalle inclus dans [x;x+1]pendant lequel l’assuré i est sous observation.

On pose alors Xi la variable aléatoire indiquant le décès dans l’année d’un assuré i d’âge x+αi :

Xi ∼ Bernoulli(βi−αiqx+αi)

De même, on pose Dx la variable aléatoire régissant le nombre de décès dans l’année, on a :

Dx =nx

∑i=1

(Xi)

et Dx ∼ B(nx,βi−αiqx+αi)

Or pour construire l’estimateur de Hoem il est nécessaire de formuler les hypothèses suivantes : lesdécès sont indépendants les uns des autres et la probabilité qu’un individu d’âge x décède entre l’âge x etx+ t est une fonction linéaire du temps. Ainsi, on a :

tqx = tqx ∀t ∈ [0,1]

s−tqx+t ≈ s px− t px

ce qui permet d’écrire :

βi−αiqx+αi = (βi−αi)qx

Finalement, on a :

E(Dx) = E(nx

∑i=1

(Xi))

=nx

∑i=1

(E(Xi))

=nx

∑i=1

((βi−αi)qx)

= qx{∑ i = 1nx(βi−αi)}

Soit :

qx =E(Dx)

∑i(βi−αi)

et pour dx une réalisation de Dx, on a un estimateur du taux de mortalité :

qx =dx

∑i(βi−αi)

70

Page 72: Caroline Mazziotto - ressources-actuarielles.net

On peut aussi calculer des intervalles de confiance si nxqx est assez grand, c’est-à-dire plus grand que5 au sens de Saporta. Dans ce cadre nous pourrons remarquer que :

Dx ∼ N(nxqx,nxqx(1−qx))

SoitDx

nx= Qx ∼ N(qx,

qx(1−qx)

nx)

Et l’on peut construire des intervalles de confiance au niveau α :

qx ∈[qx−uα/2

√qx(1−qx)

nx;qx +uα/2

√qx(1−qx)

nx

]avec uα/2 le quantile de niveau α/2 d’une loi gaussienne centrée réduite.

4.1.2 Résultats

Nous avons alors utilisé la formule de l’estimateur qx à laquelle les calculs ont abouti pour estimer lestaux de mortalité de Hoem entre 5 et 105 ans sur le portefeuille des assurés de PRO BTP.

Les taux de Hoem sont très proches de taux Kaplan Meier pour les âges peu élevés, soit avant 80 ans,si bien que les deux courbes sont indiscernables et se positionnent donc de la même manière par rapportaux autres courbes de référence :

FIGURE 32 – Taux de mortalité entre 65 et 105 ans

La principale observation que nous pouvons déduire de ce graphique est que la plus grande prudencedes taux Hoem conduit à des taux qui dépassent ceux de la table réglementaire TH 00-02.

De plus, la condition de Saporta (nxqx > 5) s’est trouvée vérifiée pour les âges compris entre 16 et103 ans. En tenant compte de ces précautions, nous pouvons présenter les taux Hoem encadrés par leurs

71

Page 73: Caroline Mazziotto - ressources-actuarielles.net

intervalles de confiance au niveau 5% avec les taux de Kaplan Meier :

FIGURE 33 – Taux bruts de Hoem entre 5 et 105 ans

On peut voir sur cette figure que les taux bruts, qu’il s’agisse de ceux de Kaplan Meier ou de Hoem,sont confondus jusqu’à l’âge de 80 ans environ. A partir de là, les taux de Hoem sont plus élevés etsemblent surestimer le risque de mortalité de la population des assurés. En effet, ce phénomène est sur-tout visible entre 85 et 97 ans et les deux courbes tendent à se rejoindre pour les âges les plus élevés.Toutefois, il est important de préciser que les deux courbes ont exactement la même allure et les mêmesdynamiques.

L’observation des intervalles de confiance révèle que dans la phase où l’écart entre les deux sortesde taux bruts est le plus élevé (85-97 ans), les taux de Kaplan Meier sont en dehors des intervalles deconfiance des taux de Hoem. Il semblerait ainsi que les taux de Kaplan Meier sous estiment la mortalitéréelle des assurés même si l’on peut nuancer en affirmant qu’il est possible que les taux de Hoem soientmoins bien adaptés à notre portefeuille.

Nous allons maintenant évaluer ces différences en termes de montant à provisionner mais pour cela ilest nécessaire de considérer ces taux entre 50 et 94 ans, puis de les raccorder à ceux de la table TD88-90entre 95 et 105 ans. On obtient donc les séries suivantes :

L’arrêt de la courbe à 94 ans permet d’occulter la partie raccordée où toutes les courbes sont confon-dues et de zoomer sur les écarts entre les courbes qui sont représentés par les différents provisionnementci-dessous :

Taux Brut considéré PM (en euros)Taux KM 26.779.834Taux de Hoem 28.990.910IC borne inf. 27.272.840IC borne sup. 30.639.174

72

Page 74: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 34 – Taux bruts de Hoem raccordés entre 50 et 94 ans

L’encadrement des taux Hoem en termes de provisions est beaucoup plus grand que ne l’était celuides taux Kaplan Meier mais, au regard de la taille totale du portefeuille et du montant de l’ordre degrandeur des provisions (la dizaine de millions d’euros), ces résultats sont plus éloquents. En effet, lesdifférences pour les taux de Kaplan Meier étaient de 4 000 euros entre les taux obtenus par les intervallesde confiance et la courbe originale, alors qu’ici nous avons une différence de plus de 1,7 millions d’eurospour un total de 28,99 millions à provisionner. On retrouve de plus l’analyse visuelle que nous avionsfaite selon laquelle les taux Kaplan Meier étaient inférieurs aux taux de Hoem, mais également plus petitsque l’intervalle de confiance inférieur de ce-dernier. Avec un écart de 500 000 euros, les taux de KaplanMeier sont toujours inférieurs à la plus grande sous-estimation de la mortalité faite sur les taux Hoem auniveau de confiance 95%.

Pour conclure quant au choix de l’estimateur pour le calcul des taux bruts, nous pourrions dire qu’ilest plus confortable de porter notre choix sur les taux de Hoem dans la mesure où les intervalles deconfiance encadrent les valeurs de manière suffisamment large pour être significative. Par contre, les tauxKaplan Meier semblent vraiment sous-estimer la mortalité des assurés mais c’est une hypothèse assezpeu plausible puisque ces estimateurs sont très répandus. Nous pourrions donc dire que le portefeuilleest bien plus adapté aux taux de Kaplan Meier même si le choix de la méthode finale consistera à faireun arbitrage entre la sécurité qu’offre la méthode de Hoem et les faibles provisions déduites des taux KM.

4.1.3 Impact du choix des taux bruts sur les taux ajustés

Afin de déterminer l’impact d’un changement de taux bruts sur les provisions calculées à partir destaux ajustés, nous reprenons les lissages de Whittaker faits dans la partie précédente et les appliquons auxtaux de Hoem. Nous ne nous concentrerons que sur le cas le plus classique de Whittaker-Henderson dontla résolution est analytique pour éviter les problèmes d’optimisation des autres méthodes. De plus, onutilisera les mêmes paramètres que précédemment et nous mènerons directement les calculs sûr les taux

73

Page 75: Caroline Mazziotto - ressources-actuarielles.net

raccordés puisque cela nous permettre de visualiser les différences tout en en calculant les provisions :

FIGURE 35 – Lissage de Whittaker-Henderson, z = 2

Les lissages conservent donc les spécificités des deux courbes puisqu’on peut observer deux groupesde courbes jusqu’à 102 ans. Par contre, les données sont écartées pour les trois dernières valeurs.

Nous ne traçons pas les graphiques pour les autres valeurs de z dans la mesure où ils ont exactementla même allure et nous reportons directement les provisions mathématiques associées à ces différentesméthodes. Voila donc les résultats du calcul des PM pour chaque lissage de Whittaker Henderson selonqu’il s’agisse des taux Kaplan Meier ou Hoem :

PM Taux KM PM Taux HoemTaux brut 26.779.834 28.990.919z = 2, h = 0,1 26.785.025 28.992.542z = 2, h = 1 26.790.526 29.003.563z = 2, h = 5 26.785.595 29.046.895z = 3, h = 0,05 26.781.091 28.991.604z = 3, h = 0,5 26.775.714 28.996.888z = 3, h = 5 26.805.941 29.002.994z = 4, h = 0,01 26.785.025 28.992.542z = 4, h = 0,5 26.767.075 28.996.696z = 4, h = 0,1 26.749.931 29.001.505

La première observation est que les ordres de grandeur sont conservés et que le lissage ne bouleversepas les montants calculés mais il est difficile d’en tirer plus de conclusions sous la forme actuelle, c’estpourquoi nous présentons le graphique ci-dessous :

Il est maintenant possible de voir que les lissages ne diminuent jamais le montant à provisionner dansle cas des taux de Hoem tandis que cela peut arriver dans le cas des taux Kaplan Meier pour z grand : une

74

Page 76: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 36 – Comparaison de l’impact du lissage W-H sur les PM

fois pour z = 3 et à chaque fois pour z = 4. On peut aussi identifier un grand atout des taux de Hoem, àsavoir leur stabilité. En effet, on observe pour chaque z que le lissage de Whittaker Henderson augmentesystématiquement les PM quand h augmente ce qui n’est pas du tout le cas pour les valeurs associées àla méthode de Kaplan Meier dont l’évolution est erratique et imprévisible.

4.1.4 Conclusion

Les principales études de cette première sous-partie portaient sur l’étude des taux bruts de KaplanMeier et de Hoem d’une part, et sur l’impact du choix de l’une de ces deux méthodes sur le montantà provisionner par PRO BTP une fois les taux ajustés par une méthode de lissage identique (celle deWhittaker Henderson). Il en ressort que les taux de Hoem sont globalement plus prudents même si l’onpourrait dire qu’ils ont tendance à surestimer la mortalité de la population grâce à certains indices, no-tamment le fait qu’ils dépassent les valeurs de la table réglementaire TH00-02 pour certains âges x. A cetégard, les taux de Kaplan Meier semblent plus adaptés et pourraient constituer un choix plus intéressantd’autant plus que les provisions en découlant sont plus faibles. Pour nuancer notre propos, nous pour-rions souligner le fait que ces taux ne sont pas aussi stables que ceux de Hoem. En effet, les intervalles deconfiance qui y sont associés sont trop faibles pour être significatifs et représenter un réel intervalle. Leslissages de Whittaker employés pour en obtenir les taux ajustés ne semblent pas présenter de logique. Parcontre, une fois encore, le montant à provisionner est plus faible avec les taux Kaplan Meier et certainesvaleurs de h et de z permettent d’en diminuer davantage la charge.

Finalement, l’utilisation d’une sorte de taux bruts plutôt que l’autre repose sur un choix à faire entreles taux de Hoem, prudents et stables, et une optimisation des montants à provisionner de presque 7,6%,soit environ 2,2 millions d’euros pour des taux de Kaplan Meier qui semblent mieux adaptés aux tra-vailleurs du BTP.

75

Page 77: Caroline Mazziotto - ressources-actuarielles.net

4.2 Changement de la méthode de lissage

Deux méthodes de lissage différentes seront présentées dans cette partie. Toutes deux s’inscriventdans la classe des modélisations relationnelles mais elles diffèrent en ce que l’une d’elles ne peut s’ap-pliquer qu’aux taux Hoem. Nous étudierons donc d’abord les effets du lissage par simulation des résidusqui s’applique aussi bien aux taux Kaplan Meier qu’à ceux de Hoem, puis nous mettrons en oeuvre lelissage par simulation directe des taux bruts, spécifique aux taux Hoem.

4.2.1 Principes des méthodes de lissage

Ces deux méthodes de lissage sont basées sur le même principe qui est l’emploi d’une modèle deBrass à référence externe (présence de qre f

x ) de la forme :

logit(qx) = θ1 +θ2logit(qre fx )+ εx

Ce modèle est soutenu par différentes hypothèses portant sur εx :– εx est de type gaussien et suit une loi normale N(0,σ2).– εx ne correspond qu’à l’erreur d’estimation et n’inclut pas l’erreur de spécification du modèle.

Cette dernière hypothèse est importante pour comprendre le modèle et en interpréter les résultats.

Il convient ensuite d’estimer les paramètres du modèle, θ1 et θ2, pour lesquels plusieurs méthodessont possibles. Nous procèderons par moindres carrées ordinaires puisque l’estimation par maximum devraisemblance est biasée. Enfin, la robustesse des calculs reposera sur un nombre suffisant de données etnous veillerons à faire un grand nombre de tirages dans le cadre de ces deux méthodes de simulation.

La démarche proposée par ces deux méthodes est de caractériser l’impact de l’irrégularité des tauxbruts sur les θ1 et les θ2 pour construire de nouveaux taux ajustés dont on peut mesurer la dispersion.Nous veillerons donc à détailler ces méthodes de lissage étape par étape pour en comprendre la justifica-tion.

4.2.2 Lissage par simulation des résidus

La fonctionnement et la théorie de cette méthode de lissage seront présentés avant de mettre en oeuvreles calculs. Nous étudierons alors l’impact du lissage par simulation des résidus sur les taux de KaplanMeier et de Hoem avant de déterminer les différences qu’il occasionne en termes de montant à immobi-liser.

76

Page 78: Caroline Mazziotto - ressources-actuarielles.net

Théorie Considérons le modèle de Brass :

logit(qx) = θ1 +θ2× logit(qre fx )+ εx

où εx est un résidu gaussien et suit une loi N(µ,σ2).

La démarche consiste en quatre grandes étapes dont la première est la détermination de la loi de εx.

1. On utilise les taux bruts pour estimer θ = (θ1, θ2) par moindres carrées ordinaires. Dans ce cadre,on a les estimateurs suivants où n = xM− xm+1 :

θ2 =∑

xMx=xm

(logit(qx)× logit(qre fx ))−nlogit(q)× logit(qre f )

∑xMx=xm

(logit(qre fx )2)−nlogit(qre f )

2

et θ1 = logit(q)− θ2× logit(qre f )

où :

logit(q) =1n×

xM

∑x=xm

(logit(qx))

et logit(qre f ) =1n×

xM

∑x=xm

(logit(qre fx ))

On peut alors estimer ∀x ∈ [xm;xM] :

εx = logit(qx)− θ1− θ2× logit(qre fx )

On teste sa normalité par le test de Kolmogorov Smirnov par exemple. Si le résultat est positif, onpeut en déduire :

µ =1n

xM

∑x=xm

(εx)

et σ2 =

1n−1 ∑

x=xm

xM((εx− ε)2)

où ε = µ

Une fois que l’on a la loi des résidus, on peut procéder au tirage.

2. ∀k ∈ [1;K], on tire εkx ∼ N(µ,σ2) pour avoir K taux bruts :

qkx =

exp(θ2logit(qre fx )+ θ1 + εk

x)

1+ exp(θ2logit(qre fx )+ θ1 + εk

x)

77

Page 79: Caroline Mazziotto - ressources-actuarielles.net

3. On réestime θk = (θk1, θ

k2) par moindres carrées oridnaires selon les formules suivantes :

θk2 =

∑xMx=xm

(logit(qkx)× logit(qre f

x ))−nlogit(qk)× logit(qre f )

∑xMx=xm

(logit(qre fx )2)−nlogit(qre f )

2

et θk1 = logit(qk)− θ

k2× logit(qre f )

où logit(qk) =1n×

xM

∑x=xm

(logit(qkx))

et logit(qre f ) =1n×

xM

∑x=xm

(logit(qre fx ))

4. On en déduit une distribution de K taux lissés :

qx(θk) =

exp(θk2logit(qre f

x )+ θk1)

1+ exp(θk2logit(qre f

x )+ θk1)

A ce stade, on pourra obtenir les taux ajustés "finaux" en prenant la moyenne des K taux qx(θk)

par exemple ou en en prenant un quantile. Les valeurs obtenues seront alors celles utilisées pour lecalcul des provisions mathématiques.

Application On simule des échantillons de taille 1000 pour s’assurer de la robustesse des résultats évo-quée plus haut et la table de référence externe est la TD88-90. Ainsi, l’on obtient une distribution de tauxajustés pour chacune des sortes de taux bruts, Kaplan Meier et Hoem. Comme nous le précisions, il estpossible de retenir comme taux ajustés finaux une transformation de cette distribution et nous présente-rons ici les résultats pour les cas où l’on retiendrait la moyenne, la médiane, et les quantiles à 5% et à95%. Ce choix permettra de rendre compte de la dispertion des taux tirés et de représenter une plage deprovisions possibles allant de la moins importante à la plus prudente.

La présence de référence externe impose quelques précautions. En effet, la table que l’on utilise pourréférence doit avoir le même forme que celle que l’on lisse ou au moins être de même nature. En effet,il serait impossible de lisser les taux bruts non raccordés en utilisant une référence qui, elle, possède destaux croissants pour les âges les plus élevés. Aussi sommes-nous obligés de faire un lissage sur les tauxbruts raccordés, qu’ils soient issus de l’estimateur de Kaplan Meier ou de celui de Hoem, et comme lescourbes sont quasiment confondues pour les âges faibles nous allons directement étudier les donnéesentrant en compte dans le calcul des PM : les taux bruts raccordés entre 50 et 105 ans. On exhibe ici legraphique des taux lissés par simulation des résidus.

On constate que les distributions sont très stables étant donné que les courbes représentant les diffé-rents quantiles (5%,50% et 95%) et la moyenne sont presque confondues tandis que la courbe des tauxbruts Hoem est au-dessus de ces-dernières. De plus, le test de normalité des résidus est positif et les hypo-thèses nécessaires à l’interprétation des résultats sont validées. Il semblerait donc que le lissage permette

78

Page 80: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 37 – Taux de Hoem lissés par simulation des résidus

de réduire les provisions mathématiques en modélisant une mortalité plus faible.

Notons qu’il peut être dangereux de prendre pour vraie une méthode qui minimiserait la mortalité,mais dans ce cas nous sommes confortés par la grande robustesse des résultats étant donné leur faibledispersion. Le fait que la table de référence avait des taux de mortalité supérieurs à ceux de Hoem contri-bue aussi à attribuer la faiblesse des taux lissés aux proriétés du lissage et pas à la référence externe. Parcontre, il semblerait que la référence externe joue un rôle dans la forme de la courbe et, compte tenu desniveaux plus bas de la courbe des taux Hoem par rapport à la TD 88-90, les taux lissés finissent plusbas. Cette méthode de lissage donne donc des résultants probants si on l’applique aux taux bruts Hoem ;voyons maintenant s’il en est de même pour les taux Kaplan Meier.

FIGURE 38 – Taux de Hoem lissés par simulation des résidus

79

Page 81: Caroline Mazziotto - ressources-actuarielles.net

Si l’on retrouve la même stabilité de la distribution que dans le cas précédent et la normalité des rési-dus, les résultats sont ici plus mitigés dans la mesure où les taux bruts sont successivement inférieurs puissupérieurs aux taux ajustés. Il semblerait que l’hypothèse que nous avons conjecturée selon laquelle celissage retranscrirait la forme de la table de référence en l’adaptant aux données brutes semble correcte :la courbe lissée a la même allure que plus haut et est assez éloignée des taux Kaplan Meier. Il paraîtdifficile de se prononcer sur l’impact de ce lissage en termes de provisions mathématiques puisque lacourbe des taux bruts croise celle des taux ajustés. Pour conclure quant aux effets de ce lissage, nousprésentons ci-dessous les provisions mathématiques.

PM Taux Hoem PM Taux KMTaux brut 28.990.919 26.779.834

5% 28.640.495 26.867.20050% 29.137.830 27.586.202

Moyenne 29.137.892 27.575.59395% 29.624.790 28.21.092

Contrairement à ce que l’on pensait, les provisions mathématiques issues du lissage sont plus élevéesque celles associées aux taux bruts. Ce résultat, contre intuitif compte tenu de ce que nous observonsgraphiquement, révèle une caractéristique importante sur la nature du portefeuille étudié : l’expositionest moins élevée sur les âges pour lesquels la courbe lissée est en dessous de la courbe des taux bruts.Ainsi l’exposition la plus importante doit être située vers la fin, puisque c’est sur ce segment que les tauxlissés sont supérieurs aux taux bruts, et cela paraît logique puisque les provisions sont calculées sur lesrentes décès. Le faible écart entre les différentes PM prolonge aussi au provisionnement la stabilité desrésultats évoquées lors de l’observation des courbes ci-dessus.

Enfin, si nous analysons l’écart entre les PM associées aux taux bruts et celles des taux lissés (quel’on retienne la moyenne ou la médiane), nous pourrons remarquer qu’il est plus faible pour les taux deHoem que pour ceux de Kaplan Meier. Evalué à moins de 150 000 euros pour les taux Hoem, il s’élèveà quasiment 800 000 euros pour les taux de Kaplan Meier ce qui nous conduit à dire que les taux KaplanMeier sous estiment la mortalité de la population comme en témoigne la correction opérée par ce lissage.

Conclusion Le lissage relationnel mis en oeuvre est donc plus adapté aux taux de Hoem dont la formeressemble à celle de la table de référence contrairement aux taux Kaplan Meier pour lesquels la différenceest plus importante. Ce phénomène se traduit dans les provisions mathématiques par l’écart constaté entrele montant associé aux taux bruts et celui associé aux taux ajustés (moyenne ou médiane de la distribu-tion). Toutefois, ce lissage ne boulevèrse pas la donne puisque les courbes restent proches les unes desautres et ce, que l’on compare les taux bruts avec la moyenne des taux ajustés ou les différents quantilesde la distribution.

4.2.3 Lissage par simulation directe des taux bruts de Hoem

Ce type de lissage ne peut être employé qu’avec les taux bruts issus de l’estimateur de Hoem. Nousprésenterons dans cette partie la théorie sur laquelle il est bâti avant de l’appliquer aux taux bruts et d’en

80

Page 82: Caroline Mazziotto - ressources-actuarielles.net

analyser les résultats ainsi que l’impact sur les provisions mathématiques.

Théorie La procédure suit la même démarche que la méthode précédente et consiste en trois étapes.∀k∈[1;K] où K est le nombre total de simulations, on calcule :

1. ∀x ∈ [xm;xM] où xm et xM sont les âges entre lesquels on considère la suite des taux qx, on tiren = xM − xm + 1 taux bruts qk

x. Pour cela, on utilise le fait que la variable aléatoire régissant lesvaleurs des taux de mortalité bruts Qx est telle que :

Qx ∼ N(qx,qx(1−qx)

nx)

avec nx le nombre d’assurés ayant l’âge x.

2. On estime (θk = (θk1, θ

k2) par moindres carrées ordinaires avec la formule :

θk2 =

∑x=xm xM(logit(qkx)× logit(qre f

x ))−nlogit(qk)× logit(qre f )

∑x=xm xM(logit(qre fx )2)−nlogit(qre f )

2

et θk1 = logit(qk)− θ

k2× logit(qre f )

où logit(qk) =1n×

xM

∑x=xm

(logit(qkx))

et logit(qre f ) =1n×

xM

∑x=xm

(logit(qre fx ))

3. On en déduit la série des n taux lissés ainsi simulée :

qx(θk) =

exp(θk2logit(qre f

x )+ θk1)

1+ exp(θk2logit(qre f

x )+ θk1)

Si l’on répète ces trois étapes K fois on aura, pour chaque x, K valeurs qx(θk) représentant une

distribution de taux ajustés qx. On pourra alors en choisir un quantile ou la valeur moyenne poursymboliser les taux ajustés retenus pour calculer les provisions mathématiques.

Plus précisément nous sélectionnerons la moyenne de cette distribution en guise de taux ajustés"finaux" et l’on aura formellement :

∀x ∈ [xm;xM]qx(θ) =1K ∑

k=1K(qx(θ

k))

81

Page 83: Caroline Mazziotto - ressources-actuarielles.net

Application La démarche adoptée est la même que dans le paragraphe précédent : nous tirons deséchantillons de taille 1 000 pour obtenir des résultats robustes et, cette méthode de lissage étant éga-lement un modèle relationnel, nous utilisons comme référence externe la table TD 88-90. Les calculsporteront sur les taux de Hoem raccordés entre 50 et 105 ans afin d’avoir deux tables de mortalité demême forme dans le modèle comme nous l’expliquions avant. Enfin, cette méthode n’étant pas adaptéeaux taux Kaplan Meier, nous ne travaillerons que sur les taux de Hoem pour lesquels nous présenteronsles mêmes choix que précédemment en termes de taux ajustés "finaux" : la moyenne et les quantiles à5%,50% et 95% de la distribution des taux ajustés obtenus.

FIGURE 39 – Taux Hoem ajustés obtenus

On constate d’emblée que ce lissage est très proche de la simulation des résidus présentée avant dansla mesure où les courbes du graphiques ont exactement la même allure. Toutefois, il semblerait que le lis-sage soit ici un peu plus fort puisque la courbe des taux bruts est plus éloignée des taux ajustés (moyenneou médiane) lors des segments où elle est au-dessus. Enfin, nous pouvons relever la grande stabilité de ladistribution des taux ajustés avec un très faible écart entre les quantiles à 5% et à 95%.

Etudions maintenant le caractère économe d’un tel lissage qui semble minorer la mortalité avec sta-bilité et impliquer un moindre montant à provisionner.

Taux Hoem résidus Taux KM résidus Taux Hoem directeTaux brut 28.990.919 26.779.834 28.990.918

5% 28.640.495 26.867.200 28.639.10950% 29.137.830 27.586.202 29.121.031

Moyenne 29.137.892 27.575.593 29.123.04495% 29.624.790 28.21.092 29.601.539

Comme dans le cas précédent, la profil du portefeuille des assurés ne confirme pas en termes financier

82

Page 84: Caroline Mazziotto - ressources-actuarielles.net

l’intuition que l’on avait en regardant les courbes puisque les provisions sont plus importantes pour lestaux lissés que pour les taux bruts. En revanche, ce lissage fait économiser environ 15 000 euros par rap-port à la méthode précédente et est financièrement plus stable que la méthode de simulation des résidusdans la mesure où l’écart entre le PM associées aux quantile à 5% et à 95% est plus faible dans ce cas là.

Conclusion Le lissage par simulation directe des taux bruts de Hoem semble donc plus efficace enterme de robustesse et de provisionnement en dépit d’un nombre plus important d’étapes que dans le casde la simulation des résidus. On peut donc affirmer que cette méthode est optimale au sein de la familledes modélisations relationnelles pour le lissage de taux de Hoem. Hélas, sa principale limite est que l’onne peut pas l’employer pour les taux bruts de Kaplan Meier.

4.2.4 Conclusion sur les modélisations relationnelles

Qualitativement, ces méthodes de lissages alternatives se caractérisent par un grande stabilité qu’onles applique aux taux bruts de Hoem ou de Kaplan Meier. De plus, elles ne sont pas dépendantes deparamètres si ce n’est d’une table de référence, et peuvent être mises en oeuvre très simplement. Enfin,leur principe de fonctionnement basé sur la simulation permet de rendre compte de la stabilité et de larobustesse mais aussi d’avoir un encadrement des taux ajustés médians en considérant par exemple lesquantiles à 5% et à 95% des 1 000 taux ajustés construits.

Les résultats obtenus montrent aussi que les taux lissés par ces méthodes ont une allure similaire àla courbe de référence mais, si les lissages présentent les mêmes dynamiques, ils dépendent de la sériedes taux brut pour ce qui est de leur niveau. En effet, les lissages ne permettent pas d’aboutir à des tauxajustés similaires selon que l’on a pris les taux de Hoem ou de Kaplan Meier au départ : le lissage destaux Kaplan Meier (moins élevés que ceux de Hoem) aboutira à des valeurs moins élevées que celui destaux de Hoem. Ce dernier point n’est pas un inconvénient puisqu’il caractérise la finesse du lissage maisil rend d’autant plus important le choix de l’estimateur des taux bruts.

Pour conclure, nous remarquerons que la structure du portefeuille des assurés et le type de rentes àprovisionner influencent grandement les PM et peut même aboutir à contredire les impressions que l’onavait au niveau des courbes.

4.3 Conclusion sur la méthode alternative

Si l’objectif de cette partie était de trouver une méthode alternative à la démarche de PRO BTP consis-tant à lisser les taux bruts de Kaplan Meier par la méthode de Whittaker, nous avons eu l’occasion dedévelopper et de passer en revue un certain nombre de méthodes fournissant des résultats intéressantsmême si nous n’allons pas les retenir dans le cadre de la démarche optimale. En effet, nous avons eul’occasion d’étudier l’influence du choix des taux bruts et de voir en quoi ces-derniers déterminaient le

83

Page 85: Caroline Mazziotto - ressources-actuarielles.net

plus clairement le niveau des montants à provisionner : les lissages modifient quelques peu les valeursde ces montants mais ne les bouleversent pas non plus. Mais au-delà du simple montant des provisionsmathématiques le choix d’une méthode plutôt qu’une autre dépend d’un critère plus qualitatif.

Par exemple les taux bruts de Kaplan Meier se sont avérés nettement plus faibles que les taux deHoem mais ils étaient très difficiles à encadrer, les intervalles de confiance étant extrêmement proches etles bandes de confiance impossible à estimer (en raison d’une fonction gamma trop faible). A l’inverse,les taux de Hoem semblaient surestimer la mortalité et conduire à des montants plus importants, mais ilsprésentaient une structure plus facile à encadrer avec des intervalles de confiance suffisamment éloignésde la série centrale pour qu’ils puissent avoir du sens. Finalement, on pourrait conseiller à quelqu’untrès averse au risque de porter son choix sur les taux de Hoem, moins efficaces, mais dont les variationspeuvent être encadrées. Bien sûr, on pourrait nuancer ce propos en expliquant que l’écart entre ces deuxméthodes en termes de PM est de plus de 2 millions d’euros et que s’il est si grand c’est que les taux KMsont plus adaptés à notre portefeuille.

Quoiqu’il en soit, cette étude a permis de mettre en lumière ces deux types d’estimateurs de mortalitéafin de faire un choix en connaissance de cause.

Le choix de la méthode de lissage est également délicat puisque le nombre de méthodes est assezgrand et que chacune possède des avantages. On pourra recommander dans le cadre de cette étude dechoisir son lissage en fonction des caractéristiques qu’il présente et pas en fonction du montant en PMqu’il engendre dans la mesure où l’on a pu montrer que le choix de l’estimation des taux bruts était plusdéterminant pour ce point. Ainsi, après avoir développé la méthode de Whittaker Henderson et de sesvariantes, nous avons pu en évaluer les avantages à la lumière des caractéristiques des autres lissages.Il a ainsi été possible de voir que l’aspect le plus délicat pour le lissage de Whittaker est la calibrationde ses paramètres z et h, problème qui n’est pas résolu lorsque l’on présente les variantes basées sur lechangement de norme ou de polynôme. Cet handicap est d’autant plus évident que l’on a pu présenterdes modèles de construction de taux ajustés dont le seul élément à préciser était la table de référenceexterne.

La simulation des résidus permet d’obtenir une distribution des taux ajustés et de construire les tauxajustés "finaux" avec des quantiles de cette distribution ou avec la moyenne. L’avantage de disposer d’unedistribution des taux ajustés possibles pour chaque âge est de pouvoir encadrer les taux lissés et avoir unereprésentation de la plage des valeurs possibles pour les provisions mathématiques. Plus restrictive, laméthode de simulation directe des taux bruts de Hoem ne s’applique pas aux taux Kaplan Meier maisprésente les mêmes caractéristiques que la simulation des résidus. Ces deux dernières techniques présen-tant en plus des qualités de stabilité, on pourra recommander l’utilisation des modélisations relationnellespour le lissage de taux bruts. Plus stables, plus ergonomiques (un seul paramètre) et plus détaillées (pos-sibilité de faire des encadrements), ces méthodes de lissage permettent de mieux maîtriser le lissage destaux de mortalité même si les niveaux de montant à immobiliser peuvent être plus élevés que dans lecadre du lissage de Whittaker (pour les paramètres que nous avons employés). Plus particulièrement,on pourra utiliser le lissage par simulation directe, optimale pour les taux de Hoem dans le cas où ces-derniers auraient été choisis pour la construction des taux bruts.

84

Page 86: Caroline Mazziotto - ressources-actuarielles.net

Conclusion

La démarche qui a été la notre dans ce mémoire a été de profiter de l’opportunité que nous donnaitPRO BTP de réaliser une étude sur l’erreur de table commise lors de la construction de taux de mor-talité pour présenter quelques unes des méthodes de constructions de taux bruts et de lissage. Au-delàde la demande initiale de nos encadrants qui envisageaient de mettre en place un lissage de WhittakerHenderson sur taux bruts de Kaplan Meier, nous avons décidé de présenter d’autres exemples de solution.

Pour cela, nous avons consulté la littérature qui recense les méthodes les plus populaires, mais nousnous sommes également penchés sur des techniques plus nouvelles ou en tout cas moins répandues. Aussiavons-nous pu trouver différentes alternatives au lissage de Whittaker dans les lignes directrices de mor-talité (validées par l’Institut des Actuaires), ou encore des papiers de recherche portant sur les lissagespar simulation à partir de modèles de Brass. Bien que l’objectif final était de travailler sur les données dePRO BTP nous avons choisi de profiter de ce travail pour étudier ces différentes méthodes et passer enrevue l’influence de leurs paramètres, leurs modalités d’utilisation, ou encore la forme de leurs résultats.

Nous avons donc implémenté ces différentes techniques pour en constater les effets sur nos donnéesd’une part, et pouvoir les combiner d’autre part. Par exemple, nous avons programmé une méthode per-mettant d’obtenir une variante du lissage de Whittaker en changeant le polynôme de référence en mêmetemps que la norme, le type de distance employé. La construction des différentes combinaisons possibleset la présentation de leurs résultats en faisant varier les paramètres classiques (h et z) nous ont permis dedécouvrir quelles étaient les formules les plus efficaces et quelles fonctionnalités n’allaient pas ensemble.

Parfois, nous ne pouvions pas faire fonctionner une combinaison sur un certain type de données (po-lynôme de Lowrie et norme valeur absolue sur taux bruts raccordés par exemple) et les algorithmes misen place pour résoudre ces problèmes d’optimisation, dont la particularité est de ne pas avoir de solutionanalytique connue, ne convergeaient pas. Dans ce cas-là, nous éliminions cette alternative du champ deméthodes que PRO BTP pourrait utiliser pour construire ses tables de mortalité mais il demeurait inté-ressant de voir que ladite méthode nécessitait une plus grande puissance de calcul que celle dont nousdisposions. D’ailleurs une manière d’aller plus loin serait de voir comment nous pourrions modifier lesproblèmes d’optimisation ou les algorithmes pour qu’ils convergent et que leur vitesse de résolution soitplus rapide.Les méthodes de lissage proposées par les travaux de recherche de cabinets de conseil en actuariat onquant à eux été plus facile à implémenter dans la mesure où les problèmes avaient des solutions analy-tiques. Les résultats obtenus nous ont permis d’étoffer le panel de solutions que nous pouvions étudierpour le lissage des taux bruts par exemple et d’en découvrir les avantages et les inconvénients.

Enfin, l’application de ces différentes techniques souvent issues de travaux théoriques ont pu êtrereplacées dans un cadre concret à l’occasion du calcul des montants à provisionner que leur utilisationengendrait. PRO BTP nous a en effet donné l’occasion d’utiliser leurs outils de calcul pour intégrer cettereprésentation dans nos analyses et pouvoir statuer quant à l’efficacité de nos méthodes dans la pratique.

Finalement, cette étude nous aura permis de découvrir divers modèles liés à l’estimation de la morta-lité dans le contexte professionnel des problématiques de PRO BTP. Nous aurons aussi eu la chance dedécouvrir l’implémentation et le fonctionnement de théories académiques dans un contexte concret.

85

Page 87: Caroline Mazziotto - ressources-actuarielles.net

Références

[1] Kamega A., Planchet F., Mesure du risque d’estimation associé à une table d’expérience, Les cahiersde recherche de l’ISFA, WP2136 - 2010

[2] Planchet F., Thérond P., Modèles de Durée - Applications actuarielles, Economica - 2010

[3] Delwarde A., Denuit M., Construction de tables de mortalité périodiques et prospectives, Economica- 2006

[4] Klein J. P., Moeschberger M. L., Survival Analysis - Techniques for Censored and Truncated Data,Springer, 2nd edition - 2005

[5] Brass W., On the scale of mortality, Biological Aspects of Demography (W. Brass ed.), London,Taylor and Francis Ltd, pp 69-110 - 1971

[6] Sauvet C., Solvency II : quelle modélisation stochastique des provisions techniques prévoyance etnon-vie ?, Mémoire ISFA 2006 - 2006

[7] Institut des Actuaires (Commission d’Agrément), Lignes directrices mortalité - Version Approuvée,Institut des Actuaires - 2006

[8] Optimind, Les tables de mortalité, Les dossiers techniques d’information Optimind, Société Opti-mind - 2007

[9] Optimind, Solvabilité II : la mobilisation générale du marché, Les dossiers techniques d’informationOptimind, Société Optimind - 2011

[10] Kaplan, E. L., Meier, P., Nonparametric Estimation from Incomplete Observations, Journal of theAmerican Statistical Association, Vol. 53, No. 282 (Jun., 1958), pp. 457-481 - 1958

[11] Le Vallois, F., Réglementation prudentielle des assurances, cours ENSAE ParisTech - 2012

[12] Devineau, L., Actuariat de l’assurance vie, cours ENSAE ParisTech -2012

86

Page 88: Caroline Mazziotto - ressources-actuarielles.net

5 Annexe

FIGURE 40 – Taux de mortalité Kaplan Meier

FIGURE 41 – Lissage de Whittaker, z = 2

FIGURE 42 – Lissage de Whittaker, z = 3

87

Page 89: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 43 – Lissage de Whittaker, norme valeur absolue, z = 3

FIGURE 44 – Lissage de Whittaker, norme valeur absolue, z = 4

FIGURE 45 – Lissage avec le polynôme de Lowrie, z = 4

88

Page 90: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 46 – Lissage avec le polynôme de Lowrie, norme hybride, z = 3

FIGURE 47 – Lissage avec le polynôme de Lowrie, norme hybride, z = 4

FIGURE 48 – Lissage de Whittaker, z = 3

89

Page 91: Caroline Mazziotto - ressources-actuarielles.net

FIGURE 49 – Lissage avec le polynôme de Lowrie, z = 3

FIGURE 50 – Lissage avec le polynôme de Lowrie, z = 4

90

Page 92: Caroline Mazziotto - ressources-actuarielles.net

Complements au memoire

d’actuariat

Modelisation de l’erreur de tableCaroline Mazziotto, Eric Joly-Pottuz

ENSAE 3A, 2011-2012

Table des matieres

1 Introduction 2

2 Definition du contrat associe a la table d’etude 2

3 Justification du choix des modeles 33.1 Estimation des taux annuels bruts de deces . . . . . . . . . . 43.2 Lissage des taux annuels de deces . . . . . . . . . . . . . . . . 43.3 Pourquoi un modele Lee-Carter classique ne pourrait-il pas

convenir a nos donnees ? . . . . . . . . . . . . . . . . . . . . . 6

4 Methode de calcul des provisions mathematiques 74.1 Sous Solvabilite I : . . . . . . . . . . . . . . . . . . . . . . . . 74.2 Sous Solvabilite II . . . . . . . . . . . . . . . . . . . . . . . . 9

1

Page 93: Caroline Mazziotto - ressources-actuarielles.net

1 Introduction

Suite a notre soutenance de memoire, le jury de l’Institut des Actuairesnous a demande de preciser les points suivants :

– definir le contrat associe a la table d’etude ;– justifier le choix des modeles etudies ;– decrire la methode de calcul des provisions mathematiques ; dans les

cadres de Solvabilite I, puis de Solvabilite II.

2 Definition du contrat associe a la table d’etude

La table d’experience TDBTP Ouvriers, sur laquelle nous nous penchonsdans notre etude est utilisee dans le calcul des provisions des Frais Obsequesassures par SAF BTP VIE.

Le produit Frais Obseques est propose depuis 1990 par PRO BTP. Ils’agit d’un produit de type Vie Entiere qui prevoit le versement d’un capitalau deces de l’assure. Il est donc regi par le code des assurances et releve dela branche 20 (vie-deces) de l’article R. 321-1. La souscription est ouverteaux actifs et retraites du BTP ages entre 50 et 75 ans sans questionnairemedical. Pendant les six mois qui suivent la souscription, en cas de sinistre,le contrat prevoit le remboursement des primes versees.

Finalement, dans ce contrat, interviennent au maximum quatre per-sonnes physiques ou morales :

– l’assure ;– le souscripteur, c’est-a-dire celui qui a signe le contrat et qui s’engage

a payer les cotisations. Ce peut etre l’assure ou une autre personne ;– le ou les beneficiaires du contrat ;– la SAF BTP VIE, c’est-a-dire la societe d’assurance qui s’engage par

ce contrat.

Le contrat Frais d’Obseques garantit aux beneficiaires le versement ducapital indique aux conditions particulieres au moment :

– du deces de l’assure lorsque le contrat est souscrit selon l’option ”In-dividuel”;

– du premier deces survenant dans le couple assure lorsque le contratest souscrit selon l’option ”Couple au 1er deces”;

– du second deces survenant dans le couple assure lorsque le contrat estsouscrit selon l’option ”Couple au 2eme deces”.

De plus, trois generations de contrat sont a distinguer, comme le montrele tableau ci apres. Notre etude ne porte que sur la troisieme generation

2

Page 94: Caroline Mazziotto - ressources-actuarielles.net

(puisque cette generation utilise la table TDBTP).

Figure 1 – Trois generations de contrats Frais d’Obseques

Description des garanties Les contrats prevoient le paiement d’un ca-pital dans la limite de 7.500 euros (valeur a la souscription) au deces del’assure (couverture individuelle) ou au premier ou au dernier deces au seind’un couple (couverture couple).

L’essentiel des risques couverts (73% au 31.12.2011) concerne des capi-taux d’un montant inferieur ou egal a 3 000 euros (valeur a la souscription).Le montant de la cotisation est determine en fonction de l’age a l’adhesion.Pour les contrats de la troisieme generation (souscriptions posterieures a1998), cotisations et prestations sont revalorisees annuellement dans le res-pect de l’equilibre du contrat. Lors de cet examen annuel, il est notammenttenu compte de l’inflation (indice INSEE des prix a la consommation horstabac pour l’ensemble des menages).

3 Justification du choix des modeles

Le travail propose par PRO BTP s’est organise autour de deux proble-matiques : l’estimation des taux bruts de mortalite d’une part, et l’etude del’impact qu’aurait un lissage des donnees d’autre part.

3

Page 95: Caroline Mazziotto - ressources-actuarielles.net

3.1 Estimation des taux annuels bruts de deces

Une estimation des taux annuels bruts de deces consiste a evaluer lesprobabilites de deces qx pour les differents ages x de la vie, a partir desdonnees relevees au cours de la periode d’observation. Pour ce faire, il estnecessaire de connaıtre le nombre d’individus en vie a l’age x, et le nombred’individus decedes pendant leur x+1eme annee. Il est de plus suppose que,sur l’intervalle d’age [x;x + 1] tous les deces sont independants et que laprobabilite de deces est identique quel que soit l’individu. Toute la difficultereside alors dans la presence de donnees tronquees ou censurees qui sont lieesa une observation partielle et qui necessitent des methodes particulieres d’es-timation, comme la methode de Kaplan-Meier (1958).

Plus precisement, trois types de donnees peuvent etre definis pour l’es-timation des taux bruts :

– Une donnee complete : l’individu atteint l’age x apres le debut de laperiode d’observation ; il est decede ou fete son x+ 1eme anniversaireavant la fin de la periode d’observation ;

– Une donnee tronquee a gauche : l’individu a deja entame sa x+ 1emeannee au debut de la periode d’observation ;

– Une donnee censuree a droite : la date du x + 1eme anniversaire del’individu n’est pas observable ;

Dans le cadre de l’utilisation de la table TDBTP Ouvriers, PRO BTPutilise l’estimateur de Kaplan-Meier, qui permet de rendre compte del’etat du participant :

– L’assure est vivant– L’assure est censure– L’assure est decede

La fonction de survie Kaplan-Meier presente l’avantage de ne pas formulerd’hypothese a priori sur la representation des deces sur [x,x+1].

Comme notre travail consistait a evaluer les outils de PRO BTP puis aproposer une autre methode nous avons cherche une alternative a l’esti-mateur de Kaplan Meier pour la construction des taux bruts. Les taux deHoem etant tres largement utilises et presentant des hypotheses differentesde celles faites pour Kaplan Meier (on suppose une loi de distribution des de-ces), leur utilisation nous a semble pertinente dans le cadre d’une approchecomplementaire.

3.2 Lissage des taux annuels de deces

Les taux annuels de deces presentent en general des irregularites en rap-port avec les fluctuations de l’echantillonnage. Il est donc necessaire de lisser

4

Page 96: Caroline Mazziotto - ressources-actuarielles.net

ces taux afin d’obtenir une courbe de mortalite qui progresse graduellementavec l’age. Il existe differentes techniques qui peuvent faire aussi l’objet d’uneutilisation conjointe :

– les modeles parametriques– les lissages parametriques– les lissages non parametriques– les modeles relationnels.

Les modelisations parametriques ou relationnelles sont a privilegier dansle cas de petits echantillons. Elles permettent theoriquement d’extrapolerfacilement l’estimation des taux de mortalite a des ages sans observationsou qui n’ont pas participe a l’ajustement par manque d’informations suffi-santes. Les methodes de lissage sont, elles, plutot indiquees dans le cas dedonnees importantes. Elles restent assez proches des taux bruts mais ne sontpas adaptees pour etre employees en dehors de la plage d’estimation.

Dans la pratique, il est preferable d’effectuer plusieurs essais de sorte achoisir la methode qui represente le mieux la mortalite du groupe observe, ens’appuyant sur differents criteres de decision. Nous developpons ici une me-thode de lissage non-parametrique, celle de Whittaker-Henderson, dansla mesure ou il s’agit de celle employee par PRO BTP. Nous pre-sentons ensuite les modeles relationnels, qui nous servent dans la partie denotre expose destinee a presenter une methode alternative (a la methodeKaplan-Meier) de lissage des taux bruts.

Lissages non parametriques Le principe consiste a substituer aux don-nees brutes des valeurs lissees, en supposant que la mortalite du groupeetudie est plutot reguliere, sans qu’aucune loi sous-jacente n’intervienne.Les methodes les plus courantes sont celles des moyennes mobiles pondereeset de Wittaker-Henderson.

Modeles relationnels Il s’agit de rapprocher les taux de mortalite brutsde ceux issus d’une table connue, construite a partir d’une population ayantdes caracteristiques similaires et de transformer cette table de reference pouraboutir a celle du groupe vise. Les modeles de Cox (1972), de Brass (1971)et de Hanerz (2001) constituent les modeles de reference. Ils peuvent etreutilises separement ou combines dans le cadre de modeles additifs generalises.Le modele de Brass met par exemple en jeu les deux equations suivantes :

logit(tq0) = α+ βlogit(tqref0 )

avec logit(x) = ln(x

1 − x)

5

Page 97: Caroline Mazziotto - ressources-actuarielles.net

Bien que l’utilisation d’autres modeles relationnels soit possible pour lasolution alternative, nous mettons en oeuvre un lissage de Brass pourdeux raisons. La premiere est qu’elle permet d’objectiver l’emploi du lissagede Whittaker-Henderson faisant partie d’une famille differente. La secondeest que cela etait l’occasion de mettre en pratique un document de rechercherecent (2010) qui paraissait bien s’appliquer a notre demarche (adaptable aune etude parallele des taux Hoem et Kaplan Meier), et de voir quels enetaient les resultats sur les donnees PRO BTP. Ce dernier aspect nous ad’autant plus encourage dans cette voie que les consignes de l’Institut desActuaires precisent qu’un memoire peut avoir un objectif ”descriptif avec uneetude statistique”. Enfin, apres des tests sur sa mise en oeuvre, les resultatsnous ont semble concluants, si bien que nous l’avons retenue.

3.3 Pourquoi un modele Lee-Carter classique ne pourrait-ilpas convenir a nos donnees ?

Dans le modele Lee-Carter, la mortalite est decomposee en deux ele-ments, l’un propre a l’age et l’autre tendanciel. L’objectif est de projeter lacomposante relative au temps, en extrapolant dans le futur les tendancespassees, sans tenir compte de l’evolution presumee de la mortalite au regardd’experts (comme les progres de la medecine, l’apparition de nouvelles ma-ladies, l’evolution du style de vie . . .).

Le taux instantane de mortalite est decrit par un modele log-bilineaire :

lnµx(t) = αt + βtκt + εxt

sous les contraintes d’identifiabilite :

xmax∑x=xmin

βx = 1 ettmax∑t=tmin

κx = 0

ou :– (εxt) represente les erreurs d’ajustement et sont des variables indepen-

dantes et identiquement distribuees suivant la loi normale N ( 0 ; σ2 ),ce qui implique l’hypothese d’homoscedasticite ;

– αt decrit le comportement moyen des taux instantanes de mortaliteau cours du temps (sur une echelle logarithmique) ;

– βx decrit l’ecart entre des taux instantanes de mortalite et le compor-tement moyen ;

– κt decrit l’evolution de la mortalite au cours du temps.

6

Page 98: Caroline Mazziotto - ressources-actuarielles.net

L’estimation des parametres s’effectue par la methode des moindres car-res (non lineaire) et porte sur α, β et κ comme le montre le programme :

(αt, βx, κt) = argminαt,βt,κt

xmax∑x=xmin

tmax∑t=tmin

(ln µx(t) − αt − βtκt)2

Une fois que la serie temporelle (κt) est modelisee il est possible d’emettredes previsions sur l’evolution future de la mortalite (grace a la theorie desseries chronologiques).

Ce modele est employe dans la construction de tables de mortalite pros-pectives, ou l’on tient non seulement compte de l’age des individus maisaussi du temps (d’ou le caractere bidimensionnel). Les donnees disponiblesdoivent donc etre plus detaillees : il est necessaire de connaıtre le taux de de-ces observes parmi les assures pour differents ages et pour differentes annees(ou suivant differentes generations), historique dont PRO BTP ne disposepas.

Nous ne l’avons pas non plus retenu pour l’etape de construction destaux bruts car il s’agissait d’objectiver les resultats Kaplan Meier en propo-sant une methode comparable, basee sur les memes donnees, ce qui n’est pasle cas du modele de Lee Carter qui prend en compte un historique des tauxbruts comme nous le disions plus haut. Une autre raison est que le risquesuivi est la mortalite et non pas la longevite. Notre sujet consistait en effet aetudier l’erreur de tables d’experience, qui est le type de table actuellementutilise par PRO BTP.

4 Methode de calcul des provisions mathematiques

4.1 Sous Solvabilite I :

Le calcul des provisions mathematiques s’inscrit dans la demarche pro-posee par Solvabilite I qui consiste en une appreciation du risque fondee surtrois piliers :

1. Les provisions techniques doivent etre suffisantes et calculees a partirdes parametres reglementaires

2. Les placements doivent etre surs, liquides et rentables

3. La situation nette constitue une marge de solvabilite intervenant encas de phenomene extreme.

Le caractere prudent specifie par la reglementation signifie que les pro-visions doivent etre suffisantes pour le reglement integral des engagements.

7

Page 99: Caroline Mazziotto - ressources-actuarielles.net

Elle sont donc superieures au montant necessaire pour faire face aux en-gagements (caractere prudent) ainsi qu’au montant probable. Cet aspect”probable” des provisions techniques n’est pas une appellation officielle maispermet de rendre compte de la methode d’evaluation qui consiste en le calculd’esperances et de valeurs actuelles probables (ponderation des flux par desprobabilites d’occurrence et par un taux d’actualisation).

Formellement les provisions mathematiques sont la difference entre lavaleur actuelle probable des engagements pris par l’assureur et celle prisepar l’assure :

PM = V APAssureur − V APAssure

Comme nous l’avons introduit, le calcul de la V AP sous-entend l’utilisa-tion de probabilites de survie dans le cadre des frais obseques et d’un tauxd’actualisation.

Pour ce qui est de l’evaluation de la mortalite, Solvabilite I permet auxsocietes d’assurance d’utiliser leur propres tables pourvu qu’elles aient eteconstruites selon une demarche prudente, c’est-a-dire en surestimant le tauxde survie ou de mortalite.

Concernant le taux d’actualisation, sa methode de construction est baseesur des principes et des regles que nous presentons maintenant. Le tauxd’actualisation utilise lors du provisionnement ne doit pas etre superieur acelui pris en compte lors de la tarification ; de plus ce dernier ne doit pasetre trop eleve pour eviter toute surevaluation de la prime pure. Le tauxd’actualisation une fois pondere depend de la duree du contrat et se detacheen ces deux situations :

– Si la duree du contrat est inferieure a 8 ans, le taux retenu equivauta 75% du Taux Moyen d’emprunt d’Etat (TME) calcule sur une basesemestrielle.

– Si elle depasse 8 ans, on retient le minimum entre 3.5% et 60%TME.Notons que ces taux sont un maximum d’apres l’article A132-1 du Code

des assurances.

On peut aussi etre amene a adopter un nouveau taux pour tenir comptede l’alea financier et recalculer alors de nouvelles provisions. Il y a en effetun risque qu’en cas de changement de la situation financiere, le taux d’ac-tualisation soit deconnecte de ce que rapporte le portefeuille des assures.La condition de calcul de ces nouvelles provisions et donc d’un nouveau tauxest la suivante :

80% ∗ tauxrdtactifs ≤ TMactualisation

8

Page 100: Caroline Mazziotto - ressources-actuarielles.net

Ou TMactualisation, le taux moyen d’actualisation, est la moyenne pondereedes taux d’actualisation et ou les poids sont les proportions representees parles PM.

On recalcule alors de nouvelle PM si cette condition est verifiee avec unnouveau taux plus prudent :

– Soit le taux d’actualisation des PM de l’ACP– Soit 60%TME a la date d’inventaire– Soit un taux prudent en fonction des actifs, c’est-a-dire 60%TME sauf

pour les obligations ou l’on prend leur rendement jusqu’a maturiteavec la possibilite de reinvestir les coupons a 75%TME.

La provision pour l’alea financier (PAF) a alors la forme :

PAF = PMtauxprudent − PMancientaux

Bien qu’on l’appelle provision, cette demarche consiste bien en un recal-cul des PM puisqu’on aura l’operation suivante au bilan :

PMancientaux+PAF = PMancientaux+PMtauxprudent−PMancientaux = PMtauxprudent

Il peut enfin etre necessaire de constituer une provision de gestion des-tinee a couvrir les charges de gestion future des contrats non couvertes pardes prelevements futurs. Elle est declenchee lorsque la somme actualisee descharges des contrats est differente de celle des produits. Dans les contratsvie, l’assureur doit verifier que les frais de gestion sont bien couverts par desproduits (prelevements annuels sur l’epargne ou prelevements sur le montantdes produits financiers). Il s’agit d’un calcul prospectif effectue par groupehomogene de contrats, c’est a dire que l’on projette une prevision des frais degestion puis une prevision des prelevements qui vont etre effectues. Sa me-thode de calcul est detaillee dans les articles A331-1 et suivants et consistesoit en un choix, laisse libre a l’assureur, entre deux methodes, soit en unemethode estimative qui necessite un accord de l’ACP.

4.2 Sous Solvabilite II

Dans le cadre de Solvabilite II, les provisions techniques sont definiescomme la valeur actualisee de la meilleure estimation a laquelle on ajouteune marge pour risque explicite.

On entend par meilleure estimation la moyenne ponderee par leur proba-bilite de realisation des flux futurs faisant reference a differents scenarioseconomiques. C’est donc dans le terme ”meilleure estimation” que l’on tient

9

Page 101: Caroline Mazziotto - ressources-actuarielles.net

compte du caractere ”probable” identifie dans le cas de Solvabilite I. Contrai-rement a Solvabilite I, ces flux incluent egalement les revalorisations futures.Notons aussi que Solvabilite II ne preconise pas ici l’emploi de probabilitesprudentes qui surestimeraient la mortalite par exemple, mais celui d’une me-sure objective. Finalement, dans le cadre de l’assurance vie notamment, lameilleure estimation des provisions techniques decoulera de simulations surles differents scenarios.

L’actualisation de la meilleure estimation se fait grace a un taux sans risquesur un horizon de temps approprie afin de se placer dans un monde risqueneutre. La commission preconise l’utilisation des taux d’obligations d’Etatsnotes AAA, publies quotidiennement par la Banque Centrale. Cependant,la construction de courbes de taux est une problematique importante pourles assureurs, surtout pour les horizons lointains pour lesquels on dispose depeu de donnees.

Enfin, la marge pour risque ajoutee a la meilleure estimation actualisee cor-respond au montant que peut esperer tirer l’acheteur de la gestion run-offdes portefeuilles cedes en cas d’insolvabilite. Ainsi, la valeur actuelle de lameilleure estimation augmentee de la marge pour risque (i.e. les provisionstechniques) correspond a la valeur de liquidation des passifs. Elle se calculecomme un cout d’usage du capital necessaire pour continuer l’activite. Ici,ce capital est le SCR pour les risques non couvrables (cf page 14/15 du me-moire) et le taux est 6% (equivalent a la probabilite de defaut d’un BBB),ce qui apres actualisation au taux sans risque donne :

MR =∑t

(6% ∗ SCRt

(1 + rt)t)

10