Mémoire présenté le : 04/07/2017 pour l’obtention du ... · 04/07/2017 pour l’obtention du...
Transcript of Mémoire présenté le : 04/07/2017 pour l’obtention du ... · 04/07/2017 pour l’obtention du...
Mémoire présenté le :
04/07/2017
pour l’obtention du Diplôme Universitaire d’actuariat de l’ISFA
et l’admission à l’Institut des Actuaires
Par : Ievgen SAVIN
Titre : Approche sur le risque dépendance pour apprécier
l’impact de l’évolution des lois sur le provisionnement « Best Estimate »
Confidentialité : NON OUI (Durée : 1 an 2 ans)
Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus.
Membres présents du jury de l’IA Signature Entreprise
M. Laurent ECKERT Nom : CNP Assurances
M. Frédéric PLANCHET Signature :
Membres présents du jury de l’ISFA Directeur de mémoire en entreprise
Mme. Anne EYRAUD- Nom : M. Cédric LAURANS
LOISEL Signature :
Invité
Nom :
Signature :
Autorisation de publication et de mise
en ligne sur un site de diffusion de
documents actuariels (après expiration
de l’éventuel délai de confidentialité)
Signature du responsable entreprise
Secrétariat : Signature du candidat
Mme Christine DRIGUZZI
Bibliothèque :
Mme Patricia BARTOLO
1
REMERCIEMENTS
En préambule à ce mémoire, je souhaite adresser ici tous mes remerciements aux
personnes qui m'ont apporté leur aide et qui ont ainsi contribué à l'élaboration de ce mémoire.
En particulier, je tiens à remercier Monsieur LAURANS, Responsable de Pôle
prévoyance collective, pour m’avoir accueilli et m’avoir fait confiance dans la réalisation de ce mémoire ainsi que pour sa patience et son temps consacré.
J’adresse également mes remerciements à Madame RANAIVOZANANY,
Responsable du Service Technique Prévoyance, pour l’écoute, le temps et l’expérience qu'elle
a bien voulu partager.
Je remercie fortement toute l’équipe Prévoyance Collective pour sa compréhension et
son aide remarquable dans la rédaction.
Enfin, j'adresse mes plus sincères remerciements à tous mes proches et amis qui m'ont
toujours soutenu et encouragé au cours de la réalisation de ce mémoire.
2
RESUME
Etant en forte croissance le risque de dépendance des personnes âgées présente des
enjeux importants pour les assureurs mais suscite aussi des discussions au sein des pouvoirs
publics français. Le caractère long de ce risque et son développement relativement récent
expliquent le fait que les données de sinistralité en dépendance ne fournissent pas
suffisamment de recul, en terme d’historique, pour effectuer des études très approfondies et
avancées.
Ce mémoire a pour but d’étudier les évolutions des lois en dépendance de façon
prospectives afin de mesurer leur impact sur la provision « Best Estimate » (BE). Cela
permettra aux assureurs d’apprécier de façon concrète les éventuelles erreurs d’estimation
qu’ils pourraient commettre en utilisant des lois non prospectives pour les besoins de
projection de BE.
Dans un premier temps, nous décrirons le risque dépendance et les donnée utilisées
pour le mémoire. Ensuite, nous allons introduire les aspects théoriques nécessaires pour la
construction de la loi d’incidence et la loi de maintien en dépendance. Ces méthodes seront
appliquées pour estimer les lois centrales d’incidence et de maintien avec les données de CNP
Assurances.
A la suite, nous présenterons la construction du modèle permettant l’évaluation du BE
et les impacts de chocs sur les lois centrales. La loi d’incidence sera retenue comme celle qui
a un impact le plus important sur l’indicateur BE en considérant la population retenue. Nous
allons étudier l’évolution de cette loi afin d’élaborer la loi d’incidence prospective.
Finalement, les impacts des lois prospectives sur la valorisation du BE seront
présentés et les résultats seront commentés.
Mot clés : dépendance, loi d’incidence, loi de maintien, « Best Estimate » (BE), lois
prospectives, modèle de Verhulst, Kaplan-Meier, Whittaker-Henderson, Makeham-Gompertz.
3
ABSTRACT
Being in high growth the risk of the Long term care (LTC) of the elderly presents
important issues for the insurers but also arouses discussions within the French public
authorities. The long character of this risk and its relatively recent development explain the
fact that the claims data in dependence do not provide sufficient backwardness in terms of
history to carry out very thorough and advanced studies.
The purpose of this thesis is to study the evolution of laws in dependence in a
prospective way in order to measure their impact on the "Best Estimate" (BE) provision. This
will allow insurers to assess in a concrete way any errors of estimation that they could commit
using non-prospective laws for the BE projection needs.
In a first step, we describe the risk LTC and the data used for this paper. Then we will
introduce the theoretical aspects necessary for the construction of the law of incidence and the
law of maintenance. These methods will be applied to estimate central incidence and
maintenance laws with data from CNP Assurances.
Next, we will present the construction of the model allowing the evaluation of the BE
and the impacts of shocks on the central laws. The law of incidence will be retained as the one
that has the greatest impact on the BE indicator by considering the selected population. We
will study the evolution of this law in order to develop the prospective incidence law.
Finally, the impact of the prospective laws on the evaluation of the BE will be
presented and the results will be commented on.
Keywords: Long term care insurance, law of incidence, law of maintenance, "Best
Estimate" (BE), prospective laws, model of Verhulst, Kaplan-Meier, Whittaker-Henderson,
Makeham-Gompertz.
4
TABLES DES MATIERES
REMERCIEMENTS ...................................................................................................... 1
RESUME ........................................................................................................................ 2
ABSTRACT ................................................................................................................... 3
INTRODUCTION .......................................................................................................... 6
Chapitre 1. Assurance dépendance ................................................................................. 8
C1.1. Présentation du risque dépendance ................................................................... 8
C1.1.1) Définition ................................................................................................... 8
C1.1.2) Mesures de dépendance ............................................................................. 8
C1.1.3) Problèmes actuels .................................................................................... 11
C1.2. Marché d’assurance dépendance .................................................................... 13
C1.2.1) Types de produits .................................................................................... 13
C1.2.2) Types de contrats ..................................................................................... 13
C1.2.3) Etat de marché ......................................................................................... 14
C1.3. Offre de CNP Assurances ............................................................................... 17
C1.3.1) Description des produits de dépendance ................................................. 17
C1.3.2) Présentation des données ......................................................................... 17
C1.3.3) Analyse descriptive des données ............................................................. 18
Chapitre 2. Quantification du risque dépendance ......................................................... 20
C2.1. Loi d’entrée en dépendance ............................................................................ 20
C2.1.1) La prise en compte de censure dans les modèles..................................... 20
C2.1.2) Estimateurs du taux brut d’incidence ...................................................... 22
C2.1.3) Méthodes de lissage non-paramétrique ................................................... 25
C2.1.4) Ajustement paramétrique : loi Makeham-Gompertz ............................... 27
C2.1.5) Validation de l’ajustement et de lissage .................................................. 29
C2.1.6) Taux d’incidence brute par sexe .............................................................. 33
C2.1.7) Taux d’incidence brute par type de dépendance ..................................... 34
C2.1.8) Ajustement du modèle de Makeham-Gompertz ...................................... 41
C2.1.9) Fermeture de la table d’incidence ............................................................ 42
C2.2. Loi de maintien en dépendance ...................................................................... 46
C2.2.1) Estimateur de Nelson-Aalen de fonction de hasard cumulé .................... 46
C2.2.2) Estimateur de Harrington-Fleming de la fonction de survie ................... 47
C2.2.3) Comparaison avec l’estimateur de Kaplan-Meier ................................... 47
C2.2.4) Interpolation de l’estimateur avec les Splines Cubiques ......................... 48
C2.2.5) Etude des passages entre les états ............................................................ 49
C2.2.6) Durée de maintien par l’âge d’entrée en dépendance .............................. 50
5
C2.2.7) Modélisation des fonctions de survie de maintien en dépendance .......... 51
C2.2.8) La loi centrale .......................................................................................... 52
Chapitre 3. Construction du modèle de Best Estimate (BE) ........................................ 53
C3.1. Modèle « Best Estimate » ............................................................................... 53
C3.1.1) Définition et maille de calcul du BE ....................................................... 53
C3.1.2) Projection des flux de trésorerie .............................................................. 53
C3.1.3) Actualisation des flux de trésorerie ......................................................... 55
C3.1.4) Techniques de calcul ............................................................................... 56
C3.2. Construction du modèle .................................................................................. 57
C3.2.1) Hypothèses et choix de modélisation ...................................................... 57
C3.2.2) Construction des projections ................................................................... 58
C3.2.3) Calcul du BE ............................................................................................ 64
C3.3. Etude de sensibilité de l’estimateur ................................................................ 66
C3.3.1) Choc sur la loi d’incidence ...................................................................... 66
C3.3.2) Choc sur la loi de maintien ...................................................................... 67
Chapitre 4. Loi d’incidence prospective ....................................................................... 69
C4.1. Les méthodes de prédiction ............................................................................ 69
C4.1.1) Approche par régression .......................................................................... 69
C4.1.2) Approche par les séries temporelles ........................................................ 69
C4.2. Evolution de la loi d’incidence ....................................................................... 70
C4.2.1) Construction de la chronique des lois ...................................................... 71
C4.2.2) Projection des lois .................................................................................... 73
Chapitre 5. L’impact de l’évolution de la loi d’incidence sur le BE ............................ 81
C5.1. Calcul du BE avec les lois d’incidence prospectives ...................................... 81
C5.2. Analyse des résultats ....................................................................................... 81
C5.3. Regard critique sur les données étudiées ........................................................ 84
CONCLUSION ............................................................................................................ 87
BIBLIOGRAPHIE ....................................................................................................... 89
ANNEXES ................................................................................................................... 90
A. Contrats d’assurance dépendance (FFSA 2015) ............................................. 90
6
INTRODUCTION
Il existe plusieurs règles pour calculer les provisions d’une compagnie d’assurance.
Dans le référentiel de calcul Solvabilité 2, entré en vigueur le 1er
janvier 2016, les provisions
ne sont plus calculées de manière prudentielle mais sur la base de la meilleure estimation
possible, dite « Best Estimate » (BE). Les provisions BE correspondent à l’actualisation de
tous les flux probables futurs et sont, en général, inférieures aux provisions calculées sur la
base prudente.
Ainsi, pour éviter un problème de sous-provisionnement, la construction des lois
permettant de déterminer le BE est primordiale. Cette problématique se présente
principalement sur les risques « mal connus » et donc difficilement modélisables ; c’est un
sujet d’actualité de la fonction actuarielle.
Parmi ces risques il en existe un, dont les engagements d’assureur sont très
conséquents. Cela implique que même des petites incertitudes dans les lois peuvent causer de
grandes variations des provisions. Le risque dont nous parlons est celui de la dépendance des
personnes âgées.
Malgré les études menées ces vingt dernières d’années, la fiabilité de la modélisation
des lois dépendance reste limitée. Ceci s’explique par l’insuffisance du volume des bases des
données concernées, due à un développement relativement récent de la commercialisation de
cette garantie et de son caractère de très long terme.
Par ailleurs, le vieillissement de la population lié en partie aux progrès médicaux
continus de ces dernières années provoque une évolution permanente du risque de perte
d’autonomie des personnes âgées.
Le but de ce mémoire est d’étudier l’impact de l’évolution des lois de dépendance sur
le BE construites sur la base de 3 portefeuilles de CNP Assurances. Le choix de cet indicateur
repose sur le fait que le calcul du BE, ou du moins sa variation intervient dans la
détermination du ratio de couverture d’une compagnie d’assurance. C’est un indicateur
important dans le cadre de la communication financière.
Les méthodes actuelles de détermination du BE utilisent des lois non prospectives.
Une fois estimées, les lois de dépendance seront appliquées pour chaque pas de projection.
Comme la dépendance est un risque long, nous aurons besoin de plusieurs dizaines d’années
de projection. Il est tout à fait logique de penser que durant ce temps les lois de dépendance
peuvent évoluer et ne seront plus celles d’aujourd’hui. L’objectif de cette étude est de
développer des lois prospectives et de mesurer l’impact sur le BE de ces dernières. Cela
permettra d’obtenir une idée sur l’erreur potentielle que nous commettons dans nos calculs.
Dans un premier temps, nous allons définir le risque dépendance, puis présenter la
situation actuelle du marché de l’assurance dépendance en France. Un zoom sera également
effectué sur les contrats de dépendance de CNP Assurances ayant servi pour ce mémoire.
La deuxième partie sera, pour sa part, consacrée à l’étude des lois d’entrée et de
maintien en dépendance.
Par la suite, nous décrirons les principes de construction du BE et mesurerons sa
valeur et les sensibilités de ce dernier aux stress sur les lois de dépendance.
Dans la quatrième partie, nous allons étudier l’évolution de la loi d’incidence dans le
temps et nous allons projeter cette loi sur les années suivantes.
7
Enfin, la cinquième partie présentera les écarts entre les BE obtenus dans les parties 3
et 4.
De même, dans ce mémoire, nous allons présenter une palette de méthodes et tests
statistiques qui peuvent servir pour des modélisations de ce type, leurs avantages et
inconvénients ainsi que leurs critères de choix. L’idée étant de les regrouper de manière
synthétique, dans un même ouvrage, afin d’aider et d’inspirer de futurs mémoires.
8
Chapitre 1. Assurance dépendance
C1.1. Présentation du risque dépendance
C1.1.1) Définition
La dépendance résulte de la combinaison de différentes situations : physiques,
psychologiques et sociales. Étant donné que ces situations sont souvent radicalement
différentes, il est difficile de définir de manière précise et unique le risque de dépendance.
Néanmoins, il existe une définition des professionnels de santé, qui résume de manière
compréhensible le sens de la dépendance [1] :
« Sont dépendantes les personnes adultes qui dépendent d’une autre pour les actes de
la vie quotidienne, que ce soit les actes élémentaires de la vie courante ou les tâches
domestiques.»
Il est important de préciser que l’âge d’entrée en dépendance est corrélé avec l’âge de
départ à la retraite, puisque avant cet âge les personnes sont considérées comme
«handicapées», et ce n’est qu’après la retraite qu’elles sont qualifiées de «dépendantes» ou
«en perte d’autonomie».
C1.1.2) Mesures de dépendance
Pour pouvoir correctement indemniser les personnes en état de dépendance il faut
définir les degrés de perte d’autonomie appropriés et savoir les mesurer.
En France il y a quelques indicateurs principaux : les grilles COLVEZ, EHPA, AVQ,
LAWTON et AGGIR. Ils prennent en compte les dimensions physiologiques et psychiques de
la dépendance en observant si la personne est capable ou non de réaliser les actes de la vie
quotidienne.
La dépendance peut être répartie en deux classes générales basées sur le degré de perte
d’autonomie des personnes concernées : totale pour les personnes les plus touchées et partielle
pour une dépendance moins importante.
La grille COLVEZ
Établie par le docteur COLVEZ, elle mesure la perte de mobilité. Elle définit 4
niveaux, grâce auxquels on pourra juger si la personne est dépendante partielle ou totale.
Niveau 1 personnes confinées au lit ou au fauteuil.
Niveau 2 personnes non confinées au lit ou au fauteuil, ayant besoin d’aide pour la toilette et
l’habillage.
Niveau 3 personnes ayant besoin d‘aide pour sortir de leur domicile ou de l’institution où elles sont
hébergées mais n’appartenant pas aux niveaux 1 et 2 Niveau 4 autres personnes
Tableau 1.1. Grille de COLVEZ
9
Les niveaux 1 et 2 correspondent à une dépendance lourde, le niveau 3 à une
dépendance modérée.
La grille EHPA (Etablissements d’Hébergement pour Personnes Agées)
Elle complète la grille de Colvez. On définit huit groupes EHPA :
EHPA 11 dépendance psychique et confinée au lit ou au fauteuil EHPA 12 dépendance psychique et besoin d'aide pour la toilette et l'habillage EHPA 13 dépendance psychique et besoin d'aide pour sortir du domicile ou de l'institution EHPA 14 dépendance psychique et pas de dépendance physique EHPA 21 peu ou pas de dépendance psychique et confiné au lit ou au fauteuil EHPA 22 peu ou pas de dépendance psychique et besoin d'aide pour la toilette et l'habillage
EHPA 23 peu ou pas de dépendance psychique et besoin d'aide pour sortir du domicile ou de
l'institution EHPA 24 peu ou pas de dépendance psychique et pas de dépendance physique
Tableau 1.2. Grille EHPA
Les groupes EHPA 11, 12, 21 et 22 correspondent ainsi aux deux premiers niveaux de
la grille Colvez (dépendance physique lourde).
La grille AVQ (Actes de la Vie Quotidienne)
Encore appelée l’indicateur de Katz, elle évalue 8 niveaux de dépendance selon six
activités de la vie quotidienne. Les six activités sont :
1) Faire sa toilette
2) S’habiller
3) Aller aux toilettes et les utiliser
4) Se coucher et quitter son lit, s’asseoir et quitter son siège
5) Contrôler ses selles et ses urines
6) Manger des aliments déjà préparés
Les huit groupes sont :
Niveau 1 Indépendant pour les six activités Niveau 2 Dépendant pour une seule activité Niveau 3 Dépendant pour deux activités dont la première Niveau 4 Dépendant pour trois activités dont les 2 premières Niveau 5 Dépendant pour quatre activités dont les 3 premières Niveau 6 Dépendant pour cinq activités dont les 4 premières Niveau 7 Dépendant pour les six activités
Niveau 8 Dépendant pour au moins deux activités sans être classable dans les catégories
précédentes Tableau 1.3. Grille AVQ
10
La grille AGGIR (Autonomie Gérontologique Groupe Iso-Ressources)
Elle est retenue depuis la loi du 24 janvier 1997 comme grille nationale d'évaluation de
la perte d'autonomie. C'est un outil multidimensionnel de mesure de l’autonomie, à travers
l’observation des activités qu’effectue la personne âgée. Elle comporte 10 variables
discriminantes relatives à la perte d’autonomie physique et psychique, et sept variables
illustratives indiquant le degré d’autonomie domestique et sociale. Pour chacune des dix
activités étudiées, trois réponses sont possibles : A - fait seul, habituellement et correctement
B - fait partiellement seul ou non habituellement ou non correctement C - ne fait pas. A partir
des réponses obtenues, un calcul de score est réalisé et classe les personnes âgées en six
groupes (définition des auteurs de la grille AGGIR) :
GIR 1 Ce sont les personnes confinées au lit ou au fauteuil et ayant perdu leur autonomie mentale.
Elles nécessitent une présence indispensable et continue d’intervenants.
GIR 2
Comprend deux groupes. Ce sont soit les personnes confinées au lit ou au fauteuil dont les
fonctions mentales ne sont pas totalement altérées et qui nécessitent une prise en charge
pour la plupart des actes de la vie quotidienne, soit les personnes dont les fonctions mentales
sont altérées mais qui ont leurs capacités motrices. Le déplacement à l’intérieur est possible
mais la toilette et l’habillage ne sont pas faits ou sont faits partiellement.
GIR 3 Ce sont les personnes qui ont conservé leurs capacités mentales mais qui ont partiellement
perdu leur autonomie locomotrice. Nécessitent quotidiennement et plusieurs fois par jour
des aides notamment pour la toilette et l’habillage.
GIR 4
Ce sont les personnes qui n’assument pas seules leur transfert mais qui, une fois levées,
peuvent se déplacer à l’intérieur du logement. Elles doivent être aidées pour la toilette et
l’habillage. La plupart s’alimentent seules ; ce groupe comprend aussi celles qui n’ont pas
de problèmes locomoteurs mais qu’il faut aider pour les activités corporelles et les repas.
GIR 5 Ce sont les personnes qui assurent seules leurs déplacements à l’intérieur de leur logement,
s’alimentent et s’habillent seules. Elles peuvent nécessiter une aide ponctuelle pour la
toilette, la préparation des repas et le ménage. GIR 6 Aucune perte d’autonomie.
Tableau 1.3. Grille AGGIR
La grille AGGIR est utilisée dans le cadre de l’attribution de l’Aide Personnalisée
d’Autonomie (APA), qui est une mesure sociale en faveur des personnes âgées et dépendantes
entrée en vigueur en France au 1er
janvier 2002.
La grille Lawton
Echelle de Lawton évalue les activités instrumentales de la vie quotidienne d’un
individu (AIVQ) en fonction du genre :
- Téléphone : utilise le téléphone de sa propre initiative ; compose le numéro ;
compose quelques numéros connus ; décroche mais ne compose pas seul ; n'utilise
pas le téléphone.
- Courses : achète seul la majorité des produits nécessaires ; fait peu de courses ;
nécessite un accompagnement lors des courses ; incapable de faire ses courses.
- Cuisine : prévoit et cuisine ses repas seul ; cuit les repas après préparation par une
tierce personne ; fait la cuisine mais ne tient pas compte des régimes ; nécessite
des repas préparés et servis.
11
- Ménage : s'occupe du ménage de façon autonome ; fait seul les tâches ménagères
légères ; fait les travaux légers mais de façon insuffisante ; nécessite de l'aide pour
les travaux ménagers ; nécessite de l'aide pour les travaux ménagers quotidiens.
- Linge : lave tout son linge seul ; lave le petit linge ; tout le linge doit être lavé à
l'extérieur.
- Transports : utilise les moyens de transport de manière autonome ; commande et
utilise seul un taxi ; utilise les transports publics avec personne accompagnante ;
parcours limités en voiture en étant accompagné ; ne voyage pas.
- Médicaments : prend seul ses médicaments correctement ; prend correctement les
médicaments préparés ; ne peut pas prendre ses médicaments correctement.
- Argent : règle ses affaires financières de manière autonome ; règle ses dépenses
quotidiennes ; aide pour gestion ; n'est pas capable de se servir de l'argent.
À partir des évaluations d’état de chaque branche il faut construire un score. Le score
élevé traduit une dépendance et le score le plus bas correspond au niveau d'autonomie le plus
élevé.
C1.1.3) Problèmes actuels
D’un point de vue financier, le risque dépendance génère une forte augmentation des
dépenses liées à la perte d’autonomie et au handicap. Cette hausse s’explique par un nombre
de personnes âgées en augmentation (vieillissement de la population) et par un allongement
de la phase post-retraite (causée par l’évolution de la médecine et la longévité).
Par son projet de réforme, Nicolas Sarkozy a proposé de rajouter la dépendance
comme « cinquième risque » de la Sécurité sociale aux quatre existants (risque maladie,
accident du travail, vieillesse, famille). Cette réforme a été annulée le 1er
février 2012 en
raison du coût et du mode de financement à trouver. Néanmoins, le cinquième risque fait
toujours l’objet de grands discours.
Aujourd’hui, 1,2 million de personnes de plus de 60 ans sont dépendantes. Un chiffre
appelé à croître dans les années à venir.
Selon la DREES (Direction de la recherche, des études, de l’évaluation et des
statistiques), le nombre de personnes dépendantes devrait franchir la barre des 2 millions en
2040. Or, cette situation pèse sur les finances de l'Etat, mais aussi sur celles des familles qui
ont une personne dépendante à charge.
À l’échelle nationale, les dépenses liées à la dépendance atteignent 34 milliards
d'euros. 24 milliards à la charge de l'État (dont 14,5 milliards pour la Sécurité sociale et 5,5
milliards pour les départements, gestionnaires de l'APA) et 10 milliards à la charge des
ménages. En 2040, les projections tablent sur un besoin de financement accru de 10 milliards
d’euros par an.
Les solutions imaginées par les derniers gouvernements pour financer le risque
dépendance sont très diverses :
- Création d’une nouvelle branche à la Sécurité sociale (le fameux "cinquième risque",
avec un financement public pur) ;
- Privatisation intégrale de ce financement, avec l’aide des actuels assureurs privés ;
- Alignement de la contribution sociale généralisée (CSG) des retraités sur celle des
actifs ;
- Instauration d’une nouvelle journée de solidarité ;
- Augmentation des cotisations retraite ;
12
- Hausse générale de la TVA, mais cette idée est en passe d’être abandonnée.
Egalement, pour réduire le coût du risque, les idées suivantes font partie des projets
potentiels :
- Développement d’outils de veille pathologique, pour mesurer et anticiper les besoins
de santé de la population selon le territoire ;
- Généralisation des projets de l’e-santé, en particulier la télémédecine, les réseaux de
médecins spécialisés en gérontologie (aide aux soins gérontologiques), pour éviter la
prise en charge des maladies chroniques aux urgences hospitalières faute
d’anticipation ;
- Mise en place d’un système d’information intégré, pour coordonner les différents
acteurs d’une prise en charge (ceux qui informent, ceux qui décident, ceux qui mettent
en œuvre le service) et partager entre tous le dossier d’un patient (DMP).
Malgré tout, les solutions proposées ne pourront pas résoudre immédiatement les
problèmes actuels. Le tableau suivant résume les dépenses moyennes des personnes en
dépendance (étude Generali, 2014).
Maintien à domicile Établissement spécialisé
Coût mensuel moyen de la dépendance 2 200 € 2 500 € Montant moyen de l’APA 489 € 517 € Retraite moyenne 1 288 € 1 288 € Charges mensuelles restantes 423 € 695 €
Tableau 1.4. Charge des personnes dépendantes
Comme nous pouvons le voir, les charges mensuelles restantes sont assez importantes
(même avec le maintien à domicile). Cela implique pour les gens la nécessité de trouver un
moyen de financement supplémentaire, pour pouvoir faire face au risque de dépendance.
Une solution classique serait de souscrire une assurance dépendance. En cotisant en
amont lorsque l’individu est valide, il peut ainsi se prémunir contre les besoins financiers
inéluctables liés à la survenance du risque.
13
C1.2. Marché d’assurance dépendance
C1.2.1) Types de produits
Les produits dépendance sont mis en place pour faire face au vieillissement de la
population. Leur objectif est de couvrir la différence entre les coûts nécessaires pour la prise
en des personnes âgées en perte d’autonomie et les aides tardives et limitées des pouvoirs
publics. Ces produits aident également les familles à supporter le coût total de la prise en
charge de leurs aînés.
Globalement, on peut différencier deux types de produits d’assurance dépendance :
Forfaitaire : il s’agit d’une rente annuelle ou mensuelle avec un montant
prédéfini, pour laquelle le souscripteur choisit de s’assurer ;
Indemnitaire : consiste à couvrir une partie ou l’intégralité des frais liés aux
besoins matériels et de services à la personne (pharmacie, toilette, hôpital, taxi,
aménagement du logement de la personne dépendante etc.). Cette base de
remboursement augmente avec l’inflation ou change selon le niveau de la
Sécurité Sociale.
Le type forfaitaire est privilégié dans la quasi-totalité des compagnies d’assurance.
Cela peut être expliqué par le fait que ce type d’assurance est moins risqué (il dépend de
moins de facteurs aléatoires), et que les tarifs sont moins élevés. Ça rend les contrats
d’assurance dépendance forfaitaire plus attractifs pour les clients potentiels.
Néanmoins, les dernières années nous pouvons observer une tendance des assureurs
d’introduire des services supplémentaires avec les garanties forfaitaires classiques.
C1.2.2) Types de contrats
Deux grandes familles de contrat d’assurance dépendance existent :
Contrat Prévoyance : ce type de contrat couvre le risque pur, c’est-à-dire
uniquement la dépendance. L’assuré paiera des primes périodiques, et si le
risque se réalise, il touchera des prestations sous forme, par exemple, de rente
viagère prédéfinie au moment de la souscription.
Contrat Epargne : c’est un contrat d’épargne classique avec possibilité de
rachat, incluant des garanties complémentaires, ici la dépendance, où les
primes sont payées librement et sont capitalisées. Si le risque survient, le
montant épargné est versé sous forme de rente viagère ou de capital.
En général le versement d’une rente viagère ou d’un capital est prévu lors de la
survenance du sinistre et selon le niveau de dépendance atteint.
Pour limiter l’anti sélection et mieux cerner le risque les contrats doivent contenir des
éléments précis. Par exemple, une limite d’âge à la souscription est imposée pour éviter
notamment des primes trop élevées et des formalités médicales trop conséquentes (les
probabilités de survenance du risque étant importantes aux âges élevés).
Par ailleurs, une sélection médicale est réalisée sous forme de déclaration d’état de
santé (DES) faite par l’individu et est appuyée d’un rapport du médecin traitant. Selon le
montant de garantie et/ou les résultats de DES, des questionnaires et des examens médicaux
viennent en supplément dans le but de déterminer les antériorités médicales favorisant un
14
futur état de dépendance. Cette pratique est très développée, notamment en Angleterre et en
France.
Un délai de carence est souvent imposé et permet à l’assureur de verser des prestations
uniquement si l’entrée en dépendance a lieu au-delà de ce délai. Lors de la survenance du
risque, l’application d’un délai de franchise permet de constater une éventuelle récupération
d’autonomie de la personne dépendante. Durant cet intervalle de temps, aucune prestation
n’est versée par l’assureur.
Nous pouvons aussi différencier les contrats à adhésion obligatoire et facultative. Dans
la majorité des cas, l’adhésion obligatoire est imposée dans les contrats collectifs. Cela
implique les formalités d’adhésion simplifiées et des tarifs plus mutualisés, donc inférieurs
pour les assurés âgés. Dans certains cas, les délais de carence, les franchises ou questionnaires
médicaux sont allégés ou même supprimés.
De même, les contrats avec les options de choix sont très populaires sur ce marché. Il
s’agit des options permettant aux assurés de choisir, par exemple, le montant de rente ou le
type de dépendance couverte (partielle ou totale).
C1.2.3) Etat de marché
Le risque dépendance est en réalité composé de trois aléas :
un risque d'incidence (la probabilité de devenir dépendant avant de mourir) ;
un risque de maintien en dépendance ;
un risque d'évolution du coût de prise en charge.
Trois contributeurs naturels peuvent le prendre en charge :
la famille (que ce soit la personne dépendante ou ses descendants) ;
l'État ;
le marché (l'assurance ou les marchés financiers).
Les deux acteurs majeurs sur le marché mondial d’assurance dépendance sont la
France et les États-Unis. Les nombres d’assurés pour ces deux pays en 2014 sont 3,3 millions
et 8,1 millions respectivement. Pour autant, en France comme aux États-Unis, le marché a
beaucoup tardé à se développer avant 2011-2012. C'est ce que Denis Kessler a appelé l'«
énigme de l'assurance dépendance » [2].
De nombreux économistes se sont intéressés aux raisons expliquant la taille limitée du
marché de l'assurance dépendance. Comprendre pourquoi le marché ne se développe pas
davantage présente un intérêt théorique mais également un intérêt de politique publique.
Identifier l'explication pertinente permettra de mieux orienter les dispositifs publics
(incitations fiscales, critères d'éligibilité, etc.). Il est possible de classer ces explications en
quatre catégories :
des raisons relatives à la myopie des individus face au risque ;
des raisons propres aux assureurs (conception ou distribution du produit non
appropriée) ;
des raisons propres au contexte institutionnel (critères d'éligibilité de l'aide
publique, régime fiscal du contrat) ;
des raisons inhérentes au risque (assurabilité, antisélection, aléa moral
intergénérationnel, etc.).
15
La première catégorie porte sur la méconnaissance du risque. Les individus
ignoreraient les risques présentant de faibles probabilités de réalisation : des sinistres élevés et
qui ne sont pas survenus récemment (Kunreuther, 1978). Cette tendance a été observée sur
d'autres marchés d'assurance et est propre à ce que l'on peut appeler les « risques catastrophes
». Cependant, en ce qui concerne la santé, ces comportements sont rares (Hershey, 1984).
D'autant que les études empiriques montrent que 42 % des personnes entre 45 et 75 ans se
disent préoccupées par le risque de perte d'autonomie lié au vieillissement (FFSA, 2006) ; les
personnes les plus sensibles à ce problème étant celles qui ont déjà dû faire face à une
situation de dépendance dans leur entourage proche (FFSA, 2006). Ce comportement peut
aussi s'expliquer par une forte préférence pour le présent. L'individu ne s'intéresse pas aux
risques susceptibles de se produire dans une quinzaine d'années. Mais, là encore, les
comportements en matière d'épargne retraite tendent à contredire cette explication.
Une seconde explication serait la méconnaissance des critères de l'assurance sociale.
Les personnes âgées seraient mal informées des conditions d'éligibilité des programmes d'aide
publique (APA et Sécurité sociale en France, Medicaid et Medicare aux États-Unis) et
penseraient être couvertes contre ce risque alors qu'elles ne le sont pas. Cette méconnaissance
a été observée empiriquement aux États-Unis dans les années 1980 (American Association,
1985) mais ne semble plus être d'actualité. En effet, plus de 60 % des personnes interrogées
en 2005 en France s'estimaient suffisamment informées à la fois du risque encouru mais aussi
des dispositifs de prise en charge publique (FFSA, 2006).
Cette première série d'explications portant sur une simple méconnaissance du risque
semble donc de moins en moins probante en France comme aux États-Unis. Les études
d'opinion montrent que les individus sont de mieux en mieux renseignés et de plus en plus
préoccupés par ce risque. Les événements liés à la canicule de l'été 2003 ainsi que la
communication publique et privée développée par la suite ont grandement sensibilisé la
population. De manière générale, s'il s'avère que la taille limitée du marché est due à une
certaine méconnaissance du risque, le remède semble relativement aisé. Une campagne de
communication appropriée suffirait à développer le marché.
La deuxième série d'explications est propre aux assureurs. Dans ce cas, seule une
maturation du marché ou une incitation fiscale appropriée peut aider au développement du
marché.
Une troisième série privilégie le contexte institutionnel. Dans certains cas, les critères
d'éligibilité peuvent entraîner un effet d'éviction de l'assurance privée par l'assurance sociale.
Un régime fiscal de l'assurance dépendance désavantageux par rapport à des contrats
concurrents comme l'assurance vie ou l'assurance retraite peut également expliquer la taille
limitée du marché. Si cette raison est privilégiée, une simple modification de la loi devrait
permettre au marché de couvrir le risque dépendance.
Pour ces trois premières séries d'explications, les moyens pour développer le marché
semblent relativement abordables pour le décideur public. Ils passent par une campagne de
sensibilisation ou une modification de la loi.
La dernière série s'intéresse aux raisons strictement économiques qui expliqueraient la
taille limitée du marché. Ce risque peut rencontrer des difficultés d'assurabilité. Si une partie
ou la totalité du risque n'est pas diversifiable, les produits d'assurance proposés par le marché
seront nécessairement incomplets et donc peu intéressants. Dans ce cas, le marché est
condamné à stagner dans la mesure où il n'existe pas de moyens à proprement parler pour
lutter contre l'inassurabilité. Ce risque peut également faire l'objet de comportements
opportunistes (anti sélection et aléa moral intergénérationnel). Dans ce cas, les moyens pour
développer le marché sont plus limités. Une technique souvent employée par les assureurs
16
pour lutter contre l'anti sélection est de segmenter le marché afin de constituer des classes de
risque homogènes. Encore faut-il que l'assureur puisse extraire l'information nécessaire à cette
segmentation. Si l'explication à l'énigme de l'assurance dépendance relève de cette dernière
série d'explications, le développement du marché de l'assurance dépendance paraît
compromis. Un désengagement de l'assurance sociale au profit du marché semblerait donc
difficile dans ces conditions car il se traduirait par une couverture moindre pour l'ensemble de
la population.
Les études empiriques montrent cependant que le faible développement du marché
s'expliquerait davantage par des raisons institutionnelles et fiscales plutôt que par des raisons
relatives à la rationalité économique [3].
Néanmoins, on peut observer le début d’une forte croissance du marché de l’assurance
dépendance ces dernières années. C’est lié au fait du changement de stratégie des compagnies
d’assurance, qui commencent à vendre la couverture de dépendance comme une garantie
complémentaire (pour voir l’évolution en France consultez annexe A).
17
C1.3. Offre de CNP Assurances
C1.3.1) Description des produits de dépendance
CNP Assurances est un des acteurs majeurs sur le marché d’assurance dépendance en
France et en Europe.
Les produits vendus sont forfaitaires, avec les options de choix de montant de rente et
du type de la dépendance couverte : totale ou totale et partielle.
La palette des contrats d’assurance dépendance est assez large. Le premier niveau de
segmentation est le type d’adhésion : collective ou individuelle. Il est important de préciser
que les contrats collectifs regroupent environ 98% des personnes assurés chez CNP
Assurances contre le risque de dépendance. Le deuxième niveau de segmentation est présenté
par deux facteurs :
assurance dépendance facultative ou obligatoire ;
dépendance est la garantie principale ou complémentaire.
La partie de contrats où la dépendance est une garantie complémentaire est très
représentative dans le portefeuille de CNP Assurances.
La définition de la garantie est suivante :
« Est considéré en état de dépendance, l’assuré qui se trouve dans l’impossibilité
permanente, physique ou psychique, d’effectuer seul les actes de la vie quotidienne : se
déplacer, s’alimenter, s’habiller, et se laver. »
A partir de ces actes de la vie quotidienne, une grille à points est définie pour
déterminer le degré de dépendance psychique et physique du dépendant. Le nombre de points
définis traduit le niveau de dépendance de la personne: partielle ou totale.
Le délai de carence est en général d’un an à compter de l’affiliation, 3 ans en cas de
dépendance due à l’état mental, et nul si la dépendance résulte d’un accident. La franchise
applicable à partir de la reconnaissance de la dépendance est de 180 jours, et réduite à 90
jours dans le cas d’un accident.
C1.3.2) Présentation des données
Les données utilisées dans le cadre de ce mémoire sont composées des informations
historiques (de 01/01/1992 à 31/12/2015) sur trois produits similaires : Produit A, Produit B et
Produit C.
Les ordres de grandeur de bases des assurés et des sinistrés sont 46 000 et 5 000
personnes respectivement.
La répartition par produit est présentée sur les graphiques suivantes.
18
Figure 1.1. Répartition des données par produit
Nous observons que la répartition par produit est assez homogène au niveau des
sinistres. Egalement, les délais de carence et les franchises sont les mêmes, les populations
des assurés de chaque produit sont similaires et les clauses contractuelles n’ont pas de
différences significatives. Ainsi, une étude sur les données agrégées, afin d’avoir des
estimations plus robustes, semble être justifiée.
C1.3.3) Analyse descriptive des données
La première analyse quantitative des données permet d’avoir les idées et les pistes de
réflexion sur les mécanismes de répartition des données statistiques.
Les âges d’entrée en dépendance varient entre 50 et 95 ans. L’absence des sinistres au-
delà de 95 ans va conduire au problème de fermeture des tables d’incidence.
La répartition par sexe est résumée dans le tableau suivant :
Sexe Assurés Sinistrées Hommes 38 % 32 % Femmes 62 % 68 %
Tableau 1.5. Répartition des données par sexe
Nous pouvons conclure de tableau 1.5 que les hommes représentent environ un tiers
du portefeuille (les femmes deux tiers) et la répartition des sinistres par sexe en moyenne est
homogène.
La souscription de garantie totale et partielle représente 98 % du portefeuille (alors
que la seule garantie totale 2 %). Par rapport à la taille de la base, 2 % ne représente pas un
volume des données significativement grand pour effectuer la modélisation. Alors, dans la
suite nous allons considérer que les assurés possèdent la garantie totale et partielle.
Pour être accepté un assuré doit remplir certains critères sur l’état de santé.
Néanmoins, il peut souscrire l’assurance après la validation d’un médecin de l’assureur de son
questionnaire d’état de santé (QS). Donc, c’est un document qui permet à l’assureur de garder
les bons risques. La proportion des assurés, qui sont passés par le QS est égale à 27 %, le reste
(73 %) ont fait simplement la déclaration d’état de santé.
54% 31%
15%
Assurés
Produit A
Produit B
Produit C
50%
24%
26%
Sinistrés
Produit A
Produit B
Produit C
19
Sans compter l’entrée en dépendance, il existe plusieurs types de sorties d’état valide
des assurés : décès, résiliation, etc. Le diagramme récapitulatif des sorties est présenté ci-
dessous :
Figure 1.2. Les sorties d’état valide
Parmi les rentiers environ 11 % ont été observés en dépendance partielle et 89 % en
dépendance totale. Le pourcentage des assurés qui sont passés de dépendance partielle à
dépendance totale est égal à 2 %.
A la date de clôture de la base (31/12/2015) 65 % des rentiers sont décédés.
Les données dont il est fait état dans cette partie vont nous aider à mieux comprendre
les risques associés à l’assurance dépendance.
65% 11%
12%
12%
Valides
Rentiers
Décédés
Autres
20
Chapitre 2. Quantification du risque dépendance
C2.1. Loi d’entrée en dépendance
Dans un premier temps, nous allons introduire les aspects théoriques nécessaires pour
la modélisation de la loi d’entrée en dépendance.
Dans un second temps, nous appliquerons les méthodes retenues à nos données, et
nous étudierons l’impact des variables explicatives : sexe et type de dépendance.
Enfin, le modèle final sera proposé.
La loi d’entrée en dépendance est en général caractérisée par les taux d’incidence 𝑖𝑥.
Mathématiquement parlant, 𝑖𝑥 représente la probabilité qu’un assuré va entrer en dépendance
dans l’intervalle des âges ]𝑥, 𝑥 + 1], sachant qu’à l’âge 𝑥 il est encore valide :
𝑖𝑥 = 𝑃(𝑋 ≤ 𝑥 + 1|𝑋 > 𝑥) = 1 − 𝑃(𝑋 > 𝑥 + 1|𝑋 > 𝑥) = 1 −𝑆(𝑥 + 1)
𝑆(𝑥) (1)
où 𝑆(∙) correspond à la fonction de survie associée au risque d’entrée en dépendance.
C2.1.1) La prise en compte de censure dans les modèles
Dans cette section nous allons introduire les notions de censures et de troncatures qui
sont nécessaires pour une modélisation plus pertinente.
En pratique on peut être confronté à une censure droite (si X est la variable d’intérêt,
l’observation de la censure C indique que 𝑋 ≥ 𝐶) ou à une censure à gauche (l’observation de
la censure C indique que 𝑋 ≤ 𝐶 ) ; les deux types de censure peuvent s’observer de manière
concomitante. L’exemple classique est donné par la situation suivante : on veut savoir à quel
âge 𝑋 les enfants d’un groupe donné sont capables d’effectuer une certaine tâche. Lorsque
l’expérience débute, certains enfants d’âge 𝐶 sont déjà capables de l’accomplir, et pour eux
𝑋 ≤ 𝐶 : il s’agit d’une censure gauche ; à la fin de l’expérience, certains enfants ne sont pas
encore capables d’accomplir la tâche en question, et pour eux 𝑋 ≥ 𝐶 : il s’agit d’une censure
droite.
Dans la suite on s’intéressera à la censure droite, courante dans les situations
d’assurance.
C2.1.1) a) Censure de type I : censure fixe
Soit un échantillon de durées de survie (𝑋1, … , 𝑋𝑛) et 𝐶 > 0 fixé. La vraisemblance du
modèle associé aux observations (𝑇1, 𝐷1),… , (𝑇𝑛, 𝐷𝑛) avec :
𝑇𝑖 = 𝑋𝑖 ∧ 𝐶 et 𝐷𝑖 = {1 si 𝑋𝑖 ≤ 𝐶0 si 𝑋𝑖 > 𝐶
possède une composante continue et une composante discrète et elle s’écrit :
𝐿(𝜃) = ∏𝑓𝜃(𝑇𝑖)𝐷𝑖𝑆𝜃(𝐶)1−𝐷𝑖
𝑛
𝑖=1
21
en d’autres termes lorsqu’on a observé la sortie avant la censure, c’est le terme de densité qui
intervient dans la vraisemblance, et dans le cas contraire on retrouve le terme discret, avec
comme valeur la fonction de survie à la date de censure. La distribution est donc continue par
rapport à 𝑇𝑖 et discrète par rapport à 𝐷𝑖.
C2.1.1) b) Censure de type II : « arrêt au rième décès »
On se place maintenant dans le cas où la date de fin d’observation n’est pas définie à
l’avance, mais où l’on convient d’arrêter l’observation lors de la survenance de la 𝑟ième sortie.
La date de fin de l’expérience est donc aléatoire et est égale à 𝑋(𝑟).
De manière plus formelle, soit un échantillon de durées de survie (𝑋1, … , 𝑋𝑛) et 𝑟 > 0
fixé, nous disons qu’il y a censure de type II pour cet échantillon si au lieu d’observer
directement (𝑋1, … , 𝑋𝑛) on observe (𝑇1, 𝐷1), … , (𝑇𝑛, 𝐷𝑛) avec :
𝑇𝑖 = 𝑋𝑖 ∧ 𝑋(𝑟) et 𝐷𝑖 = {1 si 𝑋𝑖 = 𝑇𝑖
0 si 𝑋𝑖 ≠ 𝑇𝑖
avec 𝑋(𝑟)la 𝑟ième statistique d’ordre de l’échantillon (𝑋1, … , 𝑋𝑛). La définition de l’indicatrice
de censure peut se réécrire 𝐷𝑖 = {1 si 𝑋𝑖 ≤ 𝑋(𝑟)
0 si 𝑋𝑖 > 𝑋(𝑟), qui est une forme analogue au cas de la
censure fixe avec r C X .
La vraisemblance a une forme proche du cas de la censure de type I ; on remarque
pour l’écrire que, dans la partie discrète de la distribution, il convient de choisir les instants
des 𝑟 sorties parmi les n observations. Cela conduit à écrire :
𝐿(𝜃) =𝑛!
(𝑛 − 𝑟)![∏𝑓𝜃(𝑋(𝑖))
𝑟
𝑖=1
] 𝑆𝜃(𝑋(𝑟))𝑛−𝑟
=𝑛!
(𝑛 − 𝑟)!∏𝑓𝜃(𝑇𝑖)
𝐷𝑖𝑆𝜃(𝑇𝑖)1−𝐷𝑖
𝑛
𝑖=1
=𝑛!
(𝑛 − 𝑟)!∏ℎ𝜃(𝑇𝑖)
𝐷𝑖𝑆𝜃(𝑇𝑖)
𝑛
𝑖=1
C2.1.1) c) Censure de type III : censure aléatoire
La censure de type III généralise la censure de type I au cas où la date de censure est
une variable aléatoire ; plus précisément, soient un échantillon de durées de survie (𝑋1, … , 𝑋𝑛)
et un second échantillon indépendant composé de variables positives (𝐶1, … , 𝐶𝑛), on dit qu’il
y a censure de type III pour cet échantillon si au lieu d’observer directement (𝑋1, … , 𝑋𝑛) on
observe (𝑇1, 𝐷1),… , (𝑇𝑛, 𝐷𝑛) avec :
𝑇𝑖 = 𝑋𝑖 ∧ 𝐶𝑖 et 𝐷𝑖 = {1 si 𝑋𝑖 ≤ 𝐶𝑖
0 si 𝑋𝑖 > 𝐶𝑖
La vraisemblance de l’échantillon (𝑇1, 𝐷1),… , (𝑇𝑛, 𝐷𝑛) s’écrit, avec des notations
évidentes :
𝐿(𝜃) = ∏[𝑓𝑋(𝑇𝑖, 𝜃)𝑆𝐶(𝑇𝑖, 𝜃)]𝐷𝑖[𝑓𝐶(𝑇𝑖, 𝜃)𝑆𝑋(𝑇𝑖, 𝜃)]1−𝐷𝑖
𝑛
𝑖=1
Si nous allons faire l’hypothèse que la censure est non informative, c’est à dire que la
loi de censure est indépendante du paramètre 𝜃. La vraisemblance se met dans ce cas sous la
forme :
22
𝐿(𝜃) = 𝑐𝑜𝑛𝑠𝑡 ∏𝑓𝜃(𝑇𝑖)𝐷𝑖𝑆𝜃(𝐶)1−𝐷𝑖
𝑛
𝑖=1
Le terme 𝑐𝑜𝑛𝑠𝑡 regroupe les informations en provenance de la loi de la censure, qui ne
dépend pas du paramètre. Cette dernière expression peut s’écrire de manière suivante :
𝐿(𝜃) = ∏𝑆𝜃(𝑇𝑖)ℎ𝜃(𝑇𝑖)𝐷𝑖
𝑛
𝑖=1
On observe ici simplement le fait que la censure fixe est un cas particulier de la
censure aléatoire non informative dans laquelle la loi de censure est une loi de Dirac au point
𝐶. L’expression établie dans le cas particulier de la censure fixe se généralise donc aisément.
C2.1.1) d) Troncature
On dit qu’il y a troncature gauche (resp. droite) lorsque la variable d’intérêt n’est pas
observable lorsqu’elle est inférieure à un seuil 𝑐 > 0 (resp. supérieure à un seuil 𝐶 > 0).
Le phénomène de troncature est très différent de la censure, puisque dans ce cas on
perd complètement l’information sur les observations en dehors de la plage : dans le cas de la
censure, on a connaissance du fait qu’il existe une information, mais on ne connaît pas sa
valeur précise, simplement le fait qu’elle excède un seuil ; dans le cas de la troncature on ne
dispose pas de cette information.
La distribution observée dans ce cas est donc la loi conditionnelle à l’événement
{𝑐 < 𝑇 < 𝐶}. La fonction de survie tronquée s’écrit donc :
𝑆(𝑡|𝑐 < 𝑇 < 𝐶) = {
1 si 𝑡 < 𝑐𝑆(𝑡) − 𝑆(𝐶)
𝑆(𝑐) − 𝑆(𝐶) si 𝑐 ≤ 𝑡 ≤ 𝐶
0 si 𝑡 > 𝑐
La fonction de hasard a également le support {𝑐 < 𝑇 < 𝐶}et s’écrit ℎ(𝑡|𝑐 < 𝑇 <
𝐶) = ℎ(𝑡)𝑆(𝑡)
𝑆(𝑡)−𝑆(𝐶), ce qui montre que l’expression de ℎ ne dépend pas de 𝑐. La troncature
droite augmente la fonction de hasard, et s’il n’y a que de la troncature gauche (𝐶 =+∞) alors la fonction de hasard n’est pas modifiée.
La troncature peut s’observer par exemple dans le cas d’une migration informatique au
cours de laquelle n’auraient été repris dans la nouvelle base que les sinistres encore en cours
au moment de la bascule ; les informations sur les sinistres de durée plus courte, pour les
mêmes survenances, sont alors perdues. La troncature s’observe également dans le cas d’un
contrat d’arrêt de travail avec une franchise : les arrêts de durée inférieure à la franchise ne
sont pas observés, et on ne dispose donc sur eux d’aucune information.
C2.1.2) Estimateurs du taux brut d’incidence
Les taux bruts 𝑖̂𝑥 sont les taux d’incidence calculés à partie des données empiriques. Il
existe une variété d’estimateurs permettant le calcul des taux bruts. Dans cette partie nous
allons décrire les plus utilisés parmi eux.
C2.1.2) a) Estimateur de Kaplan-Meier de fonction de survie
L’estimateur de Kaplan-Meier utilise les notations suivantes :
23
- 𝑆𝑥 : loi discrète de la forme (𝑎𝑖, 𝑠𝑖)𝑖∈{1,…,𝑚}, les 𝑎𝑖 étant les dates connues entre
𝑥 et 𝑥 + 1, et les 𝑠𝑖 les valeurs prises par 𝑆𝑥 en 𝑎𝑖,
- 𝑇𝑥 : durée de vie en validité résiduelle d’un individu conditionnellement au fait
qu’il soit valide à l’âge 𝑥, i.e. 𝑇𝑥 = [𝑇 − 𝑥|𝑇 > 𝑥], - 𝑖𝑖 : probabilité d’entrer en dépendance en 𝑎𝑖,
- 𝑛𝑖 : nombre d’individus valides en 𝑎𝑖,
- 𝑑𝑖−1 : nombre de personnes entrées en dépendance en 𝑎𝑖,
- 𝑐𝑖−1 : nombre de personnes censurées sur ]𝑎𝑖−1, 𝑎𝑖], - 𝑡𝑖−1 : nombre de personnes censurées à gauche.
Nous voulons estimer 𝑖𝑥, probabilité d’entrée en dépendance dans la classe
d’âge ]𝑥𝑖−1, 𝑥𝑖]. Or 𝑖𝑥 vérifie la relation (1). Nous cherchons donc d’abord à estimer 𝑆𝑥,
fonction de survie associée au risque d’entrée en dépendance sur ]𝑥𝑖−1, 𝑥𝑖]. Or ∀𝑡 ∈[0; 𝑎𝑚] 𝑆𝑥(𝑡) vérifie 𝑆𝑥(𝑡) = ∏ (1 − 𝑖𝑟)𝑟
𝑎𝑟<𝑡 .
Nous allons donc commencer par estimer 𝑖𝑟, pour tout 𝑟 ∈ {1, … ,𝑚}.
L’estimateur de Kaplan-Meier s’appuie sur la remarque suivante la probabilité de
survie au-delà de 𝑡 > 𝑠 peut s’écrire
𝑆(𝑡) = 𝑃(𝑇 > 𝑡|𝑇 > 𝑠)𝑃(𝑇 > 𝑠) = 𝑃(𝑇 > 𝑡|𝑇 > 𝑠)𝑆(𝑠).
Nous pouvons renouveler l’opération, ce qui fait apparaitre des produits de termes
en 𝑃(𝑇 > 𝑡|𝑇 > 𝑠). Si nous choisissons comme instants de conditionnement les instants où se
produit un événement (sortie ou censure), nous en venons à estimer des probabilités de la
forme :
𝑝𝑖 = 𝑃(𝑇 > 𝑇𝑖|𝑇 > 𝑇𝑖−1).
Un estimateur naturel de 𝑞𝑖 = 1 − 𝑝𝑖, ∀𝑖 ∈ [1;𝑚] est 𝑞𝑖 =𝑑𝑖
𝑛𝑖. Nous obtenons donc une
expression de �̂�𝑥(𝑡), ∀𝑡 ∈ [0; 𝑎𝑚] :
�̂�𝑥(𝑡) = ∏ (1 −𝑑𝑖
𝑛𝑖)
𝑖/𝑎𝑖<𝑡
.
Finalement, nous obtenons une expression de 𝑖̂𝑥 :
𝑖̂𝑥 = 1 − ∏ (1 −𝑑𝑖
𝑛𝑖)
𝑎𝑚
𝑖=𝑎2
avec 𝑛𝑖 = 𝑛𝑖−1 − 𝑑𝑖−1 − 𝑐𝑖−1 + 𝑡𝑖−1
L’estimateur de Kaplan-Meier possède un certain nombre de « bonnes propriétés » qui
en font la généralisation naturelle de l’estimateur empirique de la fonction de répartition en
présence de censure : il est convergent, cohérent et également un estimateur du maximum de
vraisemblance généralisé (GMLE). Il n’est pas nécessaire d’adapter une quelconque
spécification de loi. Il est asymptotiquement gaussien et on peut facilement trouver sa
variance grâce à l’estimateur de Greenwood.
Toutefois, cet estimateur est biaisé positivement. Il exige les intervalles de temps
« petit » devant la vitesse de variation de la fonction de survie et nous ne pouvons considérer
qu’un faible nombre de variables explicatives [4].
24
C2.1.2) b) Estimateur binomial
L’estimateur binomial utilise les notations suivantes :
- 𝑛𝑥 : nombre d’individus valides de l’âge 𝑥 à 𝑥 + 1,
- 𝐷𝑥 : variable aléatoire représentant le nombre d’entrés en dépendance observés
sur ]𝑥, 𝑥 + 1], - 𝑑𝑥 : réalisation de 𝐷𝑥,
- 𝑖𝑥 : probabilité d’entrer en dépendance dans l’année pour un individu d’âge 𝑥.
Il considère deux hypothèses :
- Chaque entrée en dépendance est indépendante des autres,
- Le nombre d’entrée en dépendance à l’âge 𝑥 suit une loi 𝐵(𝑛𝑥, 𝑖𝑥).
Nous déterminons 𝑖̂𝑥 par maximum de vraisemblance. En effet, 𝑃(𝐷𝑥 = 𝑑𝑥) =
𝐶𝑛𝑥
𝑑𝑥𝑖𝑥𝑑𝑥(1 − 𝑖𝑥)
𝑛𝑥−𝑑𝑥. Donc 𝐿(𝑖𝑥) = 𝐾𝑖𝑥𝑑𝑥(1 − 𝑖𝑥)
𝑛𝑥−𝑑𝑥 où 𝐾 est une constante indépendante
de 𝑖𝑥.
Après dérivation du logarithme de l’expression, et égalisation à 0, on trouve :
𝑖̂𝑥 =𝑑𝑥
𝑛𝑥.
Cet estimateur est utilisable lorsque tous les individus sont totalement observables,
c’est-à-dire que chaque individu était valide à l’âge 𝑥, et que sa seule cause possible de sortie
est l’entrée en dépendance. Cela implique que en utilisant l’estimateur binomial nous allons
perdre l’information de 89 % de nos observations (tous les assurés valides, décèdes et avec
une autre cause de sortie). C’est un argument très défavorable sur le choix d’estimateur
binomial pour calculer les taux bruts d’incidence [4].
C2.1.2) c) Estimateur actuariel
La construction d’estimateur actuariel est proche de celle d’estimateur binomial.
Nous rajoutons les notations des censures et troncatures :
- 𝑐𝑥 : nombre d’individus censurés sur ]𝑥, 𝑥 + 1], - 𝑇𝑥 : nombre d’individus tronqués (censurés à gauche) sur ]𝑥, 𝑥 + 1].
Egalement, nous rajoutons une hypothèse supplémentaire :
- Les censures et les troncatures sont indépendantes et uniformément réparties
dans l’intervalle. Ces sujets sont donc en moyenne exposés au risque d’entrée
en dépendance sur un demi-intervalle.
Ensuite, nous appliquons les mêmes démarches pour trouver l’estimateur du maximum
de vraisemblance :
𝑖̂𝑥 =𝑑𝑥
𝑛𝑥.
Si nous rajoutons les censures et troncatures, le nombre de sujets soumis au risque
d’entrée en dépendance sur [𝑥, 𝑥 + 1] est égale à 𝑛𝑥 −𝑐𝑥
2+
𝑇𝑥
2, où 𝑛𝑥 est le nombre
d’individus valides à l’âge 𝑥.
Nous estimons donc 𝑖̂𝑥 par
25
𝑖̂𝑥 =𝑑𝑥
𝑛𝑥 −𝑐𝑥
2 +𝑇𝑥
2
La méthode décrite est adaptée aux échantillons de grande taille.
Par ailleurs, cet estimateur est relativement simplificateur et n’utilise pas les données
individuelles. On peut donc douter de son adéquation aux données et de sa précision [4].
Pour la suite, nous avons décidé d’utiliser l’estimateur de Kaplan-Meier, car il
possède les meilleures propriétés et semble être bien adapté à nos données.
C2.1.3) Méthodes de lissage non-paramétrique
Afin de rendre les taux bruts d’incidence plus cohérents (avec une forme plus lisse),
nous pouvons utiliser les méthodes de lissage non-paramétrique. Les avantages de telles
techniques consistent dans le fait que nous ne devons pas faire d’hypothèses (parfois trop
fortes) sur la loi d’entrée en dépendance. Parmi les plus connus on trouve : le lissage par
moyennes mobiles (MA) et le lissage de Whittaker-Henderson.
C2.1.3) a) Moyennes Mobiles (MA)
La formule de base des moyennes mobiles symétriques s’écrit :
𝑖𝑥 = ∑ 𝑎𝑖𝑖̂𝑥+𝑖
+𝑟
𝑖=−𝑟
,
avec 𝑎−𝑖 = 𝑎𝑖. La limitation majeure des MA est que leur utilisation aux bords pose
problème.
Dans l’optique de diminuer une erreur d’estimation dans le cadre de la mesure de taux
théoriques 𝑖𝑥, nous pouvons nous fixer des contraintes consistant à exiger que si la série des 𝑖𝑥
présente la régularité d’un polynôme, par exemple de degré 3, alors nous souhaitons que
l’application de la MA ne modifie pas les valeurs de 𝑖𝑥. En d’autres termes, nous écrivons
𝑖𝑥 = ∑ 𝑎𝑖𝑖𝑥+1+𝑟𝑖=−𝑟 ce qui conduit à :
∑ 𝑎𝑖
+𝑟
𝑖=−𝑟
= 1 et ∑ 𝑖2𝑎𝑖
+𝑟
𝑖=−𝑟
= 0.
Les moyennes mobiles ont l’avantage de la simplicité de mise en œuvre. Toutefois
elles présentent un certain nombre d’inconvénients, liés pour l’essentiel à la sensibilité de la
moyenne arithmétique aux valeurs extrêmes, qui conduiront à ne pas les utiliser souvent. A
tout le moins, la moyenne mobile ne sera pas alors le seul moyen de révision des taux bruts
mis en œuvre, mais permettra simplement de réaliser une régularisation préalable [4].
C2.1.3) b) Whittaker-Henderson
Ce type de lissage a pour but de combiner un critère de fidélité et un critère de
régularité, puis de rechercher les valeurs ajustées qui minimisent une combinaison linéaire des
deux critères.
Nous fixons tout d’abord des poids (𝑤𝑖) et définissons le critère de fidélité :
26
𝐹 = ∑𝑤𝑗(𝑖𝑗 − 𝑖�̂�)2
𝑝
𝑗=1
Ainsi que le critère de régularité :
𝑆 = ∑(∆𝑧𝑖𝑗)2
𝑝−𝑧
𝑗=1
, avec ∆𝑧𝑖𝑗 = ∑ 𝐶𝑧𝑘(−1)𝑧−𝑘
𝑧
𝑘=0
𝑖𝑗+𝑘
où 𝑧 est un paramètre du modèle et 𝑝 le nombre d’estimations réalisées.
Le critère 𝑀 est une combinaison linéaire de la fidélité et de la régularité et doit être
minimisé. Le poids du second terme est contrôlé par un paramètre ℎ :
𝑀 = 𝐹 + ℎ𝑆
Nous obtenons ainsi un problème d’optimisation qui satisfait aux conditions :
𝜕𝑀
𝜕𝑖𝑗= 0, 1 ≤ 𝑗 ≤ 𝑝
Nous posons :
𝑖 = (𝑖𝑗)1≤𝑗≤𝑝; 𝑖̂ = (𝑖�̂�)1≤𝑗≤𝑝
; 𝑤 = 𝑑𝑖𝑎𝑔(𝑤𝑗)1≤𝑗≤𝑝; ∆𝑧𝑖 = (∆𝑧𝑖𝑗)1≤𝑗≤𝑝−𝑧
Nous en déduisons alors que :
𝐹 = (𝑖 − 𝑖̂)′𝑤(𝑖 − 𝑖̂)
𝑆 = (∆𝑧𝑖)′(∆𝑧𝑖)
Nous introduisons à cette étape la matrice 𝐾𝑧 de taille (𝑝 − 𝑧, 𝑝), dont les termes sont des
coefficients binomiaux d’ordre 𝑧, dont le signe alterne et commence positivement pour 𝑧 pair.
Par exemple pour 𝑧 = 2 et 𝑝 = 5, on a :
𝐾2 = (1 −2 1 0 00 1 −2 1 00 0 1 −2 1
)
Nous vérifions facilement que ∆𝑧𝑖 = 𝐾𝑧𝑖, ce qui permet d’obtenir le critère 𝑀 comme
suit :
𝑀 = (𝑖 − 𝑖̂)′𝑤(𝑖 − 𝑖̂) + ℎ𝑖′𝐾𝑧′ 𝐾𝑧𝑖
𝑀 peut être développé et nous obtenons que :
𝑀 = 𝑖′𝑤𝑖 − 2𝑖′𝑤𝑖̂ + 𝑖̂′𝑤𝑖̂ + ℎ𝑖′𝐾𝑧′ 𝐾𝑧𝑖
Nous pouvons alors résoudre :
𝜕𝑀
𝜕𝑖= 2𝑤𝑖 − 2𝑤𝑖̂ + 2ℎ𝐾𝑧
′ 𝐾𝑧𝑖 = 0
Qui nous permet d’obtenir les taux lissés :
𝑖∗ = (𝑤 + ℎ𝐾𝑧′ 𝐾𝑧)
−1𝑤𝑖̂
ℎ𝐾𝑧′𝐾𝑧 n’est pas inversible. Cependant, l’addition de 𝑤 permet de résoudre cette difficulté. La
matrice symétrique positive 𝐶 = 𝑤 + ℎ𝐾𝑧′ 𝐾𝑧 peut être alors décomposée avec la méthode de
Cholesky, puis nous utilisons cette décomposition pour l’inverser.
27
C2.1.4) Ajustement paramétrique : loi Makeham-Gompertz
La distribution de base des modèles paramétriques de durée est la distribution
exponentielle. Le choix du modèle que nous allons appliquer détermine en particulier la forme
de la fonction de hasard. Nous remarquons ici que nos taux empiriques d’entrée en
dépendance sont fortement croissants en fonction de l’âge.
De plus, les facteurs d’entrée en dépendance peuvent être de nature accidentelle, donc
il ne faut pas oublier d’introduire cette notion également dans le modèle.
Le modèle de Makeham-Gompertz contient notamment cet effet accidentel de l’entrée
en dépendance, et est en général bien adapté à la mortalité humaine. Nous allons dans la suite
définir ce modèle et l’appliquer à nos données.
La loi Makeham-Gompertz est présentée par sa fonction de hasard, qui a une forme :
ℎ(𝑡) = 𝑎 + 𝑏 × 𝑐𝑡
Le paramètre 𝑎 s’interprète comme étant une incidence accidentelle, ce qui cadre bien
avec notre étude, vu qu’une part des entrées en dépendance est accidentelle, et le coefficient
𝑏 × 𝑐𝑡 fait référence au vieillissement de la population, faisant augmenter le taux d’incidence
de manière exponentielle. Etant donné que les taux d’incidence croissent avec l’âge, il faut que
𝑐 > 1 et 𝑏 > 0.
Par rapport à d’autres modèles, la fonction de Makeham-Gompertz a donc une
ambition « explicative », ou « physique », en intégrant explicitement deux causes de décès
clairement identifiées.
D’après la définition, la fonction de survie peut s’écrire comme :
𝑆(𝑥) = exp(−∫ ℎ(𝑡)𝑑𝑡𝑥
0
) (2)
Alors, les taux d’incidence peuvent être exprimés avec la fonction de hasard de la
manière suivante :
𝑖𝑥 = 1 −𝑆(𝑥 + 1)
𝑆(𝑥)= 1 − exp(−∫ ℎ(𝑡)𝑑𝑡
𝑥+1
𝑥
) = 1 − exp (−∫ (𝑎 + 𝑏 × 𝑐𝑡)𝑑𝑡𝑥+1
𝑥
)
= 1 − exp(−𝑎) exp (−𝑏
ln 𝑐𝑐𝑥(𝑐 − 1))
Nous posons alors :
𝑠 = exp(−𝑎) et 𝑔 = exp (−𝑏
ln 𝑐)
Nous obtenons alors la fonction pour l’ajustement des 𝑖𝑥 :
𝑖𝑥 = 1 − 𝑠 × 𝑔𝑐𝑥(𝑐−1)
Pour voir l’adéquation de la courbe des taux bruts 𝑖̂𝑥 au modèle de Makeham-
Gompertz, nous pouvons observer ses propriétés :
1 − 𝑖𝑥 = 𝑠 × 𝑔𝑐𝑥(𝑐−1)
ln(1 − 𝑖𝑥) = ln(𝑠) + 𝑐𝑥(𝑐 − 1) ln(𝑔)
28
Pour les 𝑖𝑥 proches de 0, nous pouvons faire l’approximation grâce au développement
limité de :
ln(1 − 𝑖𝑥) ≈ −𝑖𝑥
Nous remplaçons et nous obtenons alors :
𝑖𝑥 = − ln(𝑠) − 𝑐𝑥(𝑐 − 1) ln(𝑔)
Il s’ensuit que :
𝑖𝑥+1 − 𝑖𝑥 = −𝑐𝑥(𝑐 − 1)2 ln(𝑔)
Ce qui amène :
ln(𝑖𝑥+1 − 𝑖𝑥) = 𝑥 ln 𝑐 + ln(−(𝑐 − 1)2 ln(𝑔))
Si les taux d’entrée en dépendance suivent une loi de Makeham-Gompertz, les points
(𝑥, 𝑦 = ln(𝑖𝑥+1 − 𝑖𝑥)) doivent être alignés sur une droite de pente ln 𝑐.
L’idée est de réaliser dans un premier temps une régression linéaire 𝑦 = 𝑎𝑥 + 𝑏 sur les
points (𝑥, 𝑦 = ln(𝑖̂𝑥+1 − 𝑖̂𝑥)), puis analyser la qualité de cette régression (voire Galton 1886
[5]). Dans le cas d’un bon ajustement linéaire (𝑅2 élevé, coefficients significatives, résidus
stationnaires) nous pourrons procéder à l’estimation des paramètres.
Il existe deux méthodes alternatives permettant l’estimation des paramètres :
- EMV (Estimateur du Maximum de vraisemblance)
Pour effectuer l’estimation par le maximum de vraisemblance il est nécessaire de
poser une hypothèse que le nombre d’entrées en dépendance observé à l’âge 𝑥, 𝐷𝑥, suit une loi
binomiale de paramètres (𝑛𝑥 , 𝑖𝑥(𝜃)) avec :
𝑖𝑥(𝜃) = 1 − 𝑠 × 𝑔𝑐𝑥(𝑐−1)
et 𝜃 = (𝑠, 𝑔, 𝑐) le vecteur des paramètres à déterminer.
Nous utilisons ici le modèle du maximum de vraisemblance discrétisé, et notons la
vraisemblance associée à la réalisation d’un nombre 𝑑𝑥 d’entrées en dépendance égale à :
𝑃(𝐷𝑥 = 𝑑𝑥) = 𝐶𝑛𝑥
𝑑𝑥𝑖𝑥𝑑𝑥(1 − 𝑖𝑥)
𝑛𝑥−𝑑𝑥
Pour l’ensemble des observations on obtient donc la log-vraisemblance suivante :
𝑙(𝜃) = 𝐾 + ∑𝑑𝑥 ln(𝑖𝑥(𝜃))
𝑥
+ ∑(𝑛𝑥 − 𝑑𝑥) ln(1 − 𝑖𝑥(𝜃))
𝑥
avec 𝐾 une constante qui ne dépende pas des paramètres.
Nous cherchons alors le vecteur 𝜃 maximisant la fonction de vraisemblance.
Nous pouvons chercher le vecteur 𝜃 tel que 𝜕𝑙(𝜃)
𝜕𝜃(𝜃) = 0 ou effectuer une
optimisation numérique avec, par exemple, la méthode de Newton-Raphson (voire Simpson
1740 [6]). Comme la fonction 𝑙(𝜃) est assez régulière, cette deuxième approche est plus facile
à réaliser et donne les résultats précis. Donc, elle est préférable.
- MCO (Moindres carrées ordinaires)
L’idée consiste à minimiser la fonction suivante :
29
∆(𝜃) = ∑(𝑖𝑥(𝜃) − 𝑖̂𝑥)2
𝑥
La minimisation peut être effectuée par la méthode numérique de Newton-Raphson.
Dans ce cas, l’algorithme ne converge vers la vraie valeur du paramètre qu’à condition de
partir d’une valeur initiale 𝜃0 = (𝑠0, 𝑔0, 𝑐0) assez proche du vecteur 𝜃.
Nous pouvons utiliser dans ce but les résultats issus de la régression réalisée
précédemment. On a trouvé les estimateurs de coefficients de la régression �̂� et �̂�. Ainsi :
𝑐0 = 𝑒�̂� et 𝑔0 = exp(𝑒�̂�
−(𝑐0 − 1)2).
Nous pouvons également trouver 𝑠0 à partir de la relation ln(1 − 𝑖𝑥) = ln(𝑠) +𝑐𝑥(𝑐 − 1) ln(𝑔).
Comme la méthode MCO semble être plus simple et elle ne nécessite pas de poser des
hypothèses supplémentaires, nous allons donc estimer les paramètres avec cette méthode.
C2.1.5) Validation de l’ajustement et de lissage
Au niveau global, la pertinence de l’ajustement est appréhendée sur deux niveaux :
- La qualité du lissage. Il s’agit de déterminer si les données ont été sur-lissées
ou sous-lissées. Nous utilisons le nombre de signes positifs et négatifs des
résidus de la réponse, la valeur du test des signes correspondant, le nombre de
runs et la valeur du test des runs correspondant.
- L’écart entre l’ajustement et les observations. Nous utilisons le nombre de
résidus standardisés supérieurs à 2 et 3, et des critères mesurant la distance
entre l’ajustement et les observations. On dispose du critère du 𝜒2 ainsi que le
mean average percentage error (MAPE) et 𝑅2 En addition, il nous semble
utile de comparer les valeurs du standardized mortality ratio (SMR), la
déviance et la valeur du test de Wilcoxon ou test des rangs appliqué au cas
d’échantillons appariés.
Ainsi, l’ajustement est évalué selon la qualité du lissage et l’écart global avec les taux
observés. Un bon ajustement, marqué par une répartition homogène des signes positifs et
négatifs des résidus de la réponse et un grand nombre de runs ne doit pas résulter d’un écart
trop important avec la mortalité passée, ou réciproquement. En conséquence, nous
chercherons toujours à équilibrer ces deux aspects complémentaires.
Les tests et quantités résumant la qualité de l’ajustement sont présentés ci-dessous [7] :
C2.1.5) a) Test des signes
Il s’agit d’un test non-paramétrique qui examine la fréquence des changements de
signes de la différence entre les taux observés et ajustés. Sous l’hypothèse nulle 𝐻0, la
médiane entre les signes positifs et négatifs de cette différence est nulle. Soit le nombre 𝑛+ de
signes positifs et 𝑛− de négatifs, avec 𝑛 = 𝑛+ + 𝑛−, la statistique du test des signes, 𝜉𝑆𝐼𝐺 ,
s’écrit :
𝜉𝑆𝐼𝐺 =|𝑛+ − 𝑛−| − 1
√𝑛
30
Si 𝐻0 est vraie, cette statistique suit une loi Normale de centrée réduite,
𝜉𝑆𝐼𝐺~𝑁(0,1)
Ainsi, l’hypothèse nulle 𝐻0 sera rejetée si
|𝜉𝑆𝐼𝐺| > 𝑁1−
𝛼2(0,1)
où 𝑁1−𝛼
2
(0,1) est le (1 −𝛼
2) quantile de la distribution Normale centrée réduite. La p-valeur
est la plus petite valeur du risque de première espèce 𝛼 pour laquelle on rejette le test. Nous
privilégierons donc le modèle ayant la p-valeur la plus proche de 1 :
𝑃 − 𝑣𝑎𝑙𝑢𝑒 = 2min (𝐹𝑁(0,1)(|𝜉𝑆𝐼𝐺|), 1 − 𝐹𝑁(0,1)(|𝜉
𝑆𝐼𝐺|))
C2.1.5) b) Test des runs
Il s’agit d’un test non-paramétrique qui détermine si les éléments d’une séquence sont
mutuellement indépendants. Un run est le segment d’une séquence, formé par des éléments
adjacents égaux. Par exemple, la séquence suivante, composée de 21 éléments,
{+ + − − − − + + + + − − + + + + − − − + +};
est composée de 7 runs dont 4 sont composés de + et 3 de −. Sous l’hypothèse nulle 𝐻0, le
nombre de runs d’une séquence de 𝑛 éléments est une variable aléatoire dont la distribution
conditionnelle sachant le nombre 𝑛+ de signes positifs et 𝑛− de négatifs, avec 𝑛 = 𝑛+ + 𝑛−
est approximativement Normal, avec :
𝜇 =2𝑛+𝑛−
𝑛+ 1 et 𝜎2 =
2𝑛+𝑛−(2𝑛+𝑛− − 𝑛)
𝑛2(𝑛 − 1).
La statistique du test des runs, 𝜉𝑅𝑈𝑁, s’écrit :
𝜉𝑅𝑈𝑁 =𝑁𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑟𝑢𝑛𝑠 − 𝜇
𝜎.
Si 𝐻0 est vraie, cette statistique suit une loi Normale de centrée réduite,
𝜉𝑅𝑈𝑁~𝑁(0,1)
Ainsi, l’hypothèse nulle 𝐻0 sera rejetée si
|𝜉𝑅𝑈𝑁| > 𝑁1−
𝛼2(0,1)
où 𝑁1−𝛼
2
(0,1) est le (1 −𝛼
2) quantile de la distribution Normale centrée réduite.
La p-valeur est alors donnée par :
𝑃 − 𝑣𝑎𝑙𝑢𝑒 = 2 min (𝐹𝑁(0,1)(|𝜉𝑅𝑈𝑁|), 1 − 𝐹𝑁(0,1)(|𝜉
𝑅𝑈𝑁|))
Nous chercherons à avoir la p-valeur la plus proche de 1. Ce test est aussi appelé test
de Wald-Wolfowitz.
C2.1.5) c) Test de 𝝌𝟐
Cet indicateur permet de mesurer la qualité de l’ajustement du modèle. La valeur de la
statistique est :
31
𝜉𝐶ℎ𝑖2 = ∑𝑛𝑗(𝑖𝑗 − 𝑖�̂�)
2
𝑖𝑗(1 − 𝑖𝑗)
𝑝
𝑗=1
Dans le cas d’un ajustement paramétrique par maximum de vraisemblance avec 𝑟
paramètres, alors la distribution (asymptotique) de 𝑍 est une loi χ2(𝑝 − 𝑟 − 1).
Ainsi, l’hypothèse nulle 𝐻0 sera rejetée si
𝜉𝐶ℎ𝑖2 > χ1−𝛼2 (𝑝 − 𝑟 − 1)
où χ1−𝛼2 (𝑝 − 𝑟 − 1) est le (1 − 𝛼) quantile de la distribution χ2 avec (𝑝 − 𝑟 − 1) degrés de
liberté.
La p-valeur est alors donnée par :
𝑃 − 𝑣𝑎𝑙𝑢𝑒 = 1 − 𝐹χ2(𝑝−𝑟−1)(𝜉𝐶ℎ𝑖2)
Dans le cas d’un lissage non-paramétrique le nombre de degrés de liberté est plus
délicat à déterminer. Alors, nous privilégierons le modèle ayant la valeur du 𝜉𝐶ℎ𝑖2 la plus
faible.
C2.1.5) d) Critère MAPE
Il s’agit d’une mesure de l’exactitude de l’ajustement par rapport aux observations.
Cet indicateur correspond à la moyenne des écarts en valeur absolue par rapport aux valeurs
observées,
𝑀𝐴𝑃𝐸 =∑ |(
𝑑𝑥
𝑛𝑥− 𝑖̂𝑥) /
𝑑𝑥
𝑛𝑥|𝑥
∑ 𝑑𝑥𝑥× 100
C’est donc un pourcentage et par conséquent un indicateur pratique de comparaison.
Néanmoins, en présence d’observations nulles il y aura une division par zéro et ces
observations doivent être retirées.
C2.1.5) e) Critère 𝑹𝟐
D’une valeur comprise entre 0 et 1, le coefficient de détermination mesure
l’adéquation entre le modèle et les données observées. Le 𝑅2 se définit comme la part de
variance expliquée par rapport à la variance totale,
𝑅2 = 1 −
(
∑ (
𝑑𝑥
𝑛𝑥− 𝑖̂𝑥)
2
𝑥
∑ (𝑑𝑥
𝑛𝑥− (∑
𝑑𝑥
𝑛𝑥/𝑛𝑥 ))
2
𝑥)
où 𝑛 est le nombre d’observations.
Notons que le 𝑅2 = 1 signifie une équivalence parfaite.
C2.1.5) f) La déviance
Il s’agit d’une mesure de qualité de l’ajustement. Sous l’hypothèse des décès suivant
une loi binomiale 𝐷𝑥~𝐵𝑖𝑛(𝑛𝑥 , 𝑖𝑥), la déviance s’écrit :
Si 𝑛𝑥 > 1 et 0 < 𝑑𝑥 < 𝑛𝑥, 𝐷𝑒𝑣𝑥 = 2 (𝑛𝑥 ln (𝑑𝑥
𝑛𝑥�̂�𝑥) + (𝑛𝑥 − 𝑑𝑥) ln (
𝑛𝑥−𝑑𝑥
𝑛𝑥−𝑛𝑥�̂�𝑥 )).
32
Si 𝑛𝑥 > 1 et 𝑑𝑥 = 0, 𝐷𝑒𝑣𝑥 = 2𝑛𝑥 ln (𝑛𝑥
𝑛𝑥−𝑛𝑥�̂�𝑥).
Si 𝑛𝑥 > 1 et 𝑑𝑥 = 𝑛𝑥, 𝐷𝑒𝑣𝑥 = 2𝑛𝑥 ln (𝑛𝑥
𝑛𝑥�̂�𝑥).
Et 𝐷𝑒𝑣𝑖𝑎𝑛𝑐𝑒 = ∑ 𝐷𝑒𝑣𝑥𝑥
Ainsi, nous privilégierons le modèle ayant la déviance la plus faible.
C2.1.5) g) Test de Wilcoxon
Le cadre de ce test ressemble fortement au test des signes. Alors que le test des signes
n’utilise que l’information sur la direction des différences entre les paires composées des taux
observés et ajustés, le test de Wilcoxon ou Wilcoxon Matched-Pairs Signed-Ranks test prend
en compte, en plus, la grandeur des différences.
On teste l’hypothèse nulle 𝐻0 que la médiane entre la différence de chaque paire est
nulle. On calcule les différences entre les taux observés et ajustés, puis on les classe par ordre
croissant des valeurs absolues, en omettant les différences nulles. On affecte à chaque
différence non nulle son rang dans le classement (ou la moyenne de ses rangs en cas d’ex-
aequo). On note 𝑤+ et 𝑤− la somme des rangs des différences strictement positives et
négatives respectivement. Enfin, on note 𝑤 = max(𝑤+, 𝑤−). Si les taux observés et ajustés
sont équivalents, donc si 𝐻0 est vraie, la somme des rangs ayant un signe positif et celle des
rangs ayant un signe négatif devraient être à peu près égale. Mais si la somme des rangs de
signes positifs est très différente de celle des rangs de signes négatifs, nous en déduirons que
les taux ajustés diffèrent de ceux observés, et rejetterons l’hypothèse nulle. Si le nombre
d’observations 𝑛 est supérieur à 15, on calcule la statistique 𝜉𝑊𝐼𝐿,
𝜉𝑊𝐼𝐿 =
(𝑤 −12 − 𝑛(𝑛 + 1))
4√𝑛(𝑛 + 1)(2𝑛 + 1)24
.
Si 𝐻0 est vraie, cette statistique suit une loi Normale de centrée réduite,
𝜉𝑊𝐼𝐿~𝑁(0,1)
Ainsi, l’hypothèse nulle 𝐻0 sera rejetée si
|𝜉𝑊𝐼𝐿| > 𝑁1−
𝛼2(0,1)
où 𝑁1−𝛼
2
(0,1) est le (1 −𝛼
2) quantile de la distribution Normale centrée réduite.
La p-valeur est alors donnée par :
𝑃 − 𝑣𝑎𝑙𝑢𝑒 = 2min (𝐹𝑁(0,1)(|𝜉𝑊𝐼𝐿|), 1 − 𝐹𝑁(0,1)(|𝜉
𝑊𝐼𝐿|))
Nous chercherons à avoir la p-valeur la plus proche de 1. Le test de Wilcoxon utilise la
grandeur des différences. Le résultat peut être différent de celui du test des signes qui utilise le
nombre de signes positifs et négatifs de la différence.
Remarque : les résultats de ces tests peuvent être différents, voire même
contradictoires. Cela dépend des données utilisées pour effectuer le test, du niveau de
confiance choisi et de la construction du test. Ainsi, dans la suite, nous allons valider la
33
qualité de lissage ou de l’ajustement sur l’ensemble de ces tests et indicateurs, afin de
déterminer les approches statistiques les plus adaptées dans notre cas.
C2.1.6) Taux d’incidence brute par sexe
Dans cette partie nous allons nous intéresser à l’influence du sexe sur la loi
d’incidence.
Remarque : Pour cause de confidentialité nous n’allons pas afficher les échelles de
certains graphiques et de même pour les valeurs réelles des estimateurs.
Nous construisons donc les deux estimateurs de Kaplan-Meier qui représentent les
fonctions de survie de la loi d’entrée en dépendance pour les hommes et pour les femmes. Les
courbes de survie sont présentées sur la figure 2.1.
Figure 2.1. Les fonctions de survie Kaplan-Meier par sexe
Nous appliquerons les tests de Kolmogorov-Smirnov (KS-test) et Log-rank pour voir
la significativité de la différence des deux lois (voire Shorack & Wellner 2009 [8] et Mantel
1966 [9]). Le tableau 2.1 récapitule les résultats de ces tests.
Test Statistique P-value Résultat
KS-test 0.0599009 0.9939388 Acceptation 𝐻0 : différence non-significative
Log-rank test 0.00434 0.947 Acceptation 𝐻0 : différence non-significative Tableau 2.1. KS-test et Log-rank test de répartition par sexe
Ainsi, nous pouvons conclure qu’il n’y a pas de différence significative entre les lois
d’entrée en dépendance des hommes et des femmes (P-value proche de 1). Alors, dans la
suite de l’étude nous allons modéliser l’incidence, sans tenir compte de la répartition par
sexe.
34
C2.1.7) Taux d’incidence brute par type de dépendance
Dans cette partie nous nous intéressons à l’étude d’influence du type d’entrée en
dépendance sur la loi d’incidence.
Ainsi, nous construisons les trois estimateurs de Kaplan-Meier représentant les
fonctions de survie de la loi d’entrée en dépendance totale, d’entrée en dépendance partielle et
les deux en même temps.
La figure 2.2 présente graphiquement ces estimateurs.
Figure 2.2. Les fonctions de survie Kaplan-Meier par type de dépendance
Il est facile de remarquer que la fonction de survie pour la dépendance totale est très
proche de celle de totale et partielle en même temps. En effet, la fonction de survie pour la
dépendance partielle est assez faible (proche de 1), car nous constatons très peu de passage
vers cet état. Ce paradoxe peut être expliqué par les clauses contractuelles strictes identifiant
l’entrée en dépendance partielle.
Pour vérifier la significativité de la différence entre les courbes de survie nous allons
effectuer le KS-test et le Log-rank test. Les résultats de ces tests sont présentés dans les
tableaux ci-dessous.
Test Statistique de KS-test P-value Résultat
Totale et partielle
vs totale 0.07404414 0.9419866
Acceptation 𝐻0 :
différence non-significative
Totale et partielle
vs partielle 0.4822388 2.289731e-10
Rejet 𝐻0 :
différence significative
Totale vs partielle 0.4081946 1.921528e-07
Rejet 𝐻0 :
différence significative Tableau 2.2. Test de Kolmogorov-Smirnov pour les fonctions de survie par type de dépendance
35
Test Statistique de Log-rank test P-value Résultat
Totale et partielle
vs totale 53.1 3.14e-13
Rejet 𝐻0 :
différence non-significative
Totale et partielle
vs partielle 3194 0
Rejet 𝐻0 :
différence significative
Totale vs partielle 2541 0
Rejet 𝐻0 :
différence significative Tableau 2.3. Test de Log-rank pour les fonctions de survie par type de dépendance
Les résultats du KS test confirment que les distributions de l’entrée en dépendance
totale et de l’entrée en dépendance totale et partielle en même temps n’ont pas de différences
significatives (P-value proche de 1).
Par contre, les résultats du log-rank test ne sont pas fiables, car les observations
censurées sont les mêmes pour la construction des trois estimateurs. Les nombres des sorties
espérées sont proches, mais les sorties observées sont assez éloignées. Cela augmente
fortement la valeur de la statistique.
Alors, nous pouvons modéliser l’entrée en dépendance totale en utilisant toutes les
observations. L’entrée en dépendance partielle est un sujet un peu plus délicat. Nous allons
donc essayer d’exprimer l’incidence partielle via l’incidence totale.
Remarque : à partir de là, nous allons considérer la dépendance totale et partielle en
même temps comme la dépendance totale.
Tous d’abord, il faut effectuer le passage de l’estimateur de Kaplan-Meier de la
fonction de survie aux taux bruts d’incidence. Pour cela nous allons utiliser l’expression (1)
rappelée ci-dessous :
𝑖𝑥 = 1 −𝑆(𝑥 + 1)
𝑆(𝑥).
Il est important de noter, qu’en utilisant cette expression nous perdons la valeur de
taux d’incidence pour la dernière observation de l’âge (𝑥 = 95).
Les taux bruts d’incidence sont présentés sur la figure 2.3.
36
Figure 2.3. Taux d’incidence bruts par type de dépendance
Nous constatons les dégradations des courbes pour les âges élevés (> 90) qui sont liées
au manque de données. Egalement, nous remarquons que les courbes ne sont pas assez lisses,
alors il faudra appliquer les méthodes de lissage (décrites dans la partie C2.1.2)) afin d’éviter
la modélisation des irrégularités.
Pour le lissage par moyennes mobiles nous avons choisi les paramètres suivants, afin
d’optimiser les qualités de lissage:
𝑟 = 3 𝑒𝑡 𝑎𝑖 =1
3 ∀𝑖 ∈ (1,… , 𝑟)
Le résultat est présenté sur la figure 2.4.
Figure 2.4. Lissage par moyennes mobiles des taux d’incidence bruts
37
Pour le lissage de Whittaker-Henderson nous avons prix les poids 𝑤𝑖 = 1, ∀𝑖 ∈(1,… , 𝑝), où 𝑝 est le nombre d’estimations réalisées. Les paramètres du modèle 𝑧 = 2 et
ℎ = 0.5.
Le résultat de ce lissage est présenté sur la figure 2.5.
Figure 2.5. Lissage par Whittaker-Henderson des taux d’incidence bruts
Pour vérifier la qualité des lissages nous allons appliquer les tests décrits dans la partie
C2.1.4). Le tableau comparant les résultats des lissages est présenté ci-dessous :
Lissage par moyennes mobiles
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.00383988 2.43997713 1.051353 -3.9255610257
P-value 1.00000000 0.04065898 0.459111 0.0003594965
Acceptation H0 Oui Non Oui Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
15.87185 0.09495991 0.9817497 142.1951
Lissage par Whittaker-Henderson
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.006866096 0.7372098 1.02925 -4.325082e+00
P-value 1.000000000 0.6080303 0.46979 6.916885e-05
Acceptation H0 Oui Oui Oui Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
11.35183 0.09195148 0.9827435 138.7397 Tableau 2.4. Comparaison des lissages pour la dépendance totale
Remarque : le KS-test peut être facilement adapté pour valider le lissage en utilisant la
relation récurrente obtenue de l’expression (1).
Le tableau 2.4 montre que le lissage des taux d’incidence bruts en dépendance totale
par Whittaker-Henderson passe 3 tests sur 4 et que le lissage par moyennes mobiles que 2 sur
38
4. Egalement, le lissage par WH donne les indicateurs 𝜒2, MAPE, déviance inférieure et 𝑅2
plus proche de 1, que ceux de lissage par MM.
Lissage par moyennes mobiles
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.004049591 0.0000000 1.1725042 -4.328183e+00
P-value 1.000000000 0.7978846 0.4012485 6.824721e-05
Acceptation H0 Oui Oui Oui Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
14.26579 1.275812 0.9859525 39.66239
Lissage par Whittaker-Henderson
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.00197351 0.4423259 1.8555091 -4.1939778380
P-value 1.00000000 0.7235270 0.1426661 0.0001209037
Acceptation H0 Oui Oui Oui Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
8.546487 1.134615 0.9910478 36.98003 Tableau 2.5. Comparaison des lissages pour la dépendance partielle
Sur le tableau 2.5, nous pouvons voir, que les deux lissages passent les mêmes tests (3
sur 4), mais les indicateurs sont plus favorables pour le lissage par WH. Alors nous allons
considérer le lissage par Whittaker-Henderson comme le plus adapté et nous l’utiliserons dans
la suite.
Nous remarquons également que le test de Wilcoxon ne passe jamais au niveau de
significativité de 95%. Ce test est plutôt utilisable dans les cas où les taux bruts sont plus
réguliers et lisses, donc il y a plus des données pour la modélisation.
Pour modéliser le lien entre les deux types de dépendance nous essayerons d’étudier le
rapport entre les taux d’incidence de dépendance totale et partielle (figure 2.6).
Figure 2.6. Rapport entre dépendance partielle et dépendance totale
39
Nous pouvons voir les valeurs aberrantes de rapport pour les petits âges. La « boite à
moustache » tracée sur la figure 2.7 confirme cette supposition.
Figure 2.7. Graphique de type « boite à moustache » sur les données des taux de rapport
Nous voyons que ces valeurs correspondent aux petits âges, ou les taux d’incidence
sont très faibles. Alors, nous avons le droit de supprimer ces valeurs et d’essayer d’ajuster un
modèle quadratique de type 𝑦 = 𝑎 + 𝑏𝑥 + 𝑐𝑥2.
Le résultat de cet ajustement est le suivant :
Qualité des paramètres
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒂 2.056e+00 2.223e-01 9.251 4.77e-11 Oui
𝒃 -5.318e-02 5.939e-03 -8.955 1.09e-10 Oui
𝒄 3.633e-04 3.899e-05 9.319 3.95e-11 Oui
Qualité du modèle :
𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.7465
Qualité des résidus :
Test 𝝌𝟐 Dégrées de liberté P-value
Jarque-Bera 0.5432 2 0.7622
Box-Pierce 2.8672 1 0.0562 Tableau 2.6. Résultats d’ajustement de modèle quadratique des taux de rapport
Nous constatons que les estimateurs de tous les coefficients sont significatifs. Les tests
de normalité et de stationnarité des résidus sont acceptés au niveau de confiance de 5%. Et le
𝑅2 ajusté est assez élevé ( > 70%). Alors, nous pouvons conclure, que l’ajustement
quadratique des rapports des taux d’incidence en dépendance partielle et en dépendance totale
semble être cohérent et bien adapté.
La visualisation des résultats est présentée sur la figure 2.8
40
Figure 2.8. Adéquation du modèle quadratique des taux de rapport
Ainsi, nous pouvons construire les taux d’incidence en dépendance partielle en
utilisant le modèle quadratique et les taux d’incidence en dépendance totale (figure 2.9) :
Figure 2.9. Taux d’incidence en dépendance partielle
Pour vérifier l’adéquation du modèle nous appliquerons l’ensemble des tests usuels,
dont les résultats sont présentés ci-dessous :
41
Modèle quadratique vs taux bruts
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.01097444 0.4423259 -2.95313422 -4.423411e+00
P-value 1.00000000 0.7235270 0.01019057 4.498991e-05
Acceptation H0 Oui Oui Oui Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
30.98216 1.376112 0.9689458 31.74862
Modèle quadratique vs taux lissés WH
Tests KS Changements des signes Runs Wilcoxon
Statistique 0.01067478 0.7372098 -3.5232029 -4.355127e+00
P-value 1.00000000 0.6080303 0.001608794 6.071272e-05
Acceptation H0 Oui Oui Non Non
Indicateurs 𝝌𝟐 MAPE 𝑹𝟐 Déviance
18.46356 1.374033 0.9754704 31.74862 Tableau 2.7. Résultats de test d’adéquation du modèle quadratique
Nous voyons que le modèle quadratique est acceptable au sens d’un lissage. De plus,
ce modèle surestime les taux pour les âges 85 – 95 et les sous-estime légèrement pour les âges
après. Vu que les effectifs des assurés sont largement supérieurs pour les âges 85 – 95
qu’après, nous pouvons considérer cette approche comme prudente.
Remarque : Comme nous l’avons vu précédemment, la courbe des taux d’incidence
bruts contient des dégradations après l’âge de 90 ans liées au manque des données. Nous
avons décidé de modéliser les taux pour les âges avant 90, les taux pour les âges supérieurs
feront l’objet de la fermeture des tables.
C2.1.8) Ajustement du modèle de Makeham-Gompertz
L’objectif de ce mémoire nous amène à nous intéresser particulièrement aux modèles
paramétriques. Dans cette partie nous présenterons les résultats d’ajustement d’un modèle de
Makeham-Gompertz (MG) pour les taux d’incidence en dépendance totale.
La vérification d’adéquation de la courbe de MG à nos données justifie l’utilisation du
modèle. La régression linéaire ajustée sur les logarithmes des accroissements des taux
d’incidence montre de bonnes propriétés (coefficients significatifs, résidus stationnaires
gaussiens et le 𝑅2 ajusté égale à environ 76 %).
Donc, nous procédons à l’estimation des paramètres et à la vérification de qualité de
l’ajustement. Les paramètres suivants minimisent les écarts entre la courbe de MG et les taux
bruts :
{𝑎 = �̃�𝑏 = �̃�𝑐 = �̃�
Ils rendent la somme des carrés résiduelle (SSR) égale environ à 5 × 10−5.
La visualisation d’adéquation de la courbe MG aux taux bruts est présentée sur la
figure 2.10 et le test d’adéquation sur le tableau 2.8 ci-après:
42
Figure 2.10. Modèle Makeham-Gompertz
Tests KS 𝝌𝟐 Changements
des signes Runs Wilcoxon
Statistique 0.03584193 542.4966 5.934603e+00 0.2264554 -2.86865668
P-value 0.99999998 1.733e-08 1.795230e-08 0.7776860 0.01303148
Acceptation H0 Oui Non Non Oui Non
Indicateurs MAPE 𝑹𝟐 Déviance
1.461783 0.9709111 988.2679 Tableau 2.8. Résultats de test d’adéquation du modèle Makeham-Gompertz
Nous pouvons voir que les résultats sont moins bons que dans le cas de lissage de
WH : l’ajustement passe moins de tests au même niveau de confiance et les indicateurs
MAPE, 𝑹𝟐, 𝝌𝟐 et la déviance sont moins satisfaisants. La courbe MG surestime sur
plusieurs intervalles des âges les taux bruts. Néanmoins, le modèle passe certains tests
statistiques (KS et Runs). De plus la surestimation constatée intègre une marge de prudence
dans notre modèle. Donc, dans la suite nous allons garder le modèle de Makeham-
Gompertz pour modéliser les taux d’incidence.
C2.1.9) Fermeture de la table d’incidence
La dépendance est un risque assez particulier. Il est fortement lié avec le risque de
décès. Les deux forment l’ensemble des évènements complet. Le schéma suivant illustre les
états possibles et les probabilités de passage d’un état à l’autre:
43
Figure 2.11. Les états en dépendance
Sur le schéma, on peut noter que :
- 𝑞𝑥𝑖,𝑑
: probabilité de décéder dans l’état entre l’âge 𝑥 et 𝑥 + 1
- 𝑖𝑥𝑖,𝑗
: probabilité d’entrée en dépendance ou d’aggravation de l’état de dépendance
(partielle à totale) à l’âge 𝑥
- 𝑣: valide
- 𝑑𝑝: dépendance partielle
- 𝑑𝑡: dépendance totale
- 𝑑: décès
La figure 2.11 montre bien que la loi d’entrée en dépendance elle-même n’est pas
complète. Cela veut dire, que la courbe des taux d’incidence en fonction de l’âge n’atteindra
jamais 1 en probabilité. La présence d’une telle asymptote strictement inférieure à 1 pose de
fortes contraintes pour la fermeture de la table d’incidence.
Comme la loi de Makeham-Gompertz est une loi souvent utilisée pour modéliser la
mortalité, son asymptote est égale à 1. Donc, en fermant la table d’incidence pour les grands
âges avec cette loi nous allons introduire un fort biais dans le résultat.
D’un autre côté, nous ne disposons pas suffisamment de données pour effectuer une
estimation empirique quelconque. Alors, il faut trouver une autre approche pour fermer les
tables d’incidence.
Nous avons l’intention d’utiliser le modèle de Verhulst ayant la forme d’une fonction
logistique suivante :
𝑖𝑥 = 𝐾1
1 + (𝐾𝑖0
− 1) 𝑒−𝑎𝑥
44
où 𝑎 et 𝐾 sont des constantes positives et 𝑖0 représente la valeur initiale (dans notre cas elle
corresponde à la valeur du taux d’incidence à l’âge de 90 ans 𝑖90, d’où nous commençons la
fermeture de la table).
En passant dans le cas discret, la fonction logistique se transforme dans la suite
logistique :
𝑖𝑛+1 = 𝑖𝑛 + 𝑎𝑖𝑛 (1 −𝑖𝑛𝐾
)
Le comportement de cette suite est présenté sur le graphique ci-dessous :
Figure 2.12. Suite logistique
Il est facile de remarquer que cette suite converge vers la valeur de 𝐾 pour 𝑎 ∈ [0,2]. Ainsi nous pouvons dire que 𝐾 représente l’asymptote des taux d’incidence et 𝑎 la vitesse de
convergence vers cette asymptote.
Pour estimer les paramètres 𝑎 et 𝐾 nous allons utiliser les résultats d’une étude
réalisée sur les données d’un autre portefeuille contenant plus d’information sur les âges
élevés.
Ces résultats nous proposent une équivalence suivante pour les âges élevés :
𝑖𝑛+1 = 𝑖𝑛 ∗ 1.048
Grace à cette récurrence nous pouvons estimer le paramètre 𝐾 comme l’asymptote à
l’âge souhaité (115 ans dans notre cas) par la formule :
�̂� = 𝑖90 ∗ 1.048(115−90)
Finalement, en utilisant 𝑖89, 𝑖90, �̂� et la suite logistique nous pourrons trouver
l’estimateur de 𝑎 comme suite :
�̂� =(𝑖90 − 𝑖89)
𝑖89 ∗ (1 −𝑖89
�̂�).
45
La figure 2.13 montre le résultat final obtenu.
Figure 2.13. Loi d’incidence clôturée
46
C2.2. Loi de maintien en dépendance
La loi de maintien en dépendance techniquement représente une loi de mortalité. Nous
allons donc nous intéresser à la construction de la fonction de survie des assurés pour les
grands âges. Cette fonction établira le lien entre les durées de vie et les probabilités de
survivre au-delà de ces durées.
Dans un premier temps nous allons introduire quelques éléments théoriques qui
n’apparaissaient pas dans la section précédente. Dans un deuxième temps, nous effectuerons
la modélisation des fonctions de survie réparties par le sexe, le type de dépendance et l’âge à
l’entrée en dépendance.
Les unités des durées ont été prises en mois, car cela donne une répartition assez fine,
tout en permettant d’avoir les poids suffisants des observations pour construire l’estimateur.
De plus, les paiements de rentes sont mensuels, donc cela simplifiera les calculs ultérieurs.
C2.2.1) Estimateur de Nelson-Aalen de fonction de hasard cumulé
Nous notons le processus suivant [10] :
𝑀(𝑡) = �̅�1(𝑡) − ∫ �̅�(𝑢)ℎ(𝑢)𝑑𝑢𝑡
0
avec :
- �̅�1(𝑡) = ∑ 𝑁𝑖1(𝑡)𝑛
𝑖=1 – le processus d’évènements non-censurés ;
- �̅�(𝑡) = ∑ 𝑅𝑖(𝑡)𝑛𝑖=1 – le processus comptabilisant les individus ni morts ni
censurés ;
- ℎ(𝑡) – la fonction de hasard.
Le processus Λ1(𝑡) = ∫ �̅�(𝑢)ℎ(𝑢)𝑑𝑢𝑡
0 est un processus prévisible, qui rend 𝑀(𝑡)
martingale centrée. Donc, le processus :
∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑𝑀(𝑢)
est également une martingale et on a par construction de M :
∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑𝑀(𝑢) = ∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑�̅�1(𝑢) − ∫1{�̅�(𝑢)>0}
�̅�(𝑢)�̅�(𝑢)ℎ(𝑢)𝑑𝑢
𝑡
0
= ∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑�̅�1(𝑢) − ∫ ℎ(𝑢)𝑑𝑢𝑡
0
= ∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑�̅�1(𝑢) − 𝐻(𝑡)
pour autant que 𝑡 soit tel que �̅�(𝑡) > 0. Ainsi �̂�(𝑡) = ∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0𝑑�̅�1(𝑡) est un estimateur
naturel de 𝐻(𝑡). Comme les processus considérés ici sont purement à sauts on peut, en notant
Δ�̅�(𝑡) = �̅�(𝑡) − �̅�(𝑡 −), mettre cette expression sous la forme :
�̂�(𝑡) = ∑Δ�̅�(𝑇𝑖)
�̅�(𝑇𝑖)𝑇𝑖<𝑡
.
En posant 𝑑(𝑡) = Δ�̅�(𝑡) le nombre de sortie en 𝑡 et 𝑟(𝑡) = �̅�(𝑡) l’effectif sous risque
juste avant 𝑡, on peut ainsi réécrire l’équation ci-dessus sous la forme intuitive suivante :
47
�̂�(𝑡) = ∑𝑑(𝑇𝑖)
𝑟(𝑇𝑖)𝑇𝑖<𝑡
.
La fonction �̂� est continue à droite. On peut vérifier que cet estimateur est biaisé et
sous-estime en moyenne la fonction de hasard cumulée. En effet,
𝐸[�̂�(𝑡)] = 𝐸 [∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑�̅�1(𝑢)] = 𝐸 [∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
𝑑𝑀(𝑢) + ∫1{�̅�(𝑢)>0}
�̅�(𝑢)
𝑡
0
�̅�(𝑢)ℎ(𝑢)𝑑𝑢]
= 𝐸 [∫ 1{�̅�(𝑢)>0}
𝑡
0
ℎ(𝑢)𝑑𝑢] = ∫ 𝐸[1{�̅�(𝑢)>0}]ℎ(𝑢)𝑑𝑢𝑡
0
= ∫ (1 − 𝑃(�̅�(𝑢) = 0))ℎ(𝑢)𝑑𝑢𝑡
0
= ∫ ℎ(𝑢)𝑑𝑢𝑡
0
− ∫ 𝑃(�̅�(𝑢) = 0)ℎ(𝑢)𝑑𝑢𝑡
0
= 𝐻(𝑡) − ∫ 𝑃(�̅�(𝑢) = 0)ℎ(𝑢)𝑑𝑢𝑡
0
.
Comme ∫ 𝑃(�̅�(𝑢) = 0)ℎ(𝑢)𝑑𝑢𝑡
0> 0 ∀𝑡, on a :
𝐸[�̂�(𝑡)] ≤ 𝐻(𝑡).
C2.2.2) Estimateur de Harrington-Fleming de la fonction de survie
En utilisant l’expression (2), nous obtenons un estimateur naturel de la fonction de
survie :
�̂�𝐻𝐹(𝑡) = exp (−�̂�(𝑡)).
Comme 𝐸[�̂�(𝑡)] ≤ 𝐻(𝑡) et que la fonction 𝑔(𝑥) = 𝑒−𝑥 est convexe, on en déduit
que :
𝐸[�̂�𝐻𝐹(𝑡)] = 𝐸 [𝑔 (�̂�(𝑡))] ≥ 𝑔(𝐸[�̂�(𝑡)]) = exp(−𝐸[�̂�(𝑡)]) ≥ exp(−𝐻(𝑡)) = 𝑆(𝑡).
Alors l’estimateur de Harrington-Fleming est positivement biaisé et surestime la
fonction de survie réelle [10].
C2.2.3) Comparaison avec l’estimateur de Kaplan-Meier
Les deux estimateurs s’écrivent respectivement, après transformation par le
logarithme :
ln �̂�𝐾𝑀(𝑡) = ∑ ln(1 −𝑑(𝑇𝑖)
𝑟(𝑇𝑖))
𝑇𝑖≤𝑡
et
ln �̂�𝐻𝐹(𝑡) = − ∑𝑑(𝑇𝑖)
𝑟(𝑇𝑖)𝑇𝑖≤𝑡
.
Et donc,
ln �̂�𝐾𝑀(𝑡) − ln �̂�𝐻𝐹(𝑡) = ∑ ln(1 −𝑑(𝑇𝑖)
𝑟(𝑇𝑖))
𝑇𝑖≤𝑡
+𝑑(𝑇𝑖)
𝑟(𝑇𝑖)
Nous allons montrer que la fonction 𝑦 = ln(1 − 𝑥) + 𝑥 est toujours négative.
48
𝑑𝑦
𝑑𝑥=
−𝑥
1 − 𝑥= 0,
d’où 𝑥 = 0 est le point extrémal.
- Si 𝑥 > 0, alors 𝑑𝑦
𝑑𝑥< 0 et 𝑦 est croissante ;
- Si 𝑥 < 0, alors 𝑑𝑦
𝑑𝑥> 0 et 𝑦 est décroissante ;
Cela implique que 𝑥 = 0 est le point de maximum où 𝑦 = 0. Donc, 𝑦 ≤ 0 ∀𝑥 ∈ ℝ.
Alors, ln �̂�𝐾𝑀(𝑡) − ln �̂�𝐻𝐹(𝑡) ≤ 0 et donc : ln �̂�𝐾𝑀(𝑡) ≤ ln �̂�𝐻𝐹(𝑡). En appliquant la
fonction strictement croissante 𝑔(𝑥) = 𝑒𝑥, nous obtenons :
�̂�𝐾𝑀(𝑡) ≤ �̂�𝐻𝐹(𝑡).
Donc, les deux estimateurs sont positivement biaisés, mais l’estimateur de Herrington-
Fleming surestime plus la fonction de survie que l’estimateur de Kaplan-Meier. Ainsi, dans la
suite nous allons utiliser l’estimateur de Kaplan-Meier, car il intègre une marge de sécurité
suffisante et ne surestime pas trop le vrai risque.
C2.2.4) Interpolation de l’estimateur avec les Splines Cubiques
Dans un premier temps, nous supposons qu’un découpage en 2 parties de la plage de
variation des âges est suffisant, et nous posons donc :
𝑖𝑥 = {𝑝0(𝑥), 𝑥0 ≤ 𝑥 ≤ 𝑥1
𝑝1(𝑥), 𝑥1 ≤ 𝑥 ≤ 𝑥2
𝑝𝑖(𝑥) étant un polynôme de degré 3, avec les contraintes au point de jonction :
𝑝0(𝑥1) = 𝑝1(𝑥1); 𝑑
𝑑𝑥𝑝0(𝑥1) =
𝑑
𝑑𝑥𝑝1(𝑥1);
𝑑2
𝑑𝑥2𝑝0(𝑥1) =
𝑑2
𝑑𝑥2𝑝1(𝑥1)
Cela conduit à poser 𝑝0(𝑥) = 𝑐1 + 𝑐2𝑥 + 𝑐3𝑥2 + 𝑐4𝑥
3 et 𝑝1(𝑥) = 𝑝0(𝑥) +𝑐5(𝑥 − 𝑥1)
3. Le problème comporte donc 5 inconnues (les 8 coefficients des polynômes
moins les 3 contraintes de régularité). On utilise pour le résoudre un critère de moindres
carrés pondérés, sur la base de poids (𝑤𝑥), qui conduit à rechercher les paramètres qui
minimisent
𝑀 = ∑ 𝑤𝑥(𝑖𝑥 − 𝑖̂𝑥)2
𝑥2
𝑥=𝑥0
.
On peut noter que dans cette approche il n’est pas nécessaire de disposer de toutes les
valeurs brutes 𝑖̂𝑥 et que le spline pourra être interpolant pour les valeurs manquantes. Si on
note alors �̅�1la plus grande valeur de 𝑥 inférieure ou égale à 𝑥1 pour laquelle on dispose d’une
valeur de 𝑖̂𝑥, on décompose la somme intervenant dans le critère 𝑀 en deux sommes puis on
écrit les équations normales en annulant les dérivées par rapport aux paramètres : 𝜕𝑀
𝜕𝑐𝑗= 0.
Après calculs, ces équations peuvent se mettre sous la forme :
𝑋′𝑤𝑋𝑐 = 𝑋′𝑤𝑖̂
la matrice 𝑋 de taille (𝑚, 5) pour 𝑚 valeurs de 𝑖̂𝑥 disponibles sur [𝑥0, 𝑥2] étant définie par :
49
𝑋 =
[ 1 𝑥0 𝑥0
2 𝑥03 0
⋯ ⋯ ⋯ ⋯ ⋯ 1 �̅�1 �̅�1
2 �̅�13 0
1 �̅�11 (�̅�1
1)2 (�̅�11)3 (�̅�1
1 − 𝑥1)3
⋯ ⋯ ⋯ ⋯ ⋯ 1 𝑥2 𝑥2
2 𝑥23 (𝑥2 − 𝑥1)
3 ]
avec �̅�11 la valeur de l’indice postérieure à �̅�1 pour laquelle 𝑖̂𝑥 est connue.
Les expressions ci-dessus se généralisent aisément au cas de 𝑛 nœuds 𝑥1, … , 𝑥𝑛, avec
une matrice de taille (𝑚, 𝑛 + 4) [11].
Les coefficients sont obtenus par l’estimateur des moindres carrés ordinaires :
𝑐 = (𝑋′𝑤𝑋)−1𝑋′𝑤𝑖̂.
C2.2.5) Etude des passages entre les états
Dans la partie C2.1.8) nous avons vu sur la figure 2.11 le schéma général des états en
dépendance. Dans le cas de nos données, les passages entre les états sont un peu différents.
Contractuellement, l’état de la dépendance totale est considéré consolidé. C’est-à-dire, il
existe une seule cause de sortie : le décès. Egalement, nous considérons, qu’il n’y a pas des
rétablissements dans l’état valide. Alors, le seul changement d’état restant à modéliser, c’est
le passage de la dépendance partielle à la dépendance totale.
Notons, que la quantité de passage de la dépendance partielle à la dépendance totale
présente un nombre très faible et est égale à 141. Cela rend les résultats de notre modélisation
pas fiables.
Figure 2.12 illustre les taux de passage par âge.
Figure 2.12. Taux de passage dépendance partielle – totale par âge
50
Nous voyons qu’il est très difficile de juger la forme de ce graphique. Alors, pour la
suite, nous allons poser une hypothèse, que le taux annuel de passage de la dépendance
partielle à la dépendance totale pour chaque âge est égale à 0,028, c’est-à-dire à la moyenne
de la courbe sur la figure 2.12.
C2.2.6) Durée de maintien par l’âge d’entrée en dépendance
Un des critères les plus explicatifs de la durée de maintien en dépendance est l’âge
d’entrée. Idéalement il faut construire une fonction de survie pour chaque âge d’entrée en
dépendance. Mais le manque de données rend cette approche impossible à réaliser. Nous
allons donc déterminer les classes d’âges ayant le même comportement de la fonction de
survie et les tailles d’échantillonnages qui permettent d’effectuer l’estimation.
Pour avoir une idée sur les classes d’âges nous tracerons les nuages des points : durées
de maintien contre l’âge d’entrée en dépendance (fig. 2.12).
Figure 2.12. Nuages des points de la durée de maintien par rapport à l’âge d’entrée en dépendance
totale et partielle
Premièrement, nous voyons que les durées maximales sont concentrées pour l’entrée
en dépendance autour de 75 ans. Nous pouvons également remarquer que pour les âges
antérieurs les durées ont une tendance à croitre. Au contraire, pour les âges ultérieurs les
durées décroissent. Ce phénomène peut s’expliquer par le fait que les entrées en dépendance
aux petits âges sont liées souvent aux accidents ou aux maladies graves, pour lesquels sinistre-
décès surviennent plus rapidement. Par contre les grands âges d’entrée en dépendance
conduisent vers l’effet de mortalité naturelle, qui augmente en fonction de l’âge.
Nous allons donc nous concentrer sur le modèle à deux classes d’âges d’entrée en
dépendance : avant 75 ans (<= 75 ans) et après (> 75 ans). La segmentation sur un nombre de
51
classes supérieures peut nous amener à une situation d’insuffisance des données pour
certaines classes.
C2.2.7) Modélisation des fonctions de survie de maintien en dépendance
En plus du regroupement par l’âge d’entrée en dépendance il existe encore deux
critères de segmentation à priori significative : le sexe et le niveau de dépendance.
En faisant les combinaisons de ces niveaux de segmentation, nous allons obtenir 8
classes suivantes :
Les hommes entrés en dépendance partielle avant 75 ans (C1);
Les hommes entrés en dépendance partielle après 75 ans (C2) ;
Les hommes entrés en dépendance totale avant 75 ans (C3);
Les hommes entrés en dépendance totale après 75 ans (C4);
Les femmes entrées en dépendance partielle avant 75 ans (C5);
Les femmes entrées en dépendance partielle après 75 ans (C6);
Les femmes entrées en dépendance totale avant 75 ans (C7) ;
Les femmes entrées en dépendance totale après 75 ans (C8).
Ainsi nous modéliserons 8 courbes de survie, une par classe. La représentation
graphique de ces fonctions est montrée sur la figure 2.13.
Figure 2.13. Fonction de survie des lois de maintien en dépendance pour les classes définies
Pour vérifier la pertinence de nos classes, nous allons appliquer le test de
Kolmogorov-Smirnov, afin de voir la significativité de la différence entre les courbes de
survie. Les résultats de ces tests seront résumés dans le tableau suivant :
52
C1 C2 C3 C4 C5 C6 C7 C8
C1 -
C2 0.1857986
0.0012904 -
C3 0.2234083 2.8 × 10−8
0.2052943 0.0002544
-
C4 0.2205565
2.8 × 10−7
0.145427
0.022044
0.1357252
0.0051348 -
C5 0.1098543
0.0464339
0.1807759
0.0062439
0.2578814
1.6 × 10−5
0.2343005
0.0001233 -
C6 0.2192629 7.2 × 10−5
0.13203554 0.04292975
0.1995725 0.0004169
0.1375483 0.0353493
0.2228114 0.0003126
-
C7 0.3773224
2.7 × 10−15
0.3028814
5.8 × 10−9
0.1815762
6.8 × 10−6
0.2802133
1.6 × 10−11
0.3556675
3.1 × 10−10
0.2850845
5.7 × 10−8 -
C8 0.3603421
2.7 × 10−15
0.2902367
3 × 10−8
0.1850506
6.4 × 10−7
0.1602319
0.0004932
0.3726501
3.1 × 10−11
0.2819298
8.3 × 10−8
0.188354
2.6 × 10−6 -
Tableau 2.9. KS-test pour les lois de maintien
Dans les cellules du tableau 2.9 la première valeur correspond à la valeur de la
statistique du KS-test et la deuxième à la P-value correspondant. Ainsi, nous pouvons
conclure que toutes les classes diffèrent entre elles significativement (P-value < 5%). Cela
justifie en partie la pertinence des classes que nous avons choisies.
C2.2.8) La loi centrale
Pour la construction du BE nous allons utiliser les 8 fonctions de survie en état de
dépendance (en fonction des caractéristiques des assurés) obtenues dans la section précédente
et interpolées par les splines cubiques. Le taux annuel de passage de la dépendance partielle à
la dépendance totale sera de 2.8% pour chaque âge (déterminé dans la partie C.2.2.5).
Figure 2.14. Loi centrale de maintien en dépendance
53
Chapitre 3. Construction du modèle de Best Estimate (BE)
C3.1. Modèle « Best Estimate »
C3.1.1) Définition et maille de calcul du BE
D’après l’article 77 de la Directive Européenne le BE correspond à la moyenne
pondérée par leur probabilité des flux de trésorerie futurs, compte tenu de la valeur temporelle
de l’argent (valeur actuelle attendu des flux de trésorerie futurs), estimée sur la base de la
courbe des taux sans risque pertinents. La projection en matière de flux de trésorerie utilisée
dans le calcul de la meilleure estimation tient compte de toutes les entrées et sorties de
trésorerie nécessaires pour faire face aux engagements d’assurance pendant toute la durée de
ceux-ci.
Lorsque les entreprises d’assurance et de réassurance calculent leurs provisions
techniques elles tiennent compte de la valeur des garanties financières et de toute option
contractuelles incluses dans leurs contrats d’assurance et de réassurance.
Autrement dit, le BE est une valeur actuelle probable des flux encaissés et décaissées
futurs, liés aux engagements présents à la date d’évaluation. Il est calculé au passif brut de
réassurance. Il faut noter que le BE de réassurance doit également être calculé séparément.
Appliquer une bonne segmentation pour évaluer les BE est primordial car les calculs
de SCR sont dépendants de cette maille de calcul.
Le BE est calculé par groupe de risques homogènes (GRH), et au minimum, par ligne
d'activité, dite aussi lob Solvabilité. Chaque contrat d'assurance doit donc être affecté à la
ligne d'activité qui reflète au mieux le risque sous-jacent. Cette segmentation doit être établie
non pas sur la base de la segmentation du Code des Assurances mais en appliquant le principe
de « substance over form » : les contrats qui sont gérés sur la base de techniques d'assurance
vie doivent être classés dans les lignes d'activités de la famille des engagements vie (vie ou
santé similaire à la vie) et de même pour les engagements non-vie.
In fine, quatre grandes familles de segmentation des engagements sont définies : vie,
non-vie, santé similaire à la vie (santé SLT) et santé non similaire à la vie (santé NSLT).
C3.1.2) Projection des flux de trésorerie
Le Best Estimate doit être calculé en valeur brut de réassurance. Le calcul du BE des
provisions techniques cédées en réassurance est réalisé de manière distincte et comptabilisé à
l’actif du bilan.
Les projections ne doivent prendre en compte que les flux de trésorerie futurs faisant
partie des frontières du contrat. Par conséquent aucune activité future (new business) n'est
prise en compte.
C3.1.2) a) Frontière du contrat
La frontière du contrat est la première date à partir de laquelle l'entreprise d'assurance
ou de réassurance a :
un droit unilatéral de résilier le contrat ;
un droit unilatéral de refuser les primes à payer en vertu du contrat ;
54
la capacité illimitée de modifier les primes ou les prestations dues en vertu du
contrat à un moment ultérieur.
Vu que les portefeuilles étudiés concernent le périmètre des contrats facultatifs, nous
allons donc projeté plusieurs années des primes.
C3.1.2) a) Flux à projeter
Les principaux flux (encaissements et décaissements) bruts de réassurance, à prendre
en compte dans les projections sont les suivants :
Primes futures faisant partie des frontières du contrat (-) ;
Montants recouvrables au titre des sauvetages et des subrogations (-) ;
Prestations : règlements de sinistres, prestations décès, rentes servies, etc (+) ;
Frais administratifs, de gestion des sinistres, de gestion des investissements,
d'acquisition et généraux (+) ;
Impôts payer (+) ;
Autres flux (+).
Les symboles « + » et « - » après chaque catégorie signifient le signe avec lequel ce
flux entrera dans le calcul du BE.
La catégorie « autres flux » est définie par :
Les paiements entre la compagnie d’assurance ou de réassurance et les
intermédiaires pour les engagements d’assurance ou de réassurance ;
Les paiements entre la compagnie d’assurance ou de réassurance et les
entreprises d’investissement pour les contrats avec des bénéfices « index-
linked » et « unit-linked » ;
Les paiements pour récupération et subrogation dans la mesure où ils ne sont
pas qualifiés d’actifs ou passifs distincts ;
Les paiements d’imposition qui sont, ou sont censés être, à la charge des
assurés ou qui sont nécessaires pour régler les engagements d’assurance ou de
réassurance.
La figure suivante résume le principe du calcul de la valeur actualisée.
Figure 3.1. Schéma du calcul de la valeur actuelle
55
C3.1.3) Actualisation des flux de trésorerie
Dans le cadre de l'évaluation du Best Estimate, l'actualisation des flux de trésorerie est
réalisée au taux sans risque, i.e. à partir de la courbe des taux swap ajustée du risque de crédit
(fournie par l’EIOPA), avec la possibilité de :
Extrapoler la courbe des taux pour valoriser les engagements long ;
Prendre en compte un ajustement de volatilité ou une prime d'adossement sur
cette courbe des taux. Notons qu’il n'est pas possible d'avoir recours
conjointement à rajustement de volatilité et à la prime d'adossement.
C3.1.3) a) L'ajustement de volatilité, « Volatility Adjustment » (VA)
Les organismes d'assurance peuvent appliquer un ajustement de volatilité à la courbe
des taux d'intérêt sans risque utilisée dans le cadre de l'évaluation du BE des engagements.
Principe sous-jacent : lutter contre la volatilité des Fonds Propres induite par
l’illiquidité de l'actif adossé aux engagements d'assurance.
Modalités d'évaluation : pour chaque devise considérée, le VA correspond à 65% de la
valeur du spread (écart) entre la courbe des taux sans risque et le taux d'intérêt résultant d'un
portefeuille d'actifs de référence dans cette même devise. La courbe des taux sans risque
prenant en compte le VA est fournie par l'EIOPA pour l'ensemble des devises. La méthode de
calcul du VA est décrite dans les articles 49 à 51 du règlement délégué (UE) 2015/35 du
10/10/2014.
Application : le VA remplace la prime contra-cyclique et s’applique à l'ensemble de la
courbe des taux. Il n'est pas restreint à un type particulier d'engagement.
Processus d'approbation : le recours au VA ne nécessite pas l'approbation du
régulateur mais est soumis à certaines conditions définies aux articles R.354-2, R.354-2-1,
R.354-3-2 et R.355-7 du Code des Assurances. L’utilisation du VA est automatique et
permanente.
C3.1.3) b) La prime d'adossement, « Matching Adjustment » (MA)
Les organismes d'assurance peuvent appliquer un ajustement égalisateur à la courbe
des taux d'intérêt sans risque utilisée dans le cadre de l'évaluation du Best Estimate
d'engagements d'assurance ou de réassurance vie (y-compris les rentes découlant de contrats
d'assurance ou de réassurance non-vie).
Principe sous-jacent : identique au principe sous-jacent du VA.
Modalités d'évaluation : calculée par portefeuille de passif et soumise pour
approbation au régulateur.
Application : restreint aux taux d'intérêt utilisés pour valoriser le BE associé à des
portefeuilles répondant à certains critères d'éligibilité définis à l'article 77 b) de la Directive
2009/138/EC (notamment faire l'objet d'une gestion d'actifs séparée du reste de l’organisme et
permettre une réplication des flux de passifs par les produits de taux composant le portefeuille
d'actifs).
Processus d'approbation : le recours au MA nécessite l'approbation du régulateur et
fait l'objet de la soumission d'un dossier de candidature.
56
C3.1.3) c) L'extrapolation de la courbe des taux sans risque
Extrapoler la courbe des taux sans risque permet de valoriser les engagements à très
long terme.
Si l'organisme a recours au VA, l'extrapolation se fait en incluant le VA ;
Si l'organisme a recours au MA, l'extrapolation se fait en excluant le MA.
C3.1.4) Techniques de calcul
Le calcul du BE nécessite de recourir aux techniques actuarielles ou statistiques les
plus représentatives des risques.
Trois types d'approches sont possibles :
Stochastiques ;
Déterministes ;
Analytiques.
Les méthodes stochastiques ou par simulations permettent une valorisation plus
adéquate et plus robuste pour certains passifs d'assurance vie comme les contrats présentant
des options et garanties telles que le taux minimum garanti, la participation aux bénéfices, etc.
Les méthodes déterministes et analytiques sont souvent plus adaptées à l'assurance
non-vie.
Nous allons nous focaliser sur le calcul du BE d'engagements vie.
Les projections des flux de trésorerie concernant les engagements d'assurance vie
doivent être réalisées par ligne de police d'assurance. Cependant l'utilisation de model points
(agrégation de plusieurs lignes de contrats ayant des caractéristiques communes) est possible
sous certaines conditions (cf. article 35 du règlement délégué (UE) 2015/15 du 10/10/2014).
Les produits d'assurance vie présentent des spécificités qui doivent être prises en
compte dans le calcul du BE des engagements :
la politique de management de l'assureur : décisions futures de l'assureur en ce
qui concerne l'allocation d'actifs, le dégagement des plus-values et la
distribution de participation aux bénéfices ;
le comportement des assurés : rachats des contrats en fonction du taux de
marché, de la fiscalité, etc.
les options et garanties des contrats : rachat, taux minimum garanti,
participation aux bénéfices, etc.
Les règles de management, le comportement des assurés et les options et garanties
financières des contrats induisent des interactions entre l'actif et le passif du bilan (ex. : lien
entre les variations des taux financiers et les rachats effectués par les assurés). La
modélisation de ces interactions actif-passif nécessite :
L’utilisation d'un outil de gestion actif-passif appelé aussi ALM (Asset and
Liability Management) ;
Le recours à une approche de valorisation de type stochastique (par
simulations). L'ACPR recommande une méthode de type Monte-Carlo.
57
Le rendement (taux servi) des contrats d'assurance vie se décompose en deux parties :
le rendement lié au taux minimum garanti (TMG) et le taux de participation aux bénéfices
(qui dépend du rendement financier de l'actif adossé au contrat d'assurance).
Le superviseur exige de calculer séparément le Best Estimate Garanti (BEG),
correspondant aux provisions destinées à couvrir l'engagement contractuel de TMG et le BE
associé aux Prestations Discrétionnaires Futures (FDB) qui correspondent aux prestations
versées au titre des options de participation aux bénéfices (et correspondent à la différence
entre le BE total et le BEG) [12].
C3.2. Construction du modèle
C3.2.1) Hypothèses et choix de modélisation
Le but de ce mémoire est de capter l’impact pur de l’évolution des lois d’incidence et
des lois de maintien sur l’indicateur BE. Ainsi, nous avons décidé de garder le modèle de BE
simplifié suivant :
𝐵𝐸 = 𝑃𝑟𝑒𝑠𝑡𝑎𝑡𝑖𝑜𝑛𝑠 + 𝐹𝑟𝑎𝑖𝑠 𝑑𝑒 𝑔𝑒𝑠𝑡𝑖𝑜𝑛 + 𝑃𝐵 − 𝑃𝑟𝑖𝑚𝑒𝑠
Ce modèle reflètera mieux l’évolution des lois et sera plus adapté pour contenter les
objectifs de l’étude.
Les frais de gestion vont représenter 4% des primes, ce qui est la moyenne des taux de
chargement pour les contrats étudiés. Ils seront actualisés et projetés de la même manière que
les primes.
La règle de versement de participation aux bénéfices sera la suivante : 25% du résultat
créditeur et 0 en cas de perte.
Les contrats d’assurance dépendance peuvent prévoir révision des primes et de
prestations liées à l’ancienneté des assurés, aux raisons commerciales, etc. Cependant, pour
les raisons évoqués dans le paragraphe précèdent, nous avons pris pour hypothèse la stabilité
des primes et des prestations sur la période de projection.
Au vu du risque étudié nous pouvons constater que les engagements de CNP
s’écoulent complétement au bout de 30-35 ans. Cependant nous avons décidé de fixé
l’horizon de projection à 50 ans, ce qui correspond à l’horizon de projection usuellement
utilisé par les acteurs principaux du marché assurantiel et répond aux besoins du reporting. De
plus, le modèle de la dépendance à CNP Assurances utilise le même horizon de 50 ans, ce qui
va simplifier la comparaison. Les primes seront projetées annuellement et les prestations
mensuellement (les primes d’assurance sont annuelles et les rentes dépendance sont
mensuelles). Les évènements de sortie d’état se produisent à la fin de période. Les paiements
des primes et des prestations sont fait à la fin de période après l’évènement de sortie.
Les projections seront effectuées sur les contrats en stock, sans tenir comptes des
affaires nouvelles.
Pour l’actualisation nous allons utiliser les taux sans risque fournis par EIOPA. Les
lois de mortalité seront prises dans les tables TF002 et TH002.
Dans ce chapitre nous avons utilisé les lois d’incidence et les lois de maintien fixes
(estimées dans le chapitre 2). Les lois prospectives seront étudiées dans la suite.
58
C3.2.2) Construction des projections
Dans notre stock de contrats nous pouvons distinguer 3 types d’assurés :
valide (étant en état de validité au 31/12/2015) ;
en dépendance totale ;
en dépendance partielle ;
Pour chacun de ces types il faut adopter le modèle de projection spécifique.
C3.2.2) a) Projection des primes : valides
Selon le schéma sur la figure 2.11, un assuré d’âge 𝑥 valide peut : décéder avec la
probabilité 𝑞𝑥, entrer en état de dépendance partielle avec la probabilité 𝑖𝑥𝑑𝑝
ou entrer en état
de dépendance totale avec la probabilité 𝑖𝑥𝑑𝑡.
Ainsi pour un assuré donné d’âge 𝑥 pour la période 𝑡, (𝑡 ∈ 𝑁, 𝑡 ∈ [1; 50]) nous allons
calculer la prime probabilisée par la formule suivante :
𝑃𝑟𝑖𝑚𝑒𝑠𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑠é𝑒𝑠(𝑡) = 𝑃𝑟𝑖𝑚𝑒𝑠𝑎𝑛𝑛𝑢𝑒𝑙𝑙𝑒 ∗ max(1 − 𝑞𝑥+𝑡 − 𝑖𝑥+𝑡𝑑𝑝 − 𝑖𝑥+𝑡
𝑑𝑡 ; 0)
Le résultat sera actualisé de la manière suivante :
𝑃𝑟𝑖𝑚𝑒𝑠𝑎𝑐𝑡𝑢𝑎𝑙𝑖𝑠é𝑒𝑠(𝑡) =𝑃𝑟𝑖𝑚𝑒𝑠𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑠é(𝑡)
(1 + 𝑇𝑆𝑅(𝑡))𝑡
où 𝑇𝑆𝑅(𝑡) est le taux sans risque pour la période 𝑡.
Afin de calculer pour l’ensemble des assurés le montant de prime actualisé cumulé à
chaque instant t, nous sommons les primes entre 1 et t (la somme cumulée).
C3.2.2) b) Projection des prestations : dépendance totale
Le schéma sur la figure 2.11, nous indique qu’un assuré en état de dépendance totale
peut se maintenir dans cet état ou décédé
Figure 3.2. Schéma de projection de l’assuré en dépendance totale
𝑡 = 0 𝑡 = 1 𝑡 = 2
Dépendance
totale
Dépendance
totale
Dépendance
totale
Décès
Décès
𝑆𝑡𝑜𝑡(1)
𝑆𝑡𝑜𝑡(0)= 𝑆𝑡𝑜𝑡(1)
…
𝑆𝑡𝑜𝑡(1)𝑆𝑡𝑜𝑡(2)
𝑆𝑡𝑜𝑡(1)= 𝑆𝑡𝑜𝑡(2)
59
où 𝑆𝑡𝑜𝑡(𝑡) est la fonction de survie qui représente la loi de maintien en dépendance totale
(correspondante au profil d’assuré) et 𝑆𝑡𝑜𝑡(0) = 1. On note que 𝑅𝑡𝑜𝑡 est la rente mensuelle
payée pour les assurés en dépendance totale. Alors la rente probabilisé pour la période
𝑡, (𝑡 ∈ 𝑁, 𝑡 ∈ [1; 600]) en dépendance totale est égale à :
𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(𝑡) = 𝑆𝑡𝑜𝑡(𝑡)𝑅𝑡𝑜𝑡
Ainsi nous actualisons cette rente de la même manière que les primes dans C3.2.2) a) :
𝑅𝑡𝑜𝑡,𝑎𝑐𝑡𝑢(𝑡) =𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(𝑡)
(1 + 𝑇𝑆𝑅(𝑡))𝑡
Finalement, nous sommons les rentes de l’ensemble des assurés à chaque instant 𝑡 et
déduisons la somme cumulée.
C3.2.2) c) Projection des prestations : dépendance partielle
La projection des assurés en état de dépendance partielle est plus compliquée puisque
nous devons tenir compte du passage en état de dépendance totale
Figure 3.3. Schéma de projection de l’assuré en dépendance partielle
𝑡 = 0 𝑡 = 1 𝑡 = 2
Dépendance
partielle
Dépendance
partielle
Dépendance
partielle
Décès
Décès
𝑆𝑝𝑎𝑟(1) ∗ (1 − 𝑇𝑃)
…
𝑆𝑝𝑎𝑟(2) ∗ (1 − 𝑇𝑃)2
Dépendance
totale
Dépendance
totale
Dépendance
totale
Décès
60
où 𝑆𝑝𝑎𝑟(𝑡) est la fonction de survie qui correspond à la loi de maintien en dépendance
partielle (correspondante au profil d’assuré) et 𝑇𝑃 est le taux de passage de l’état de
dépendance partielle à l’état de dépendance totale.
Nous ne nous intéresserons pas à la probabilité de décéder car par la construction de
notre modèle nous ne versons pas de prestations en cas décès.
Si on note que 𝑅𝑡𝑜𝑡 et 𝑅𝑝𝑎𝑟 sont les rentes mensuelles payées respectivement pour les
assurés en dépendance totale et en dépendance partielle, alors la rente probabilisée pour la
période 𝑡, (𝑡 ∈ 𝑁, 𝑡 ∈ [1; 600]) en dépendance partielle est :
𝑅𝑝𝑎𝑟,𝑝𝑟𝑜𝑏(𝑡) = 𝑆𝑝𝑎𝑟(𝑡)(1 − 𝑇𝑃)𝑡𝑅𝑝𝑎𝑟
+ (𝑆𝑝𝑎𝑟(𝑡)𝑇𝑃(1 − 𝑇𝑃)𝑡−1 + ∑𝑆𝑝𝑎𝑟(𝑗)𝑇𝑃(1 − 𝑇𝑃)𝑗−1𝑆𝑡𝑜𝑡(𝑡 − 𝑗)
𝑡−1
𝑗=1
)𝑅𝑡𝑜𝑡
Ensuite, nous sommons les rentes des tous les assurés à chaque instant 𝑡 et déduisons
la somme cumulée.
C3.2.2) d) Projection des prestations : valides
La projection des prestations pour les valides présents est la combinaison des deux
méthodes précédentes.
La figure 3.4 sur le page suivante présent le schéma de projection des assurés en état
de validité.
Ainsi nous pouvons déduire la formalisation de l’expression de la rente probabilisé
pour les valides. Pour un assuré donné, ∀𝑡 ∈ [2; 600], 𝑡 ∈ ℤ nous allons construire deux
vecteurs suivants de taille 600, qui représenteront les chroniques des rentes probabilisées
correspondant à l’entrée en dépendance à l’instant 𝑡 :
�⃗� 𝑡𝑜𝑡,𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡) = 𝑐𝑡𝑜𝑡(𝑡) ∗ [0, … ,𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(1), 𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(2), … ,𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(600 − 𝑡 + 1)]
�⃗� 𝑝𝑎𝑟,𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡) = 𝑐𝑝𝑎𝑟(𝑡) ∗ [0,… ,𝑅𝑝𝑎𝑟,𝑝𝑟𝑜𝑏(1), 𝑅𝑝𝑎𝑟,𝑝𝑟𝑜𝑏(2), … , 𝑅𝑝𝑎𝑟,𝑝𝑟𝑜𝑏(600 − 𝑡 + 1)]
où :
𝑐𝑡𝑜𝑡(𝑡) = {𝑖𝑥+𝑡−1𝑑𝑡 𝑠𝑖 𝑡 = 2
𝑖𝑥+𝑡−1𝑑𝑡 (1 − 𝑞𝑥+𝑡−2 − 𝑖𝑥−𝑡+2
𝑑𝑡 − 𝑖𝑥−𝑡+2𝑑𝑝
) 𝑠𝑖 𝑡 > 2
𝑐𝑝𝑎𝑟(𝑡) = {𝑖𝑥+𝑡−1𝑑𝑝
𝑠𝑖 𝑡 = 2
𝑖𝑥+𝑡−1𝑑𝑝
(1 − 𝑞𝑥+𝑡−2 − 𝑖𝑥−𝑡+2𝑑𝑡 − 𝑖𝑥−𝑡+2
𝑑𝑝) 𝑠𝑖 𝑡 > 2
t-1 600-t+1
61
Figure 3.4. Schéma de projection de l’assuré en état de validité
Nous allons donc prendre la somme pour obtenir le vecteur des rentes probabilisées
des valides :
�⃗� 𝑣𝑎𝑙,𝑝𝑟𝑜𝑏 = ∑�⃗� 𝑡𝑜𝑡,𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡) + �⃗� 𝑝𝑎𝑟,𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡)
600
𝑡=2
Nous pouvons également en déduire :
𝑅𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡) = {
0 𝑠𝑖 𝑡 = 1
∑𝑐𝑡𝑜𝑡(𝑗)𝑅𝑡𝑜𝑡,𝑝𝑟𝑜𝑏(𝑡 − 1) +
𝑡
𝑗=2
𝑐𝑝𝑎𝑟(𝑗)𝑅𝑝𝑎𝑟,𝑝𝑟𝑜𝑏(𝑡 − 1) 𝑠𝑖 𝑡 > 1
𝑡 = 0 𝑡 = 1 𝑡 = 2
Dépendance
partielle
Dépendance
partielle
Décès
1 − 𝑞𝑥+1 − 𝑖𝑥+1𝑑𝑝
− 𝑖𝑥+1𝑑𝑡
…
Dépendance
totale
Valide
Valide
Valide
Dépendanc
e
totale
Dépendance
totale
Décès
Décès
𝑐𝑜𝑒𝑓1 = (1 − 𝑞𝑥+2 − 𝑖𝑥+2𝑑𝑝
− 𝑖𝑥+2𝑑𝑡 )
𝑐𝑜𝑒𝑓2 = (1 − 𝑞𝑥+1 − 𝑖𝑥+1𝑑𝑝
− 𝑖𝑥+1𝑑𝑡 )𝑖𝑥+2
𝑑𝑡
𝑐𝑜𝑒𝑓3 = (1 − 𝑞𝑥+1 − 𝑖𝑥+1𝑑𝑝
− 𝑖𝑥+1𝑑𝑡 )𝑖𝑥+2
𝑑𝑝
𝑐𝑜𝑒𝑓4 = 𝑖𝑥+1𝑑𝑡 (𝑆𝑡𝑜𝑡(1))
𝑐𝑜𝑒𝑓5 = 𝑖𝑥+1𝑑𝑝
(𝑆𝑝𝑎𝑟(1)) ∗ (1 − 𝑇𝑃)
𝑐𝑜𝑒𝑓6 = 𝑖𝑥+1𝑑𝑝
(𝑆𝑝𝑎𝑟(1)) ∗ 𝑇𝑃
Dépendance
partielle
Dépendance
totale
Décès
𝑐𝑜𝑒𝑓1
62
Finalement nous pourrons actualiser cette rente avec la formule utilisée dans les
paragraphes précédents :
𝑅𝑣𝑎𝑙,𝑎𝑐𝑡𝑢(𝑡) =𝑅𝑣𝑎𝑙,𝑝𝑟𝑜𝑏(𝑡)
(1 + 𝑇𝑆𝑅(𝑡))𝑡
Il nous restera à sommer ces rentes pour chaque assuré sur chaque 𝑡 et à calculer la
somme cumulée afin d’avoir le montant de rente cumulé sur toute la période projetée (600
mois).
Le montant des prestations total est égal :
𝑃𝑟𝑒𝑠𝑡𝑎𝑡𝑖𝑜𝑛𝑠𝑐𝑢𝑚(𝑡) = 𝑅𝑡𝑜𝑡,𝑐𝑢𝑚(𝑡) + 𝑅𝑝𝑎𝑟,𝑐𝑢𝑚(𝑡) + 𝑅𝑣𝑎𝑙,𝑐𝑢𝑚(𝑡)
Remarque : Nous avons effectué les tests unitaires afin de vérifier que les sommes de
coefficients sur chaque pas de projection n’excèdent pas 1 en valeur. Pour les âges élevés (>
100 an) où c’était le cas, nous avons pondéré ces coefficients par sa somme pour garantir la
cohérence du résultat.
C3.2.2) e) Projection des frais de gestion
Les frais de gestion pour chaque pas de projection seront calculés avec la formule
suivante :
𝐹𝑟𝑎𝑖𝑠(𝑡) = 𝑃𝑟𝑖𝑚𝑒𝑠𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑠é(𝑡) ∗ 4%
Ensuite, nous les actualiserons de manière indiquée ci-dessous :
𝐹𝑟𝑎𝑖𝑠𝑎𝑐𝑡𝑢(𝑡) =𝐹𝑟𝑎𝑖𝑠(𝑡)
(1 + 𝑇𝑆𝑅(𝑡))𝑡
La somme cumulé de frais actualisé pour chaque assuré sur chaque 𝑡 représentera le
montant des frais projetés en fonction de la période.
C3.2.2) f) Projection des participations aux bénéfices
Pour le calcul de PB nous allons d’abord déterminer le résultat sans PB.
𝑅𝑒𝑠𝑠𝑎𝑛𝑠 𝑃𝐵(𝑡) = 𝑃𝑟𝑖𝑚𝑒𝑠𝑎𝑐𝑡𝑢(𝑡) − 𝑃𝑟𝑒𝑠𝑡𝑎𝑡𝑖𝑜𝑛𝑠𝑎𝑐𝑡𝑢(𝑡) − 𝐹𝑟𝑎𝑖𝑠𝑎𝑐𝑡𝑢(𝑡)
La formule des PB actualisé sera la suivante :
63
𝑃𝐵𝑎𝑐𝑡𝑢(𝑡) =𝑃𝐵(𝑡)
(1 + 𝑇𝑆𝑅(𝑡))𝑡
où 𝑃𝐵(𝑡) = {𝑅𝑒𝑠𝑠𝑎𝑛𝑠 𝑃𝐵(𝑡) ∗ 25% si 𝑅𝑒𝑠𝑠𝑎𝑛𝑠 𝑃𝐵(𝑡) > 0
0 sinon
Ensuite, nous déduisons la somme cumulée.
Le BE sur 50 ans de projection est égal donc à
𝐵𝐸𝐿(50 𝑎𝑛𝑠) = 𝑃𝑟𝑒𝑠𝑡𝑎𝑡𝑖𝑜𝑛𝑠𝑐𝑢𝑚(600 𝑚𝑜𝑖𝑠) + 𝐹𝑟𝑎𝑖𝑠𝑐𝑢𝑚(50 𝑎𝑛𝑠) + 𝑃𝐵𝑐𝑢𝑚(50 𝑎𝑛𝑠)
−𝑃𝑟𝑖𝑚𝑒𝑠𝑐𝑢𝑚(50 𝑎𝑛𝑠)
64
C3.2.3) Calcul du BE
Nos stocks sont représentés par environ 1400 assurés en état de dépendance totale, 400
assurés en état de dépendance partielle et 30 000 assurés en état de validité. La figure suivante
représente la répartition des âges actuels des assurés en état de validité.
Figure 3.5. Répartition des âges pour les assurés en état de validité
La moyenne des âges dans le portefeuille est égale à 75,5 ans et la moyenne pondérée
par rapport aux taux d’incidence est égale à 86,1 ans.
L’application pratique du modèle décrit dans la partie précédente sur ces données nous
a permis d’obtenir des résultats cohérents et corrects.
La figure 3.6 montre les répartitions de primes et de prestations probabilisées et
cumulées en fonction de l’année de projection.
Figure 3.6. Evolution des primes et des prestations projetées avec les lois centrales
65
Sur l’image du haut de la figure ci-dessus nous pouvons constater que les primes
décroissent exponentiellement et deviennent nuls au bout de 35 ans. Cela veut dire que nous
n’aurons quasiment plus de valides dans 35 ans. Le montant actualisé des primes cumulées au
bout de 50 ans s’élève à 230 millions d’euros environ.
Nous constatons également que le pic de prestations sera dans 3-4 ans ce qui est en
lien avec les profils des valides dans le portefeuille : les âges moyens des assurés en état de
validité considèrent les probabilités d’entré en dépendance assez élevées par rapport aux taux
de mortalité. Après ce pic, les prestations vont lentement décroitre à cause du nombre de
décès croissant.
Figure 3.7. Evolution du BE avec les lois centrales
La figure 3.7 montre l’évolution de la valeur actuelle nette (VAN) du BE en fonction
du nombre d’années de projection. Nous constatons que le BE de trois premières années est
négatif. Cela s’explique par le fait que les volumes de primes sont supérieurs à ceux de
prestations car la dépendance est un risque long. Ensuite, nous observons une forte croissance
du BE jusqu’à 10 années, qui est en cohérence avec les résultats sur la figure 3.6. Après la
10ème
année, la courbe du BE décroit lentement jusqu’à 33 ans quand les primes et les
prestations actualisées sont quasi nulles.
Il est important de noter que les prestations totales sont composées de prestations
projetées pour les assurés en dépendance totale (1,4%), prestations projetées pour les assurés
en dépendance partielle (1,6%) et de prestations projetées pour les assurés en état de validité
(97%).
Le niveau du BE à 50 ans avoisine les 200 millions d’euros, ce qui est largement
inférieur aux provisions mathématiques constatées dans les comptes pour ces produits. Les
provisions mathématiques de l’inventaire de l’activité d’assurance contiennent des
majorations de prudence et peuvent ainsi être surestimées. Cela implique la cohérence de
notre résultat.
66
C3.3. Etude de sensibilité de l’estimateur
Pour les besoins de cette étude nous avons décidé d’appliquer les chocs de +10% sur
la loi d’incidence et sur la durée de maintien afin de mesurer l’impact sur notre estimateur.
C3.3.1) Choc sur la loi d’incidence
Nous allons recalculer le BE avec les taux d’incidence augmentés de 10% pour chaque
âge. Notons que les lois de maintien restent stables. Premièrement, ce changement impacte le
montant des primes (voir figure 3.8).
Figure 3.8. Impact du choc sur la loi d’incidence sur la projection des primes futures
Nous voyons que les primes cumulées sur 50 ans baissent de près de 3,5 millions
d’euros, ce qui représente environ 1,5% du montant général.
Figure 3.9. Impact du choc sur la loi d’incidence sur la projection des prestations futures
67
Deuxièmement, le choc sur la loi d’incidence n’impacte que la projection des
prestations futures pour les assurés en état de validité, car il existe le risque de devenir
dépendants. Comme ces prestations représentent la majeure partie des prestations totales, nous
pouvons comparer directement ces dernières.
Sur la partie haute de la figure 3.9 nous constatons surtout la croissance du pic des
prestations qui est liée à l’augmentation des taux d’incidence. Nous voyons également que les
prestations cumulées sur 50 ans augmentent de près de 30 millions d’euros, ce qui représente
environ 10% du montant de prestations cumulées du scénario central.
Ces impacts sont retranscrits dans la courbe du BE présentée sur la figure 3.10.
Figure 3.10. Impact du choc sur la loi d’incidence sur le BE
L’impact du choc de +10% sur la loi d’incidence provoque la hausse du BE de 32,5
millions d’euros environ, ce qui représente environ 31% du montant du BE central. Nous
pouvons conclure que cet impact est très significatif (et non négligeable).
C3.3.2) Choc sur la loi de maintien
Dans cette partie nous allons recalculer le BE avec les durées de maintien prolongées
de 10%. La forme de la fonction de survie représentant le maintien en dépendance reste la
même. Notons que les lois d’incidence restent stables.
Le choc sur les lois de maintien impactera uniquement les projections des prestations.
Les primes seront inchangées. Vu que les prestations futures des assurés en état de validité
représentent l’essentiel des prestations, il est plus pratique d’analyser directement les
prestations totales. La figure 3.11 retranscrit les impacts de ce choc :
68
Figure 3.11. Impact du choc sur la loi de maintien sur la projection des prestations futures
Contrairement au cas du choc de la loi d’incidence, nous pouvons remarquer sur la
partie haute de la figure 3.11 l’impact significatif sur les prestations qui sont plus étalées dans
le temps (entre 5 et 15 ans).
Nous voyons que les prestations cumulées sur 50 ans augmentent de près de 23,6
millions d’euros, ce qui représente environ 8% du montant calculé sous scénario central.
Ainsi la courbe du BE est présentée sur la figure 3.12 ci-dessous.
L’impact du choc de +10% sur la durée de maintien provoque la hausse du BE de 22
millions d’euros environ, ce qui représente environ +21% du montant du BE central.
Pareillement à l’impact sur la loi d’incidence, c’est un impact significatif. Néanmoins,
dans la suite de notre étude nous allons nous intéresser uniquement à l’évolution de la loi
d’incidence car celle-ci a un impact plus important que celui de la loi de maintien.
L’évolution de la loi de maintien peut faire l’objet d’une étude complémentaire.
Figure 3.12. Impact du choc sur la loi de maintien sur le BE
69
Chapitre 4. Loi d’incidence prospective
L’évolution des lois dans le temps est représentée dans les tables prospectives. Dans la
suite de ce chapitre nous allons construire la table de la loi d’incidence prospective afin de
pouvoir étudier son impact sur le BE.
C4.1. Les méthodes de prédiction
Ce chapitre sera consacré à l’étude de l’évolution de la loi d’incidence dans le temps.
L’objectif principal est de capter les tendances d’évolution des paramètres de la loi Makeham-
Gompertz pour pouvoir les projeter sur l’année suivante.
Il existe une variété de méthodes permettant d’extrapoler la courbe. La pertinence et
l’adéquation des méthodes dépendent généralement de la forme de la fonction étudiée. Nous
avons choisi deux approches qui nous semblent être le mieux adaptées pour notre sujet.
Les aspects théoriques nécessaires seront présentés dans la suite.
C4.1.1) Approche par régression
Cette approche été déjà utilisé dans la section C2.1.6) pour modéliser le passage entre
les taux d’incidence à la dépendance totale et les taux d’incidence à la dépendance partielle.
Le principe est d’ajuster un polynôme de dégrée 𝑛 en intégrant l’erreur gaussienne.
𝑦 = 𝑎1 + 𝑎2𝑥 + 𝑎3𝑥2 + ⋯+ 𝑎𝑛+1𝑥
𝑛 + 𝜀
où 𝜀~𝑁(0, 𝜎2).
Les paramètres peuvent être estimés par la méthode MCO.
Les avantages de cette approche reposent sur sa facilité d’implémentation et sur la
qualité des résultats obtenus dans le cas de tendances linéaires. Néanmoins, l’hypothèse de
l’erreur gaussienne est rarement vérifiée dans la vraie vie. Enfin, la prévision représente la
prolongation de la tendance et ne suppose pas les effets saisonniers.
C4.1.2) Approche par les séries temporelles
Une série temporelle, ou série chronologique, est une suite de valeurs numériques
représentant l'évolution d'une quantité spécifique au cours du temps. De telles suites de
variables aléatoires peuvent être exprimées mathématiquement afin d'en analyser le
comportement, généralement pour comprendre l’évolution passée et pour en prévoir le
comportement futur.
Nous nous sommes intéressés particulièrement par le modèle 𝑆𝐴𝑅𝐼𝑀𝐴. C’est un
mélange des processus autorégressif et à moyennes mobiles en tenant compte de l’effet
saisonnier et de la différenciation de la série.
Pour définir ce processus il faut d’abord introduire les modèles intermédiaires : 𝐴𝑅𝑀𝐴
et 𝐴𝑅𝐼𝑀𝐴.
Un processus stochastique stationnaire (𝑋𝑡)𝑡∈ℤ est un processus 𝐴𝑅𝑀𝐴(𝑝, 𝑞) s’il
satisfait l’équation suivante :
70
𝑋𝑡 = 𝜇 + 𝜙1𝑋𝑡−1 + ⋯+ 𝜙𝑝𝑋𝑡−𝑝 + 𝜀𝑡 − 𝜃1𝜀𝑡−1 − ⋯− 𝜃𝑞𝜀𝑡−𝑞
ou Φ(𝐿)𝑋𝑡 = 𝜇 + Θ(𝐿)𝜀𝑡
Ici Φ(𝐿) et Θ(𝐿) sont les polynômes de retards, les 𝜑𝑗, 𝑗 = 1, … , 𝑝, et les 𝜃𝑗 , 𝑗 =
1, … , 𝑞, sont des nombres réels (avec 𝜑𝑗 ≠ 0 et 𝜃𝑝 ≠ 0) et (𝜀𝑡)𝑡∈𝑍 est un bruit blanc faible de
variance 𝜎𝜀2. Donc, c’est un mélange des processus autorégressif (𝐴𝑅(𝑝)) et à moyenne
mobile (𝑀𝐴(𝑞)). Les propriétés du processus 𝐴𝑅𝑀𝐴(𝑝, 𝑞) sont les suivantes :
(𝑋𝑡)𝑡∈ℤ n’est pas nécessairement stationnaire.
𝐸(𝑋𝑡) = 𝑚 = 𝜇/Φ(1).
Le processus 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞) c’est un processus stochastique (𝑋𝑡)𝑡≥−𝑝−𝑑 satisfaisant
l’équation suivante :
(1 − 𝐿)𝑑𝑋𝑡 = 𝜇 + 𝜙1(1 − 𝐿)𝑑𝑋𝑡−1 + ⋯+ 𝜙𝑝(1 − 𝐿)𝑑𝑋𝑡−𝑝 + 𝜀𝑡 − 𝜃1𝜀𝑡−1 − ⋯− 𝜃𝑞𝜀𝑡−𝑞
ou Φ(𝐿)(1 − 𝐿)𝑑𝑋𝑡 = 𝜇 + Θ(𝐿)𝜀𝑡
où 𝐿 est un opérateur de retard vérifiant l’égalité suivante : 𝐿𝑋𝑡 = 𝑋𝑡−1.
Les conditions initiales 𝑍−1 = {𝑋−1, … , 𝑋−𝑝−𝑑, 𝜀−1, … , 𝜀−𝑞} sont telles que :
𝐶𝑜𝑣(𝜀𝑡, 𝑍−1) = 0, ∀𝑡 ≥ 0
Les séries dites saisonnières sont caractérisées par de fortes autocorrélations et
autocorrélations partielles empiriques entre les variables décalées d’une ou plusieurs saisons.
Les modèles 𝐴𝑅𝐼𝑀𝐴 saisonniers permettent de modéliser une composante saisonnière de
nature aléatoire, i.e. qui ne se répète pas à l’identique d’un cycle à l’autre.
On appelle processus 𝑆𝐴𝑅𝐼𝑀𝐴𝑠[(𝑝, 𝑑, 𝑞), (𝑃, 𝐷, 𝑄)] de période 𝑠 tout processus (𝑋𝑡)
tel que le processus
𝑌𝑡 = (𝐼 − 𝐵)𝑑(𝐼 − 𝐵𝑠)𝐷𝑋𝑡
est un 𝐴𝑅𝑀𝐴
Φ(𝐿) 𝜙(𝐿𝑠)𝑌𝑡 = Θ(𝐿)𝜃(𝐿𝑠)𝜀𝑡
où 𝛷,𝜑, 𝛩 et 𝜃 sont des polynômes de degrés 𝑝, 𝑃, 𝑞 et 𝑄 respectivement [12].
Ce modèle donc possède de bonnes qualités et les avantages envers l’approche par la
régression. Néanmoins, une bonne estimation des paramètres du modèle 𝑆𝐴𝑅𝐼𝑀𝐴 nécessite
un nombre de points importants, ce qui peut poser des problèmes dans notre cas.
C4.2. Evolution de la loi d’incidence
Capter l’évolution de la loi d’incidence en dépendance est une tâche délicate et très
complexe. Le fait que nous n’avons pas suffisamment d’historique soulève les problèmes de
manque de données et l’instabilité de la loi d’une année à l’autre. En effet, cette instabilité est
liée à l’accroissement progressif du volume des contrats étudiés.
Pour stabiliser la loi, nous avons décidé d’utiliser des fenêtres d’observations
glissantes de même taille. Ces dernières contiendront les observations relatives aux
souscriptions, aux censures (sorties hors entrée en dépendance) et aux sinistres survenus
pendant la période d’observation. Cette opération sera répliquée sur l’intégralité des données
étudiées en décalant d’un an l’année de départ de la fenêtre. Cela permettra d’homogénéiser
71
les entrées et le sorties et d’éliminer les fluctuations de la loi dues aux variations de la taille de
la base de données d’une année sur l’autre.
Sur chaque fenêtre nous estimerons les taux d’incidence bruts afin de les ajuster avec
le modèle de Makeham-Gompertz. Enfin, nous aurons les trois séries, correspondantes aux
paramètres du modèle (𝑎, 𝑏, 𝑐), des tailles équivalents au nombre de fenêtres. Ces séries
seront analysées et extrapolées, d’où l’intérêt direct d’utiliser le modèle de Makeham-
Gompertz : au lieu de projeter plusieurs valeurs nous nous limitons à trois.
Une autre difficulté se pose, c’est le choix de la taille des fenêtres. La quantité de ces
fenêtres est inversement proportionnelle à sa taille. Nous nous sommes intéressés par la
quantité maximale des fenêtres, car cela nous permettra d’obtenir les suites des paramètres
(𝑎, 𝑏, 𝑐) plus grandes, qu’augmentera la qualité des modèles de prédiction. Par ailleurs, les
petites fenêtres conduisent aux lois peu fiables à cause de l’insuffisance des données. Nous
cherchons donc la taille optimale nous permettant de maximiser la quantité des lois
suffisamment robustes.
C4.2.1) Construction de la chronique des lois
Nous avons déterminé empiriquement la taille optimale de la fenêtre égale à 8 ans.
Cela résulte de plusieurs tentatives mesurant la robustesse des lois obtenues.
Ainsi nous avons trouvé 18 lois d’incidence pour les années de 1998 au 2015. Les taux
moyens d’incidence sont présentés sur la figure ci-dessous :
Figure 4.1. Taux moyen d’incidence
Nous pouvons remarquer que les taux moyens d’incidence sont en croissance jusqu’à
2009 et en baisse après. Nous constatons que les taux moyens ont baissé de presque 20%
depuis 2009 (environ 11% entre 2014 et 2015). Ce comportement est contradictoire étant
donné l’augmentation rapide du nombre des personnes dépendantes d’une année à l’autre
[14]. Une des explications serait que les assurées commencent à souscrire ces contrats en étant
plus jeunes et en meilleur état de santé, ce qui impacte fortement les profils (et ses
répartitions) des assurés. De la même manière, la meilleure appréciation du risque dépendance
72
peut influencer le comportement des assurés. La peur de devenir dépendant conduit les gens à
faire plus attention à leur santé. Nous aborderons dans un point spécifique, à la fin de ce
mémoire, si cette explication peut s’avérer pertinente.
Une telle situation rend plus compliqué le jugement sur la cohérence et l’exactitude du
comportement des taux moyens observés. Néanmoins, nous allons continuer d’étudier cette
chronique en gardant en tête, que les résultats peuvent être différents de la réalité.
La figure suivante met en évidence l’adéquation de taux bruts d’incidence avec les
fonctions de Makeham-Gompertz ajustées sur ces données.
Figure 4.2. Ajustement des taux bruts d’incidence avec les fonctions MG
Nous sommes intéressés par les courbes capés à 90 ans car la suite sera construite avec
la règle de fermeture des lois définie dans la partie C2.1.8).
Pour confirmer cette adéquation, nous avons décidé d’appliquer le test de KS. Les
résultats de cette application sont présents dans le tableau 4.1.
Année 1998 1999 2000 2001 2002 2003 2004 2005 2006
Stat. 0.12551 0.15076 0.09696 0.05142 0.06089 0.06257 0.07694 0.09980 0.10102
P-val 0.76154 0.52272 0.92360 0.99997 0.99922 0.99851 0.97551 0.83112 0.79609
Acc. H0 Vrai Vrai Vrai Vrai Vrai Vrai Vrai Vrai Vrai
Année 2007 2008 2009 2010 2011 2012 2013 2014 2015
Stat. 0.10032 0.10713 0.16952 0.02375 0.02198 0.01886 0.05016 0.04183 0.03910
P-val 0.80273 0.72192 0.20059 1 1 1 0.99980 0.99999 0.99999
Acc. H0 Vrai Vrai Vrai Vrai Vrai Vrai Vrai Vrai Vrai
Tableau 4.1. Test d’adéquation de l’ajustement de la loi MG sur la chronique de taux bruts d’incidence
D’après les résultats dans le tableau ci-dessus, nous pouvons conclure qu’avec le seuil
de confiance de 95% tous les ajustements de MG sont en adéquation avec les taux bruts
d’incidence.
73
Ainsi, nous pouvons présenter la chronique des taux d’incidence retenue (figure 4.3).
Notons que plus la courbe est épaisse, plus l’année est élevée (ex. : la courbe plus sombre en
bas correspond aux taux d’incidence de 2015).
Figure 4.3. Chronique des taux d’incidence retenue
C4.2.2) Projection des lois
Pour construire les lois d’incidence prospectives, nous allons tester quelques
approches et choisir la plus pertinente.
Comme nous avons la chronique des lois d’incidence représentée par les lois de MG,
alors nous travaillerons avec trois chroniques des paramètres de loi MG. Ces chroniques sont
présentées sur la figure ci-dessous :
Figure 4.4. Chroniques des paramètres de la loi MG
74
Il est facile de remarquer que la chronique du paramètre 𝑎 est toujours égale à 0. Cela
lié au fait que dans le modèle de Makeham-Gompertz le paramètre 𝑎 représente les taux de
sortie accidentels pour les petits âges (voir la partie C2.1.3)). Dans notre cas, il est quasiment
impossible d’avoir les entrées en dépendance avant 60 ans. Alors dans la suite nous
supposerons le paramètre 𝑎 = 0 pour toute projection et il nous restera à projeter uniquement
les paramètres 𝑏 et 𝑐.
Nous pouvons remarquer également une valeur aberrante pour le paramètre 𝑏 (année
2006). Telle hausse du paramètre 𝑏 en 2006 est compensé par la baisse du paramètre 𝑐, ce qui
rend la courbe assez proche de celles de ses voisins (les années 2005 et 2007). Alors nous
avons décidé d’étudier les chroniques de 𝑏 et 𝑐 sans tenir compte de l’année 2006.
Dans la suite, nous testerons deux approches différentes : modélisation sur les
chroniques entières et modélisation sur les données à partir de 2009. Pour rappel, nous
constatons une baisse des taux moyens d’incidence depuis 2009. Nous ajusterons les modèles
sur les données jusqu’à 2014, puis nous prédirons les coefficients pour l’année 2015 et
comparerons avec les vraies valeurs. Enfin, le modèle retenu sera appliqué à l’ensemble des
données pour trouver les lois prospectives.
C4.2.2) a) Modélisation sur les chroniques entières
Tout d’abord, nous allons tester l’approche par la régression linéaire. Les résultats
pour les coefficients 𝑏 et 𝑐 sont présents dans le tableau ci-dessous :
Qualité de la régression linéaire sur la chronique du paramètre 𝒃(𝒙) = 𝒌 + 𝒍 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒌 -2.138e-07 1.022e-07 -2.092 0.0584 Oui (confiance 90%)
𝒍 1.073e-10 5.096e-11 2.106 0.0569 Oui (confiance 90%)
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.209
Qualité de la régression linéaire sur la chronique du paramètre 𝒄(𝒙) = 𝒎 + 𝒏 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒎 8.2959374 1.5694023 5.286 0.000193 Oui
𝒏 -0.0035147 0.0007824 -4.492 0.000736 Oui
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.596
Tableau 4.2. Analyse de la qualité de régression pour les paramètres 𝑏 et 𝑐 (chroniques entières)
Nous voyons sur le tableau 4.2 que la régression pour le paramètre 𝑏 ne possède pas
de très bonnes qualités. Les coefficients sont significatifs au niveau de confiance de 90% et le
𝑅𝑎𝑗𝑢𝑠𝑡2 = 0,209 est assez petit. Par contre la régression expliquant le comportement du
paramètre 𝑐 montre des résultats satisfaisants. Les coefficients estimés avec un niveau de
confiance proche de 100% et 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0,596.
75
Figure 4.5. Projection de paramètres 𝑏 et 𝑐 avec la régression linéaire (chroniques entières)
Les résultats de la prédiction avec ce modèle sont représentés sur la figure 4.5. Notons
que la cercle bleu représente la vrai valeur des paramètres 𝑏 et 𝑐 en 2015.
En utilisant ces résultats nous allons construire la courbe des taux d’incidence et la
comparer à la vraie courbe. La comparaison graphique est présente sur la figure suivante :
Figure 4.6. Comparaison de la courbe observée et la courbe projeté avec la régression linéaire
(chroniques entières)
Nous pouvons voire que les courbes sont très proches visuellement. Pour le prouver
statistiquement, nous utilisons le KS-test (Statistique = 0,0105 et P-value = 0,99999) et
l’indicateur 𝑅2 = 0.9995954. Ce résultat satisfaisant, malgré les problèmes dans la régression
sur le paramètre 𝑏, peut s’expliquer par la petite échelle de ce paramètre.
76
Deuxièmement, nous allons tester l’approche par le modèle SARIMA. Les résultats
pour les coefficients 𝑏 et 𝑐 sont présents dans le tableau ci-dessous :
𝑝 𝑑 𝑞 Effet saisonnier 𝜇 𝐴𝐼𝐶 𝐵𝐼𝐶 𝐿𝑜𝑔(𝐿)
Chronique 𝑏 0 0 0 Non 1.439e-09 -583.79 -537.51 271.4
Chronique 𝑐 0 1 0 Non 0 -60.53 -59.97 31.27
Tableau 4.3. Analyse de la qualité du modèle SARIMA pour les paramètres 𝑏 et 𝑐 (chroniques entières)
Avec 𝑝, 𝑑, 𝑞 les coefficients du modèle 𝐴𝑅𝐼𝑀𝐴(𝑝, 𝑑, 𝑞), 𝜇 la moyenne du processus, AIC
le critère d'information d'Akaike, BIC le critère d'information bayésien et 𝐿𝑜𝑔(𝐿) est la logarithme de
la vraisemblance.
D’après ces résultats la chronique du paramètre 𝑏 est représentée par le simple bruit blanc
translaté de 𝜇 = 1.439 ∗ 10−9 et la chronique du paramètre 𝑐 est représentée par le bruit blanc
différencié une fois.
Il est difficile de juger ces résultats comme fiables. Une telle incertitude dans la modélisation
s’explique par le petit nombre d’observations.
Nous allons quand même projeter les paramètres avec ces modèles (figure 4.7) et comparer les
taux d’incidence observés avec les taux projetés (figure 4.8).
Figure 4.7. Projection de paramètres 𝑏 et 𝑐 avec le modèle SARIMA (chroniques entières)
77
Figure 4.8. Comparaison de la courbe observée et la courbe projeté avec le modèle SARIMA
(chroniques entières)
Nous pouvons voir que les courbes ne sont pas proches visuellement. Pour le prouver
statistiquement, nous utilisons le KS-test (Statistique = 0,0627 et P-value = 0,8671) et
l’indicateur 𝑅2 = 0,8345844. Nous considèrerons ce résultat comme non satisfaisant.
C4.2.2) b) Modélisation sur les chroniques à partir de l’année 2009
Le passage à une chronique des données réduite, diminue la quantité des données (de
15 observations à 6). Pour ce raison nous allons tester uniquement l’approche par la
régression linéaire. Les résultats pour les coefficients 𝑏 et 𝑐 sont présents dans le tableau ci-
dessous :
Qualité de la régression linéaire sur la chronique du paramètre 𝒃(𝒙) = 𝒌 + 𝒍 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒌 -5.750e-07 2.072e-07 -2.776 0.0692 Oui (confiance 90%)
𝒍 2.868e-10 1.030e-10 2.784 0.0688 Oui (confiance 90%)
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.6279
Qualité de la régression linéaire sur la chronique du paramètre 𝒄(𝒙) = 𝒎 + 𝒏 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒎 11.286061 2.135396 5.285 0.0132 Oui
𝒏 -0.005001 0.001062 -4.710 0.0181 Oui
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.8412
Tableau 4.4. Analyse de la qualité de régression pour les paramètres 𝑏 et 𝑐 (à partir 2009)
78
Figure 4.9. Projection de paramètres 𝑏 et 𝑐 avec la régression linéaire (à partir 2009)
Nous voyons que sur le tableau 4.4 la régression pour le paramètre 𝑏 a des qualités
suffisamment acceptables. Les coefficients sont significatifs au niveau de confiance de 90% et
le 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0,6279. De même la régression expliquant le comportement du paramètre 𝑐
montre les résultats satisfaisants. Les coefficients estimés avec le niveau de confiance près de
99% et 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0,8412.
Les résultats de la prédiction avec ce modèle sont représentés sur la figure 4.9. Notons
que le cercle bleu représente la vrai valeur des paramètres 𝑏 et 𝑐 en 2015.
En utilisant ces résultats nous allons construire la courbe des taux d’incidence et la
comparer à la vraie courbe. La comparaison graphique est présente sur la figure suivante :
Figure 4.10. Comparaison de la courbe observée et la courbe projeté avec la régression linéaire (à partir
2009)
79
Nous pouvons voir que la courbe projetée est assez déviée de la courbe observée. Les
tests statistiques nous donnent les résultats suivants :
le KS-test : 𝑆𝑡𝑎𝑡 = 0,0488 et 𝑃. 𝑣𝑎𝑙𝑢𝑒 = 0,90371
l’indicateur 𝑅2 = 0,92851.
Ce résultat est satisfaisant mais moins bon que celui de la régression linéaire sur les
chroniques entières des paramètres.
Alors, nous nous arrêtons sur le modèle de projection des paramètres se basant sur la
régression linéaire avec les chroniques entières de données observées. Nous allons réajuster ce
modèle en incluant l’observation de 2015.
Qualité de la régression linéaire sur la chronique du paramètre 𝒃(𝒙) = 𝒌 + 𝒍 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒌 -2.488e-07 8.602e-08 -2.893 0.0118 Oui
𝒍 1.248e-10 4.286e-11 2.912 0.0114 Oui
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.7851
Qualité de la régression linéaire sur la chronique du paramètre 𝒄(𝒙) = 𝒎 + 𝒏 ∗ 𝒙
Coefficient Estimateur Ecart-type t valeur P-value Significativité
𝒎 8.4026815 1.2152247 6.915 7.16e-06 Oui
𝒏 7.16e-06 0.0006055 -5.893 3.92e-05 Oui
Qualité du modèle : 𝑅𝑎𝑗𝑢𝑠𝑡2 = 0.8995
Tableau 4.5. Analyse de la qualité de régression pour les paramètres 𝑏 et 𝑐 (modèle final)
Nous voyons dans le tableau 4.5 que les coefficients de deux droits sont significatives
et les 𝑅𝑎𝑗𝑢𝑠𝑡2 de deux droites sont assez proches de 1. D’après ces résultats, nous pouvons
juger le modèle retenu suffisamment robuste. Ainsi, nous allons projeter les coefficients pour
les 50 futures années. Les résultats de telle projection sont présentés sur la figure suivante :
Figure 4.11. Projection de paramètres 𝑏 et 𝑐 avec le modèle retenu
80
Pour mieux comprendre l’effet de cette projection nous allons tracer les courbes de
taux d’incidence obtenus avec les coefficients projetés (figure 4.12) :
Figure 4.11. Projection de paramètres 𝑏 et 𝑐 avec le modèle retenu
Nous observons les courbes des taux d’incidence futurs (en rouge), qui convergent
vers 0. Ce résultat est très fort compte tenu de la réalité observée. Il s’explique par la faible
quantité de données à notre disposition. Néanmoins, il peut être vu comme une sensibilité
atypique. Dans le chapitre suivant nous allons donc utiliser ce résultat et nous analyserons les
impacts des lois d’incidence prospectives sur le BE.
81
Chapitre 5. L’impact de l’évolution de la loi d’incidence sur
le BE
C5.1. Calcul du BE avec les lois d’incidence prospectives
Dans le chapitre précédent nous avons vu que la projection de la loi d’incidence sur les
prochaines 50 années n’a pas l’air très réaliste compte tenu de la forte chute de l’incidence
observée. Néanmoins, nous allons utiliser ces résultats afin de mesurer l’impact d’un tel
scénario qui peut paraitre peu probable.
Dans la suite nous nous intéresserons à deux scenarios différents. Le premier consiste
à calculer l’indicateur BE en appliquant directement les taux d’incidence prospectifs obtenus
dans le chapitre 4. Cela nous permettra d’obtenir une vision du gain, qui pourrait être observé
sur le BE, par exemple, dans le cas où la médecine trouvera « le soin magique » et les gens ne
seront plus dépendants. Le deuxième scénario est plus réaliste, il consiste à retenir la première
loi projetée (pour l’année 2016) et calculer le BE en utilisant cette loi pour chaque année de
projection. Ce résultat sera la borne supérieure du BE sous l’hypothèse que les taux
d’incidence continueront de baisser.
Le BE avec le scénario 1 est égale à -10 millions d’euros environ ce qui représente une
évolution de -110% par rapport à la valeur central. Dans ce cas CNP Assurances dégagera les
gains à l’horizon de 50 ans. Il est important de noter que les résultats positifs pour l’assureur
sont aussi inquiétants, car cela signifie les résultats négatifs pour les assurés, ce qui peut
provoquer les résiliations et la perte des clients voir même fin de la commercialisation des
contrats dépendance que nous connaissons aujourd’hui. Donc il faudra prévoir des révisions
tarifaires ou d’autres actions pour améliorer la situation.
Le BE avec le scénario 2 est égale à 26 millions d’euros environ ce qui représente une
évolution de -75% par rapport à la valeur centrale. Ce résultat est assez réaliste et peut se
produire dans le cas de la baisse des taux d’incidence.
C5.2. Analyse des résultats
Pour commenter ces résultats nous allons tout d’abord analyser l’évolution des taux
d’incidence projetés. Cela nous permettra d’avoir une idée sur la vitesse de l’évolution des
taux d’incidence.
Sur la figure 5.1 nous observons qu’au bout d’une année les taux d’incidence
diminuent en moyenne de 20% en scenario centrale. Cela correspond à un choc de -20% sur
les taux d’incidence. Dans 20 ans, les taux représentent environ 1% de ces valeurs. Après la
25ème
année de projection les taux d’incidence deviennent quasi nuls. Il est logique de
supposer que le risque dépendance ne sera plus assurable dans ce cas.
82
Figure 5.1. Evolution moyenne des taux d’incidence
L’évolution des taux d’incidence décrite ci-dessus impliquera les changements dans
les projections des primes et des prestations futures. La figure 5.2 représente l’impact des
scenarios 1 et 2 sur les primes ainsi que les primes projetée sous le scenario central.
Figure 5.2. Primes actualisées et cumulées sous le scénario central, 1 et 2
Nous voyons sur le graphique du haut, que l’impact d’évolution des taux d’incidence
provoque les impacts remarquables (entre les années de projection 5 et 28) sur les primes
actualisées pour le premier scenario. Pourtant, l’impact du second scenario sur les primes est
beaucoup moins important.
En analysant les primes cumulées au bout de la 50ème
année de projection nous
observons que le scenario 1 a un impact de +33 millions d’euros environ et le scenario 2 a un
impact de +7 millions d’euros environ, ce qui représente +15% et +3% du scenario central
respectivement.
83
La figure 5.3 ci-dessous nous montre l’impact des deux scénarios d’évolution des taux
d’incidence sur les prestations projetée.
Figure 5.3. Prestations actualisées et cumulées sous le scénario central, 1 et 2
Nous observons que le pic des prestations actualisées est en quatrième année de
projection pour chaque scénario. Comme l’âge moyen des assurés dans le portefeuille est
assez élevé (75,5 ans) et le portefeuille contient en majorité des assurés en état de validité, la
hausse rapide des prestations durant les quatre premières années s’explique par la probabilité
élevée de devenir dépendant. Cependant cette hausse de prestations est arrêtée par la prise
irréversible du poids de la probabilité de décès (en état valide et en état de dépendance). Au
bout de 15-20 ans cette probabilité devient très proche de 1, ce qui conduit à la quasi
disparition des prestations.
Contrairement à la situation avec les primes, nous voyons que les deux scénarios ont
l’impact remarquable sur les prestations actualisées.
En analysant les prestations cumulées au bout de la 50ème
année de projection nous
observons que le scenario 1 a un impact de -91 millions d’euros environ et le scenario 2 a un
impact de -75 millions d’euros environ, ce qui représente -30% et -24% du scenario central
respectivement. Ces impacts ne sont pas négligeables et sont remarquablement plus
importants que les impacts des deux scenarios sur les primes. Cela s’explique par le fait que
les payeurs des primes peuvent quitter l’état valide pour plusieurs raisons : dépendance totale,
partielle et décès. L’augmentation des taux d’incidence sera plus importante pour les âges
élevés, sachant que pour ces âges la probabilité de décéder est déjà assez conséquente. Donc,
une certaine partie de l’effet de la hausse des taux d’incidence sera absorbée. Alors que le
passage en état de dépendance génère plusieurs flux de prestations probabilisées de manière
sûre.
Finalement, nous pouvons présenter les impacts des deux scénarios sur le BE (figure
5.4).
84
Figure 5.4. BE sous le scénario central, 1 et 2
Comme nous avons dit dans la partie précédente le BE sur 50 ans avec le scénario 1
est égale à -10 millions d’euros environ ce qui représente une évolution de -110% par rapport
à la valeur centrale et le BE sur 50 ans avec le scénario 2 est égale à 26 millions d’euros
environ ce qui représente une évolution de -75% par rapport à la valeur centrale. Notons que
la valeur du BE avec le scenario 1 est très influencée par les paiements des PB. Puisque à
partir de 21ème
année les résultats de l’exercice seront positifs pour l’assureur (les primes
supérieures aux prestations et les frais de gestion), ce qui conduira aux paiements des PB.
Nous pouvons conclure, que les chocs sur la loi d’incidence ont un impact plus fort sur
les prestations que sur les primes. Pour le portefeuille étudié, les prestations sont en
croissance rapide les 4 premiers années de projection et après sont en lente baisse.
Le premier scenario étant peu réaliste nous a permis de voir la pseudo-valeur (le
modèle du BE est simplifié) de notre portefeuille dans le cas de disparition du risque
dépendance dans les prochaines 20-30 ans.
Le second scenario est acceptable dans le cas d’évolution observée des taux
d’incidence. Mais il est très difficile de juger sa pertinence car nous n’avons pas assez des
donnés pour construire les estimateurs plus fiables et étudier ces évolutions avec les modèles
plus corrects.
Néanmoins le sujet d’évolution des lois pour le risque dépendance reste au point et
nécessite plus d’attention.
C5.3. Regard critique sur les données étudiées
Pour mieux comprendre les résultats obtenus nous avons décidé d’étudier plus
précisément les données utilisées dans cette étude.
Les volumes de données présentent un intérêt certain car ils sont, par construction, en
rapport direct avec la qualité et les résultats d’étude.
La figure suivante montre l’évolution des volumes des contrats souscrits au fil du
temps :
85
Figure 5.5. Evolution du volume des contrats dans le temps.
Nous observons sur les dernières années que les souscriptions des nouveaux contrats
ont beaucoup diminué. Pour vérifier ceci, nous présenterons sur la figure 5.6 les
accroissements du nombre de contrats par an.
Figure 5.6. Accroissements des contrats par an.
Ce graphique confirme la supposition évoquée précédemment. Nous voyons qu’à
partir de 2008 la quantité des souscriptions diminue fortement (presque de 50% par rapport
aux données 1997-2007). Cela est lié aux contrats fermés à l’adhésion et probablement au fait
qu’au fil des ans de plus en plus de personnes étaient équipés en contrat dépendance. Ceci
expliquera en partie le fait que nous constatons des taux d’incidence qui sont en baisse depuis
2009.
Dans le cas normal, le fait de changer le volume de souscription n’impliquera pas le
changement des taux d’incidence. Sauf que, dans notre cas avec les nouvelles souscriptions
86
nous avons une grande partie des données qui sont censurées, ce qui fait que nous biaisons la
proportion des personnes valides et les personnes entrées en dépendance.
Il nous faut donc trouver le moyen de renforcer nos données avec les bases de
sinistralité d’autres portefeuilles pour contrer cet effet. Cela représente une tache extrêmement
compliquée, car il faudrait rassembler des portefeuilles qui ne sont pas homogènes
(population, types de contrat, reconnaissance de l’état de dépendance, etc..). Ce sujet pourrait
faire l’objet d’une étude à part entière.
Egalement, nous avons effectué une étude sur la base des assurés qui sont devenus
dépendants afin de savoir quelle est la durée moyenne d’un assuré passée en état de validité.
Cette durée est évaluée à 22,3 ans. Donc, pour renforcer notre étude sur l’évolution des lois
d’incidence nous devons prendre les fenêtres d’observations de 23 ans. Cela permettra d’avoir
des lois robustes et correctes. Actuellement, cette approche n’est pas possible à réaliser car le
recul historique à notre disposition nous permettrait d’avoir que 2 chroniques des lois, ce qui
ne suffira pas pour étudier l’évolution.
Nous sommes obligés alors de rester patients et cumuler les données afin de mieux
étudier le phénomène de la dépendance.
87
CONCLUSION
Ce mémoire avait pour objectif d’apprécier l’erreur liée, aux évolutions de lois du
risque dépendance, que nous pourrions commettre dans le calcul de l’estimateur BE. Malgré
les résultats, que nous considérons non directement transposables, nous avons pu confirmer
l’importance de l’impact des évolutions des taux d’incidence en dépendance sur le BE. Nous
avons également proposé des pistes d’amélioration pour mener des travaux complémentaires à
ceux effectués dans ce mémoire. L’idée étant d’obtenir des résultats plus robustes. A noter
que l’impact de l’évolution de la loi de maintien pourrait elle aussi faire l’objet d’une autre
étude à part entière.
Les deux lois essentielles du risque dépendance sont la loi d’incidence et la loi de
maintien. Ce mémoire rassemble de nombreuses techniques nécessaires pour leur
construction.
La loi d’entrée en dépendance est présentée par les taux d’incidence en fonction de
l’âge. Elle est segmentée par niveau de dépendance (totale ou partielle). La segmentation par
sexe n’a pas d’intérêt car n’est pas significative avec les données disponibles comme nous
l’avons montré. Pour l’estimation des taux d’incidence nous avons utilisé l’estimateur de
Kaplan-Meier. Le passage des taux d’incidence en dépendance totale aux taux d’incidence en
dépendance partielle est modélisé avec une régression quadratique. Le lissage du modèle est
effectué par l’ajustement du modèle de Makeham-Gompertz. Pour fermer les tables
d’incidence nous avons utilisé le modèle de Verhulst, qui permet d’obtenir la convergence
vers une asymptote différente de cent pourcents.
La loi de maintien en dépendance prend la forme d’une fonction de survie. Cette
fonction représente la probabilité de survivre au-delà des durées fixées en mois. La loi est
segmentée par 3 critères : sexe, niveau de dépendance et âge d’entrée en dépendance (avant
ou après 75 ans). Nous avons utilisé l’estimateur de Kaplan-Meier pour l’estimation de la
fonction de survie. L’interpolation et le lissage ont été effectués par la méthode des splines
cubiques. Le taux de passage de l’état de dépendance totale en état de dépendance partielle est
égal à 2,8% par an.
Les résultats sont adéquats et conformes aux données de CNP Assurances. Pour les
valider nous avons utilisé un ensemble de tests d’adéquation permettant d’analyser plus
précisément la significativité des écarts.
Afin de mieux capter l’impact de l’évolution de la loi d’incidence sur le BE, nous
avons décidé de retenir un modèle de BE simplifié, qui contient les projections des primes,
prestations, frais de gestion et des participations aux bénéfices. Les projections sur 50 ans sont
effectués pour les contrats en run-off selon la frontière de contrats retenue. La cohérence de la
valeur du BE a été vérifiée.
La chronique de lois d’incidence était représentée par les paramètres de la loi MG et
était construite à partir des données retenues dans les fenêtres d’observations glissantes dont
la taille est de 8 ans. L’évolution de ces paramètres a été modélisée et projetée avec la
régression linéaire.
Finalement, nous avons étudié les impacts (par rapport à la valeur centrale) de deux
scénarios sur le BE. Cela nous a permis d’avoir une vue critique sur la valeur du BE que nous
produisons avec les lois non prospectives.
88
Comme la dépendance est un risque à enjeu et en pleine croissance, il est impératif
d’effectuer des études d’anticipation. Nous avons pu voir que le BE est significativement
sensible aux évolutions des lois d’incidence et de maintien. Ainsi, les assureurs doivent
continuer le suivi de ce risque en investissant sur des recherches approfondies qui leur
permettront d’appréhender de mieux en mieux le risque dépendance.
Nous avons également introduit dans ce mémoire les aspects théoriques sur les
méthodes d’estimation de la fonction de survie, construction des taux de sortie, interpolation,
ajustement et lissage des taux bruts et plusieurs tests d’adéquation. Cela permettra au lecteur
de comprendre les démarches fréquemment utilisées pour la modélisation des lois en
assurance et de faciliter le choix de l’approche convenant au mieux pour sa problématique.
89
BIBLIOGRAPHIE
1. Marie-Pascale Deléglise, Christian Hess, Sébastien Nouet. TARIFICATION,
PROVISIONNEMENT ET PILOTAGE D’UN PORTEFEUILLE DEPENDANCE.
Bulletin Français d’Actuariat, Institut des Actuaires, 2009, 9 (17), pp.70.
2. Kessler, Ronald C., et al. "Lifetime prevalence and age-of-onset distributions of
mental disorders in the World Health Organization's World Mental Health Survey
Initiative." World Psychiatry 6.3 (2007): 168.
3. LE MARCHÉ DE L'ASSURANCE DÉPENDANCE, Manuel Plisson, IRI-Crea
(Université Paris-Dauphine), 2008
4. Planchet, F., & Thérond, P. E. (2011). Modélisation statistique des phénomènes de
durée: Applications actuarielles. Économica.
5. Galton, F. (1886). Regression towards mediocrity in hereditary stature. The Journal of
the Anthropological Institute of Great Britain and Ireland, 15, 246-263.
6. Simpson, T. (1740). Essays on Several Curious and Useful Subjects, in Speculative
and Mix'd Mathematicks. H. Woodfall.
7. Tomas, J., & Planchet, F. (2013). Critères de Validation: Aspects Méthodologiques.
Institut des Actuaires.
8. Shorack, G. R., & Wellner, J. A. (2009). Empirical processes with applications to
statistics (Vol. 59). Siam.
9. Mantel, N. (1966). Evaluation of survival data and two new rank order statistics
arising in its consideration. Cancer chemotherapy reports. Part 1, 50(3), 163-170.
10. Planchet, F., & Thérond, P. (2014). Modèles de durée. Statistique des modèles non
paramétriques. Support de cours, 2014-2015.
11. Planchet, F., & Thérond, P. (2014). Modèles de durée. Méthodes de lissage et
d’ajustement. Support de cours, 2014-2015.
12. Sia Partners Formule Standard & USP: Guide pratique des calculs Solvabilité II.
13. Christian Robert (2015). Séries temporelles. Support de cours, 2015-2016.
14. Duée, M., & Rebillard, C. (2006). La dépendance des personnes âgées: une projection
en 2040. Données sociales-La société française, 7.
90
ANNEXES
A. Contrats d’assurance dépendance (FFSA 2015)