Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté...

126
1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat et l’admission à l’Institut des Actuaires le Par : Cédrik Périna Titre : Optimisation de la segmentation des contrats d’épargne en euros à la date de transition sous IFRS 17 Confidentialité : NON OUI (Durée : 1 an 2 ans) Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus Membres présents du jury de l’Institut Entreprise : des Actuaires Nom : Sia Partners Signature : Membres présents du jury du Master Directeur de mémoire en entreprise : Actuariat de Paris Dauphine Nom : Alexandre Challal Signature : Autorisation de publication et de mise en ligne sur un site de diffusion de documents actuariels (après expiration de l’éventuel délai de confidentialité) Secrétariat : Signature du responsable entreprise Bibliothèque : Signature du candidat Université Paris-Dauphine MIDO Bureau B536, Place du Maréchal de Lattre de Tassigny, 75016 PARIS

Transcript of Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté...

Page 1: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

1

Mémoire présenté devant l’Université de Paris Dauphine

pour l’obtention du Diplôme du Master actuariat

et l’admission à l’Institut des Actuaires

le

Par : Cédrik Périna

Titre : Optimisation de la segmentation des contrats d’épargne en euros à la date de transition sous IFRS 17

Confidentialité : NON OUI (Durée : 1 an 2 ans)

Les signataires s’engagent à respecter la confidentialité indiquée ci-dessus

Membres présents du jury de l’Institut Entreprise :

des Actuaires Nom : Sia Partners

Signature :

Membres présents du jury du Master Directeur de mémoire en entreprise :

Actuariat de Paris Dauphine Nom : Alexandre Challal

Signature :

Autorisation de publication et de mise en ligne sur un site de diffusion de documents actuariels

(après expiration de l’éventuel délai de confidentialité)

Secrétariat : Signature du responsable entreprise

Bibliothèque : Signature du candidat

Université Paris-Dauphine – MIDO – Bureau B536, Place du Maréchal de Lattre de Tassigny, 75016 PARIS

Page 2: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

2

Page 3: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Avant-propos

d

Ce mémoire de �n d'études d'actuariat propose une interprétation de la période de transition imposée par la

future norme IFRS 17 relative à la mesure des passifs d'assurance. En particulier, nous proposons des méthodes

de segmentation d'un portefeuille à cette date à la maille des groupes de contrats IFRS 17.

La norme a été publiée par l'IASB en mai 2017 et les di�érentes interprétations parfois contradictoires se

succèdent depuis 18 mois. Certaines parties prenantes insistent sur la nécessité d'une révision de la norme avant

son adoption et d'un recul de sa date d'entrée en vigueur. Insurance Europe a notamment proposé en octobre

2018 de décaler de 2 ans l'adoption de la norme pour permettre de revoir certaines parties du standard. Un report

d'un an a d'ores et déjà été acté.

Les constats et préconisations exposés dans ce mémoire doivent être analysés dans ce contexte très évolutif

et ne pourraient être retenus en aucun cas comme un avis dé�nitif.

3

Page 4: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

4

Page 5: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Remerciements

; ;

Mes premiers remerciements vont à Alexandre Challal et Vincent Rivoirard pour leur travail e�ectué en tant que

tuteur et le sérieux de leur suivi.

Je tiens à remercier Ronan Davit, Benoît Menoni et Michael Donio pour m'avoir permis d'e�ectuer mon stage

de �n d'étude au sein de Sia Partners et pour leur disponibilité.

J'adresse également mes remerciements à Santiago Fiallos pour le choix de ce sujet intéressant qui m'aura

beaucoup appris ainsi que pour ses conseils avisés et les connaissances qu'il a su m'apporter sur la norme.

Je remercie vivement Damien Tichit pour sa grande disponibilité et son soutien tout au long de mon stage

Je tiens à exprimer ma gratitude à tous les membres du cabinet Sia Partners pour l'accueil, l'ambiance, et ces

moments de ré�ections communes qui ont souvent été instructifs.

Je n'aurais pas pu réaliser ce mémoire sans l'aide des enseignements apportés par l'INSA de Rouen et l'Université

Paris-Dauphine. Je tiens donc à remercier les membres de ces deux établissements pour tout ce qu'ils m'ont

apporté et notamment Nicolas Forcadel pour la con�ance qu'il m'a accordée.

Et en�n, je ne saurais conclure cette section sans adresser des remerciements spéciaux à ma famille et à mes

collègues et amis, Murielle Ravelonandro et Corentin Guilbaud pour leur soutien et leur amitié indéfectible.

5

Page 6: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

6

Page 7: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Résumé

d

Au vu de sa complexité, l'adaptation à la norme IFRS 17 représente un chantier de taille pour les entités

concernées. De nombreuses interrogations nées de la publication de la norme sont devenues des sujets de place

dans le monde actuariel et les problématiques liées aux nouvelles règles de segmentation des contrats d'assurance

en font partie.

Dans un premier temps, ce mémoire présentera les grandes lignes de la norme ainsi que les nouvelles règles

de segmentations des contrats établies sous IFRS 17 avant de se recentrer sur les particularités de la période de

transition. Cette présentation permettra d'exposer les enjeux posés par la gestion de la segmentation des contrats

lors de la période de transition et mettra ainsi en évidence l'intérêt de ce mémoire.

Dans un second temps, une méthodologie visant à produire une segmentation de contrats d'épargnes en euros

optimale sera présentée. Se voulant innovante, cette méthodologie se reposera sur des algorithmes de segmenta-

tion par la théorie des graphes plus couramment utilisés en traitement d'images, ainsi que sur des algorithmes

métaheuristiques. Les hypothèses nécessaires à la réalisation de calculs conformes aux éxigences de la norme

IFRS 17 à la date de transition seront choisies et explicitées.

Les parties suivantes seront constituées d'applications qui, partant de la méthodologie initialement présentée,

suivront un chemin logique à la recherche de la simpli�cation de la mise en place d'une segmentation e�cace des

contrats à la date de transition d'IFRS 17.

Mots clefs : Actuariat, IFRS17, segmentation, Model Points, transition, métaheuristiques, théorie des graphes,

Epargne, CSM, Marge de Service Contractuelle.

7

Page 8: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

8

Page 9: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Abstract

d

Given its complexity, the adaptation to IFRS 17 represents a major undertaking for the entities concerned.

Many of the questions arising from the publication of the standard have become major issues in the actuarial

world and issues related to the new segmentation rules for insurance contracts are one of them.

Initially, this thesis will run you through the main features of the standard as well as the new segmentation

rules to be applied to all insurance contracts before refocusing on the particularities of the transition period.

This presentation will explain the challenges involved in managing contract segmentation during the transition

period and will therefore highlight the value of this thesis.

In a second step, a methodology designed to produce an optimal segmentation of savings contracts in euros

will be introduced. This self-proclamed innovative methodology will be based on graph theory segmentation al-

gorithms more commonly used in image processing as well as metaheuristic algorithms.

The following parts will be made up of applications which, starting from the initially introduced methodo-

logy, will follow a logical path in order to simplify the implementation of an e�ective contract segmentation at

the transition date of IFRS 17. All necessary assumptions will be made and explained.

Keywords : actuarial, IFRS17, segmentation, Model Points, transition, metaheuristics, graph theory, saving,

CSM, Contractual Service Margin.

9

Page 10: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

10

Page 11: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Note de synthèse

Après 20 années de recherches, the International Accounting Standards Board (IASB) semble estimer avoir

atteint son objectif de développer une norme internationale qui uniformisera les méthodes comptables utilisées

et améliorera la comparabilité des états �nanciers : IFRS 17 Insurance Contracts.

La norme IFRS 17 va provoquer des changements majeurs au niveau de la valorisation des engagements d'assu-

rance et des méthodes comptables associées a�n d'harmoniser les pratiques des assureurs à l'échelle mondiale.

Cependant, malgré cette volonté d'uniformisation, la norme comporte de nombreuses zones discrétionnaires qui

vont se transformer en casse-tête pour les assureurs. De nombreuses études ont été réalisées par les assureurs, mûs

par la volonté de réutiliser au maximum les modèles développés lors de la mise en place de précédentes normes

comptables telles que Solvabilité II. Elles ont montré que, si certains éléments exigés tels que l'ajustement pour

le risque non �nancier, trouvent un équivalent dans d'autres normes, la mise en place de modèles IFRS 17 impose

des changements dans bien des domaines, notamment au niveau de la gestion des pro�ts futurs et de la segmen-

tation des contrats :

IFRS 17 introduit une Marge de Service Contractuelle (CSM) constituée des pro�ts futurs associés aux

contrats pro�tables et impose la comptabilisation immédiate des pertes futures associées aux contrats onéreux

au résultat.

La segmentation des contrats d'assurance sous IFRS 17 se fera désormais en au moins 3 étapes :

1. une séparation par portefeuille de contrats soumis aux mêmes risques et gérés ensemble ;

2. une segmentation par niveau de pro�tabilité séparant les contrats onéreux, ceux qui ont une chance non

signi�cative de devenir onéreux et les autres contrats ;

3. une segmentation par cohorte annuelle : Deux contrats issus plus d'un an à part ne peuvent pas �gurer

dans le même groupe.

Cette segmentation innovante est incompatible avec celles actuellement utilisées par les acteurs sur le marché et

oblige donc les assureurs à revoir leur méthodologie de constitution des Model Points. La constitution des Model

Points devra non seulement se faire en accord avec les principes imposés par la norme mais également dans un

premier temps selon les règles associées à l'approche choisie lors de l'exercice transitoire. Sur les 3 approches

éligibles pour la constitution du bilan à la date de transition, l'approche Fair Value semble s'imposer comme la

plus populaire, notamment pour les contrats d'épargne en raison des forts prérequis techniques et informatifs des

autres approches.

Le bilan déterminé à la période de transition aura un impact direct sur les résultats futurs de la compagnie, d'où

la forte importance des choix de modélisation e�ectués sur cette période.

Ce sujet est traité dans ce mémoire en se basant sur un portefeuille anonymisé de plus de 10 000 contrats

d'épargnes en euros.

11

Page 12: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

A�n de réaliser une segmentation permettant de constituer des groupes aussi homogènes que faire se peut, une

mesure de la dissimilarité entre deux contrats, directement dépendante des paramètres des contrats (TMG, sexe,

âge, ancienneté) est dé�nie et calibrée selon le procédé suivant :

Modèle de segmentation des contrats d'épargnes

Une fois la segmentation réglementaire réalisée, une classi�cation se fait selon la distance donnée par la mesure

de dissimilarité.

En faisant un parallèle entre les problèmes de segmentation d'images par critère d'homogénéité, régulièrement

résolus par l'utilisation d'algorithmes de clustering reposant sur la théorie des graphes, des algorithmes de seg-

mentation de graphes sont présentés et utilisés dans le cadre de la classi�cation des contrats. Une fois les contrats

classi�és, la mesure de la CSM produite par les Model Points créés et l'écart par rapport à la CSM théorique

(obtenu par mesure de la pro�tabilité contrat par contrat) sont récupérés par un algorithme métaheuristique qui

ajuste alors les paramètres de la mesure de dissimilarité en conséquence.

A�n d'implémenter la méthode, une étude visant à choisir les hypothèses indispensables à l'estimation de la

CSM sous IFRS 17 a été conduite et a mis en évidence la maitrise que possède chaque entité sur l'estimation de

la pro�tabilité de ses contrats.

12

Page 13: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Cette capacité de pilotage de la CSM est particulièrement visible à travers la liberté laissée dans le choix de

la méthode de calcul de l'ajustement pour le risque non �nancier comme illustré dans la �gure suivante :

Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR

En choisissant de mesurer l'ajustement pour le risque non �nancier par la méthode de la Value At Risk

(VaR), l'assureur peut maitriser la proportion de contrats onéreux dans son portefeuille en choisissant le niveau

de con�ance appliqué à la VaR.

De plus, la CSM en approche Fair Value résulte uniquement des légères di�érences entre la Juste Valeur des

contrats et les Ful�lment Cash-Flows associés aux contrats. L'aspect discrétionnaire de la Juste Valeur constitue

alors un levier de pilotage de la CSM pour les entités appliquant l'approche Fair Value lors de l'exercice transitoire.

Une fois les hypothèses posées et le modèle calibré, une comparaison entre les bilans Solvabilité II obtenus

par segmentation usuelle et par segmentation IFRS 17 a été réalisée et a mis en évidence un phénomène d'aug-

mentation de la meilleure estimation des engagements de l'assureur (BEL) et de réduction de la Net Asset Value

(NAV) provoqué par les contraintes posées par la norme IFRS 17.

Comparaison des bilans S2 pour un nombre de Model Points égal

Une fois les hypothèses de modélisation �xées de manière à posséder une quantité raisonnable de contrats

onéreux, l'application de la méthodologie proposée de détermination de la mesure de dissimilarité et de la classi-

�cation optimale des contrats a obtenu des résultats probants : les écarts relatifs entre la CSM théorique et celle

obtenue suite à l'application de la méthode sont toujours inférieurs à 1%.

13

Page 14: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Sur le plan opérationnel, on note que la classi�cation par la théorie des graphes s'est révélée plus performante

en moyenne que la méthode de classi�cation ascendante hiérarchique et que la vitesse de convergence du recuit

simulé est globalement supérieure à celle de la colonie de fourmis sur l'ensemble des simulations réalisées dans le

cadre de notre étude.

écarts relatifs entre la CSM théorique et celle obtenue selon les méthodes utilisées

Il est observé que les mesures de dissimilarité ayant permis l'obtention de ces résultats sont di�érentes. Il

n'existe donc a priori pas d'unique mesure �able de dissimilarité entre les contrats. Ces résultats doivent être

relativisés au vu des limites constatées de la méthodologie proposée :

les temps de calculs sont longs et coûteux, ce qui a motivé la paramétrisation de critères d'arrêts �xes pour

chaque algorithme métaheuristique, les bridant ainsi en les arrêtant avant leur convergence.

la méthode met également en évidence l'aspect redondant du calcul de pro�tabilité des contrats un par un

pour les classer avant de rée�ectuer des estimations de CSM sur les Model Points. Cette approche nécessite un

coût d'entrée conséquent qu'il est intéressant d'éviter, d'autant plus que la norme autorise la séparation des

contrats onéreux des autres sur la base d' � informations su�santes �.

Une méthode visant à séparer les contrats onéreux des autres en un nombre de calculs limités grâce à la mesure

de dissimilarité est alors proposée a�n d'alléger le coût de la première étape de la classi�cation par classe de

pro�tabilité. Elle se décline comme suit :

Simpli�cation de la détermination des contrats onéreux

La précision de la classi�cation obtenue varie entre 79% et 86% selon le choix de l'indicateur de pro�tabilité

14

Page 15: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

signi�cative. Cette dépendance est une limite importante de la méthode puisque cet indicateur n'est soumis à

aucune règle précise. Son choix fait partie des zones laissées à la discrétion des assureurs. Second problème posé

par la méthode, elle ne forme que 2 classes de pro�tabilité, la séparation entre les contrats ayant une chance non

signi�cative de devenir onéreux et les autres reste à dé�nir, ce qui implique une estimation de la pro�tabilité

contrat par contrat et donc un coût potentiellement important.

Il est alors proposé de résoudre ces problèmes en déterminant un proxy permettant d'estimer la CSM de tous les

contrats du portefeuille à partir de la simple connaissance de leurs paramètres, sans utiliser le modèle ALM pour

déterminer leur pro�tabilité. Cette méthode repose sur la détermination d'un contrat � de pro�tabilité nulle �,

un contrat de CSM = 0 ou qui en est proche. Ce contrat peut être déterminé comme étant celui de plus faible

CSM au sein d'un ensemble de contrats représentatifs du portefeuille ou par dichotomie en faisant varier les

paramètres d'un contrat de manière à approcher sa CSM de 0.

Une fois le contrat de pro�tabilité nulle déterminé, la réalisation de tests de sensibilité de sa CSM à ses di�érents

paramètres donne une indication sur l'évolution de la CSM selon les paramètres des contrats comme illustré

ci-dessous :

Sensibilité de la CSM du contrat de pro�tabilité nulle aux di�érents paramètres

Une fois les variations de la CSM vis-à vis des paramètres connues, il su�t de dire pour un contrat donné si

l'écart entre ses paramètres et ceux du contrat de pro�tabilité nulle va faire pencher sa CSM dans le négatif ou

dans le positif pour déterminer s'il est onéreux ou non. Cette méthode au potentiel avéré a cependant démontré

ses limites : si l'objectif de détermination des contrats onéreux fut remplit (100% de précision), l'estimation de la

CSM des contrats est restée imprécise (23% d'écart relatif en moyenne). A�n de l'utiliser de manière optimale,

une série de �tting précis sur les variations de la CSM selon les paramètres ainsi que des mesures des dépendances

entre les e�ets des paramètres sur la CSM doivent être réalisés.

Autre inquiétude amenée par la présentation de la norme, l'impact de la contrainte de cohorte annuelle sur les

Model Points a été étudié. L'étude réalisée a mis en évidence la forte multiplication du nombre de Model Points

et donc du coût des calculs qui pourrait survenir suite à l'ajout de la contrainte si elle n'est pas maitrisée. Il est

cependant observé que même en cas de maitrise du nombre de Model Points l'homogénéité des classes de contrats

constituées est alors fortement impactée : l'inertie intra-classe des Model Points a connu une augmentation

15

Page 16: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

d'environs 20% dans notre étude et l'écart relatif entre la CSM théorique et celle issue des Model Points a

également augmenté comme illustré par le graphique ci-dessous.

Impact de la contrainte de cohorte annuelle sur les Model Points pour un nombre de Model Points �xé

En conclusion, bien qu'il repose sur des applications concrètes de la majorité des méthodes proposées et ait

montré la possibilité de créer des Model Points de forte homogénéité qui seraient admissibles sous IFRS 17, ce

mémoire constitue avant tout un exercice ré�ectif.

Il vise à donner des idées d'orientations et de simpli�cation des opérations complexes auxquelles vont être confron-

tés les assureurs dans le cadre de la mise en pratique des principes de la norme IFRS 17. En e�et, la norme

comporte de nombreuses zones discrétionnaires qui donnent une grande profondeur à chaque problématique po-

sée par la segmentation des contrats et il est alors impossible de couvrir l'ensemble des problématiques sur un

mémoire.

L'utilisation de la théorie des graphes, domaine étranger à l'actuariat tout comme la proposition de méthode du

contrat de pro�tabilité nulle s'inscrivent dans cette logique et visent à servir de bases à la rédaction d'éventuels

mémoires qui se concentreraient sur un aspect unique des problèmes posés par la segmentation des contrats.

Insurance Europe a récemment demandé un report de la mise en place d'IFRS 17 en metttant en avant 11

problèmes posés par la norme parmis lesquels �gure des problématiques liées à l'approche Fair Value à la date

de transition, con�rmant ainsi l'existence de fortes incertitudes entourant la première application de la norme

IFRS 17.

16

Page 17: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Synthesis

After 20 years of research and development, the International Accounting Standards Board (IASB) has achie-

ved its objective of developing an international standard that will standardize the accounting methods used and

improve the comparability of �nancial statements : IFRS 17 � Insurance Contracts �,

This standard will cause major changes in the valuation of insurance liabilities and associated accounting policies

in order to harmonize insurers' practices worldwide. However, despite this desire for uniformity, the standard has

many discretionary areas that will become a headache for insurers. Many studies have been carried out by insu-

rers, driven by the desire to reuse as much as possible the models developed when previous accounting standards

such as Solvency II were introduced. They have shown that, while some required elements such as the adjustment

for non-�nancial risk are equivalent in other standards, the implementation of IFRS 17 models requires changes

in many areas, including the management of future pro�ts and the segmentation of contracts :

- IFRS 17 introduces a Contractual Service Margin (CSM) consisting of future pro�ts associated with pro�-

table contracts and requires immediate recognition of future losses associated with onerous contracts in P&L.

- The segmentation of insurance contracts under IFRS 17 will now be carried out in, at least, 3 steps :

1. a separation by portfolio of contracts subject to the same risks and managed together ;

2. a segmentation by pro�tability level at initial recognition, separating onerous contracts, those with a non-

signi�cative possibility of becoming onerous and others ;

3. a segmentation by annual cohort : Two contracts issued more than one year apart may not be included in

the same group.

This innovative segmentation is incompatible with those currently used by market participants and therefore

requires insurers to review their methodology for setting up Model Points. The constitution of Model Points will

have to be done not only in accordance with the principles imposed by the standard but also initially according

to the rules associated with the approach chosen during the transitional exercise.

Of the 3 approaches eligible for balance sheet formation at the transition date, the Fair Value approach

seems to be the most popular, particularly for savings contracts because of the strong technical and informative

prerequisites of the other approaches. The balance sheet determined during the transition period will have a direct

impact on the company's future results, hence the importance of the model choices made during this period.

17

Page 18: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

In order to achieve a segmentation that allows the formation of groups as homogeneous as possible, a measure

of dissimilarity between two contracts, directly dependent on the contract parameters (Minimum Guaranteed

Interest rate, sex, age, seniority) is de�ned and calibrated using the following procedure :

Segmentation of savings

Once the regulatory segmentation has been carried out, a classi�cation is made according to the distance

given by the dissimilarity measure.

By drawing a parallel between the problems of image segmentation by homogeneity criteria, regularly solved

by the use of clustering algorithms based on graph theory, graph segmentation algorithms are presented and used

in the context of contract classi�cation.

Once the contracts are classi�ed, the measurement of the CSM produced by the Model Points created and

the deviation from the theoretical CSM (obtained by measuring pro�tability contract by contract) is recovered

by a metaheuristic algorithm which adjusts the parameters of the dissimilarity measurement accordingly.

In order to implement the method, a study to select the assumptions necessary to perform the CSM estimation

under IFRS 17 was conducted and highlighted the control that each entity has over the pro�tability estimation

of its contracts. This ability to steer the CSM is particularly visible through the freedom left in the choice of

adjustment for non-�nancial risk as illustrated in the following �gure :

18

Page 19: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Steering of the pro�tability by selecting the con�dence level of the VaR

By choosing to measure the adjustment for non-�nancial risk using the Value At Risk (VaR) method, the

insurer can control the proportion of expensive contracts in his portfolio by choosing the level of con�dence

applied to the VaR.

In addition, the CSM under the Fair Value approach results only from the slight di�erences between the Fair

Value of the contracts and the associated Ful�lment Cash-Flows. The discretionary aspect of Fair Value then

constitutes a steering lever for the CSM for entities applying the Fair Value approach during the transitional year.

Once the assumptions had been made and the model had been calibrated, a comparison between the Solvency

II balance sheets obtained by the standard segmentation and the one obtained with the IFRS 17 segmentation

was carried out and revealed an increase in the Best Estimate Libaility (BEL) and a reduction in the Net Asset

Value (NAV) caused by the constraints imposed by IFRS 17.

Comparaison des bilans S2 pour un nombre de Model Points égal

Once the modelling assumptions were set in such a way as to have a reasonable quantity of expensive contracts,

the application of the proposed methodology for determining the dissimilarity measure and the optimal classi-

�cation of contracts obtained convincing results : the relative di�erences between the theoretical CSM and the

one obtained following the application of the method are always less than 1%..

19

Page 20: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

From an operational point of view, we note that the classi�cation by graph theory has proved to be more

e�cient on average than the hierarchical agglomerative classi�cation method and that the convergence of the

simulated annealing is generally quicker than the convergence of the ant colony algorithm on all the simulations

carried out in the framework of our study.

Deviation to the theoretical CSM by method

It is noted that the dissimilarity measures used to obtain these results are di�erent. There seems to be no

single reliable measure of dissimilarity between contracts. These results must be put into perspective in view

of the limitations of the proposed methodology : calculation times are long and costly, which motivated the

parameterization of �xed stopping criteria for each metaheuristic algorithm, thus restricting them by stopping

them before their convergence.

The method also highlights the redundant aspect of calculating the pro�tability of contracts one by one to

rank them before redoing CSM estimates on Model Points.

This approach requires a signi�cant entry cost that is worth avoiding, especially since the standard allows ex-

pensive contracts to be separated from others on the basis of "reasonnable and supportable information".

A method to separate expensive contracts from others in a limited number of calculations using the dissimi-

larity measure is then proposed to reduce the cost of the classi�cation by pro�tability class. It is divided as

follows :

Simpli�cation of the pro�tability assessment

20

Page 21: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

The accuracy of the classi�cation obtained varies between 79% and 86% depending on the choice of the si-

gni�cant pro�tability indicator. This dependence is an important limitation of the method since this indicator is

not subject to any speci�c rules. Its choice is one of the areas left to the discretion of the insurers.

The second problem with the method lies in the fact that it only forms 2 pro�tability classes. The separa-

tion between contracts with a non-signi�cant chance of becoming expensive and others remains to be de�ned,

which implies an estimate of pro�tability on a contract-by-contract basis and therefore a potentially signi�cant

cost.

It is therefore proposed to solve these problems by determining a proxy to estimate the CSM of all contracts

in the portfolio based on the knowledge of their parameters, without using the ALM model to determine their

pro�tability.

This method is based on the determination of a "zero pro�tability" contract, a CSM = 0 contract or one that

is close to it. This contract can be determined as the contract with the lowest CSM within a set of contracts

representative of the portfolio or by dichotomy by varying the parameters of a contract so as to approach its

CSM of 0.

Once the zero pro�tability contract has been determined, performing sensitivity tests of its CSM to its di�erent

parameters gives an indication of the evolution of the CSM according to the contract parameters as illustrated

below :

Sensitivity of the CSM to the parameters

Once the sensitivity of the CSM to the known parameters is known, we can assess for a given contract whether

the di�erence between its parameters and those of the zero pro�tability contract will tip its CSM in the negative

or in the positive.

This method, which has proven its potential, has nevertheless demonstrated its limitations :

if the objective of determining all onerous contracts was met (100% accuracy), the estimate of the CSM of

contracts remained imprecise (23% relative deviation on average).

In order to use it optimally, a serie of precise �tting on the variations of the CSM according to the parame-

21

Page 22: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

ters as well as measurements of the dependencies between the e�ects of the parameters on the CSM must be

carried out.

Another concern brought by the presentation of the standard, the impact of the annual cohort constraint on

the Model Points was studied.

The study carried out highlighted the signi�cant multiplication of the number of Model Points and therefore

the cost of calculations that could occur following the addition of the constraint if it is not controlled. However,

it is observed that even if the number of Model Points is controlled, the homogeneity of the classes of contracts

constituted is then strongly impacted by the cohort constraint : the inertia within the Model Points classes

increased by about 20% in our study and the relative gap between the theoretical CSM and the one resulting

from the Model Points also increased as illustrated by the graph below.

E�ect of the annual cohort on the deviation of the CSM created by the Model Point

In conclusion, although it is based on concrete applications of most of the proposed methods and has shown

the possibility of creating highly homogeneous Model Points that would be eligible under IFRS 17, this paper is

above all a re�ective exercise.

It aims to provide guidance and simpli�cation of the complex operations that insurers will have to deal with

when implementing the principles of IFRS 17.

Indeed, the standard includes many discretionary zones that give great depth to each issue raised by the

segmentation of contracts and it is then impossible to cover all the issues in a single thesis.

The use of graph theory, a �eld outside the actuarial �eld, as well as the proposal for a zero pro�tability contract

method are in line with this logic and are intended to serve as a basis for drafting possible thesis that would

focus on a single aspect of the problems posed by contract segmentation.

Insurance Europe requested a postponement of the implementation of IFRS 17 by highlighting 11 issues rai-

sed by the standard, including issues related to the Fair Value approach at the transition date, thus con�rming

the existence of signi�cant uncertainties surrounding the �rst application of IFRS 17.

22

Page 23: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Table des matières

Avant-propos 3

Remerciements 5

Résumé 7

Abstract 9

Note de synthèse 11

Synthesis 17

Introduction 27

I Communication �nancière en normes comptables internationales pour un as-sureur épargne 29

1 Présentation du bilan et du compte de résultat en norme IFRS 30

1.1 Valorisation du passif technique conforme aux règlementations IFRS . . . . . . . . . . . . . . . . 30

1.2 Présentation du Compte de Résultat IFRS 17 pour un assureur épargne

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2 Segmentation des contrats sous IFRS 17 38

2.1 Enjeux de la segmentation de contrats sous IFRS 17

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.2 Procédure de segmentation imposée par la norme IFRS 17 . . . . . . . . . . . . . . . . . . . . . . 39

2.3 Interprétation des impératifs posés par la norme en terme de segmentation . . . . . . . . . . . . 41

3 Valorisation du passif à la date de transition 43

3.1 Problématiques posées par la transition vers IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . 43

3.2 Méthodes de construction du bilan à la date de transition . . . . . . . . . . . . . . . . . . . . . . 43

3.3 Justi�cation du choix de l'approche Fair Value . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

4 Valorisation de l'Actif en norme IFRS 47

4.1 Valorisation de l'actif sous IFRS 9 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

4.2 Comparaison avec la valorisation de l'actif sous Solvabilité II . . . . . . . . . . . . . . . . . . . . 48

4.3 Comparaison entre IFRS 17 et Solvabilité 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48

23

Page 24: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

II Mise en place d'un modèle de segmentation des contrats d'épargne sous IFRS17 53

1 Approches pour la mise en place d'une segmentation des contrats d'épargne sous IFRS 17 54

1.1 Création d'une mesure de dissimilarité entre deux contrats

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

1.2 Présentation de Méthodes de Classi�cation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

1.3 Classi�cation par utilisation de la Théorie des Graphes . . . . . . . . . . . . . . . . . . . . . . . . 57

1.4 Comparaison des méthodes de classi�cation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2 Modélisation du bilan de transition sous IFRS 17 69

2.1 Présentation du Modèle ALM utilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

2.2 Modi�cations du modèle ALM propres à la norme IFRS 17 . . . . . . . . . . . . . . . . . . . . . 73

2.3 Back testing . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

3 Quanti�cation de la qualité d'une méthode de segmentation des contrats sous IFRS 17 80

3.1 Dé�nitions d'indices de qualité d'une méthode de segmentation de contrats sous IFRS 17 . . . . 80

3.2 Implémentation d'une méthode de scoring de la segmentation . . . . . . . . . . . . . . . . . . . . 81

4 Utilisation d'Algorithmes métaheuristiques pour optimiser la calibration de la mesure de

dissimilarité entre deux contrats

82

4.1 Algorithme de la colonie de foumis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4.2 Algorithme du Recuit Simulé

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

4.3 Étude comparative des algorithmes métaheuristiques présentés . . . . . . . . . . . . . . . . . . . 88

III Applications du modèle de segmentation sous IFRS 17 91

1 Présentation du portefeuille d'épargne étudié 92

1.1 Données au passif du portefeuille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

1.2 Présentation de l'actif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

1.3 Distribution du BE IFRS 17 des Model Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

2 Choix des outils de modélisation de la segmentation et comparaison des méthodes présentées 95

2.1 Choix du seuil de pro�tabilité signi�cative des contrats non onéreux. . . . . . . . . . . . . . . . . 95

2.2 Impact du choix de la méthode d'ajustement pour le risque non �nancier. . . . . . . . . . . . . . 96

2.3 Impact de la nouvelle segmentation de contrats sur le bilan S2 . . . . . . . . . . . . . . . . . . . 98

2.4 Résultats obtenus à la date de transition lors de la réalisation des calculs sans segmentation . . . 100

2.5 Comparaison des segmentations retournées par les algorithmes présentés . . . . . . . . . . . . . . 100

3 Utilisation de la mesure de dissimilarité pour l'optimisation de l'estimation de la pro�tabilité

des contrats 106

3.1 Présentation de la méthode alternative de détermination de la pro�tabilité des contrats . . . . . 106

3.2 Limites de la méthode proposée et conclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110

24

Page 25: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4 Introduction de la méthode du contrat de pro�tabilité nulle 110

4.1 Présentation de la nouvelle méthode de segmentation . . . . . . . . . . . . . . . . . . . . . . . . . 110

4.2 Sensibilité aux paramètres. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

5 Conséquence de l'ajout de la contrainte de cohorte annuelle sur la segmentation 115

Conclusion 119

Bibliographie 121

Annexe A : Rappels 123

25

Page 26: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

26

Page 27: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Introduction

; ; ;

En publiant la norme IFRS 17 � insurance contracts � le 18 mai 2017, l'IASB a o�cialisé l'imminence d'un

bouleversement au niveau de la communication �nancière pour les grandes entités cotées émettant des contrats

d'assurance.

L'objectif de cette nouvelle norme comptable est de résoudre les problèmes de transparence et d'uniformité

constatés lors de l'application des normes comptables internationales actuelles en introduisant de nouvelles no-

tions et en revisitant la communication �nancière ainsi que certaines méthodes comptables telles que la gestion

des frais d'acquisition.

La complexité de cette norme ainsi que l'impact qu'elle aura sur la présentation des performances des entités font

de son application l'un des enjeux majeurs des années à venir. A�n de faciliter l'adaptation à ces changements

et d'assurer la constitution d'un bilan d'ouverture conforme à la norme IFRS 17 au 1er janvier 2022, un exercice

transitoire aura lieu l'année précédente. Cet exercice transitoire imposera des règles comptables et des méthodes

de valorisation particulières visant à faciliter la transition.

Ce mémoire traite de certains aspects actuariels et comptables particuliers à mettre en ÷uvre lors de l'exer-

cice transitoire. Ainsi, nous nous attacherons à présenter la segmentation des contrats d'assurance épargne, et

plus particulièrement sur les contrats d'épargne en EURO. Le traitement de ces derniers à la date de transition

fait actuellement l'objet de discussions de place. Cette problématique a été traitée par la recherche d'une mesure

de dissimilarité entre les contrats d'assurance qui aboutirait à la formation de Model Points Optimums sous les

contraintes imposées par IFRS 17.

Dans une première partie, ce mémoire présentera les points clés de la norme ainsi que les nouvelles règles de

segmentations des contrats établies sous IFRS 17 avant de se recentrer sur les particularités de la période de

transition. Cette présentation permettra d'exposer les enjeux posés par la gestion de la segmentation des contrats

lors de la période de transition et mettra ainsi en évidence l'intérêt de ce mémoire.

Dans un second temps, une mesure de dissimilarité des contrats ainsi qu'une méthodologie visant à produire

une segmentation de contrats d'épargne en euros optimale sera présentée.

Puis, en clôture de ce mémoire, de nouvelles applications reposant sur la mesure de dissimilarité seront introduites

a�n d'exploiter au mieux les zones discrétionnaires de la norme de manière à réduire les coûts et le temps de

calcul.

27

Page 28: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

V

28

Page 29: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Première partie

Communication �nancière en normes comptables

internationales pour un assureur épargne

29

Page 30: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

1 Présentation du bilan et du compte de résultat en norme IFRS

1.1 Valorisation du passif technique conforme aux règlementations IFRS

1) Contexte règlementaire et textes o�ciels

Bien qu'elle fut publiée le 18 mai 2017, la norme IFRS 17 � Insurance Contracts � n'entrera pas en vigueur

avant le 1er Janvier 2022. Sa publication précoce par le board est due aux nombreux changements que cette

norme va apporter dans les règles comptables internationales pour les grandes entités côtées émettant des contrats

d'assurance.

La mise en place d'IFRS 17 va nécessiter de remplacer IFRS 4 tout en s'ajustant aux autres normes IFRS. A�n

de faire face à ce dé� de la façon la plus e�cace possible, le board a publié des documents et études ayant pour

but la facilitation de l'implémentation de la norme :

∗ le texte o�ciel de la norme

∗ des exemples illustratifs

∗ Basis For Conclusions qui décrit le point de vue de l'IAS sur le développement d'IFRS 17.

∗ des analyses d'impact décrivant les coûts et béné�ces du changement de norme.

Une introduction à la norme a également été publiée par le directeur du board, Hans Hoogervorst.

C'est donc sur ces documents o�ciels que nous avons basé nos travaux sur la segmentation des contrats d'épargnes

sous IFRS 17.

2) Eléments constitutifs du passif technique IFRS 17

∗ Marge de Service Contractuelle :

La Marge de Service Contractuelle (notée CSM pour Contractual Service Margin) représente les pro�ts non acquis

d'un groupe de contrats. Dès la souscription des contrats (ou la première comptabilisation des engagements),

l'assureur estime leur pro�tabilité. Si le contrat est pro�table, le pro�t attendu sera passé en CSM et s'il est oné-

reux (qu'il entraine une perte), la perte sera directement a�ectée au résultat comme préconisé par le paragraphe

47 :

� An entity shall recognise a loss in pro�t or loss for the net out�ow for the group of onerous contracts,

resulting in the carrying amount of the liability for the group being equal to the ful�lment cash �ows and the

contractual service margin of the group being zero. �

Conséquence directe de cette méthode d'a�ectation, la CSM est toujours positive ou nulle. Au cours du temps,

alors que les prestations se réalisent, la CSM est amortie au prorata des prestations servies par la méthode des

Coverage Units (CU) et les amortissements passent au compte de résultat. Les pro�ts futurs sont amortis au

rythme du service des prestations. A chaque fois qu'une entité remplit ses obligations, elle gagne le droit de tou-

cher une partie des pro�ts associés au contrat. C'est un e�et de rationnement des pro�ts futurs. Le paragraphe

B119 décrit le principe des Coverage Units comme suit :

�The number of coverage units in a group is the quantity of coverage provided by the contracts in the group,

determined by considering for each contract the quantity of the bene�ts provided under a contract and its expected

coverage duration.�

30

Page 31: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Le nombre de Coverage Units dans un groupe est la quantité de couverture fournie par les contrats du groupe,

déterminée en considérant pour chaque contrat la quantité de pro�t apportée et la durée de couverture attendue.

A la �n de chaque période, avant son amortissement, la CSM est a�ectée de manière égale à chaque Coverage Unit

fournie dans la période et attendue à l'avenir. Puis la proportion de CSM allouée aux Coverage Units fournies au

cours de la période est passée au résultat. Outre l'amortissement, d'autres évènements viennent impacter la CSM :

∗ Les nouveaux contrats : Leur comptabilisation implique souvent l'apparition de nouveaux contrats

pro�tables puisqu'après tout l'assureur est censé rechercher le pro�t. L'ajout de ces contrats entraine une

augmentation de la CSM dépendant du niveau de pro�tabilité des nouveaux contrats.

∗ Les variations dans l'estimation des �ux futurs : Un contrat ayant été jugé pro�table initialement

peut être estimé onéreux dans le futur ou même simplement plus ou moins pro�table qu'initialement

prévu. Ces changements de l'estimation de la pro�tabilité peuvent venir de facteurs techniques ou �nanciers

(comme la variation de la valeur d'actifs sous-jacents). En cas changement dans l'estimation de la provision

pour couverture future, la CSM allouée lors de la première reconnaissance du contrat ne re�ète plus la

réalité du contrat et doit être ajustée :

� Si un contrat devient onéreux, la CSM qui avait été allouée est passée à 0 et la perte restante va

directement au compte de résultat.

� Si le contrat reste pro�table mais que sa pro�tabilité évolue, la CSM est ajustée (réduite ou augmentée)

en conséquence.

∗ Les e�ets de change.

∗ Les intérêts sur la CSM : A l'année N , des intérêts résultent de la CSM de l'année N − 1 et sont

ajoutés à la nouvelle CSM.

Ces ajustements de la CSM lui permettent � d'absorber � les chocs techniques, réduisant ainsi la volatilité du

résultat.

Les changements d'estimation sur la provision pour sinistres survenus impactent le résultat technique etn'agissent pas sur la CSM.

Figure 1 � Evolution de la CSM sur un exercice

31

Page 32: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Ajustement pour le risque non �nancier :

La norme dé�ni l'ajustement pour le risque non �nancier dé�nit comme la � Rémunération que l'entité demande

pour porter le risque d'incertitude sur le montant et le calendrier des �ux de trésorerie provenant du risque non

�nancier à mesure que l'entité exécute les contrats d'assurance. � Sa présence dans le bilan se justi�e par l'expo-

sition des contrats d'assurance à des risques non �nanciers tels que les risques opérationnels. La norme requiert

que cet ajustement soit calculé séparément des �ux de trésorerie et de l'ajustement pour la valeur temporelle de

l'argent.

IFRS 17 does not specify the estimation technique(s) used to determine the risk adjustment for non-�nancial risk.

However, to re�ect the compensation the entity would require for bearing the non-�nancial risk, the risk adjustment for

non-�nancial risk shall have the following characteristics :

(a) risks with low frequency and high severity will result in higher risk adjustments for non-�nancial risk than risks

with high frequency and low severity ;

(b) for similar risks, contracts with a longer duration will result in higher risk adjustments for non-�nancial risk than

contracts with a shorter duration ;

(c) risks with a wider probability distribution will result in higher risk adjustments for non-�nancial risk than risks

with a narrower distribution ;

(d) the less that is known about the current estimate and its trend, the higher will be the risk adjustment for non-

�nancial risk ; and

(e) to the extent that emerging experience reduces uncertainty about the amount and timing of cash �ows, risk adjust-

ments for non-�nancial risk will decrease and vice versa.

Le paragraphe B91 de la norme, présenté ci-dessus, spéci�e que, bien qu'aucune méthode de calcul de l'ajustement

pour le Risque non �nancier soit imposée, il se doit de posséder les caractéristiques suivantes :

∗ Les risques avec une basse fréquence mais une haute sévérité auront un ajustement pour le risque plus

important que ceux avec une haute fréquence et une faible sévérité.

∗ Pour des contrats soumis à des risques similaires, l'ajustement augmentera avec la durée.

∗ Les risques avec une distribution de probabilité plus large auront un plus grand ajustement.

∗ Plus les informations sur l'estimation et la tendance seront faibles, plus l'ajustement sera élevé.

∗ L'ajustement décroit lorsque l'incertitude sur le montant et le timing des �ux diminue et vice versa.

Les méthodes de calcul de l'ajustement pour le risque non �nancier les plus populaires sont actuellement le Coût

du Capital utilisé dans solvabilité 2 : CoC, la Value at Risk (VaR) et la Tail Value at Risk (TVaR).

Nous reviendrons sur ces méthodes dans la troisième partie lors de la présentation des choix de modélisation.

32

Page 33: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Ful�lment Cash-Flows (FCF) :

Figure 2 � Composition des Ful�lment Cash-Flows

Ce terme fait référence aux �ux de trésorerie liés à la réalisation des obligations du contrats, ajustés par la

valeur temporelle des �ux de trésorerie et par l'ajustement pour le risques non �nancier :

FCF = V aleur actuelle des flux de tresorerie sortant+Ajustement pour le risque non financier + TV OG−V aleur actuelle des flux de tresorerie entrant.

La meilleure estimation des engagements (que nous noterons BEL pour Best Estimate Liability dans la suite

de ce mémoire) est la somme des �ux de trésorerie probabilisés et actualisés. Le taux d'actualisation utilisé pour

le calcul de cette valeur temporelle est soumis à certaines contraintes comme le suggère l'extrait de la norme

suivant (paragraphe 36).

� An entity shall adjust the estimates of future cash �ows to re�ect the time value of money and the �nancial risks

related to those cash �ows, to the extent that the �nancial risks are not included in the estimates of cash �ows. The discount

rates applied to the estimates of the future cash �ows described in paragraph 33 shall :

(a) re�ect the time value of money, the characteristics of the cash �ows and the liquidity characteristics of the insu-

rance contracts ;

(b) be consistent with observable current market prices (if any) for �nancial instruments with cash �ows whose cha-

racteristics are consistent with those of the insurance contracts, in terms of, for example, timing, currency and

liquidity ; and

(c) exclude the e�ect of factors that in�uence such observable market prices but do not a�ect cash �ows of the insu-

rance contracts. �

En résumé, le taux utilisé doit re�éter les caractéristiques des �ux de trésorerie ainsi que la liquidité des contrats,

être cohérent avec le marché et ne pas être biaisé par des facteurs extérieurs pouvant in�uencer le marché. Les

paragraphes B81 et B82 autorisent les approches Top-Down et Bottom-Up a�n de déterminer ces taux d'actua-

lisation.

∗ L'approche Top-Down détermine la courbe des taux à partir du rendement du portefeuille de l'entité

corrigé du risque de défaut et du risque d'inadéquation actif-passif.

∗ L'approche Bottom-Up estime les taux à partir de la courbe des taux sans risque à laquelle s'ajoute une

prime de liquidité.

La norme préconise que le calcul des Flux de trésorerie se fasse brut de la valeur temporelle des �ux à moins

qu'une technique de mesure appropriée rassemble ces éléments (paragraphe 33d) :

�The entity also shall estimate the cash �ows separately from the adjustment for the time value of money and �nancial

risk, unless the most appropriate measurement technique combines these estimates�

33

Page 34: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Les changements dans l'estimation des �ux de trésorerie a�ectent le résultat ou sont absorbés par la CSM ou

les OCI que nous présenterons plus tard.

3) Méthodes de valorisation du passif

Maintenant que tous les termes du bilan ont été expliqués, intéressons-nous aux Trois méthodes de détermi-

nation du passif citées précédemment.

∗ Building Block Approach :

Il s'agit du modèle standard pour mesurer la valeur des contrats. Le nom de cette approche vient de l'organisation

en bloc qui mène à la détermination de la CSM. Les Ful�lment Cash-Flows sont déterminés blocs par blocs en

séparant les calculs comme conseillé par la norme :

∗ bloc 1 : les �ux attendus sont exprimés et la somme est e�ectuée ;

∗ bloc 2 : la valeur temporelle de l'argent est prise en compte dans le calcul des �ux ;

∗ bloc 3 : un ajustement pour le risque non �nancier est retiré à la somme des �ux.

Les taux d'actualisations utilisés pour l'ajustement de la CSM sous cette approche sont �xés à l'émission des

contrats. Une fois les Ful�lment Cash-Flows connus, la Marge de Service Contractuelle est déterminée en consé-

quence.

∗ Si un pro�t a été réalisé (�ux total positif) la CSM doit être telle qu'aucun pro�t n'est reconnu au résultat

lors de la première reconnaissance des contrats. Elle prendra donc la valeur des Ful�lment Cash-Flows.

∗ S'il n'y a pas de pro�t (FCF négatif ou nul) la CSM n'est pas dotée. Elle est nulle et la perte, si elle existe,

passe au résultat.

Illustrons le calcul de la CSM sous cette approche avec un exemple simple.

Soit un contrat d'assurance avec une prime unique de 75¿ versée immédiatement et une prestation certaine de

100¿ dans 10ans. 75�100 = −25. Les �ux de trésorerie attendus indiquent une perte de 25¿ pour l'assureur.

Prenons maintenant en compte la valeur temporelle de l'argent :

Soit un taux d'actualisation de 4%, alors la valeur actuelle de la prestation est de 100(1+0,04)10 = 67.6¿.

75�67, 6 = 7, 4¿. L'assureur réalise un pro�t.

Ajoutons un ajustement pour risque non �nancier arbitrairement �xé à 5 euros.

7, 4�5 = 2, 4¿. Ce pro�t futur constitue la CSM associée au contrat. (cf Figure suivante)

Figure 3 � Building Block Approach

34

Page 35: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Variable Fee Approach :

Un contrat participatif direct est un contrat pour lequel l'assuré participe aux placements d'actifs et l'assureur

s'attend à lui reverser une partie des rendements. C'est le cas par exemple des contrats d'épargnes, l'assureur se

doit de reverser une participation aux béné�ces aux assurés. Les prestations de ces contrats sont très sensibles à

la valeur des actifs, ce qui rendrait la Building Block Approach peu adaptée à la modélisation du passif.

En e�et, une hausse instantanée du BEL se traduit par une baisse de la CSM comme le montre le schéma ci-

dessous.

Figure 4 � Impact d'une hausse du BEL au bilan IFRS 17

Or, en cas de hausse de la valeur de l'actif, le BEL va augmenter. En e�et, à cause du caractère participatif

du contrat, lorsque l'actif augmente l'assureur doit reverser une partie des pro�ts à l'assuré ce qui se traduit

par une hausse de ses engagements et donc du BEL. Cette hausse sera � compensée � par la CSM comme vu

précédemment et la hausse des actifs se traduira au résultat. La CSM n'accomplirait donc pas sa fonction de ra-

tionnement des pro�ts futurs et de neutralisation du résultat. C'est pour faire face à cette limite que la Variable

Fee Approach (VFA) a été mise en place.

En approche VFA, il est considéré que l'entité est sous l'obligation de verser à l'assuré un montant égal à

la Juste Valeur des sous-jacents moins une charge variable, la � Variable fee � que l'on pourrait associer à la

commission que l'entité touche pour s'occuper du management des actifs à la place de l'assuré. En e�et, la norme

dé�nit la � Variable fee � comme la part des placements qui appartient à l'entité diminuée des �ux de trésorerie

d'exécution indépendants du rendement des sous-jacents. Conséquence directe de cette dé�nition, tout

changement dans la part des sous-jacents appartenant à l'entité a�ecte directement la CSM. La �

Variable fee � sur une année donnée est égale à l'augmentation de la Juste Valeur du portefeuille diminuée de

l'évolution des �ux de trésorerie d'exécution sur l'année :

V ariableFee(2019) = Augmentation de la Juste V aleur (entre 2018 et 2019)�(FCF (2019)�FCF (2018))

La CSM de clôture est alors égale à la CSM d'ouverture diminuée de l'allocation au compte de résultat, à

laquelle s'ajoute la � variable fee � de l'année.

Sous cette approche, les changements dans la valeur des options et garanties sont reconnus dans la CSM et

l'ajout de l'intérêt de la CSM se fait à partir des taux d'intérêt actuels du marché. Elle est obligatoire pour tout

contrat participatif direct.

35

Page 36: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Premium Allocation Approach :

A�n de traiter des contrats non participatifs plus � simples � mais surtout plus courts, la norme autorise l'uti-

lisation d'une approche simpli�ée : la Premium Allocation Approach (PAA). Étudions son fonctionnement.

On peut séparer les engagements liés à un groupe de contrats en 2 parties. Les prestations passées et les en-

gagements pour la couverture restante. La PAA va intervenir sur la 2ème partie en simpli�ant son estimation.

La Premium Allocation Approach consiste à déterminer le montant des engagements restant en allouant la prime

reçue sur la période de couverture. (Introduction, paragraphe 8).

�An entity may apply a simpli�ed measurement approach (the premium allocation approach) to some insurance contracts.

The simpli�ed measurement approach allows an entity to measure the amount relating to remaining service by allocating

the premium over the coverage period.�

Cette estimation des engagements pour la couverture restante est dé�nie dans le paragraphe 55 de la norme

comme suit :

∗ A la date de première reconnaissance, le montant du passif est la prime reçue à la première reconnais-

sance diminuée des coûts d'acquisition à cette date (à moins que l'entité ne considère ces �ux comme des

dépenses) et augmentée de tout montant généré par la dé-reconnaissance à cette date de l'actif ou passif

reconnu pour les �ux d'acquisition.

∗ A la �n de chaque exercice, le montant du passif est le montant du passif à la date de la première

reconnaissance augmentée :

� des primes reçues au cours de l'exercice ;

� des montant liés à l'amortissement des �ux d'acquisition ;

� d'un ajustement pour risque �nancier si nécessaire ;

Et diminuée :

� des �ux d'acquisition (sauf s'ils sont reconnus en dépenses) ;

� du montant reconnu en revenu pour la couverture de cette période ;

� de tout composant d'investissement payé ou transféré au passif pour une prestation.

Il est à noter que cette approche facultative n'est éligible que pour les contrats non participatifs d'une durée de

couverture inférieur ou égale à 1 an et si l'entité pense que cette simpli�cation n'entrainera pas d'écart majeur

par rapport à l'estimation du passif qui aurait été réalisée avec l'approche classique (Building Block Approach).

1.2 Présentation du Compte de Résultat IFRS 17 pour un assureur épargne

Les éléments du résultat net ont été directement a�ectés par les nouvelles règles imposées par IFRS17.

Notamment à cause de la notion d'Other Comprehensive Income, que nous noterons OCI dans ce mémoire.

1) Other Comprehensive Income (OCI)

IFRS17 s'aligne sur IFRS9 en permettant l'a�ectation de certains gains (ou pertes) directement en capitaux

propres. Cette opération se fait grâce à l'option �Autres éléments du résultat Global� ou Other Comprehensive

Income que nous noterons OCI dans la suite.

36

Page 37: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Other comprehensive income comprises items of income and expense (including reclassi�cation adjustments) that are

not recognised in pro�t or loss as required or permitted by other IFRSs.

Les OCI sont formés des revenus et dépenses qui ne sont pas reconnues au résultat. Ils permettent de distinguer les

éléments du résultat dû aux décisions stratégiques de l'entreprise (résultat net) des éléments résultant de faits extérieurs

(OCI).

Le résultat net reprend les éléments habituels tels que la marge �nancière, le résultat opérationnel, etc. . . tandis que les

OCI regroupent les revenus et dépenses qui n'ont pas encore été réalisés.

Figure 5 � Compte de résultat sous IFRS 17

Par exemple, si l'entité investit dans des obligations et que leur valeur change, l'écart par rapport à leur

prix originel est passé en OCI. Quand l'obligation sera vendue, la perte (ou le gain) né de l'écart sera réalisé.

Le montant sera retiré des OCI et passé dans le résultat net. C'est ce qui est appelé � recyclage � des OCI en

résultat. Il est important de faire la di�érence entre les éléments recyclables et les non-recyclables qui ne seront

donc pas passés au résultat.

Figure 6 � Distinction des éléments des OCI

37

Page 38: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Les composantes principales des OCI sont les changements des taux d'actualisation et de la Juste Valeur des

actifs, cependant d'autres éléments peuvent les impacter :

En e�et, les OCI peuvent également être dotés par une part des dépenses (ou produits) de �nance d'assurance.

Les entités peuvent passer les dépenses de �nance d'assurance entièrement au résultat ou choisir d'en a�ecter

une partie aux OCI comme l'indique la norme :

the Board developed an approach that : [. . .] requires an entity to make an accounting policy choice portfolio-by-portfolio

of whether to recognise all insurance �nance income or expenses for the reporting period in pro�t or loss or to recognise

some of that income or expenses in other comprehensive income.

L'utilisation des OCI apporte de multiples avantages :

∗ cette nouvelle notion limite la volatilité du résultat net puisque certaines variations comme les taux sont

imputées aux OCI.

∗ on peut également mettre en avant l'apport d'informations sur la qualité du management que procure le

fait de séparer au résultat les conséquences d'évènements extérieurs et celles dues décisions managériales.

Les OCI apparaissent directement dans les Fonds propres au bilan et ont ainsi provoqué des débats motivés par

la crainte qu'ils ne réduisent la volatilité au résultat pour la transférer au bilan.

Rappelons cependant qu'il s'agit d'une option et que son utilisation est donc facultative.

2 Segmentation des contrats sous IFRS 17

2.1 Enjeux de la segmentation de contrats sous IFRS 17

Les éléments du bilan et de résultat que nous venons de présenter ne sont pas calculés contrats par contrats.

Un tel modèle ne pourrait pas tourner sans e�ectuer des calculs trop lourds et longs. C'est dans ce contexte

qu'intervient la segmentation des contrats :

La segmentation est la création de classes séparant les contrats en fonction des variables qualita-

tives et quantitatives qui les caractérisent.

Les contrats sont rassemblés en groupes appelés Model Points sur lesquels les �ux de trésoreries futurs vont

être déterminés. Ce système permet de réduire le nombre de lignes projetées et donc d'optimiser le temps de

calcul. De ce fait, l'impact de la segmentation est direct, aussi bien au niveau des valeurs mesurées que du temps

de calcul. En anticipation de ce phénomène, la norme IFRS17 �xe des règles sur la segmentation des contrats

d'assurance.

Rappelons que, bien que la réduction du temps de calcul est le premier objectif de la segmentation des contrats

en groupes, le choix de la méthode de segmentation pose d'autres enjeux de taille :

∗ limiter la perte d'informations.

Les calculs étant e�ectués par groupe, on perd de l'information sur les caractéristiques individuelles des

contrats. Ainsi, si un groupe venait à comprendre des contrats onéreux et d'autres pro�tables, leurs �ux de

trésorerie se compenseraient et l'on serait dans l'incapacité de distinguer les contrats onéreux des autres.

La CSM serait nettement moins élevée que si les contrats étaient considérés indépendamment et l'on n'ob-

38

Page 39: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

serverait aucune perte au résultat (ou elle serait nettement inférieure à la valeur qu'elle aurait prise en

cas d'observations contrats par contrats). La limitation des occurrences d'un tel phénomène est un des

enjeux majeurs de la segmentation contrats. Il faut minimiser les chances que des contrats de pro�tabilités

inverses se retrouvent dans le même groupe.

∗ maximiser l'apport d'informations.

Au contraire, constituer des groupes le plus homogène possible permet de retrouver une estimation de la

pro�tabilité des contrats composant un groupe à partir des mesures e�ectuées à l'échelle du groupe. On

peut déterminer quels types de contrats sont les plus pro�tables, lesquels amènent des pertes et même

préciser ces informations à une échelle plus réduite que le type de contrat : l'échelle de segmentation.

La segmentation est cependant soumise à une contrainte de cohérence. Il parait inconcevable et peu rigoureux

d'estimer conjointement les �ux de trésorerie de deux contrats n'ayant rien en commun. Ce fut une des motiva-

tions de la segmentation par Line Of Business (LoB) préconisée par la norme Solvabilité 2. La segmentation S2 est

une segmentation qui permet de conserver l'information au niveau des risques, elle rejoint la volonté prudentielle

de la norme tantis qu'IFRS 17 adopte une approche basée sur la communication �nancière.

Il faut également garder à l'esprit que plus la segmentation est �ne, plus le nombre de groupes créés

est élevé et plus les calculs sont longs.

En résumé, une segmentation de qualité devra constituer des groupes de contrats assez homogènes à la fois

au niveau des risques et au niveau de leur pro�tabilité et qui maximiserait l'information apportée tout en limi-

tant l'augmentation de la complexité du modèle.

Une approche simple consiste à dé�nir des catégories pour chaque variable caractérisant les contrats (âge, an-

cienneté, sexe, Taux Garanti, etc) et à ranger les contrats dans la catégorie qui leur correspond.

Par exemple, pour trier des contrats d'épargnes en ne considérant que l'âge, l'ancienneté et le sexe des assurés :

∗ Il n'existe que deux catégories pour le sexe : Homme ou Femme

∗ On dé�nit 7 catégories d'âge : de 18 à 30 ans , de 31 à 40, 41 à 50, 51 à 60, 61 à 70, 71 à 80, 81 à 120.

∗ 5 catégories d'ancienneté

On obtiendrait alors 7 ∗ 5 ∗ 2 = 70 classes di�érentes, donc 70 Model Points, et cela indépendamment du nombre

de contrats dans le portefeuille.

Cette méthode de classi�cation ne garantit cependant aucune homogénéité au niveau de la pro�tabilité des

contrats d'une même classe. Elle ne fait qu'optimiser le coût des calculs en séparant le portefeuille selon des

critères arbitrairement dé�nis.

2.2 Procédure de segmentation imposée par la norme IFRS 17

Les paragraphes 14 à 24 de la norme dé�nissent les règles d'agrégation des contrats d'assurance.

An entity shall identify portfolios of insurance contracts. A portfolio comprises contracts subject to similar risks and

managed together.

[. . .]

An entity shall divide a portfolio of insurance contracts issued into a minimum of :

(a) a group of contracts that are onerous at initial recognition, if any ;

39

Page 40: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

(b) a group of contracts that at initial recognition have no signi�cant possibility of becoming onerous subsequently, if

any ; and

(c) a group of the remaining contracts in the portfolio, if any.

[..]

An entity shall not include contracts issued more than one year apart in the same group.

Les grandes lignes de ces paragraphes, présentées ci-dessus indiquent que :

1. Les entités identi�ent des portefeuilles de contrats soumis à des risques similaires et gérés en-

sembles. Il s'agit d'une notion assez proche des Line Of Business préconisée par Solvabilité 2.

2. A l'intérieur de ces portefeuilles, une seconde segmentation se fait par niveau de pro�tabilité. Les

contrats sont séparés en 3 catégories : les contrats onéreux, ceux qui à leur première comptabilisation

n'ont pas de chance signi�cative de devenir onéreux et les éventuels contrats restants forment le dernier

groupe.

3. Des contrats issus à plus d'un an d'écart ne peuvent pas appartenir au même groupe. C'est

le principe de cohorte annuelle. Une nouvelle segmentation des groupes se fait donc si nécessaire, quitte à

créer des groupes ne comprenant qu'un seul contrat.

Figure 7 � Segmentation Réglementaire des contrats sous IFRS 17

La norme traite également des cas particuliers :

∗ Si une entité dispose de su�samment d'informations raisonnables pour a�rmer que certains contrats seront

dans le même groupe de pro�tabilité, alors elle peut conduire l'étude d'onérosité directement sur le groupe

a�n de déterminer sa classi�cation au lieu de véri�er contrat par contrat leur groupe de pro�tabilité.

∗ Pour tout contrat sur lequel l'approche PAA est appliquée, l'entité doit considérer qu'il n'est pas onéreux à

la date de première comptabilisation sauf indication contraire. Elle doit alors déterminer si ce contrat a une

chance signi�cative ou non de devenir onéreux en étudiant la probabilité de survenance de changements

des circonstances entourant la pro�tabilité du contrat.

∗ Pour les autres contrats non onéreux, l'entité détermine s'ils ont des chances signi�catives de devenir

onéreux en se basant sur la probabilité de changement dans les hypothèses qui rendraient les contrats

onéreux et sur leur report interne.

∗ Si des contrats du même portefeuille se retrouvent dans di�érents groupes suite à l'application des règles

précisées ci-dessus uniquement à cause de contraintes réglementaires ou légales sur la � discrimination �

(adaptation des prix ou garanties ou pro�l du client), l'entité peut rassembler ces contrats dans le même

groupe.

40

Page 41: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ La mise en place de segmentation supplémentaire des groupes créés est autorisée.

Une fois les groupes créés grâce à ces règles à la date de première comptabilisation, ils sont �xes. Les mesures de

FCF, RA et CSM se feront sur ces groupes ou à une échelle plus élevée si et seulement si l'entité est capable de

réattribuer à chaque groupe sa part du FCF mesuré.

Toutes ces règles concernent uniquement les contrats d'assurance. Les contrats de réassurance suivent di�érentes

règles que nous ne présenterons pas dans le cadre de ce mémoire.

Il est important de noter que la segmentation se fait par contrats, chaque contrat pouvant comprendre plu-

sieurs garanties alors que la norme Solvabilité 2 par exemple séparait les garanties de chaque contrat.

Intéressons-nous maintenant aux justi�cations de ces règles pour bien les comprendre.

2.3 Interprétation des impératifs posés par la norme en terme de segmentation

1) Regroupement en portefeuilles

La segmentation en portefeuilles de contrats gérés simultanément et soumis aux même risques s'inscrit dans la

même logique que le regroupement en LoB requis par solvabilité 2. Regrouper des contrats soumis à des risques

di�érents poserait des problèmes de cohérences et limiterait la �abilité des analyses e�ectuées sur le groupe.

2) Séparation par pro�tabilité

La segmentation par groupe de pro�tabilité est un point nouveau posé par la norme. En e�et, nous avons

vu que la CSM n'est dotée que pour les contrats pro�tables. Les contrats onéreux, du fait de leur dé�nition,

entrainent des pertes futures qui sont directement passées au résultat. Séparer les contrats onéreux est donc

logique, si un contrat onéreux et un pro�table sont regroupés, un phénomène de compensation entre leur résultat

futur aura lieu et entrainera une perte d'informations.

Illustrons cela par un exemple simpli�é

Considérons deux contrats d'épargne portant sur des personnes de même age, même sexe, même ancienneté où

le contrat A garantit un taux minimum de 18% et le contrat B garantit un taux minimum de 2%.

Les estimations de leur pro�tabilité future ont montré que le contrat A sera nettement onéreux alors que le contrat

B sera pro�table.

Cependant, si ces contrats étaient agrégés dans le même Model Point, on obtiendrait comme Model Point un

unique contrat avec 10% de TMG qui sera probablement onéreux.

La dotation qui aurait dû être passée en CSM grâce à la pro�tabilité du contrat B est perdue et la perte immédiate

au résultat qu'aurait du entrainer le contrat A se retrouve elle réduite.

Dans un tel cas, la segmentation entraine donc une perte de l'information sur �quel contrat est pro�table�,

�quel niveau de pro�tabilité� et �quelle perte entraine le contrat onéreux�.

Cependant, cette perte d'informations suit un des principes les plus chers à l'actuariat : La mutualisation

des risques.

41

Page 42: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Dans notre contexte de contrats d'épargne, on pourrait parler de mutualisation des risques lorsque l'ensemble

des contrats pro�tables sert à compenser les pertes des contrats onéreux. Cependant, la séparation des contrats

par classe de pro�tabilité ajoutée au fait que les pertes dues aux contrats onéreux vont directement au résultat

vont à l'encontre de ce principe.

La segmentation proposée par IFRS 17 ne compte pas sur une éventuelle compensation entre les contrats et va

rendre les résultats moins lisses. La compensation au résultat se fera entre les contrats reconnus onéreux sur une

année et la portion de la CSM qui sera relâchée au résultat.

Il se pose alors la question de la séparation des autres contrats. Bien qu'ils ne soient pas onéreux aujourd'hui,

le marché étant en perpétuelle évolution et l'avenir étant imprévisible, rien ne garantit que les hypothèses sous

lesquelles la pro�tabilité du contrat a été déterminée ne vont pas subir des changements décisifs. On ne peut pas

simplement quali�er ces contrats de non onéreux.

C'est cette considération prudente qui a mené à la création du groupe de contrats ayant une chance non signi�ca-

tive de devenir onéreux. A�n de ne pas se compenser avec les contrats qui sont signi�cativement non onéreux et

les contrats onéreux, les contrats restants (ceux qui sont considérés non-onéreux aujourd'hui mais qui pourraient

le devenir selon les circonstances) forment un groupe à part.

3) Cohorte annuelle

Le principe de cohorte annuelle est nécessaire pour la cohérence des groupes. En e�et, des contrats issus à

des périodes trop éloignées ont été créés dans des contextes totalement di�érents. Les éventuels taux garantis,

les statistiques utilisées pour la tari�cation, etc dépendent directement du contexte de l'époque et a�ectent le

rendement des contrats. Leur comparabilité s'en retrouve limitée. Un des objectifs de la segmentation étant la

mise en place de groupes assez homogènes, rassembler de tels contrats parait peu cohérent.

De plus, dans le cadre de contrats d'assurance vie, la présence d'un pic de rachats à 8 ans d'ancienneté rend

préférable la constitution de groupes de contrats d'ancienneté identique.

Le rassemblement de contrat de la même tranche de pro�tabilité, soumis aux mêmes risques à la même époque

devrait permettre d'obtenir des groupes de contrats de caractéristiques homogènes, sans compensations, dont la

mesure des �ux donnera donc une bonne transparence sur leur pro�tabilité.

Cette règle garantit également le caractère fermé et limité dans le temps des groupes. Il sera impossible de

rajouter des New Business au groupe au �l des ans, la CSM produit par le groupe ne sera donc pas éternelle.

4) Zones discrétionnaires

Les règles présentées ci-dessus laissent certains aspects de la segmentation à la discrétion des entités.

En e�et, lors de la segmentation par pro�tabilité, la norme demande de séparer les contrats qui ont une chance

non signi�cative de devenir onéreux des autres, sans aucune précision quantitative sur le niveau de si-

gni�cativité requis. Il est donc laissé à la libre appréciation des entités qui vont devoir choisir un seuil de

pro�tabilité qui dé�nira quels sont les contrats signi�cativement non onéreux.

42

Page 43: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Autre zone de liberté, l'utilisation de la méthode PAA qui in�ue sur la segmentation est facultative. On peut

également relever que certaines des règles énoncées reposent sur des critères laissés à l'appréciation des entités.

Illustrons cela avec une traduction d'un extrait du paragraphe 17

� si une entité dispose de su�samment d'informations raisonnables pour conclure qu'un groupe de contrats, etc. �.

Ici, aucun critère quantitatif n'est dé�ni. La quantité d'informations dont l'entité doit disposer est simplement

dé�nie comme su�sante et la qualité des informations est, elle, décrite comme � raisonnable � sans aucune pré-

cision supplémentaire. Mais le point le plus important reste qu'il est explicitement écrit dans la norme qu'il est

autorisé de procéder à des subdivisions supplémentaires des groupes créés (paragraphe 21) :

� An entity is permitted to subdivide the groups described in paragraph 16. �

C'est sur ce point que nous travaillons dans ce mémoire a�n de mettre en place un algorithme réalisant une

segmentation de qualité.

Nous allons cependant ajouter une contrainte à cet algorithme, la segmentation se fera dans un contexte de

transition. Présentons donc cette particularité.

3 Valorisation du passif à la date de transition

3.1 Problématiques posées par la transition vers IFRS 17

L'implémentation de la nouvelle norme changera drastiquement les résultats et leurs interprétations au niveau

des arrêtés comptables. Une période de transition est nécessaire avant la date d'implémentation de la norme pour

assurer la comparabilité des bilans et des comptes de résultats entre les normes IFRS 4 et IFRS 17.

Les compagnies d'assurance doivent reconstituer leur bilan d'ouverture à la date de transition en appliquant la

norme IFRS17. Pour ce faire, l'IASB a prévu plusieurs méthodes, décrites à l'annexe C de la norme.

3.2 Méthodes de construction du bilan à la date de transition

1) Approche rétrospective

L'IASB impose une approche rétrospective a�n de pouvoir reconstituer le bilan d'ouverture (paragraphe C3).

To apply IFRS 17 retrospectively, an entity shall at the transition date :

(a) identify, recognise and measure each group of insurance contracts as if IFRS 17 had always applied ;

(b) derecognise any existing balances that would not exist had IFRS 17 always applied ; and

(c) recognise any resulting net di�erence in equity.

Pour chaque groupe de contrats, cette approche consiste à se placer à la date de première comptabilisation

des contrats et réaliser les mesures entre cette date et la date de transition comme si la norme IFRS17 avait

toujours été en place. Dans le cas du calcul de la CSM, cette approche revient à reconstituer la CSM à la date

de première comptabilisation des contrats et à amortir la Marge de Service Contractuelle sur la période écoulée

entre la date de première comptabilisation et la date de transition.

43

Page 44: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Cependant, l'implémentation de cette méthode peut s'avérer très complexe. En e�et, l'application de la méthode

rétrospective requiert de nombreuses informations techniques et �nancières à la date de première comptabilisation

de chaque contrat a�n de pouvoir reconstituer les groupes de contrats, les �ux de trésorerie passés, l'ajustement

pour le risque non-�nancier.

Ces contraintes rendent l'approche souvent impraticable. Ainsi, l'IASB propose deux méthodes alternatives à

la méthode dite rétrospective pour reconstituer le bilan d'ouverture : l'approche rétrospective modi�ée et l'ap-

proche dite en � Juste Valeur �. (paragraphe C5).

If, and only if, it is impracticable for an entity to apply paragraph C3 (Retrsopective approach) for a group of insurance

contracts, an entity shall apply the following approaches instead of applying paragraph C4 :

(a) the modi�ed retrospective approach in paragraphs C6�C19, subject to paragraph C6(a) ; or

(b) the fair value approach in paragraphs C20�C24.

2) Approche rétrospective modi�ée

Lorsque l'approche rétrospective est jugée impraticable, les entités peuvent mettre en place l'approche ré-

trospective modi�ée.

L'approche rétrospective modi�ée propose des modi�cations ponctuelles à l'approche de base permettant de pal-

lier certains points particulièrement complexes de l'approche rétrospective (paragraphe C7-C8) :

Paragraphs C9�C19 set out permitted modi�cations to retrospective application in the following areas :

(a) assessments of insurance contracts or groups of insurance contracts that would have been made at the date of

inception or initial recognition ;

(b) amounts related to the contractual service margin or loss component for insurance contracts without direct parti-

cipation features ;

(c) amounts related to the contractual service margin or loss component for insurance contracts with direct participa-

tion features ; and

(d) insurance �nance income or expenses.

To achieve the objective of the modi�ed retrospective approach, an entity is permitted to use each modi�cation in paragraphs

C9�C19 only to the extent that an entity does not have reasonable and supportable information to apply a retrospective

approach.

Ainsi, si une entité ne dispose pas des moyens pour reconstituer l'information à la date de première compta-

bilisation des engagements présents dans le portefeuille, elle peut utiliser les données disponibles à la date de

transition pour identi�er les groupes de contrats d'assurance ou di�érencier les contrats participatifs directs des

autres.

La contrainte de segmentation des contrats par cohorte annuelle est annulée dans le cadre de l'approche mo-

di�ée, ce qui modi�e considérablement les Model Points utilisés et les calculs de �ux.

44

Page 45: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

an entity shall not apply paragraph 22 to divide groups into those that do not include contracts issued more than one

year apart. (C10).

En particulier, pour les contrats sans participation directe les �ux de trésorerie à la date de première comp-

tabilisation peuvent être estimés à partir des �ux futurs à la date de transition ajustés par les �ux de trésorerie

ayant eu lieu entre la date de première comptabilisation des contrats et la date de transition. De même, l'ajus-

tement pour le risque à la date de transition est ajusté par la libération du risque entre la date de première

comptabilisation et la date de transition.

Malgré ces simpli�cations, cette approche reste di�cile à mettre en ÷uvre pour la plupart des contrats avec

participation aux béné�ces. C'est pourquoi l'IASB propose une troisième approche basée sur la mesure de la

Juste Valeur du portefeuille à la date de transition.

3) Approche Fair Value

Cette approche est celle qu'il convient de retenir lorsqu'il n'est pas possible d'e�ectuer ni une approche ré-

trospective ni une approche rétrospective modi�ée faute d'informations su�santes, raisonnables et supportables,

sans coûts ou e�orts excessifs.

Dans cette approche, la segmentation par cohorte annuelle n'est obligatoire que si l'entité dispose d'informa-

tions su�santes pour la réaliser :

In applying the fair value approach, an entity is not required to apply paragraph 22, and may include in a group

contracts issued more than one year apart. An entity shall only divide groups into those including only contracts issued

within a year (or less) if it has reasonable and supportable information to make then division. (C23).

La CSM � ou la composante de perte en cas de valeur négative � est dé�nie comme la di�érence entre la

juste valeur d'un groupe de contrat d'assurance à la date de transition et les Ful�lment Cash-Flows. La notion

de juste valeur correspond à celle dé�nie dans IFRS 13 : il s'agit du � prix qui serait reçu pour la vente d'un actif

ou payé pour le transfert d'un passif lors d'une transaction normale entre des participants de marché à la date

d'évaluation. �

L'EFRAG a mis en avant un problème posé par cette approche : L'estimation de la Juste Valeur des contrats est

très similaire aux Ful�lment Cash-Flows et l'approche risque donc de produire une CSM faible, voir nulle.

En e�et, les principales di�érences entre la valorisation des contrats en Juste Valeur et la valorisation sous

IFRS 17 proviennent uniquement d'un changement de point de vue. Les contrats sont valorisés du point de vue

d'un potentiel acheteur sur le marché en Juste Valeur. Cette nuance implique la prise en considération d'un risque

de non-performance des contrats qui doit ajuster leur valeur ainsi que l'ajout de frais généraux non comptés lors

de la valorisation IFRS 17 (car non directement attribuables à un groupe de contrats) mais considérés en Juste

Valeur a�n de re�éter les dépenses générales dues à l'appropriation et la gestion des contrats.

45

Page 46: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Ces di�érences restent légères et vont limiter la CSM des contrats qui ne représenterait plus tellement la

pro�tabilité d'un groupe de contrats mais plutôt la marge qu'un acteur sur le marché espère réaliser en reprenant

les contrats.

Figure 8 � Choix de l'approche à la date de transition

3.3 Justi�cation du choix de l'approche Fair Value

Ce mémoire portant sur l'optimisation de la segmentation à la date de transition, il a fallu choisir une des

approches présentées ci-dessus.

Nous nous placerons dans le cadre de l'approche Fair Value ou Juste Valeur car notre portefeuille est consti-

tué de contrat d'épargnes. Nous avons vu que pour les contrats participatifs, il est particulièrement di�cile et

couteux de se placer à la date de première comptabilisation et de reconstituer l'évolution de la CSM entre cette

période et la date de transition. Les approches rétrospective et rétrospective modi�ée semblent donc peu adaptées.

De plus, l'approche Fair Value sera probablement la plus utilisée à la date de transition. En e�et, la norme

laisse le choix de l'approche à la discrétion des acteurs en ne dé�nissant pas clairement quelles sont les � informa-

tions su�santes � qui permettent de réaliser les approches rétrospectives, et dans un tel contexte, l'approche Fair

Value qui est nettement moins coûteuse à implémenter que les autres parait attractive. Il était donc cohérent de

réaliser la valorisation du passif à la date de transition en Fair Value.

46

Page 47: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4 Valorisation de l'Actif en norme IFRS

4.1 Valorisation de l'actif sous IFRS 9

La norme IFRS 9 � instruments �nanciers � dé�nit l'évaluation et la classi�cation des actifs �nanciers des

bilans IFRS. L'évaluation se fait en fonction de la classi�cation. La norme propose deux méthodes :

∗ au coût amorti : � valeur attribuée à un actif �nancier ou à un passif �nancier lors de sa comptabilisation

initiale, diminuée des remboursements en principal, majorée ou diminuée de l'amortissement cumulé,

calculé par la méthode du taux d'intérêt e�ectif, de toute di�érence entre cette valeur initiale et la valeur

à l'échéance et, dans le cas d'un actif �nancier, ajustée au titre de la correction de valeur pour pertes, le

cas échéant �.

∗ à la Juste Valeur : comme dé�nie par IFRS 13 en démarquant les actifs en Juste Valeur par résultat

des actifs en Juste Valeur par OCI.

Tandis que la classi�cation se fait suivant :

∗ les caractéristiques des �ux de trésorerie contractuels de l'actif �nancier

∗ le Business Model de l'entité.

La méthode de classi�cation est présentée par la �gure ci-dessous :

Figure 9 � Test SPPI

47

Page 48: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4.2 Comparaison avec la valorisation de l'actif sous Solvabilité II

Sous Solvabilité II, l'actif est comptabilisé en Juste Valeur et donc en valeur de marché tandis que sous IFRS

9, les actifs peuvent être comptabilisés de 3 manières di�érentes selon leur classi�cation.

Cependant, la norme IFRS 9 autorise la comptabilisation de tous les actifs �nanciers en Juste Valeur par résultat

si cette opération élimine un mismatch comptable. Auquel cas, la valorisation des actifs sous les 2 normes sont

similaires.

4.3 Comparaison entre IFRS 17 et Solvabilité 2

Les écarts d'hypothèses et de notions actuarielles entre la norme solvabilité 2 et IFRS 17 ont été étudiés et

sont présentés dans le tableau ci-dessous.

Table 1 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt1

48

Page 49: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Table 2 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt2

49

Page 50: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Table 3 � Tableau comparatif entre les normes Solvabilité 2 et IFRS 17, pt3

50

Page 51: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Résumé de la partie :

Ainsi, la norme IFRS17 va provoquer des changements majeurs au niveau de la valorisation des engagements

d'assurance et des méthodes comptables associées a�n d'harmoniser les pratiques des assureurs à l'échelle mon-

diale. Malgré cette volonté d'uniformisation, la norme comporte de nombreuses zones discrétionnaires qui vont se

transformer en casse-tête pour les assureurs. Si certains éléments exigés par IFRS 17 peuvent être retrouvés dans

les modèles développés sous Solvabilité II tel que l'ajustement pour le risque non �nancier, la mise en place de

modèles IFRS 17 va imposer des changements dans bien des domaines, notamment au niveau de la segmentation

des contrats.

La segmentation des contrats d'assurance sous IFRS 17 se fera désormais en au moins 3 étapes :

1. une séparation par portefeuille de contrats soumis aux mêmes risques et gérés ensemble ;

2. une segmentation par niveau de pro�tabilité ;

3. une segmentation par cohorte annuelle.

Ces nouvelles contraintes vont entrainer une modi�cation des méthodes de constitution des Model Points qui sera

déterminante dans l'estimation des �ux futurs de l'assureur et de la CSM, le pro�t futur attendu. Ce nouveau

processus de segmentation va modi�er la façon d'analyser les bilans et les comptes de résultats des entités.

Dans ce contexte, la phase de transition va s'avérer déterminante puisqu'elle permettra d'assurer la comparabilité

des bilans et des comptes de résultats entre les normes IFRS 4 et IFRS 17. Sur les 3 approches éligibles pour la

constitution du bilan à la date de transition, l' approche Fair Value semble s'imposer comme la plus populaire,

notamment en raison des forts prérequis techniques et informatifs des autres approches comme présenté ci-dessus.

Dans ce mémoire, nous chercherons à mettre en place une méthode de segmentation des contrats se voulant

optimale en terme de minimisation de la perte d'information observée lors de la constitution des Model Points.

51

Page 52: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

vgvg

52

Page 53: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Deuxième partie

Mise en place d'un modèle de segmentation des

contrats d'épargne sous IFRS 17

53

Page 54: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

1 Approches pour la mise en place d'une segmentation des contrats

d'épargne sous IFRS 17

A�n de constituer des groupes de contrats homogènes, il nous faut dé�nir cette homogénéité et la quantitifer

selon un critère. Nous dé�nissons dans cette section une mesure de la dissimilarité entre deux contrats avant

de présenter des méthodes de classi�cations aptes à se r'appuyer sur cette distance pour constituer des groupes

homogènes.

1.1 Création d'une mesure de dissimilarité entre deux contrats

A�n de construire des classes de contrats homogènes du point de vue de la pro�tabilité, il faut en premier

lieu dé�nir une mesure de la dissimilarité entre deux contrats : nous allons donc dé�nir une distance

mathématique.

Les distances mathématiques sont couramment utilisées pour quanti�er la similarité entre deux objets et sont

donc parfaitement adaptées à notre problématique. Nous présentons un rappel sur les distances en annexe A.

Dans le cadre de notre recherche d'une mesure de la dissimilarité entre deux contrats, nous allons chercher à

dé�nir une distance entre deux contrats qui re�ète la dissimilarité de leur pro�tabilité.

Pour se faire, nous allons initialiser une distance euclidienne paramétrable comme suit :

d(x, y) =√α(xa − ya)2 + β(xb − yb)2 + γ(xc − yc)2 + ζ(xd − yd)2

Avec

∗ x, y des contrats d'épargnes

∗ xa, ya l'âge des assurés∗ xb, yb l'ancienneté des assurés∗ xc, yc le sexe des assurés∗ xd, yd le Taux minimum Garanti (TMG) aux assurés

∗ α, β, γ, ζ les paramètres de la distance

Ces paramètres ont été dé�nis au vu des données dont nous disposions mais il est possible d'en considérer d'autres.

Cette distance euclidienne ajustable va retourner une mesure de la dissimilarité entre les contrats qui dépen-

dra directement du poids donné à chaque paramètre du contrat.

L'idée derrière la mise en place de cette distance paramétrable est d'automatiser la dé�nition des paramètres de

la distance de manière à ce qu'elle représente au mieux la dissimilarité des contrats. Nous ignorons l'impact exact

d'un paramètre (âge, ancienneté,tmg,sexe) sur la pro�tabilité du contrat ou son importance par rapports aux

autres paramètres, ce qui complique la réalisation d'une segmentations homogène au niveau de la pro�tabilité.

Quanti�er le poids de chaque paramètre dans la mesure de la dissimilarité nous permettra d'e�ectuer des choix

de segmentation optimaux.

54

Page 55: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Une fois la distance d'homogénéité dé�nie, nous nous appuyons sur cette mesure pour séparer le portefeuille

du passif en groupes homogènes. C'est l'étape de classi�cation. Les dé�nitions utilisées dans les algorithmes

suivants tels que la hiérarchie ou l'inertie intra-classe sont dé�nis dans l'annexe A.

1.2 Présentation de Méthodes de Classi�cation

Nous allons maintenant prsénter di�érentes méthodes de classi�cations ayant la capacité de s'appuyer sur la

distance de dissimilarité a�n de constituer des groupes de contrats homogènes. Nous étudierons dans un premier

temps des méthodes usuelles telles que la méthode de classi�cation ascendante hiérarchique avant d'introduire

des algorithmes reposant sur un domaine mathématique peu familier à l'actuariat : la théorie des graphes.

1) Partitionnement par Classi�cation ascendante hiérarchique (CAH)

∗ Dé�nitions :

Une famille H de parties d'un ensemble d'objets E est appelée hiérarchie sur E si :

∗ chaque partie de H est non vide ;

∗ E et ses singletons, i.e toutes les parties de la forme {x} avec x ε E, sont dans H ;

∗ si A et B sont dans H, alors soit A et B sont disjointes, soit A est compris dans B, soit B est compris dans

A.

Une hiérarchie H est dite indicée si elle est munie d'une application

f : H → R+ telle que : A ⊂ B ⇒ f(A) < f(B)

On appelle indice d'agrégation δ une règle de calcul permettant de quanti�er la dissimilarité entre deux classes

déjà existantes en tenant compte des dissimilarités entre les éléments de A et les éléments de B. La liste des in-

dices d'agrégation communément utilisés est présentée ci-dessous.

Figure 10 � Indices d'aggrégation pour la méthode CAH

55

Page 56: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Dans le cadre de ce mémoire on a utilisé le critère de Ward. Ce critère recherche la minimisation de l'inertie

intra-classe et donc de la dissimilarité au sein d'une classe.

∗ Présentation de l'algorithme :

Soit E composé de n singletons. Soit la distance d la dissimilarité entre les objets et δ l'indice d'agrégation (entre

classes).

La classi�cation ascendante hiérarchique rassemble les éléments de E selon leur dissimilarité, dé�nie par la

distance choisie, et selon l'indice d'agrégation. La méthode opère selon les étapes suivantes :

Algorithme 1 Algorithme de Classi�cation Ascendante hiérarchique

1. a l'instant 0, H est l'ensemble des singletons de E. et ∀x∈H, f(x) = 0 ;

2. on rassemble les 2 éléments de H qui sont les plus proches au sens de l'indice d'aggrégation choisi δ parmiles éléments de H n'ayant pas déja été réunis ;

3. soit A et B les éléments réunis, f(A ∪B) est dé�nie comme étant égale à δ(A,B). On calcule les valeursde δ entre la nouvelle classe formée et les autres éléments de H ;

4. l'algorithme reprend à l'étape 2 jusqu'à obtenir une unique classe égale à E.

L'algorithme crée ainsi une suite de partition emboitées les une dans les autres jusqu'à retrouver l'ensemble

de départ E.

L'intérêt de cette méthode réside dans le fait qu'il fournit plusieurs partitions possible de l'ensemble des

éléments E. Illustrons cela avec le dendrogramme ci-dessous :

Figure 11 � Exemple de Dendrogramme

On remarque sur le dendrogramme di�érentes possibilités en terme de partitionnement de l'ensemble : Il est

possible de partitionner le graphe en trois sous-ensembles, le rouge, le rose et le vert ou en deux sous-ensemble :

le Vert et le sous-ensemble formé de la réunion des sous-ensembles rose et rouges.

56

Page 57: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

La hauteur des branches du dendrogamme permet de visualiser la proximité des di�érentes classes et met en

évidence le fait qu'une segmentation en 2 groupes au lieu de 3 aurait un fort impact sur l'inertie intra-classe.

Là est tout l'intérêt de la méthode : elle permet de s'a�ranchir du problème du choix du nombre de classes en

quanti�ant l'impact du choix d'une partition par rapport à une autre sur l'inertie. (critère de Ward).

Cet algorithme de classi�cation non-supervisée est déjà implémenté sous R dans la librairie hclust.

2) Partitionnement par la méthode des K-moyennes

∗ Présentation de l'algorithme :

Soit n éléments d'un ensemble E que l'on cherche à séparer en k groupes le plus homogènes possibles.

L'algorithme des k-moyennes ou k-means fonctionne selon les étapes suivantes :

Algorithme 2 K-means

1. Choisir k centres initiaux : c1, c2, . . . .ck

2. On dé�nit les classe ei comme les ensembles formés du centre ci et de tous les éléments de E dont lecentre le plus proche est ci

3. Pour chaque classe ei formée, on redé�nit le centre cj =∑x∈ej

p(x)pjx avec p(x) le poids de x et pj le poids

de la classe ej

4. On répète les étapes 2 et 3 jusqu'à stabilité (les ensembles ei ne bougent plus).

Les solutions trouvées sont des optimums locaux qui minimisent l'inertie intra-classe. Il peut cependant exister

plusieurs solutions.

Le principal défaut de la méthode réside dans le fait que l'utilisateur doit connaitre le nombre k de classes

qu'il cherche à constituer, ce qui implique une étude préalable a�n de déterminer le nombre de classes optimales.

Dans le cadre de notre problème, ce défaut est sans conséquences puisqu'il n'est pas rare que l'assureur connaisse

le nombre de Model Points qu'il cherche créer. De plus, le choix des centres initiaux impacte le résultat et les

classes trouvées sont essentiellement sphériques. Ces limites nous ont poussé à ne pas sélectionner cette méthode

de classi�cation.

1.3 Classi�cation par utilisation de la Théorie des Graphes

La théorie des graphes est une branche des mathématiques qui étudie les graphes : des ensembles d'objets

reliés entre eux par des réseaux appelés arêtes. Cette discipline introduite par Leonhard Euler en 1736 est au-

57

Page 58: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

jourd'hui utilisée dans des domaines très variés (réseaux sociaux, imagerie, génétique,etc.) et a donné naissance

à de nombreux théorèmes pouvant se révéler utiles dans la résolution de problèmes d'optimisation. C'est suite à

ces considérations que nous avons jugé intéressant d'introduire cette discipline dans un contexte actuariel.

Il est à noter que les algorithmes de classi�cation reposant sur la théorie des graphes les plus courants reposent

sur l'algorithme des �ots, présentés en annexe. L'algorithme des �ots est le plus coûteux en temps de calcul. Son

implémentation est la plus technique mais les résultats retournés sont également d'une qualité supérieure aux

algorithmes que nous présenterons par la suite, en tout cas sur des problématiques de segmentation d'images par

homogénéité. Il ne parait cependant pas adapté au problème de la segmentation de contrats au vu des di�cultés

qu'il pose et des pré-requis en terme de connaissance et n'a pas été présenté dans le coeur de ce mémoire en

conséquence. Il est présenté dans ce mémoire en annexe au vu de sa popularité dans les problèmes de segmen-

tation d'image en régions connexes répondant à des critères d'homogénéité qui est similaire sur le principe au

problème de la segmentation de contrats par homogénéité.

1) Dé�nitions utiles

Graphe : un graphe G = (V,E) est dé�ni par l'ensemble �ni V = {v1, ....vn} dont les éléments sont appe-

lés sommets, et par l'ensemble �ni E = {e1, ..., em} des arêtes.

Arête : nous appelons une arête un élément dé�ni par une paire non ordonnée de sommets et ces sommets

sont dits adjacents.

Chaîne : succession d'arêtes dont les arêtes intermédiaires ont une extrémité en commun avec l'arête précé-

dente et une extrémité en commun avec l'arête suivante.

Cycle : chaîne dont les arêtes de débuts et de �ns sont adjacentes par leur sommet libre.

Connexité : un graphe est dit connexe si, pour tout couple de sommets, il existe une chaîne les reliant.

Si un graphe n'est pas connexe, on appelle composante connexe chacune de ses parties connexes.

Arbre : graphe sans cycle et connexe.

Forêt : une forêt est un graphe dont les composantes connexes sont des arbres.

Arbre Couvrant : soit V l'ensemble des sommets, un arbre est dit couvrant s'il connecte tous les sommets

de V .

Graphe pondéré : graphe où chaque arête a un poids entier et positif (cf �gure 21).

Processus de Markov : processus où l'information utile pour la prédiction du futur est entièrement contenue

dans l'état présent du processus et n'est pas dépendante des états antérieurs.

58

Page 59: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

L'ensemble violet dans l'illustration ci-dessous forme un cycle à gauche et un arbre couvrant à droite.

Figure 12 � Exemples simpli�és de Graphes

2) Méthodes de Segmentation des graphes

L'utilisation de la théorie des graphes à des �ns de segmentation est une pratique courante dans le domaine

de l'imagerie. En e�et, une image peut être considérée comme un graphe dont les di�érents voisinages sont des

sommets adjacents et dont on cherche à obtenir un partitionnement en régions connexes selon un critère d'ho-

mogénéité.

Une multitude d'approches di�érentes ont été utilisées pour résoudre des problèmes de segmentations par ho-

mogénéité et nous avons choisi de présenter deux types de segmentation par la théorie des graphes dans ce

mémoire :

∗ La méthode MCL (Markov Cluster Algorithm)

∗ La méthode des arbres couvrants

Nous allons donc représenter le portefeuille de contrats sous la forme d'un graphe en considérant que les contrats

sont des sommets v, qu'ils forment un ensemble connexe (il existe un lien entre tous les contrats) et que ce

lien est pondéré par la distance entre les contrats (mesurée avec la distance euclidienne paramétrable présentée

précédemment).

∗ Markov Clustering Algorithm :

L'algorithme MCL a été développé par Stijn van Dongen lors de sa thèse. Il s'agit d'un algorithme de segmenta-

tion de graphes reposant sur des simulations de �ux stochastiques dans un graphe et sur la marche aléatoire.

Rappelons le principe de la marche aléatoire :

SoitN ≥ 1 et soit (e1, .., eN ) la base canonique de ZN . Soit (Xi) une suite de variables aléatoires indépendantes

à valeurs dans {e1,..., eN}. On appelle marche aléatoire associée à la suite de variables aléatoires (Sk),k ≥ 1 où

Skest dé�ni par :

59

Page 60: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Sk = X1 + ...+Xk

Considérons maintenant un graphe comportant des clusters. Il y aura nécessairement plus d'arcs reliant les

points des clusters entre eux que d'arcs reliant deux cluster distincts comme illustrés dans la �gure suivante :

Figure 13 � Visualisation de la présence des arcs dans les clusters

Si une marche aléatoire partait d'un sommet d'un cluster, la probabilité de rester dans le cluster serait

nettement supérieure à celle d'en sortir. C'est de cette idée qu'est né l'algorithme : En réalisant des marches

aléatoires sur un graphe, on peut déduire l'existence d'un cluster en observant où est ce que les �ux se concentrent.

Partons par exemple du sommet 1 de la �gure précédente, si la marche est aléatoire, l'itération suivante va

alors accéder au sommet 2,3 ou 4 avec une probabilité de 13 (puisqu'il y a 3 somemts accessibles depuis le sommet

1 et que, la marche étant aléatoire, aucun sommet n'a plus de chance que les autres d'être atteint) et la probabi-

lité d'accéder aux autres sommets est nulle. En suivant cette logique on peut contruire la matrice de transition

indiquant les probabilités d'accéder aux autres sommets selon le sommet de départ : Chaque coe�cient ci,j de la

matrice de transition indique la probabilité d'atteindre le sommet j en partant du sommet i à l'itération suivante.

0 0.25 0.33 0.33 0 0 0

0.33 0 0.33 0.33 0.33 0 0

0.33 0.25 0 0.33 0 0 0

0.33 0.25 0.33 0 0 0 0

0 0.25 0 0 0 0.5 0.5

0 0 0 0 0.33 0 0.5

0 0 0 0 0.33 0.5 0

bbbb

On peut remarquer sur la matrice précédente que les clusters sont déja visibles.

La puissance R de cette matrice de transition donne les probabilités de passage d'un point à un autre après R

60

Page 61: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

étapes de marché aléatoire. Notre matrice de transition est une chaine de Markov : son état futur ne dépend que

de son état présent et n'entretient aucune relation avec ses états passés.

Dans notre cas, le graphe que nous chercherons à segmenter est l'ensemble des contrats. Chaque contrat re-

présente un sommet et le poids des arcs correspond à l'inverse de la dissimilarité entre les contrats. Si l'on

représentait ce graphe par une matrice, nous n'aurions donc pas des probabilités en coe�cients mais l'inverse de

la distance entre les sommets.

A�n d'obtenir la matrice de probabilité, nous allons normaliser les poids : chaque coe�cient de la matrice

est divisé par la somme des coe�cients de la colonne dans laquelle il se situe. Tous les coe�cients deviennent

alors inférieurs à 1 et les arcs de poids les plus élevés (et donc de dissimilarité faible) possèdent les plus fortes

probabilités de passage. Nous obtenons alors la matrice de transition représentative de notre portefeuille. Il faut

noter qu'il est conseillé (mais non obligatoire) d'ajouter un poids dans les diagonales pour donner une chance

aux �ux de rester sur le même sommet lors d'une itération.

Lors des premières itérations (les premières puissances de la matrice de transition), les valeurs des arcs situés

dans des clusters vont augmenterà cause de leur forte connectivité tandis que ceux hors cluster seront entourés

de 0 et diminueront, c'est ce que l'on appelle l'expansion. L'algorithme va ampli�er cet e�et en s'arrêtant après

peu d'itérations et en élevant les coe�cients de la matrice à une puissance choisie avant de re-procéder à la

normalisation des coe�cients ce que nous appellerons l'in�ation. L'algorithme va alterner ces procédés jusqu'à

obtenir une convergence des coe�cients de la matrice.

Algorithme :

Algorithme 3 Markov Cluster AlgorithmSoit G le graphe valué que l'on cherche à segmenter, R la puissance de l'expansion et I la puissance de l'in�ation.

1. On détermine la matrice associée à G

2. On normalise la matrice

3. Expansion de la matrice (on l'élève à la puissance R ).

4. On procède à l'in�ation (on élève les coe�cients de la matrice à la puissance I ).

5. On répète les étapes � et 4 jusqu'à obtenir un état stable.

6. On interprête la matrice obtenue pour déterminer les clusters.

La matrice retournée par l'algorithme est de la forme suivante :

Figure 14 � Matrice en sortie de l'algorithme MCL

61

Page 62: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Tous les éléments non nuls d'une ligne appartiennent à la même classe.

Caractéristiques :

Il faut préciser que la convergence de l'algorithme MCL n'a pas été démontrée au cours de la thèse. L'expé-

rience a cependant montré qu'il converge presque surement.

Le nombre exact de classes requis n'est pas choisi par l'utilisateur, la méthode MCL retourne le nombre de cluster

trouvé lors de sa convergence. Il s'agit d'un avantage non négligeable comparé à la majorité des algorithmes de

classi�cation.

Il est cependant possible d'in�uencer l'algorithme en calibrant ses paramètres. Le paramètre d'expansion

permet aux �ux d'atteindre tous les sommets du graphe et le paramètre d'in�ation détermine la vitesse de

convergence et la granularité en augmentant les écarts entre les probabilités associées aux arcs. Plus l'in�ation

est forte, plus le nombre de cluster retourné augmente (et donc plus la granularité est �ne).

L'algorithme MCL est un algorithme de Cluster qui a su trouver un public par sa relative simplicité, sa

facilité d'implémentation, sa précision et son coût réduit. Il a�che cependant certaines limites, notamment au

niveau des graphes de grandes dimensions qui demandent alors une grande expansion pour une in�ation plus

limitée (a�n d'éviter de séparer le graphe en 2). Cette contrainte ralentit l'algorithme et limite la granularité.

Elle est cependant peu signi�cative dans le cadre de notre problème où les contraintes imposées par la norme

(cohortes, pro�tabilité, risques homogènes) vont considérablement réduire la taille des groupes de contrats à

segmenter. Nous avons choisi cet algorithme pour son aspect innovant et néanmoins abordable en actuariat car il

ne nécessite pas de pré-requis en terme de théorie des graphes puisqu'il repose essentiellement sur des principes

mathématiques auxquels les actuaires sont familiers (Markov, matrices de transition, etc.).

Complexité :

L'algorithme dispose d'une complexité de Θ(Nk2) où N est le nombre de sommets (donc de contrats dans

notre cas) et k est le nombre moyen d'arcs liés à un sommet. Ceci implique que cette complexité est optimisable

en remplaçant les valeurs des arcs les plus faibles par 0 (en prenant l'hypothèses que l'algorithme les aurait

lui-même remplacé par 0 au cours des itérations au vu de leur faible connectivité).

La méthode des arbres couvrants :

Nous allons maintenant présenter une méthode qui utilise une approche similaire à la méthode de Classi�ca-

tion Ascendante Hiérarchique de manière à obtenir une bonne comparabilité entre les méthodes �usuelles� et la

théorie des graphes.

Rappelons qu'un arbre couvrant est un graphe ne contenant pas de cycle et liant tous les sommets.

La méthode de segmentation choisie repose sur le fait que dans tout ensemble connexe (dont tous les sommets

sont liés), il existe au moins un arbre couvrant. Il su�t de retirer les arêtes formant des cycles comme ce fut le

cas dans la �gure 29.

62

Page 63: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Nous allons déterminer l'arbre couvrant de poids minimal, celui dont la somme des poids des arêtes

est le plus petit possible. Un tel arbre nous donnerait donc un ensemble comprenant tous les contrats liés les

uns aux autres par la plus petite distance possible. Le graphe ne comportant aucun cycle (il s'agit d'un arbre),

chaque retrait d'arête entrainera la division du graphe en deux ensembles connexes de poids minimal. L'approche

est illustrée dans la �gure suivante.

Figure 15 � Méthode de l'arbre couvrant de poids Minimal sur un exemple simple

Dans cet exemple simple, la première étape permet d'obtenir l'arbre couvrant de poids minimal et le retrait

des arêtes augmentant fortement l'inertie intra-classe permet la séparation du graphe en 3 classes homogènes.

Nous avons implémenté cette méthode en utilisant deux algorithmes di�érents permettant d'obtenir un arbre

couvrant de poids minimal.

a) Algorithme de Prim

∗ Théorème fondamental :

Soit X le graphe, E l'ensemble des arêtes et V l'ensemble des sommets.

On considère un graphe non orienté valué G = (X,E, V ) ainsi que l'ensemble des arbres de recouvrement notés

(X,F, V ) de ce graphe.

On note (X,F, V )→ (X ′, F ′, V ) l'ensemble des arbres de recouvrement du graphe G = (X,E, V ) qui contiennent

l'arbre A = (X ′, F ′, V ) du sous graphe (X ′, E′, V ) de (X,E, V ) (X' est strictement contenu dans X et F' est

strictement contenu dans F).

Parmi les arbres de recouvrement minimaux du graphe (X,E, V ) pour lesquels le sous-arbre A = (X ′, F ′, V )

est imposé, il en existe au moins un qui contient l'arête de valeur minimale ayant une de ses extrémités dans X ′

et son autre extrémité dans X −X ′.

63

Page 64: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Interprétation :

Pour tout arbre A = (X ′, F ′, V ) compris dans un sous graphe du graphe de départ G = (X,E, V ), il existe au

moins un arbre couvrant de poids minimal contenant l'arête de poids minimal ayant un sommet dans X et un

sommet dans X ′.

∗ Démonstration :

Par l'absurde : Soit A un arbre sous-graphe de G. Notons V' l'ensemble des arêtes de A et V l'ensemble des

arêtes de G.

Soit F un arbre couvrant de G ne contenant aucune arête de coût minimal ayant un sommet dans X et un sommet

dans X'.

Soit b une des arêtes de coût minimal ayant une arête dans X et une dans X'. Ajouter cette arête à l'arbre F

créerait un cycle puisque F passe déjà par tous les sommets de G (c'est un arbre couvrant) et ne contient pas b

(puisqu'il ne contient pas d'arête de coût minimal reliant X et X'). Suite à l'ajout de b, on aurait donc 2 arêtes

ayant une extrêmité dans X et une dans X'.

Suite au retrait de l'arête non minimale ayant un sommet dans X et un dans X', le graphe F redevient un

arbre couvrant. Or, puisque l'on a ajouté une arête b de poids inférieur à l'arête retirée, l'arbre couvrant obtenu

possède un poids strictement inférieur à son poids original. Il n'était donc pas minimal.

Z=⇒L'arbre couvrant n'est pas de poids minimal s'il ne contient pas l'arête de coût minimal faisant la jonction

entre G et un de ses sous-ensemble convexe.

∗ Algorithme :

Algorithme 4 Algorithme de PrimSoit V l'ensemble des sommets (donc des contrats) et E l'ensemble des arêtes (distance entre les contrats).On initialise un ensemble S qui sera l'ensemble des sommets de l'arbre couvrant : S ← Contrat1Soit T l'ensemble des sommets non compris dans S. T = V \ SSoit Z l'ensemble des arêtes de l'arbre couvrant. Initialisé vide.Soit N le nombre de contrats et Cout : le coût de l'arbre couvrant, initialisé à 0.Pour N-1 itérations{∗ On cherche l'arrête (x, y) avec x ∈ S et y ∈ T de poids minimal.∗ On retire y deT .∗ On ajoute y à S et (x, y) à Z∗ Cout←Cout + Coût de (x, y)

}

A la �n de l'algorithme, les N points de l'arbre couvrant sont dans S et les N − 1 arêtes dans Z. Le poids total

de l'arbre couvrant de poids minimal obtenu est donnée par Cout.

∗ Justi�cation :

64

Page 65: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

L'algorithme converge nécessairement vers une solution car à chaque itération, on ajoute un sommet et une arête

à l'ensemble S et ce, jusqu'à ce que tous les sommets de V soient dans S.

L'ensemble S est initialisé avec un seul contrat, il s'agit donc d'un arbre à la première itération. Or, itération

après itération, des arêtes ne formant pas de cycles (car formées de sommets situés dans des espaces disjoints)

sont ajoutés à S. L'ensemble S reste donc un arbre après chaque ajout et retourne donc bien un arbre couvrant

en �n d'algorithme, reste à véri�er que cet arbre est de poids minimal.

La démonstration se fait par l'absurde :

Soit S′ un arbre couvrant de poids minimal ayant un certain nombre d'arêtes en commun avec S. Les arbres S

et S′ ne sont pas identiques, S a au moins une arête n'appartenant pas à S′.

Notons {e1,......., en−1} les arêtes de S données dans l'ordre de l'algorithme de Prim. ei la première arête de S

n'appartenant pas à S′ et K l'ensemble des sommets donnés par les arêtes e1, ....ei−1.

Ajouter l'arête ei à S′ crée un cycle puisque S′ est un arbre couvrant et contient donc déjà une arête e0 joignant

K et S \KEn retirant cette arête, on obtient un nouvel arbre S2 de poids inférieur ou égal à S′ puisque ei ayant été choisi

par Prim dans l'ordre, on a ei ≤ e0.

Or S′ étant de poids minimal, on en déduit que S′et S2sont de poids égaux. Ce qui est absurde vu que S2a plus

d'arêtes en commun avec S que S′ .

∗ Segmentation :

Comme expliqué précédemment, une fois l'algorithme de Prim e�ectué, toute coupe dans le graphe obtenu produit

des composantes connexes de coût minimum qui dé�nirons des groupes de contrats.

Le problème reste donc de savoir

1. Où e�ectuer les coupes

2. Quand s'arrêter dans la segmentation

Dans une optique de minimisation de l'inertie intra-classe, couper les arêtes les plus grandes constitue une ap-

proche valable réduisant considérablement l'inertie intra-classe.

Le rassemblement des contrats par critère de lien minimum (en ajoutant à l'arbre le contrat le plus proche à

chaque itération) permet de représenter l'arbre couvrant obtenu sous la forme d'un dendrogramme en connectant

les sommets de l'arbre les plus proches.

Figure 16 � Agrégation par dendrogramme

65

Page 66: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Le critère d'arrêt reste cependant un problème récurrent. Il est possible d'arrêter l'agrégation en fonction de

l'impact qu'elle a sur l'inertie intra-classe ou plus simplement de �xer un nombre de classes souhaité.

∗ Apports de la méthode ;

La méthode d'agrégation des contrats consistant à utiliser l'algorithme de Prim est similaire à une classi�cation

hiérarchique e�ectuée avec le critère du lien minimum. Malgré cette apparente similarité, l'utilisation de l'algo-

rithme de Prim apporte de grands avantages d'un point de vue opérationnel :

Se ramener à un arbre couvrant de poids minimal avant de procéder à la classi�cation permet de réduire consi-

dérablement les calculs.

En e�et, Gower et Ross (1969) ont montré que toute les informations requises pour e�ectuer une analyse

hiérarchique avec le critère du lien minimum sont présentes dans un arbre couvrant de poids minimum. M.

Bruynhooghe a lui indiqué que les calculs nécessités par la méthode CAH varient comme le cube du nombre

d'éléments à classer alors que la méthode de Prim fournit un arbre pour lequel le temps nécessité par les calculs

selon le critère du lien minimum évoluent comme le carré du nombre d'éléments.

Il a également noté que l'algorithme de Prim n'utilise qu'une seule fois chaque distance entre deux éléments

et ne nécessite donc pas de stocker en mémoire toutes les distances entre les éléments, la mémoire nécessaire est

proportionnelle au nombre d'éléments à classer et non pas à son carré comme c'est le cas lors de l'utilisation de

la méthode CAH classique.

∗ Complexité de la méthode :

Une implémentation possible consiste à déterminer à chaque itération (et donc pour chaque sommet) parmi

les arêtes comprenant un sommet dans S l'ensemble des sommets de l'arbre couvrant, lesquelles possède leur

deuxième extrémité hors de S et garder celle de poids minimum.

Ce mode de programmation conduit à une complexité égale au nombre de sommets multiplié par le nombre

d'arêtes : Θ(|V | ∗ |E|)

b) Algorithme de Kruskal

∗ Théorème fondamental

On considère un graphe non orienté valué (X,E, V ) ainsi que l'ensemble des arbres de recouvrement notés

(X,F, V ) de ce graphe. On note (X,F → G,V ) l'ensemble des arbres de recouvrement du graphe (X,E, V ) qui

contiennent le sous-ensemble d'arêtes G qui est alors imposé.

Parmi les arbres de recouvrement minimaux du graphe(X,E, V ) pour lesquels le sous-ensemble d'arêtes G est

imposé, il en existe au moins un qui contient une des plus petites arêtes de E − G qui ne crée pas de cycle

lorsqu'on l'ajoute à G.

∗ Démonstration :

Prenons G non vide et contenant moins de n− 1 arêtes (n étant le nombre d'éléments).

Soit F un arbre de coût minimal contenant G. En ajoutant une arête de coût minimal b qui n'est pas dans G et

66

Page 67: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

ne crée pas de cycle avec G on crée un cycle dans F (puisque F est couvrant, tout ajout d'arête crée un cycle).

Une des arêtes du cycle créé est nécessairement hors de G et possède donc un poids supérieur à b qui était une

arête de coût minimal. En supprimant une arête adjacente à b ajoutée à G et en ajoutant b on supprime le cycle

et l'on obtient un arbre couvrant de poids inférieur à celui que l'on avait précédemment. Ce qui est absurde

puisque l'arbre de départ était censé être de poids minimal.

∗ Algorithme :

Algorithme 5 Algorithme de KruskalConsidérons un graphe de n sommets et m arêtes.

1. Initialisons F l'ensemble des arcs de l'arbre couvrant de poids minimal et p le nombre d'arêtes placéesdans F .F est vide dans un premier temps et p = 0.

2. Trier les arêtes du graphes par valeur croissantes

3. Soit ei une des plus petites arêtes, on ajoute eià F et on incrémente p

tant que p ≤ n− 2 et que toutes les arêtes n'ont pas été testées{

(a) déterminer la plus petite arête non testée e0

(b) Tester si l'ajout de e0 à F ne crée pas de cycles, ajouter e0 et incrémenter p

}

∗ Justi�cation :

Tout comme l'algorithme de Prim, on observe que l'algorithme de Kruskal part d'un arbre et ajoute au fur et

à mesure des éléments sans jamais créer de cycle. On obtient donc un arbre couvrant. La démonstration de son

optimalité est comme suit :

Pour un graphe donné G, soit K l'arbre généré par l'algorithme de Kruskal et A l'arbre de poids minimum.

Nous allons montrer que K et A ont le même poids total p(K) = p(A).

Soient E(K) et E(A) respectivement les arêtes constituant K et A. Si n est le nombre de sommet de G alors

K et A ont n-1 arêtes.

Si E(K) = E(A), alors K est de poids minimum.

Si E(K) 6= E(A), alors examinons les arêtes de K prises par ordre de poids croissant. Soit q la première arête

telle que q ∈ E(K) et q /∈ E(A)

L'inclusion de q dans E(A) va créer un seul et unique cycle. Soit q,e1, , ek ce cycle.

Il existe une arête ej sur ce cycle telle que ej /∈ E(K) (sinon on a déjà un cycle dans K). On supprime le cycle

en retirant ej , 3 cas sont possibles :

Si p(ej) > p(q) on a diminué p(A) de p(ej)− p(q) ce qui est impossible.

Si p(ej) < p(q), ej formerait dans K un cycle avec les arêtes de K de poids≤ p(ej), or par choix de q, ces

arêtes étant aussi dans A ce cycle serait également dans A. Ce qui est encore impossible.

Donc p(ej) = p(q)

67

Page 68: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Par ce procédé on peut donc progressivement substituer toutes les arêtes de K dans A ce qui implique p(K)

= p(A) sans en modi�er le poids.

∗ Segmentation :

En aggrégeant les classes les plus proches étapes par étapes l'algorithme de Kruskal donne des partitions emboi-

tées les une dans les autres, réalisées avec le critère du lien minimum jusqu'à obtenir l'arbre couvrant optimal

qui rassemble tous les éléments dans une seule et même classe.

A partir de cette considération, la segmentation se fait plus facilement et intuitivement qu'avec l'algorithme de

Prim, il s'agit de savoir à quelle étape interrompre la construction de l'arbre couvrant de poids minimum. Le

critère de Wald reste le plus pertinent dans un contexte d'optimisation de l'inertie intra-classe.

∗ Apports de la méthode :

De la même manière que l'algorithme de Prim, l'algorithme de Kruskal a un avantage opérationnel par rapport

aux méthodes de classi�cation hiérarchique classiques.

En implémentant un algorithme qui à chaque itération ne regarde que les arêtes dont on n'a pas encore établi si

elles allaient former ou non un cycle avec les arêtes précédemment sélectionnées on obtient un gain de temps par

rapport aux algorithmes plus classiques.

Celà réduit également le besoin en mémoire. Ces paramètres sont cependant très dépendants de la manière dont

l'algorithme est codé.

∗ Complexité :

Le tri des m arêtes s'e�ectuer en mlog(m) et le test pour véri�er si une arête va créer un cycle s'implémente

en n ou log(n) selon la méthode utilisée. La compléxité globale est donc estimée à Θ(mlog(m)). La vitesse de

l'algorithme est uniquement dépendante du nombre d'arêtes.

1.4 Comparaison des méthodes de classi�cation

1) En terme d'homogénéité des classes retournées

La qualité de la segmentation se mesure par la minimisation de l'inertie intra-classe et la maximisation de

l'inertie inter-classes.

L'algorithme le plus performant est l'algorithme de classi�cation hiérarchique. En e�et, comme expliqué pré-

cédemment, l'algorithme des K-means sou�re de limitations au niveau de sa �abilité, notamment à cause des

problématiques posées par le choix des centres de départ et le caractère sphérique des classes créées. Les algo-

rithmes de théorie des graphes reposant sur la constitution d'arbres couvrant de poids minimal sont eux similaires

au CAH dans la la procédure mais la contrainte de non-formation de cycle limite les choix de segmentation et

impacte la qualité des groupes créées.

2) D'un point de vue opérationnel

En contrepartie de cette perte de qualité, les algorithmes reposant sur la constitution d'arbres couvrant o�rent

des avantages opérationnels non négligeables : Ils nécessitent en théorie une mémoire et un temps de calcul nette-

ment inférieurs. En e�et, si l'on note n le nombre d'objets à classer, la complexité de l'algorithme de Classi�cation

68

Page 69: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Ascendante Hiérarchique est de n3. Ce qui est très nettement supérieur aux complexités de l'algorithme de Prim

(n2) et de Kruskal ( la complexité est de n ∗ ln(n) si l'on considère que le graphe est complet. La complexité

diminue avec le nombre d'arêtes.) Ces écarts peuvent devenir très importants notamment pour les plus gros

assureurs.

Considérons par exemple 10 000 contrats : la méthode CAH classique demanderait 1∗1012 opérations, la méthode

de Prim en demanderait 1 ∗ 108, celle de Kruskal 93000 et la méthode MCL 1 ∗ 1012 (chi�re réductible selon les

hypothèses de départ).

L'algorithme CAH a l'avantage d'être courant et implémenté tandis que les algorithmes de classi�cation reposant

sur la théorie des graphes doivent être implémentés manuellement. De plus, bien que leur complexité théorique

soit nettement inférieure, atteindre cette complexité nécessite une implémentation très structurée et en program-

mation le temps de calcul ne correspond pas nécessairement à la complexité d'un algorithme, ce quinotamment

vrai sous R.

Les méthodes ont donc leur propres avantages d'un point de vue théorique. Le choix d'une méthode devrait

se faire selon le nombre de contrats à classer et les moyens technologiques dont un assureur dispose.

2 Modélisation du bilan de transition sous IFRS 17

Nous allons présenter dans cette section les grandes lignes du modèle ALM utilisé et adapté pour les besoins

de ce mémoire. Nous commencerons donc par présenter les caractéristiques générales du modèle avant de nous

recentrer sur les choix de modélisations e�ectués pour obtenir des sorties conformes à la norme IFRS 17.

2.1 Présentation du Modèle ALM utilisé

1) Objectif du modèle ALM

L'actif et le passif interagissent perpétuellement en assurance vie. En e�et, la valeur des engagements de

l'assureur dépend directement de la valeur des actifs en représentation, notamment à cause de la participation

aux béné�ces réglementaire qui oblige les assureurs à reverser au moins 85% des pro�ts �nanciers réalisés aux

assurés ainsi que 90% du résultat technique (s'il est positif).

Une autre cause d'interractions entre l'actif et le passif est le rachat : Si un assureur réalise de faibles pro�ts

�nanciers et n'arrive pas à satisfaire ses assurés, une partie de ces derniers va probablement décider de racheter

leur contrat, entrainant ainsi un besoin de liquidité immédiat pour l'assureur ainsi qu'une nette modi�cation de

ses engagements futurs.

Ces interactions doivent être prise en compte pour un assureur épargne qui doit être en mesure de les mai-

triser a�n de conserver l'équilibre actif/passif d'une part mais également de s'assurer de la bonne gestion de son

entreprise en terme de solvabilité, de liquidité et de rentabilité.

C'est dans ce contexte qu'interviennent les modèles ALM, des outils permettant de projeter des �ux a�n de

construire des bilans comptables sur l'horizon de projection.

69

Page 70: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

2) Présentation des caractéristiques du modèle ALM

Le modèle ALM d'origine modélise la gestion de produits d'épargne en EUROS.

∗ Générateur de scénarios économiques :

A�n de pouvoir déterminer la meilleure estimations des engagements de l'assureur, l'utilisation d'un Générateur

de Scénarios Économiques (GSE) est indispensable.

En e�et, le GSE va modéliser de multiples scénarios économiques sur un horizon de temps donné et ainsi permettre

le déclenchement d'options qui ne se déclencheraient pas sur un scénario moyen. Ces scénarios comprennent :

∗ une trajectoire du taux court instantané

∗ une trajectoire des prix des zéros-coupons de maturité 1 à l'horizon

∗ une trajectoire de rendement du portefeuille d'actions

∗ une trajectoire de rendement des actifs immobiliers

Les trajectoires de taux sont modélisées à l'aide d'un modèle Gaussien à 2 facteurs (G2++) et celles des actions

et de l'immobilier sont déterminées par un modèle de Black and Scholes. La calibration du modèle a été réalisée

avec les prix des swaptions observés sur le marché au 31/12/2017. La courbe des taux à partir de laquelle sont

déterminées les trajectoires est (à l'origine) la courbe des taux sans risques avec ajustement pour la volatilité,

récupérée sur le site de l'EIOPA.

Nous avons réalisé une étude de convergence du modèle a�n de dé�nir le nombre de simulations que nous

devions utiliser au long du mémoire pour obtenir des résultats �ables. Nous avons ainsi déterminé un bilan S2

avec le modèle ALM pour un nombre de simulations variant entre 1 et 1000 et quanti�é l'écart de convergence

au bilan (le déséquilibre entre l'actif et le passif obtenus) par la formule suivante : Convergence = VM(actif)BEL+PFV P .

Les résultats sont présentés dans la �gure ci-dessous.

Figure 17 � Ecarts de convergence en fonction du nombre de simulations

70

Page 71: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Au vu de la stabilité des écarts de convergences observés sur le modèle pour un nombre de simulations allant

de 700 à 1000, nous avons �nalement décidé de travailler sur 750 simulations de manière à réduire le temps de

calcul sans impacter la qualité des résultats.

∗ Paramètres principaux et entrées du modèle ALM :

Le modèle ALM utilise un vaste panel de paramètres a�n de n'oublier aucun évènement possible tel que la mort

des assurés ou les rachats de contrats. Il utilise donc des tables de mortalités (une pour les femmes et une pour les

hommes)ainsi que des tables de rachats (totaux et partiels) dé�nissant la loi des rachats structurels. Les rachats

conjoncturels sont eux modélisés selon les préconisations du QIS5 de l'EIOPA.

La projection de l'actif dépend du GSE, des calibrations des modèles actions et immobiliers et de la straté-

gie d'allocation des actifs. Le modèle prend donc en entrée les scénarios issus du GSE ainsi que le portefeuille

d'actif de l'assureur (ses actifs à t=0).

La stratégie de réallocation des actifs consiste à s'assurer que l'allocation cible dé�nie est toujours respectée

(du point de vu de la Valeur de Marché des actifs).

Pour ce qui est du passif, le modèle ALM prend en entrée le portefeuille de contrats de l'assureur. Cela lui

permet de constituer les di�érentes provisions (essentiellement la PM) et d'obtenir des données telles que l'âge,

l'ancienneté ou le taux Minimum Garanti à chaque assuré. La �gure suivante présente le bilan comptable simpli�é

tel qu'il est modélisé au sein du modèle.

Figure 18 � Bilan comptable au sein du modèle ALM

A�n de gérer les projections, il faut également renseigner dans le modèle la stratégie d'investissement (dans

quels actifs investir), à quelle proportion, quelles obligations privilégier, etc.

Le modèle ALM nécessite également en entrée les frais généraux et ceux facturés à l'assuré. Les frais de gestion

associés aux contrats sont renseignés en entrée avec les caractéristiques des contrats.

Une fois toutes les entrées renseignées, le modèle ALM peut être lancé a�n de retourner les sorties attendues :

71

Page 72: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

3) Sorties du modèle ALM

Le modèle ALM retourne un bilan prudentiel dé�ni par la norme Solvabilité 2 qui se présente comme suit :

Figure 19 � Bilan S2 simpli�é

Le BEL regroupe l'ensemble des �ux �nanciers futurs actualisés.

Explicitons les �ux intervenant :

∗ Prestations : lors de rachats ou de décès, l'assureur doit payer des prestations. Ces trois éléments dépendent

des tables renseignées en entrée du modèle ALM. Les rachats structurels et les rachats conjoncturels sont

modélisés dans le modèle.

∗ Rendement des actifs : Flux �nanciers entrants au cours du temps lorsque les obligations atteignent leur

maturité, lors des tombées de coupons, des versements de loyers issus de l'immobilier ou des versements

de dividendes.

∗ Choix d'investissement : A�n de respecter l'allocation cible renseignée en entrée, le modèle ALM peut

parfois être obligé de vendre ou d'acheter des actifs. Les plus ou moins values réalisées sont prises en

compte par le modèle.

∗ Revalorisation cible : Un taux de revalorisation cible des provisions est établi. Il est égal au TME 10ans.

S'il n'est pas atteint, le modèle puise dans la provision pour participation aux béné�ces a�n de combler le

manque. Si cette alternative est elle aussi insu�sante, les plus-value latentes sont réalisées ou une partie

des fonds propres est prélevée. Il faut préciser que la participation au béné�ce implémentée dans le modèle

ALM utilisée est de 100¨% du résultat �nancier s'il est positif et 100% du résultat technique.

Pour chaque scénario économique créé par le GSE, un �ELi � (Estimate Liability) propre au scénario i , constitué

de la somme actualisée des �ux actualisés sur ce scénario jusqu'à l'horizon de temps �xé est calculé.

Le BEL est déterminé comme étant la moyenne des ELi, puis la NAV est déterminée comme étant égale à la

valeur de marché totale des actifs diminuée du BEL.

72

Page 73: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Figure 20 � Fonctionnement du Modèle ALM

2.2 Modi�cations du modèle ALM propres à la norme IFRS 17

Dû aux nouveautés apportées par la normes (cf Chapitre 1), des ajustements ont dû être e�ectués sur les

entrées du modèle ALM, du GSE et sur les méthodes de calcul des éléments du Bilan a�n de calculer d'une

part les Ful�lment Cash-Flows et d'autre part la Juste Valeur des contrats. Rappelons qu'il est nécessaire de

déterminer ces deux valeurs a�n d'en déduire la CSM.

1) Taux d'actualisations utilisés sous IFRS 17

Comme expliqué dans le Chapitre I, la norme a prévu deux approches permettant de déterminer le taux

d'actualisation utilisé dans le calcul des Ful�lment Cash-Flows :

∗ L'approche Bottom-up

∗ L'approche Top-down

Nous avons choisi d'implémenter l'approche Bottom-up par soucis de simplicité.

73

Page 74: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ L'approche Bottom-up :

Elle consiste à appliquer une prime d'illiquidité dont le niveau dépend des caractéristiques du passif à la courbe

des taux sans risque.

Nous avons commencé par récupérer la courbe des taux sans risque de l'EIOPA correspondant au 31/12/2017

a�n de rester cohérent avec nos données. Le problème de la prime d'illiquidité s'est alors posé.

La norme ne donne aucune indication précise concernant le calcul de la prime d'illiquidité, il est uniquement

indiqué que les taux d'actualisations doivent re�éter la valeur temps de l'argent, les caractéristiques des �ux de

trésorerie et la liquidité du portefeuille de contrats, tout en étant cohérent avec les données de marché observables.

Nous nous sommes donc reposés sur les travaux menés par la Task Force de l'EIOPA en 2010 a�n de déterminer

une méthode de calcul de la prime d'illiquidité. Bien que le cadre de l'époque soit S2, ce choix est conforme avec

les exigences de la norme, présentées dans la première partie. La prime étant dépendante des caractéristiques du

passif de l'assureur, nous avons repris la formule de calcul d'une prime d'illiquidité pour les engagements :

RFIRateforcard,total,T,curr,i = RFIRateforward,basic,T,curr + LPloability,T,curr,i

∗ RFIRateforward,total,T,curr est le taux forward sans risque avec la prime de liquidité de maturité T et de

monnaie curr.

∗ RFIRateforward,basic,T,curr est le taux forward sans risque sans la prime de liquidité de maturité T et de

monnaie curr.

∗ LPloability,T,curr est la prime de liquidité telle que LPloability,T,curr = F (T, curr) ∗G(T ) ∗ LPassets

Avec, pour N la plus longue maturité où des actifs permettant d'obtenir une prime de liquidité peuvent être

achetés dans un marché transparent,

∗ F (T, curr) = 1si 0 ≤ T ≤ N − 5

� F (T, curr) = N−T5 si N − 5 ≤ T ≤ N

� F (T, curr) = 0 sinon

� G(T ) dépend de la prédictibilité des �ux de trésorerie a maturité T.

� LPassets est la prime de liquidité calculée pour les actifs.

A�n de calculer LPasset, nous avons utilisé le proxy proposé par la Task Force :

LPasset = Max(0;x ∗ (Spread− y))

� Spread le spread entre les obligations d'entreprises et la courbe des taux sans risques.

� y la proportion du spread allouée aux pertes attendues sur le long terme.

� x la proportion restante que l'on considère comme la prime de liquidité.

Cette méthode proposée par la Task Force de l'EIOPA sur la prime d'illiquidité repose sur la considération que

le spread est a�ecté par di�érents éléments tels que le risque de crédit, le risque dû à la gestion des dépenses,

etc, et que seule une partie du spread est attribuable au risque de liquidité.

Cette méthode de détermination de la prime d'illiquidité comporte de nombreux paramètres qu'il n'a pas été

évident de déterminer. Au vu de l'aspect secondaire de la détermination du taux d'actualisation dans ce mémoire

orienté sur la segmentation, nous avons émis des hypothèses lorsque nous ne pouvions pas déterminer un para-

mètre : Nous avons ainsi conservé les valeurs choisies par la Task Force en considérant x = 0.5 et y = 0.4

74

Page 75: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Le Spread a été déterminé comme étant l'écart entre le taux EIOPA forward 10 ans au 31/12/2017 et le taux

d'actualisation moyen retenu par les entreprises au 31/12/2017 (selon l'indice Iboxx Corporate AA).

Le spread calculé était de 0.5% au 31/12/2017 ce qui donne une prime de liquidité pour les actifs de

Max(0; 0.5 ∗ (0.5%− 0.4%)) = 0.05%.

G(T ) a été choisi égal à 100% en considérant que pour un nombre su�samment grand de simulations, les �ux de

trésorerie seraient considérés comme prévisibles.

La prime d'illiquidité, égale à F (T, curr) ∗ 1 ∗ 0.05%obtenue est présentée dans le graphe suivant :

Figure 21 � Courbe de la prime de liquidité

La courbe obtenue est donc extrêmement proche de la courbe des taux sans risques comme l'illustre le graphe

suivant :

Figure 22 � Courbe des taux Forward avec ajustement par la prime de liquidité

75

Page 76: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Choix de la méthode de détermination des taux d'actualisation pour le calcul des Ful�lment

Cash-Flows :

Pour e�ectuer toutes nos simulations, nous avons par la suite sélectionné la méthode Bottom-up dont l'implé-

mentation nous a paru plus simple et �able que la Top-Down.

∗ Choix de la méthode de détermination des taux d'actualisation pour le calcul de la Juste

Valeur :

La Juste Valeur au sens d'IFRS 13 représente à la valeur de marché. Nous avons donc adopté une approche

Solvabilité II et choisi d'actualiser les �ux de trésoreries avec la courbe des taux ajustée par la correction pour

la volatilité (Volatility Adjustment).

Figure 23 � Comparaison des taux ajustés

2) L'ajustement pour le risque non �nancier

Nous avons choisi d'implémenter les 3 approches les plus populaires permettant de calculer l'ajustement pour

risque non �nancier sous IFRS17 :

∗ Par la Value at Risk (VaR) :

La VaR mesure la perte potentielle maximale sur la valeur d'un portefeuille sur un horizon donné avec un

intervalle de con�ance dé�ni.

La V aR de niveau de con�ance α est la perte sur l'intervalle de temps �xé qui ne sera dépassé que dans

1− α% des scénarios : P (perte > V aR) = 1− α

Nous avons donc dé�ni le niveau de con�ance (α = 85%) et déterminé l'ajustement pour le risque non �nan-

cier comme étant égal à la di�érence entre notre meilleure estimation des �ux futurs actualisés et le quantile 85%

de la distribution des �ux futurs actualisés.

AjustementV aR = quantile(85%)−BE.

76

Page 77: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Par la Tail Value at Risk (TVaR) :

La TVaR se concentre sur les conséquences d'évènements extrêmes : Soit α le niveau de con�ance, la TVaR

détermine la moyenne des VaR de niveau de con�ance supérieur à α.

TV aR(X,α) = 11−α´ 1

αV aR(X, t)dt

On a gardé le niveau de con�ance à α = 85% par soucis de comparabilité et déterminé l'ajustement pour le

risque non �nancier étant égal à la moyenne de la distribution des �ux futurs actualisés supérieurs au quantile

90%. AjustementTV aR = Moyenne(quantiles(α > 85%))−BE

∗ Par le Coût du Capital :

Il est possible d'implémenter une méthode d'ajustement pour le risque �nancier basée sur la méthode du coût

du capital utilisé sous Solvabilité II pour déterminer la marge de Risque.

Nous allons pour cela utiliser l'approximation 4 par l'approche de la duration :

RM = CoC1+r1

Dur0 ∗ SCR0

∗ RM l'ajustement pour le risque non �nancier.

∗ CoC = 6% Le taux du Coût du Capital,

∗ r1taux d'actualisation

∗ Dur0 Duration modi�ée en t = 0

∗ SCR0 SCR en t = 0

A�n d'implémenter cette approximation, il nous a fallu déterminer tous les termes de l'équation :

∗ Dur0

La duration du portefeuille obligataire se calcule comme suit :

1. Déterminer le prix du portefeuille : P =∑tCashFlows(t)

(1+rt)

2. On déduit la duration : D = 1P

∑t t∗CashFlows(t)

(1+rt)

∗ SCR0 = FP0 − q0,5%(FP1 ∗ actualisation)

Choix de méthode d'ajustement pour le risque non �nancier pour la valorisation sous IFRS 17 :

La méthode du Coût du Capital est pratique à mettre en place pour les assureurs puisque les modèles dé-

veloppés sous Solvabilité II permettraient d'implémenter facilement l'ajustement pour le risque. Cependant, son

application provient d'une approche plus règlementée et générale qui, pour nous, ne coïncide pas totalement avec

la dé�nition de � compensation requise pour couvrir le risque non �nancier �. Cette dé�nition induit une notion

d'appétit au risque propre à chaque assureur que la méthode du Coût du Capital ne prend pas en compte. C'est

en suivant cette logique que nous nous somme intéressés aux méthodes à quantile (VaR, TVaR) où le niveau de

con�ance est dé�nit par l'assureur.

La méthode de la TVaR produit l'ajustement pour le risque non �nancier le plus élevé et de loin. Il parait

77

Page 78: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

un peu excessif et pour un niveau de con�ance signi�catif, le montant imposé à l'assureur serait trop élevé.

Nous avons donc choisi d'utiliser la méthode de la VaR qui a l'avantage de prendre en compte l'appétit au

risque de l'assureur et également d'être la méthode la plus simple à implémenter. Il reste cependant à véri�er

la largeur de la queue de distribution des Best Estimate. En e�et, en cas de queue épaisse de distribution, les

méthodes reposant sur les quantiles perdent en pertinence car elles négligent un risque de perte extrême.

Choix de méthode d'ajustement pour le risque pour la valorisation en Juste Valeur :

Au vu des résultats et conclusions présentées ci-dessus, il nous a paru judicieux d'utiliser la méthode du Coût du

Capital pour déterminer la Juste Valeur des contrats d'épargnes.

En e�et, ce choix contrairement aux deux autres méthodes ne dépend pas d'un paramètre re�étant l'appé-

tence au risque et correspond donc à une visions plus neutre qu'aurait un potentiel acheteur sur le marché. De

plus, comme expliqué dans la première partie, il existe un risque que la Juste Valeur et les Ful�lment Cash-Flows

soient égaux et produisent une CSM nulle. En variant les méthodes d'estimation des composantes, on crée des

divergences qui aboutiront à la création de CSM ou de perte au résultat.

Cependant, ce mémoire porte avant tout sur la segmentation des contrats et l'utilisation d'un ajustement pour

le risque plus modullable comme celui retourné par la VaR où l'on peut choisir le niveau de con�ance nous o�re

plus d'in�uence sur la répartition des contrats onéreux et donc plus de possibilités en terme de classi�cation.

Nous avons donc décidé d'utiliser la méthode VaR.

3) Ful�lment Cash-Flows Une fois que les taux ont été remplacés dans l'input du Générateur de Scénarios

Économiques a�n de correspondre aux conditions imposées par la norme IFRS 17 et que l'ajustement pour le

risque non �nancier a été implémenté, le modèle ALM a calculé les Ful�lment Cash-Flows comme étant la somme

actualisée des �ux à laquelle s'ajoute l'ajustement pour le risque non �nancier.

4) Adaptation des calculs à la maille Model Points

∗ Création des Model Points

Une fois les contrats regroupés en classes homogènes, le programme procède à la création du Model Point associé

à chaque classe comme suit :

∗ la Provision mathématique d'un Model Point est déterminée comme étant égale à la somme des PM des

contrats qui le composent ;

∗ l'âge, l'ancienneté et le Taux Minimum Garanti associés au Model Point est la moyenne de ces paramètres

pour les assurés des contrats qui composent le Model Point. Il faut noter que l'âge et l'ancienneté sont

arrondis à l'entier le plus proche en cas d'obtention d'un nombre décimal ;

78

Page 79: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ le sexe est lui déterminé par la majorité et est féminin en cas d'égalité ;

∗ les frais gardent leur valeur unitaire, ils seront multipliés dans le modèle ALM par le nombre de contrats

composant le Model Point.

Illustrons la création du Model Point par un exemple simpli�é :

Figure 24 � Création d'un Model Point

A�n de réaliser les calculs à cette maille plus �ne, des ajustements ont dû être apportés au modèle ALM.

Une segmentation des �ux de trésorerie par Model Point a été instaurée, les frais généraux ont été retirés car

non attribuables à des groupes de contrats, ils ne doivent pas impacter leur pro�tabilité.

A�n de garder un bilan équilibré, les actifs sont ajustés aux Model Points. Cet ajustement est réalisé par une

règle de 3 : On détermine un ratio = PMModelPoint

PMtotaleet l'on multiplie la valeur des actifs en représentation de

l'ensemble des contrats par ce ratio. L'équilibre est alors conservé puisque la PM constitue l'ensemble du passif

en représentation des actifs (les autres provisions et les fonds propres ont été initialisés à 0).

Du fait de cette méthode d'équilibrage, la composition du portefeuille en terme de stratégie d'allocation ou de

liquidité à l'actif reste identique pour tous les actifs, ce qui justi�e le fait d'utiliser la même prime de liquidité et

donc le même taux d'actualisation pour tous les Model Points.

L'ajustement pour le risque �nancier est de même déterminé suivant la méthode de la VaR sur chaque dis-

tribution des �ux futurs actualisés associée aux Model Points.

Les calculs à la maille Model Points de la Fair Value s'e�ectuent suivant la même logique.

2.3 Back testing

A�n de véri�er la cohérence des résultats produits, quelques tests simples furent réalisés :

1) Véri�cation de l'équilibre des bilans

79

Page 80: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Le premier test porte sur l'équilibre du bilan à la sortie du modèle ALM : il s'agit de véri�er qu'à la sor-

tie du modèle ALM de base

∗ BE +NAV = VM(actifs)

∗ FondsPropres+ Engagements = V aleur NetteComptable des actifs

Une fois que la validité du modèle de base a été con�rmée, il convient de contrôler que les modi�cations e�ectuées

a�n de s'adapter à la norme ne déséquilibrent pas le bilan. On cherche à obtenir :

∗ NAV + CSM + FCF = VM(actifs)

2) Tests de cohérence entre les calculs au global et par Model Points

Le deuxième test réalisé porte sur la qualité des calculs de Ful�lment Cash-Flows par Model Point : Il s'agit

de véri�er que ∑FCF (ModelPoints) = FCF (Total)

Une fois en possession d'une mesure d'homogénéité, d'algorithmes de cluster capable de constituer des groupes

homogènes et d'un modèle ALM permettant de déterminer le bilan à la date de transition, interessons nous

maintenant à la dé�nition d'une mesure de la qualité des segmentations retournées etau choix d'un algorithme

d'optimisation qui saurait, en utilisant tous les éléments cités précédemment, produire des bilans successifs sur

lesquels on pourra observer la minimisation de la perte d'information due à la construction des Model Points,

signe que la segmentation gagne en qualité à chaque itération.

3 Quanti�cation de la qualité d'une méthode de segmentation des

contrats sous IFRS 17

Optimiser la segmentation des contrats signi�e produire successivement des segmentations que l'on amélio-

rera étape après étape jusqu'à obtenir un résultat satisfaisant. Pour ce faire, il est donc indispensable de pouvoir

quanti�er la qualité d'une méthode de segmentation utilisée et donc de pouvoir attribuer un score à chaque seg-

mentation. Cette section présente le raisonnement ayant mené à la quanti�cation de la qualité des segmentations

retournées.

3.1 Dé�nitions d'indices de qualité d'une méthode de segmentation de contrats

sous IFRS 17

Il a fallu redé�nir dans un premier temps les objectifs de la segmentation, ce que l'on attend des Model Points

qui vont être constitués. Nous avons décidé de nous concentrer sur 3 critères :

1. La �abilité : l'agrégation en Model Point résultant de la segmentation des contrats va naturellement

modi�er les calculs et donc les valeurs en sortie du modèle ALM. Par exemple, la CSM obtenue par un

nombre n de Model Points sera nécessairement di�érente de celle qui avait été obtenue en considérant les

contrats de manière unitaire. L'agrégation provoque donc une distortion de la réalité, nous allons poser

comme objectif d'obtenir une CSM agrégée qui se rapproche autant que faire se peut de la CSM unitaire

80

Page 81: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

obtenue par les contrats considérés de manière unitaire. Ce résultat devrait être obtenu si nos contrats

forment des groupes su�sament homogènes.

2. La stabilité : la norme précise que les groupes créés ne peuvent pas être changés. A�n que ces groupes

restent cohérents au cours des années à venir il est important que les contrats assemblés évoluent de

façon similaire : il parait logique de souhaiter éviter que dans quelques années certains des groupes créés

contiennent à la fois des contrats pro�tables et des contrats onéreux. C'est cette notion qui justi�e la

création d'une classe à part pour les contrats dont on ne peut pas a�rmer qu'ils possèdent une chance

non signi�cative de devenir onéreux.

3. La maitrise du résultat futur : les calculs de CSM impactent directement les comptes de résultats à

travers di�érents méchanismes :

∗ la comptabilisation immédiate au résultat en tant que perte en cas de contrat onéreux ;

∗ le relâchement de la CSM au résultat en fonction des Coverage Units ;

∗ les variations dans les estimations de la pro�tabilité des contrats.

Dans un tel contexte, la bonne classi�cation des contrats est primordiale a�n de conserver des résultats

les plus lisses possibles et de préférence positifs. Il faut rappeler que l'estimation de la CSM associée aux

Model Points en approche Fair Value ne représente pas réellement la pro�tabilité des contrats mais plutôt

la marge qu'un acteur du marché espère obtenir en achetant les contrats. Cette CSM est, comme nous

avons pu le constater dans les applications, sensible aux paramètres de modélisation choisis tels que le

choix de méthode de calcul de l'ajustement pour le risque non �nancier.

Cependant, le caractère �gé des groupes de contrats constitués, le principe d'écoulement de la CSM

au long des années et la comptabilisation des écarts d'estimation au résultat rendent le premier compte de

résultat qui sera produit extrêmement sensible à la CSM calculée à l'ouverture et donc à la classi�cation

des contrats.

3.2 Implémentation d'une méthode de scoring de la segmentation

A�n de prendre en compte tous ces objectifs, il a fallu mettre en place une fonction de scoring, capable de

quanti�er la qualité avec laquelle la segmentation réalisée remplit les objectifs présentés précédement.

Pour ce qui est de la �abilité de la segmentation obtenue, nous avons calculé l'écart relatif entre la CSM retour-

née par les Model Point et la � vraie CSM �. Ecart = |CSMtheorique−CSMModelPoint

CSMtheorique|. Nous avons considéré que la

stabilité serait atteinte si les groupes constitués étaient su�samment homogènes.

81

Page 82: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4 Utilisation d'Algorithmes métaheuristiques pour optimiser la cali-

bration de la mesure de dissimilarité entre deux contrats

A�n de résoudre des problèmes d'optimisations et de décisions rapidement, des algorithmes sacri�ant une

partie de leur précision a�n d'optimiser le temps de calculs se sont développés : les algorithmes heuristiques.

Ils fonctionnent en allant d'une solution à une autre de manière intelligente a�n de se rapprocher de celle optimale.

Cependant, ces algorithmes ont tendance à converger vers des optimum locaux et sont donc très dépendants du

voisinage des solutions.

C'est avec la complexi�cation des problématiques posées et la volonté d'améliorer les solutions tant en temps

qu'en qualité que de nouveaux algorithmes ont été mis en place : les algorithmes métaheuristiques, plus perfor-

mants que les précédents et notamment aptes à éviter la convergence vers des optimums locaux.

A�n d'optimiser les paramètres de la distance mesurant la dissimilarité entre deux contrats, nous avons choisi

d'utiliser deux algorithmes métaheuristiques inspirés de phénomènes naturels : l'algorithme de la colonie de

fourmis et le recuit Simulé.

Nous allons dans un premier temps présenter ces algorithmes avant d'expliquer leur adaptation à notre

problème de segmentation des contrats d'épargnes en euros.

4.1 Algorithme de la colonie de foumis

Comme annoncé précédemment, de nombreux algorithmes métaheuristiques sont inspirés de phénomènes na-

turels. Il existe une famille d'algorithmes illustrant parfaitement cette tendance : Swarm intelligence Algorithms

ou �algorithmes d'intelligence en essaim�.

L'intelligence en essaim est le phénomène qui permet à des animaux au comportement simple lorsqu'ils agissent

seuls d'obtenir une �conscience� en groupe, une intelligence collective lorsqu'ils agissent en essaim qui va leur

permettre d'agir de manière plus e�cace, organisée et adaptative. Les exemples les plus célèbres étant les nuées

d'oiseaux et les colonies de fourmis.

1) Principe

L'algorithme de la colonie de fourmis s'inspire des observations qui ont été réalisées sur le comportement

des fourmis lorsqu'elles cherchent une source de nourriture pour la colonie :

Lorsque la colonie part à la recherche d'une source de nourriture, chaque fourmi part explorer les environs.

Elles e�ectuent leur recherches séparément et empruntent donc des chemins di�érents dans un premier temps.

Lorsqu'elles trouvent une source de nourriture, elles ramènent la nourriture à la colonie tout en laissant des

phéromones volatiles sur le chemin du retour, ces phéromones ayant pour e�et d'attirer les autres fourmis.

Ainsi, sur un temps donné, la fourmi ayant trouvé le chemin le plus court vers la source de nourriture e�ectuera

plus d'aller-retour que les autres et laissera donc une plus grande quantité de phéromones sur ce chemin optimal.

82

Page 83: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Ces phéromones vont attirer les autres fourmis et donc augmenter la probabilité qu'elles empruntent ce che-

min. Si en e�et elles utilisent le chemin optimal, leur passage augmentera le nombre de phéromone et c'est donc

naturellement qu'au bout d'un certain temps quasiment toutes les fourmis emprunteront le chemin le plus court.

Figure 25 � Principe de l'algorithme de la colonie de fourmis

2) Présentation de l'Algorithme

Algorithme 6 Algorithme de la colonie de fourmisInitialisation : création de plusieurs solutions aleatoires : Il s'agit de di�érents chemin empuntés par les fourmis,les paramètres caractérisant la solution représentent des arêtes du chemin.

1. Quanti�cation de la qualité de ces solutions par une fonction de scoring.

2. Attribution des phéromones : plus une solution est bonne (plus le score retournée par la fonction estélevée), plus le nombre de phéromones attribuées aux paramètres de cette solution augmente.

3. Tant que le critère d'arrêt de l'algorithme n'est pas atteint{∗ création de nouvelles solutions : leur choix garde un aspect aléatoire mais est in�uencé par la quantitéde phéromones associé à chaque paramètre ;

∗ quanti�cation de la qualité des solutions ;∗ attribution des phéromones aux paramètres et retrait des anciennes phéromones selon la volatilité desphéromones.

}

L'algorithme est censé converger : retourner la solution optimale et les paramètres associés.

3) Caractéristiques de la méthode

L'algorithme de la colonie de foumis a l'avantage d'être extrêmement �exible. Il s'adapte à beaucoup de

problèmes di�érents et ne nécessite pas de calibration complexe. Il est préférable de choisir la représentation des

phéromones et la modélisation de leur impact sur le choix des solutions générées de manière e�cace mais ces

éléments ne représentent pas des obstacles à la convergence de l'algorithme.

Le critère d'arrêt est le seul point délicat. Une solution courrante est de dé�nir un nombre d'itérations �xées,

de manière à être sur que l'algorithme s'arrêtera. Dans le cadre d'un problème d'optimisation où l'on cherche à

83

Page 84: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

minimiser un critère, il est courant de choisir un niveau de tolérance par rapport à une solution 100% parfaite

(erreur nulle) et de faire tourner l'algorithme jusqu'à ce que l'erreur associée à la solution générée soit inférieure

au seuil de tolérance.

Le choix de cet algorithme a été motivé par sa �exibilité qui a permis son adaptation au problème traité et

par les excellents résultats qu'il nous avait retourné lors de ses précédentes utilisations.

Cet algorithme dispose cependant d'inconvénients non négligeable qu'il convient de présenter :

∗ Le temps de convergence est inconnu. S'il est certain que l'algorithme convergera, la durée menant à cette

convergence ne peut pas être déterminée par une étude théorique, ce qui nous mène au deuxième point.

∗ L'algorithme ne peut être étudié par une analyse théorique, il repose sur une série de décisions aléatoires

dépendantes les unes des autres et fonctionne donc au cas par cas à l'expérience.

4) Adaptation au problème de segmentation

Nous recherchons dans ce mémoire à rendre la distance mesurant la dissimilarité entre deux contrats (du

point de vue de la pro�tabilité) la plus pertinente possible a�n que les algorithmes de clustering l'utilisant pro-

duisent des classes de pro�tabilité homogènes.

Dans ce contexte, les chemins jusqu'à la source de nourriture seront représentés par les combinaisons formées des

4 poids qui pondèrent la mesure de distance, α, β, γ et ζ :

Par exemple α = 1, β = 1, γ = 1, ζ = 1 constitue un chemin et α = 1, β = 0.5, γ = 0.5, ζ = 2 est un deuxième

chemin.

∗ Le score associé à chaque segmentation est égal à l'écart relatif entre la CSM totale calculée contrat par

contrat et la CSM des Model Points. Si cet écart relatif dépasse les 100%, le score retourné sera 1.

La valeur 100 ∗ (1 − score) déterminera le nombre de phéromones laissées par une fourmi empruntant le

chemin dé�ni par les paramètres α, β, γ et ζ à l'origine de la segmentation qui a produit le score. Ainsi,

plus l'écart relatif sera faible (et donc la segmentation performante), plus le nombre de phéromones sera

élevé.

∗ Ces phéromones sont alors attribuées à chaque paramètre de la distance proportionnellement à leur im-

plication dans la segmentation :

Par exemple : si la segmentation de paramètres α = 1, β = 0.5, γ = 0.5, ζ = 2 a produit 80 phéromones,

alors on attribue 80 ∗ 1 = 80 phéromones à α, 40 à β, 40 à γ et 160 à ζ.

∗ Tout comme les phéromones guident les fourmis, le nombre de phéromones attribué à chaque paramètre

in�uence le poids que l'on lui donnera lors de la prochaine itération.

Ainsi, le paramètre α aura une probabilité 8080+40+40+160 = 0.25 d'être sélectionné dans le tirage aléatoire

qui déterminera les prochains poids.

Par la même opération, les paramètres β et γ auront une probabilité associée de 4080+40+40+160 = 0.125 et

ζ aura une probabilité 16080+40+40+160 = 0.5.

84

Page 85: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ Une fois les probabilités dé�nies, on procède au tirage du nouveau chemin vers la source de nourriture :

Les paramètres α, β, γ et ζ sont initialisés à 0. Puis on réalise un tirage aléatoire de 40 nombres en 0 et

1. Chaque nombre tiré au sort sera associé à un paramètre : ainsi si le nombre tiré est compris entre 0 et

0.25 (0.25 de probabilité) on considère que le paramètre α a été tiré au sort. Si le nombre aléatoire est

entre 0.25 et 0.375 (0.125 de probabilité) on considère que le paramètre β a été tiré au sort et ainsi de

suite en suivant la logique instaurée par les probabilités associées à chaque variable.

A chaque fois qu'on considère qu'un paramètre a été tiré au sort, on incrémente sa valeur de 0.1.

A l'issue des 40 tirages on obtient donc 4 paramètres dont la somme est égale à 4. Ce seront les paramètres de

la distance quantiti�ant la dissimilarité entre deux contrats. Le nouveau chemin vers la nourriture est prêt.

Remarques :

∗ L'exemple ci-dessus est simpli�é pour la compréhension. Il a été présenté comme si un seul chemin était

généré à chaque itération de l'algorithme mais lors de l'implémentation, plusieurs chemins (plusieurs

segmentations reposant sur des distances de paramètres di�érents) sont utilisés simultanéments. Les phé-

romones accordées aux paramètres suite au score de chaque chemin s'additionnent et c'est sur le total

des phéromones obtenues auquelles on ajoute les phéromones déja associées aux paramètres (suite aux

itérations précédentes) que sont déterminées les probabilités associées à chaque paramètre.

∗ Les phéromones sont volatiles : les phéromones attribuées aux paramètres suite au score de l'itération 1

ne sont plus prises en compte à partir de l'itération 3.

4.2 Algorithme du Recuit Simulé

Le recuit simulé constitue un autre exemple d'algorithme métaheuristique basé sur des phénomènes observés :

la source d'inspiration de l'algorithme vient cette fois d'un procédé metallurgique

Le principe métallurgique est le suivant, a�n de modi�er la structure cristalline d'un matériau, on le chau�e

tout d'abord à une température très haute a�n de le rendre liquide et donc plus malléable, les atomes peuvent

alors circuler de façon libre et peuvent ainsi être disposés comme on le désire. Ensuite, on refroidit le métal de

façon contrôlée, continue et lente a�n de rendre le métal solide mais sans défaut.

Un refroidissement lent permettra ainsi d'obtenir un cristal parfait, les atomes se rangent dans l'équilibre le plus

parfait possible tandis qu'un abaissement rapide de température permettra d'obtenir du verre avec des défauts

plus importants. Si la con�guration voulue n'est pas satisfaisante, il su�t de réchau�er le métal et de recommen-

cer.

Grâce à cette méthode, on peut contrôler la con�guration des atomes de manière à ce que le niveau d'énergie

soit plus faible et ainsi obtenir une disposition optimale.

Les variations d'énergie ont lieu suivant la probabilité de Boltzmann pi = e−βEi

Z avec E l'énergie, β un facteur

et Z un facteur de normalisation.

85

Page 86: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

1) Présentation de l'Algorithme

Algorithme 7 Recuit Simulé dans le cadre d'un projet de minimisation du scoreInitialisation d'une température initiale T su�samment haute.Choix du facteur de refroidissement, de la condition d'arrêt (température minimale) et du nombre d'itérations àe�ectuer entre chaque baisse de température.

Création aléatoire d'une solution : solution1Quanti�cation de la qualité de la solution générée. Qualité = score1tant que (T > ConditionArret ){∗ Pour iterateur allant de 1 à NbIterations{

∗ Création d'une solution voisine (proche de la première) : solutionV oisine� Quanti�cation de la qualité de cette solution : qualité = score2� ∆ = score2− score1� si ∆ < 0 (ce qui signi�e que score1 > score2 )

� score1← score2� solution1← solutionV oisine

� sinon, si ∆ > 0

� e�ectuer score1← score2 et solution1← solutionV oisine avec la probabilité e−∆

Temperature

} (�n boucle Pour)T ← T ∗ facteurDeRefroidissement} (�n boucle tant que)

2) Méthodologie de l'algorithme

L'algorithme va donc générer des solutions aléatoires proches de sa solution principale et comparer les va-

leurs obtenues. Si la nouvelle solution générée est meilleure, elle devient la nouvelle solution principale. Dans le

cas contraire, elle peut tout de même devenir la solution principale avec la probabilité e−∆

Temperature , ∆ étant l'écart

entre la qualité des solutions et T étant la température actuelle. Cette méthode permet d'éviter à l'algorithme

de rester bloquer à un optimum local :

Figure 26 � Problème des minimum locaux

La �gure précédente illustre un problème récurrent pour algorithmes heuristiques, le risque qu'ils restent

bloqués sur un optimum local (cercles en tirets). En donnant la possibilité aux solutions de moins bonnes qualité

86

Page 87: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

de devenir les solutions principales de l'algorithme, le recuit simulé se donne les moyens d'éviter ce problème.

Dans le cadre d'un problème de minimisation comme illustré par la �gure précédente, les solutions choisies par

le recuit simulé comme solutions principales peuvent remonter la pente à la recherche d'autres minimums.

Cette probabilité augmente avec la température qui doit donc être initialisée su�samment élevée a�n de donner

à l'algorithme la possibilité d'explorer de nombreuses solutions dans un premier temps.

Le choix des paramètres est la di�culté majeure posée par le recuit simulé. Il est di�cile de trouver une ca-

libration optimale, l'expérience joue un rôle important dans la dé�nition de la température initiale, du facteur

de refroidissement et des critères d'arrêt.

Par exemple, s'il est vrai que la température initiale doit être su�samment élevée pour permettre à l'algorithme

de tester de nombreuses solutions, elle ne doit en aucun cas être trop importante, sinon les premières itérations

sont inutiles (quasiment toutes les solutions seront acceptées comme solution principales à chaque itération et

l'on se retrouvera sur une solution aléatoire, pas nécessairement meilleure que la première choisie).

Avantages :

∗ Le recuit simulé reste cependant un algorithme métaheuristique rapide, relativement simple d'implémen-

tation et extrêmement �exible. Il a souvent été cité pour son utilisation dans la résolution du problème du

voyageur de commerce mais s'est adapté sans problème à notre problème d'optimisation des paramètres

d'une distance qui est pourtant très di�érent.

∗ Il converge presque surement vers un optimum global si le nombre d'itération est su�samment élevé.

3) Adaptation au problème de segmentation

1. Une température initiale est initialisée arbitrairement à 300°, choix réalisé au vu de nos expériences passées

avec cet algorithme.

2. On crée les paramètres α, β, γ et ζ de la distance de manière aléatoire (en respectant le fait que la somme

des quatre paramètres doit être égale à 4).

On détermine le score associé à la segmentation déterminée par les paramètres précédents comme étant

l'écart relatif entre la CSM obtenue par lesModel Points et la CSM globale contrats par contrats. Nommons

le résultat Score1. Il s'agit de notre solution principale.

3. On crée un paramétrage voisin, proche de celui de la solution principale.

4. On détermine Score2, le score de la nouvelle segmentation.

5. Notons ∆ = Score2− Score1∗ Si ∆ est négatif (ou nul), alors le Score1 est supérieur (ou égal) à Score2.

Vu que le score correspond à l'erreur relative, nous sommes dans un problème de minimisation. On

peut donc dire que la segmentation voisine est la meilleure. Dans ce cas-là, Score1 prend la valeur de

Score2 et la solution voisine devient la solution principale.

87

Page 88: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

∗ En revanche, si ∆ est positif. Alors la solution principale est la meilleure. Cependant, on donne une

chance à la segmentation voisine de prendre sa place : La segmentation voisine a une probabilité

e(−∆/Temperature) de devenir la solution principale.

Pour gérer cette probabilité, on e�ectue un tirage aléatoire, si le nombre obtenu est inférieur à la

probabilité, on procède au remplacement, sinon la solution principale reste inchangée.

6. Puis les étapes 3,4,5 sont répétées selon le nombre d'itérations �xé à l'initialisation.

7. La température est réduite d'un cran (divisée par 10) et l'on répète les étapes à partir de la 3 jusqu'à

atteinte du critère d'arrêt.

Le facteur de refroidissement choisi est classique : La température est divisée par 10 à chaque itération.

Pour ce qui est de la dé�nition du critère d'arrêt de l'algorithme, nous avions originalement choisi d'utiliser

le pourcentage d'acceptation :

p =Nombre de changements de solution principale

Nombre d′iterations

Lorsque ce nombre devient faible, on en déduit que l'on a atteint un optimum au moins local (ce qui explique

que le nombre d'itérations soit nettement supérieur au nombre de fois où l'on trouve une solution satisfaisante).

Cependant, au vu du grand nombre de calculs demandés à chaque itération, nous avons décidé de �xer un nombre

d'itérations �xe.

A�n de maximiser les chances que cet optimum soit global et non juste local, nous allons dé�nir un critère

d'arrêt des boucles entre les phases de refroidissements su�samment grand pour permettre à l'algorithme de

parcourir un maximum de solution. Ce nombre est choisi à l'expérience et a évolué au fur et à mesure de nos

applications.

Nous avons �nalement choisi de donner une limite au nombre d'itérations au vu des moyens à disposition. L'uti-

lisation d'un algorithme d'optimisation dans la construction d'un bilan implique de faire tourner le modèle ALM

un certain nombre de fois sur 750 simulations ce qui nécessite un temps non négligeable et très sensible à la

qualité des modèles et des serveurs utilisés. La vitesse de convergence de l'algorithme étant inconnue, il aurait

été déraisonnable de le laisser tourner de manière indé�nie.

4.3 Étude comparative des algorithmes métaheuristiques présentés

En théorie, ces algorithmes, de par leur fonctionnement très di�érents et leur caractère partiellement aléa-

toire sont di�cilement comparables. On peut cependant noter que l'algorithme des colonies de fourmi o�re une

convergence plus rapide sur les premières itérations, essentiellement parce que le recuit Simulé ne commence

son optimisation qu'après des premières itérations qui relèvent plus du parcours du champs des solutions que de

l'optimisation.

Dans le cadre de notre problème où chaque itération va impliquer de nombreux calculs et donc un certain

coût, il pourrait être préférable de limiter au maximum le nombre d'itérations nécessaires à l'atteinte d'une so-

lution satisfaisante. L'algorithme des colonies de fourmi semble donc attractif dans ce contexte. Cependant, il

88

Page 89: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

a souvent été observé qu'une fois la phase d'observation terminée, le recuit Simulé o�re une convergence assez

rapide et il est important de rappeler que cet algorithme est plus attentif aux problèmes d'optimum locaux que

l'algorithme des colonies de fourmis.

Autre point d'intérêt, la di�culté du calibrage. Le recuit Simulé est di�cile à bien calibrer tandis que l'al-

gorithme des colonies de fourmis ne pose aucune problématique particulière en terme de con�guration. Il faut

également remarquer que la calibration de 4 paramètres de la distance de dissimilarité risque de nécessiter un

nombre assez important d'itérations pour le recuit Simulé qui fait varier un paramètre choisi aléatoirement d'une

valeur aléatoire à chaque itération.

En résumé, l'algorithme des colonies de fourmi nous parait plus adapté à notre problème. Cependant, cette étude

reste purement théorique et une étude comparative des résultats de ces algorithmes sur plusieurs portefeuilles

épargnes dépendants de paramètres di�érents pourraient être l'objet d'un autre sujet.

Figure 27 � Comparatif des algorithmes métaheuristiques

89

Page 90: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Résumé de la partie :

Ainsi, a�n de constituer des groupes de contrats homogènes, nous avons choisi de calibrer une distance de

dissimilarité entre les contrats reposant sur les paramètres principaux des contrats : l'âge, l'ancienneté, le TMG

et le sexe de l'assuré.

La calibration est réalisée par des algorithmes métaheuristiques selon le schéma suivant :

Figure 28 � Récapitulatif de la méthode de calibration de la mesure de dissimilarité

∗ La distance sert de base à un des algorithmes de classi�cation présenté qui va alors réaliser des groupes

de contrats en minimisant l'inertie intra-classe

∗ Le modèle ALM modi�é pour correspondre à la norme IFRS 17 va retourner la CSM associée à chaque

Model Point.

∗ L'écart relatif entre cette CSM retournée et la CSM théorique (déterminée contrat par contrat) va déter-

miner la qualité de la segmentation et donc la qualité de la distance de dissimilarité

∗ La distance est ajustée en conséquence a�n d'améliorer la qualité estimée.

90

Page 91: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Troisième partie

Applications du modèle de segmentation sous

IFRS 17

91

Page 92: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

1 Présentation du portefeuille d'épargne étudié

1.1 Données au passif du portefeuille

1) Présentation des contrats et de la population assurée

Nous disposons d'un portefeuille de 10632 contrats d'épargne mono-supports en euros avec un unique ver-

sement de prime au début du contrat.

La population assurée est mixte : On compte 55, 76% de femmes pour 44, 24% d'hommes.

Figure 29 � Répartition du portefeuille par Sexe

Au sein du portefeuille� l'âge moyen est de 58,7 ans et le diagramme ci-dessous indique que la majorité de la

population se situe entre 41 et 70 ans.

Figure 30 � Répartition du portefeuille par âge

De telles données pourraient laisser présager un niveau d'ancienneté également élevé, cependant l'ancienneté

92

Page 93: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

moyenne observée est de 7,6 années.

Figure 31 � Répartition du portefeuille par ancienneté

La faible hétérogénéité observée devrait limiter l'impact de la contrainte de cohorte annuelle si elle venait à

être appliquée.

L'ancienneté moyenne des contrats donne un caractère récent au portefeuille, ce qui explique le montant assez

faible des PM observées.

En e�et, la Provision mathématique moyenne du portefeuille est de 11 101,8¿. Les PM associées aux assurés

sont très dispersées. La plus grande PM atteint 817 465,83¿.

Les contrats du portefeuilles ne disposent que de 3 Taux Minimum Garanti di�érents : Certains ont un TMG de

1,7%, d'autres un taux de 0,8% et les derniers contrats n'ont pas de TMG.

Figure 32 � Répartition du portefeuille par TMG

93

Page 94: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

2) Traitement des données

Les données reçues ont dû être traitées avant de déterminer les statistiques présentées précédemment.

En e�et, certains des contrats disposaient d'une provision mathématique nulle. Ces contrats venaient donc pro-

bablement d'être rachetés et ne devraient donc plus �gurer dans le portefeuille de l'assureur. Les prendre en

compte dans la segmentation reviendrait à ajouter de la complexité et donc du coût aux calculs tout en biaisant

la création des groupes homogènes (la PM ne faisant pas partie des critères de formation des groupes, ces contrats

auraient eu la même in�uence que les autres sur la segmentation). Il a donc fallu les retirer.

Hormis ces légers changements, aucun traitement particulier n'a été nécessaire : Les données fournies donnaient

un bilan de départ équilibré et ne contenaient aucune erreur notable.

1.2 Présentation de l'actif

En l'absence de fonds propres initiaux, le montant total des actifs doit être égal à la somme des Provisions

mathématiques : 118M¿. Cette relation est véri�ée.

L'allocation initiale est donnée par la �gure suivante.

Figure 33 � Allocation initiale des actifs

1.3 Distribution du BE IFRS 17 des Model Points

Nous avons dans la partie théorique exprimé la volonté d'utiliser la méthode de la Value At Risk pour déter-

miner l'ajustement pour le risque non �nancier. Cependant, cette méthode peut sous-estimer les risques extrêmes

lorsque la queue de la distribution des BE est large.

94

Page 95: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Nous avons donc déterminé la distribution du BE d'un Model Point sur 750 simulations a�n de véri�er que

l'utilisation de la méthode de la VaR soit légitime.

Figure 34 � Distribution du BE d'un Model Point sur 750 simulations

La queue de distribution est d'une largeur raisonnable. Le plus grand BE est de 906K¿ tandis que la VaR

est de 694K¿.

Présentons maintenant l'impact des choix de modélisations e�ectués tel que la méthode d'estimation de l'ajuste-

ment pour le risque non �nancier ainsi que les résultats des méthodes de segmentation proposées.

2 Choix des outils de modélisation de la segmentation et comparaison

des méthodes présentées

2.1 Choix du seuil de pro�tabilité signi�cative des contrats non onéreux.

Dans un premier temps, nous allons nous concentrer sur les aspects de segmentation du portefeuille de contrats

en groupes les plus homogènes possibles a�n de dé�nir une mesure de dissimilarité entre des contrats d'épargne.

Dans cette approche, nous considérons que le seuil dé�nissant si un contrat a une chance signi�cative ou non de

devenir onéreux revet une importance assez faible, le principal restant d'avoir 3 classes distinctes.

Que les contrats soient pro�table de manière signi�cative ou non, si la méthode d'optimisation de la mesure

de dissimilarité est bien faite, les contrats du groupe � potentiellement onéreux � formeront des groupes de pro-

�tabilité homogène.

Les contrats dont la CSM moyenne sur l'ensemble des 750 simulations est négative sont onéreux. Pour ce qui

est de la dé�nition de la séparation entre les autres contrats, une pratique consiste à dire que ceux dont la CSM

moyenne est positive et supérieure à la moyenne de la CSM des contrats non onéreux sont considérés comme

étant pro�tables et les autres contrats constituent la classe des contrats potentiellement onéreux. Il s'agit de la

méthode que nous utiliserons au cours de ce mémoire.

95

Page 96: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Nous avons cependant souhaité faire de ce mémoire un exercice ré�ectif qui pourrait se révéler utile aux lec-

teurs, aussi allons nous rapidemment une autre méthode potentielle :

il est également possible de séparer les contrats pro�tables selon un niveau de con�ance �xé : Si la détermi-

nation de la pro�tabilité initiale se fait sur 1000 simulations par exemple, on peut déclarer que tout contrat qui

est pro�table dans au moins 850 des 1000 simulations (soit un niveau de con�ance de 85%) possède une chance

non signi�cative de devenir onéreux. Une telle méthode pose toujours le problème de la dé�nition d'un seuil mais

illustre mieux les cas dans lesquels les contrats pourraient devenir onéreux.

2.2 Impact du choix de la méthode d'ajustement pour le risque non �nancier.

A�n d'estimer l'impact du choix de la méthode d'ajustement pour le risque non �nancier, nous avons �xé le

niveau de con�ance de la marge pour le risque dans notre calcul de Juste Valeur à 85% et fait varier le niveau

de con�ance de la VaR déterminant l'ajustement pour le risque non �nancier.

Figure 35 � Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR

L'impact du choix du niveau de con�ance de la VaR dans le calcul de l'ajustement pour le risque non �nancier

est clair. En choisissant une VaR d'un niveau de con�ance inférieur à 80% le portefeuille de contrat étudié ne

comporte que des contrats pro�tables, alors que si l'on pousse le niveau de con�ance à 90% plus de la moitié des

contrats deviennent onéreux.

Ces observations sont logiques puisqu'en approche Fair Value, la pro�tabilité des contrats correspond à l'écart

entre leur Juste Valeur et les Ful�lment Cash-Flows. Or nous avons observé que les courbes de taux utilisés (avec

prime d'illiquidité et avec ajustement pour la volatilité) sont extrêmement proches. Les écarts se font donc essen-

tiellement au niveau de la marge pour le risque et des frais généraux. Le choix d'un niveau de con�ance plus élevé

va impliquer une hausse de l'ajustement pour le risque �nancier qui va alors rendre les Ful�lment Cash-Flows

supérieurs à la Juste Valeur des contrats, les rendant ainsi onéreux. La force de cet impact dépendant évidemment

96

Page 97: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

de la distribution du BE des contrats et notamment de l'épaisseur de leur queue. Plus la queue de distribution

est épaisse, plus la hausse du niveau de con�ance augmentera l'ajustement pour le risque non �nancier.

Pour le portefeuille pris dans sa globalité sans segmentation, l'ajustement pour le risque non �nancier total du

portefeuille de 10632 contrats déterminé par la VaR avec un niveau de con�ance de 85% sur 750 simulations est de

12 898K¿ et pour la TVaR l'ajustement pour le risque non �nancier obtenu est de : 38 611K¿, soit près du triple.

Les valeurs prises par l'ajustement pour le risque en fonction de la méthode utilisée (VaR ou TVaR) et du

niveau de con�ance choisi est indiqué par la �gure ci-dessous :

Figure 36 � Evolution de l'Ajustement pour le Risque non �nancier

Ces observations et la �gure ci-dessus con�rment notre choix de modélisation consistant à privilégier la VaR

à la TVaR. En e�et, la TVaR aurait un impact encore plus fort et il serait surprenant que les assureurs se

retrouvent à déclarer une majorité de contrats onéreux à la date de transition. Nous avions cependant besoin

de posséder une certaine quantité de contrats onéreux a�n de rendre la segmentation intéressante et avons donc

choisi de réaliser les applications suivantes avec la VaR à un niveau de con�ance de 87% et ainsi obtenu 2925

contrats onéreux et 7707 non onéreux.

Figure 37 � Répartition des contrats par pro�tabilité

97

Page 98: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

2.3 Impact de la nouvelle segmentation de contrats sur le bilan S2

La mise en place d'IFRS 17 implique la constitution de nouveaux Model Points puisque les contraintes parti-

culières à la norme rendent les Model Points constitués par le passés irrecevables. Cependant, il est probable que

les assureurs ne souhaitent pas disposer de Model Points di�érents pour chaque constitution de bilan comptable.

Ils pourraient préférer utiliser les même Inputs lors de la constitution de bilan S2, comptable ou IFRS, cela

apporte plus d'informations et de comparabilité.

Il nous a donc paru intéressant d'observer l'impact d'une segmentation IFRS 17 sur le bilan S2 retourné a�n de

déterminer si les assureurs pouvaient faire de la segmentation IFRS 17 la nouvelle segmentation Solvabilité II.

A�n de posséder un point de comparaison, nous avons réalisé une segmentation classique de nos contrats :

Considérons des Model Point constitués de manière plus usuelle sous Solvabilité II : Une fois les contrats

regroupés par LoB, nous allons les séparer selon les critères suivants :

∗ Sexe : Masculin ou Féminin : 2 tranches.

∗ TMG : 0 ou 0.8% ou 1.7% : 3 tranches

∗ Ancienneté : de 0 à 4ans ou de 4 à 8ans ou de 8 à 15ans ou de 15 à 20 ans ou plus de 20 ans : 5 tranches.

∗ Age : inférieur à 20ans ou entre 20 et 30 ans ou entre 30 et 40 ans ou entre 40 et 50ans ou de 50 à 60ans

ou plus de 60ans : 6 tranches.

Soit 2 ∗ 3 ∗ 5 ∗ 6 = 180 Model Points en théorie.

Figure 38 � Création de Model Points usuels

La diversité limitée de notre portefeuille n'a permis de produire que 83Model Points en appliquant la méthode

usuelle. C'est donc ce nombre de Model Points que nous allons �xer dans la constitution de nos segmentation

futures. Cela représente une division des coûts de calculs par 128.

98

Page 99: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Nous avons alors réalisé une segmentation IFRS 17 en Fair Value (sans la contrainte de cohorte) en �xant

le nombre de Model Points à 83 a�n de prendre en compte le cas où l'assureur ne souhaiterait pas augmenter

le temps et le coût de sa modélisation. Nous avons également réalisé une segmentation IFRS 17 en doublant

le nombre de Model Points (186) car selon toute vraisemblance les contraintes associées à la segmentation des

contrats sous IFRS 17 vont provoquer une augmentation du nombre de Model Points.

Suite à ces opérations, nous avons lancé le modèle ALM S2 pour chaque segmentation et reconstitué les bilans

obtenus :

Figure 39 � Comparaison des bilans S2 selon la segmentation utilisée

Une nouvelle segmentation IFRS 17 prenant en compte la contrainte de cohorte tout en se limitant à 83 Model

Points a également été réalisée :

Figure 40 � Bilan S2 sous segmentation IFRS 17 avec contrainte de cohorte

Nous constatons que pour un nombre de Model Points imposé, l'ajout des contraintes d'IFRS 17 provoque

une augmentation du BE qui va donc s'éloigner du BE théorique. Cette évolution va évidemment de paire avec

99

Page 100: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

une réduction de la NAV. Pour un nombre de Model Points égal, chaque contrainte posée par la norme fait

augmenter le BE. Cette évolution reste toutefois relativement faible (+0,3% sur le BEL). Les écarts restent donc

négligeables, dans le cadre de notre étude, la segmentation des contrats en norme IFRS 17 peut être utilisée lors

de la constitution du bilan S2.

Il faut également noter qu'il est probable que l'application des multiples contraintes de segmentation (notam-

ment celle de cohorte annuelle) provoque une augmentation du nombre deModel Points des assureurs. Nous avons

modélisé ce cas en déterminant le bilan S2 pour un nombre de Model Points doublés et observé une réduction de

l'écart du bilan obtenu par rapport au bilan théorique.

Le tableau ci-dessous présente les écarts de convergence associés à notre étude :

Figure 41 � Ecarts de convergences observés

Les bilans sortis sont valides, l'écart reste faible (0,24%).

2.4 Résultats obtenus à la date de transition lors de la réalisation des calculs sans

segmentation

Suite au calcul de la CSM propre à chaque contrat, nous obtenons une CSM de 1 611K¿. On peut noter

que les craintes formulées par l'EFRAG Insurance Account Working Group sont véri�ées : la CSM est faible, la

moyenne pour l'ensemble du portefeuille est de 72,5¿. La moyenne pour les contrats pro�table est de 210. Nous

considérons alors comme ayant une chance non-signi�cative de devenir onéreux tout contrat de CSM supérieure

à 300. Nous obtenons alors les résultats suivants :

Figure 42 � Résultat de l'estimation de la pro�tabilité des contrats étudiés au cas par cas

Nous avons alors implémenté les di�érentes méthodes présentées et comparé les résultats obtenus a�n de

déterminer la paire algorithme métaheuristique/méthode de classi�cation qui produira la CSM la plus proche de

1 611 144¿ qui sera désormais notre � CSM théorique �.

2.5 Comparaison des segmentations retournées par les algorithmes présentés

Les di�érentes méthodes de classi�cations présentées dans la Partie 2 ont été implémentées et utilisées pour

segmenter le portefeuille de contrats. Nous allons comparer la qualité de la classi�cation retournée par ces

algorithme en nous servant dans un premier temps de l'intertie intra-classe totale comme indicateur : Il s'est

100

Page 101: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

révélé di�cile de choisir de manière précise le nombre de classes attendues lors de l'utilisation de la méthode

MCL. Par soucis de comparabilité, nous avons alors choisi de ne pas l'utiliser dans nos comparaisons futures.

Au vu de la proximité entre les algorithmes de Prim et de Kruskal, il a été décidé de n'en sélectionner qu'un :

Kruskal, qui donnait de meilleurs résultats.

Figure 43 � Inertie intra-classe selon le nombre de classes créées

L'algorithme de Kruskal manque en précision comparé aux algorithmes de classi�cation plus classiques. Ce-

pendant, lorsque le nombre de classes augmente, l'écart diminue assez rapidemment. Observons maintenant leur

impact sur la méthode d'optimisation de la mesure de dissimilarité : On va faire tourner les algorithmes d'op-

timisation a�n avec ces méthodes de classi�cation a�n de déterminer la partition qui donnera le bilan le plus

proche possible du bilan cible.

1) Classi�cation avec la méthode théorie des graphes et l'algorithme de la colonie de fourmi

Nous appliquons la méthode présentée en selectionnant la méthode de classi�cation hiérarchique pour la seg-

mentation et l'algorithme de la colonie de fourmi pour la calibration. Nous avons limité l'algorithme de la colonie

de fourmi à 4 fourmis et 5 itérations : le choix de 4 fourmis s'est e�ectué en fonction du nombre de paramètres

de la mesure de dissimilarité.

Lors de la première itération, chaque fourmi a été initialisée avec un paramètre de poids égal à 4 et les autres

réglés sur 0. De cette manière, l'impact propre à chaque paramètre du contrat sur la qualité de la segmentation

est quanti�é. Les paramètres les plus signi�catifs obtiendront une meilleure note et produiront donc une quantité

plus importante de phéromones dont ils seront les seuls à pro�ter, entrainant ainsi une augmentation de leur

impact dans les itérations suivantes.

De cette manière nous orientons rapidement l'algorithme vers la combinaison de paramètres optimale, et avons

ainsi accéléré la convergence. Ce qui nous a permis d'observer que l'algorithme atteignait rapidemment des solu-

tions de bonne qualité. Nous avons donc décidé de limiter son nombre d'itérations au vu du temps important de

calcul (puisque chaque itération implique un calcul des FCF et de la Fair Value des Model Points).

101

Page 102: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Nous avons donc lancé l'algorithme en �xant le nombre de Model Points à 800 et obtenu les résultats suivants :

Figure 44 � Résultat obtenu pourla constitution de 800 Model Points

Rappelons que le score des fourmis correspond à l'écart relatif entre la CSM retournée par les Model Points

et la CSM théorique.

Le meilleur écart relatif est de 0.01% et a été obtenu pour les paramètres suivants :

α = 0.7 : le poids du sexe

β = 1.2 : le poids de l'âge

γ = 1.2 : le poids de l'ancienneté

ζ = 0.9 : le poids du TMG

La proximité vis à vis des résultats obtenus sans segmentation est également véri�ée pour la perte passée au

résultat comme illustré ci-dessous :

Figure 45 � Comparaison des sorties avec celles obtenues sans segmentation

Ces résultats démontrent l'e�cacité de la méthode de segmentation proposée. Les Model Points obtenus avec

cette méthode divisent par 13 le temps et le coût des calculs tout en modi�ant la CSM d'un montant négligeable.

La perte d'information à ce niveau est négligeable. Cependant il faut relativiser ce résultat : L'obtention de

cette segmentation dès l'itération 3 sans aucune trace de convergence de l'algorithme indique la présence d'un

facteur chance dû au côté aléatoire de l'algorithme. De plus, 800 Model Points est un nombre élevé, nous avons

donc décidé de réduire le nombre de Model Points à 83 pour correspondre au nombre de Model Points de la

classi�cation usuelle.

Bien qu'elle soit irréalisable sous IFRS 17 du fait des nouvelles contraintes imposées par la norme, nous avons

réalisé la segmentation usuelle présentée ci-dessus et déterminé la CSM associée à ses Model Points à titre

indicatif :

Figure 46 � écart relatif avec la segmentation usuelle

102

Page 103: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

L'écart est conséquent. La méthode de segmentation ne traduit pas la réalité du portefeuille.

Nous relançons l'algorithme de segmentation reposant sur l'algorithme de la colonie de fourmi et sur la clas-

si�cation par la méthode de Kruskal en limitant le nombre de Model Points. Les fourmis obtiennent les résultats

suivants :

Figure 47 � Résultat pour 83 Model Points

L'écart le plus faible est de 0,2% et est obtenu pour les paramètres

α = 0.9 : le poids du sexe

β = 0; 8 : le poids de l'âge

γ = 1.6 : le poids de l'ancienneté

ζ = 0.7 : le poids du TMG

L'écart observé est toujours très faible malgré le peu de Model Points créés. Le modèle semble �able.

2) Classi�cation avec la théorie des graphes et le recuit simulé

Nous conservons la contrainte de 83 Model Points et obtenons un écart relatif minimum de 0,1% obtenu

après 11 itérations comme suit :

Figure 48 � Recuit simulé avec théorie des graphes sur 83 Model Points

103

Page 104: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Figure 49 � Segmentation avec la théorie des graphes et le recuit simulé

Ce résultat est atteint pour les paramètres :

α = 1.37 : le poids du sexe

β = 0.11 : le poids de l'âge

γ = 1.23 : le poids de l'ancienneté

ζ = 1.28 : le poids du TMG

3) Classi�cation avec la méthode CAH le recuit simulé

Toujours sous la contrainte de 83 Model Points à créer, nous utilisons cette fois la méthode de classi�cation

ascendante hiérarchique pour classer les contrats. Le résultat optimal (0,5% d'écart relatif) est atteint pour :

α = 1.1 : le poids du sexe

β = 1.1 : le poids de l'âge

γ = 1.1 : le poids de l'ancienneté

ζ = 0.7 : le poids du TMG

Figure 50 � Convergence du recuit Simulé

Figure 51 � Segmentation avec CAH et la colonie de fourmis

104

Page 105: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4) Classi�cation avec la méthode CAH la colonie de fourmis

Le minimum est atteint à la quatrième itération (0,09% d'écart) pour les paramètres :

α = 1 : le poids du sexe

β = 0.9 : le poids de l'âge

γ = 1.3 : le poids de l'ancienneté

ζ = 0.8 : le poids du TMG

5) Observations et comparaison

Les paramètres des distances de similarités trouvées sont hétérogènes. On peut en déduire qu'il existe une

multitude de solutions de bonne qualité : on peut en déduire qu'il n'y a pas parmis nos 4 paramètres, un pa-

ramètre qui se démarque des autres par son importance dans la classi�cation. Cette conclusion est illustrée par

les tableaux de résultat des colonies de fourmis notamment. Les scores des segmentations retournées par les

paramètres considérés de manière unitaire (première colonne des matrices) n'indique pas de dominance d'un

paramètre. Même en 5 itérations, l'algorithme des colonies de fourmis aurait montré une tendance menant vers

un chargement du poids du paramètre le plus important si un tel paramètre existait. L'optimisation vient des

mélanges, il est possible qu'avec un nombre d'itérations non limités les algorithmes auraient convergé vers une

solution encore meilleure (et unique) mais dans notre cas, les résultats obtenus sont d'une qualité su�sante pour

rendre la distance de dissimilarité �able et utilisable par la suite.

D'un point de vue opérationnel, on peut noter que le recuit simulé a convergé en un nombre plus réduit de

calcul. Cette observation s'explique par nos choix de modélisation. La température initialisée peu élevée au vu

des faibles valeurs du delta des recuits a permis de � négliger � les premières étapes d'observations du recuit

simulé alors qu'on contraire, notre choix d'initialiser les fourmis en ne pondérant qu'un seul paramètre s'est

révélé peu utile au vu de la multiplicité des solutions de qualité.

Ainsi, malgré des contraintes techniques qui nous ont poussé à limiter les algorithmes d'optimisation et à

les arrêter avant leur convergence, toutes les méthodes proposées permettent de constituer des Model Points

produisant une CSM très proche de la CSM théorique. La diminution du nombre de Model Points n'a pas eu

d'impact signi�catif sur la précision ce qui permet de réduire considérablement les temps et coûts de calcul tout

en évitant les pertes d'informations.

Il faut également noter le gain de précision non négligeable obtenu par nos segmentations comparées à la seg-

mentartion usuelle. Cependant, la segmentation des contrats d'épargne reste optimisable :

la deuxième étape de la segmentation des contrats (la séparation en groupes de pro�tabilité : Onéreux, ceux

qui n'ont pas une chance signi�cative de devenir onéreux et les autres) nécessite une estimation de la pro�tabilité

des contrats au cas par cas et ce pré-requis peut s'avérer extrêmement long et coûteux, notamment pour les plus

gros assureurs.

Pour palier à cette contrainte forte, la norme précise que si l'on dispose d'informations raisonnables pour conclure

que plusieurs contrats appartiennent au même groupe, on peut e�ectuer la mesure de pro�tabilité directement à

l'échelle du groupe. A�n d'alléger les calculs préalables à la détermination du groupe de pro�tabilité de chaque

105

Page 106: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

contrat, nous présentons une méthode qui utilise la mesure de dissimilarité entre les contrats comme d'un indica-

teur de pro�tabilité qui constituerait une information raisonnable dispensant les assureurs du fastidieux travail

de l'étude contrats par contrats.

3 Utilisation de la mesure de dissimilarité pour l'optimisation de l'es-

timation de la pro�tabilité des contrats

3.1 Présentation de la méthode alternative de détermination de la pro�tabilité des

contrats

A partir d'un échantillon représentatif de taille raisonnable des contrats du portefeuille de l'assureur, la me-

sure de la dissimilarité entre 2 contrats est calibrée selon la méthode présentée dans ce mémoire. Une fois les

paramètres de la distance déterminés, 3 contrats de références, un pour chaque classe de pro�tabilité sont calculés

comme suit :

1. pour chaque classe de pro�tabilité, l'âge moyen, l'ancienneté moyenne, le sexe le plus représenté ainsi que

le Taux Minimum Garanti moyen observé parmis les contrats de la classe sont déterminés. Le contrat de

référence de la classe est celui ayant pour paramètre ces éléments.

2. La classi�cation par pro�tabilité de tous les contrats du portefeuille se fait alors comme suit : La dissimila-

rité entre chaque contrat du portefeuille et les contrats de référence est calculée. Les contrats appartiennent

à la classe du contrat de référence le plus similaire.

Le schéma ci-dessous résume l'approche.

Figure 52 � Méthode de simpli�cation de la segmentation sous IFRS 17

106

Page 107: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

La méthode a été essayée à partir de l'extraction de 1001 contrats sur les 10 632 du portefeuilles.

L'extraction a été réalisée avec la volonté de constituer un sous-ensemble de contrats représentatifs du por-

tefeuille. Nous avons pour cela divisé le portefeuille selon la méthode usuelle et sélectionné 6 contrats de chaque

classe si possible. La diversité du portefeuille s'est toutefois avérée limitée et nous étions loin d'obtenir 1000

contrats. Nous avons donc élevé l'extraction à min(nombre de contrats dans la classe, 15) et obtenu ainsi 1001

contrats.

Une fois ces contrats réunis, nous avons réalisé les estimations unitaires a�n de déterminer la proportion de

contrats onéreux. Il s'est avéré que nous possédions peu de contrats onéreux (15 sur 1001). Une proportion aussi

faible limitait l'intérêt de la segmentation, aussi avons nous choisi de jouer sur les zones discrétionnaires de la

norme a�n d'essayer d'augmenter la proportion de contrats onéreux. Nous avons ainsi augmenté le niveau de

con�ance de l'ajustement pour le risque non �nancier sous IFRS 17 de manière a augmenter les Ful�lment Cash-

Flows et donc d'augmenter les chances qu'ils dépassent la Juste Valeur des contrats.

Nous avons poussé le niveau de con�ance à 90%, jugeant que plus serait déraisonnable et obtenu 59 contrats

onéreux.

Nous avons alors réalisé les calculs de CSM à la maille contrat par contrats sur l'ensemble du portefeuille de

10632 contrats de manière à déterminer la proportion de contrats onéreux mais également la classi�cation réelle

de chaque contrat, information qui nous servira à estimer la qualité de l'approche développée. Ces estimations

ont évidemment été réalisées en reprenant les paramètres utilisés lors de l'estimation de la CSM du sous-groupe

de contrats représentatifs (Ajustement pour le risque �nancier de niveau de con�ance 90%, frais généraux, etc.).

La distance de dissimilarité a alors été estimée par la méthode présentée précédemment, en utilisant l'algorithme

des colonies de fourmi pour l'optimisation et la méthode de Kruskal pour la classi�cation. Les paramètres obtenus

sont :

α = 0.5 : le poids du sexe ;

β = 1.4 : le poids de l'âge ;

γ = 0.8 : le poids de l'ancienneté ;

ζ = 1.3 : le poids du TMG.

Figure 53 � Evolution de l'algorithme de la colonie de fourmi

La forte divergence observée sur la première itération pour chaque fourmi s'explique par le choix de modé-

lisation e�ectué. Rappelons que lors de la première itération, chaque fourmi a été initialisée avec un paramètre

de poids égal à 4 et les autres réglés sur 0. De cette manière, l'impact propre à chaque paramètre du contrat sur

la qualité de la segmentation est quanti�é. Les paramètres les plus signi�catifs obtiendront une meilleure note et

107

Page 108: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

produiront donc une quantité plus importante de phéromones dont ils seront les seuls à pro�ter, entrainant ainsi

une augmentation de leur impact dans les itérations suivantes.

L' écart relatif entre la CSM obtenue par Model Point et la CSM théorique est de 1,4%. Ecart améliorable

puisque l'algorithme n'avait pas encore convergé comme le montre le tableau suivant retraçant l'état de la colonie

au moment de l'arrêt de l'algorithme :

Figure 54 � Etat de la colonie de fourmi lors de l'arrêt

Nous avions limité l'algorithme à 5 itérations au vu de la qualité des solutions qu'il apporte en un nombre

limité d'itérations et du temps requis par l'algorithme. Les résultats sont résumés dans le tableau suivant où le

score des fourmis indique l'écart relatif de la CSM retournée par rapport à la CSM théorique.

Le poids des paramètres obtenu semble cohérent d'un point de vue instinctif : Le TMG est un facteur in�uant

directement sur les pertes de l'assureur qui va devoir trouver des fonds pour honorer ses engagements si les

taux sont trop bas. L'âge, deuxième facteur déterminant va déterminer les modélisations des coûts de décès et

si l'assuré survivra assez longtemps pour atteindre une époque ou les taux sont plus élevés (la courbe des taux

présentée précédemment est croissante). L'ancienneté va essentiellement impacter les rachats surtout autour de

8 années et le sexe va déterminer quelles tables utiliser. Les di�érences entre les hommes et les femmes en terme

de longévité étant sur une tendance décroissante, le poids de ce facteur reste limité dans son impact pour la

pro�tabilité.

Une fois ces paramètres déterminés, nous avons estimé les paramètres des 3 contrats représentatifs comme pré-

sentés précédemment et déterminé la distance des autres contrats du portefeuille à ces éléments de référence.

Après avoir classé tous les contrats du portefeuille selon leur distance aux paramètres désignés, nous avons

obtenu un taux variant de 62,4% de contrats bien classés dans les 3 classes de pro�tabilité et 82,3% si l'on

distingue uniquement les contrats onéreux des non-onéreux.

Le deuxième chi�re est celui qui nous intéresse, nous cherchons avant tout à déterminer quels seront les contrats

onéreux puisque la norme permet de quali�er les contrats d'onéreux si l'on dispose d'informations su�santes et

tient à ce que pour les autres contrats une étude supplémentaire soit réalisée a�n de déterminer s'ils ont une

chance signi�cative de devenir onéreux. Cependant, la faible précision de la classi�cation en 3 classes indique

une certaine faiblesse de la distance de similarité déterminée. Alors que nous cherchions les raisons de ce faible

ratio, nous avons remarqué que les contrats onéreux avaient une PM assez élevée : la PM moyenne des contrats

onéreux est de 27 400¿ tandis que la PM moyenne des contrats pro�tables est de 5203 euros.

108

Page 109: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

S'il est vrai que la PM n'est pas prise en compte lors de la constitution de Model Point usuels, il faut tout

de même se rappeler que nous nous situons ici en approche Fair Value où la CSM ne correspond pas vraiment

à la pro�tabilité mais plutôt à l'écart entre les Ful�lment Cash-Flows et la Fair Value des engagements. Dans

ce contexte, la CSM est constituée à partir des petites di�érences entre la modélisation des FCF et de la Fair

Value : L'ajustement pour la courbe des taux, la méthode d'ajustement pour le risque non �nancier et les frais

généraux. Or, l'augmentation de la PM implique une augmentation du BE associé au contrat puisque le rachat

et les pro�ts (ou pertes) sont accrues. L'ajustement pour le risque non �nancier a été déterminé par la méthode

VaR en augmentant le niveau de con�ance a�n d'augmenter la proportion de contrats onéreux. Cet ajustement

est déterminé par un quantile du BE et va donc augmenter avec le BE des contrats, impactant ainsi les Ful�lment

Cash-Flows qui vont diminuer la CSM.

Nous avons donc relancé le modèle en accordant un poids unitaire à la PM et obtenu 70,7% de contrats bien

classés sur les 3 classes de pro�tabilité et 86,1% de contrats bien classés si l'on cherche uniquement à distinguer

les contrats onéreux des autres.

Ces résultats sont en hausse sans toutefois atteindre un niveau permettant de certi�er la distance de dissimilarité

déterminée. Les écarts peuvent s'expliquer simplement par le fait que les points à partir desquels sont calculées

les distances gardent un côté arbitraire au sens où ils dépendent de la selection initiale de 1000 points (bien

qu'elle ait été réalisés de manière à être représentative du portefeuille étudié). De plus, nous évaluons simplement

la dissimilarité entre les contrats du portefeuille et ces 3 points. Or, un contrat peut tout à fait être onéreux tout

en étant plus proche du centre des contrats potentiellement onéreux que du centre des contrats onéreux comme

illustré dans l'exemple simpli�é suivant :

Figure 55 � Limites de la méthode

Cet exemple montre également l'impact du choix du seuil de CSM à partir duquel on considère qu'un contrat

a une chance non signi�cative de devenir onéreux. Le choix de ce seuil va modi�er les contrats de référence et

donc la résultat de la classi�cation comme le montre les variations observées sur notre portefeuille : la précision

109

Page 110: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

varie entre 79,3% et 86,1% selon le choix du seuil de CSM à partir duquel un contrat est considéré comme étant

pro�table.

Figure 56 � Impact du seuil de pro�tabilité sur la précision de la méthode

3.2 Limites de la méthode proposée et conclusion

Comme expliqué précédemment, l'estimation contrat par contrat de la pro�tabilité est une tâche lente et

coûteuse qu'il est heureusement possible d'éviter si l'on dispose d'informations su�santes.

La méthode présentée ci-dessus permet d'identi�er (avec une précision d'environs 80%) les contrats onéreux en

un temps très court et avec des calculs minimes.

Cependant, les 20% d'erreurs restantes posent problème, tout comme le fait que la séparation entre les contrats

ayant une chance non signi�cative d'être onéreux et les contrats potentiellement onéreux n'a pas été dé�nie et

constitue même une variable in�uençant la qualité de la sementation obtenue.

A�n de séparer les contrats déterminés comme non-onéreux, il faudrait donc estimer leur pro�tabilité, ce qui

entrainerait un certain coût. Nous allons donc introduire une nouvelle méthode qui permettrait d'obtenir la

classi�cation des contrats dans les 3 groupes de pro�tabilité et avec une précision plus élevée.

4 Introduction de la méthode du contrat de pro�tabilité nulle

4.1 Présentation de la nouvelle méthode de segmentation

A�n de répondre aux conclusions atteintes lors de la section précédente, nous avons développé une nouvelle

approche permettant à la fois de prédire la classe de pro�tabilité des contrats sans se reposer sur un seuil de

110

Page 111: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

pro�tabilité choisi arbitrairement mais également de quanti�er cette pro�tabilité. L'approche est résumée dans

la �gure suivante :

Figure 57 � Méthode du contrat de pro�tabilité nulle

La méthode repose sur la détermination d'un contrat de CSM nulle (ou su�samment proche de 0). Une

méthode simple pour le déterminer est d'extraire un sous ensemble représentatif comme précédemment et de

déterminer la CSM des contrats de ce portefeuille. Le contrat de CSM la plus faible serait alors sélectionné

comme indicateur.

Il est également possible de prendre le problème en sens inverse et de partir d'un contrat aléatoire, d'estimer sa

CSM et de faire varier les paramètres du contrat (âge, ancienneté, PM, TMG,sexe) de manière à rapprocher la

CSM obtenue de 0, tout en formalisant l'impact unitaire des modi�cations e�ectuées sur le contrat de départ.

Une fois le contrat de CSM égale à 0 obtenu, il est nécessaire de réaliser des tests de sensibilité sur l'impact de

l'évolution des paramètres sur la CSM. Dans l'idéal, il faudrait obtenir une courbe illustrant l'évolution de la

CSM pour chaque paramètre et réaliser un �tting a�n de quanti�er l'impact quasiment exact des variations des

paramètres.

Une fois les �ttings réalisés, nous disposons d'un indicateur situé au niveau 0 de la pro�tabilité dont nous

connaissons l'impact des variations de chaque paramètre sur la CSM. Pour chaque contrat du portefeuille, on

peut donc calculer en fonction des écarts entre ses paramètres et ceux du contrat de pro�tabilité nulle une

estimation de sa CSM et donc dé�nir à la fois s'il est onéreux ou non et son niveau de pro�tabilité.

111

Page 112: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

4.2 Sensibilité aux paramètres.

Après avoir déterminé que le contrat d'épargne pour un Homme de 70 ans, de PM 1776, de 7 annnées

d'ancienneté et deTMG = 0, 017 produisait une CSM égale à 14, 53 , nous avons décidé de partir de ce contrat

et d'observer les variations de CSM associées à la variation des di�érents paramètres du contrat.

Figure 58 � Variations de la CSM selon les paramètres des contrats et le niveau de PM

On observe immédiatement que la PM va avoir l'impact le plus prononcé sur le niveau de CSM obtenu. La

CSM évolue de manière linéaire en fonction de la PM : On a la relation CSM = −0, 156 ∗ PM + 290. On peut

également remarquer que la tendance décroissante de la courbe de variation de la CSM en fonction de la Provision

Mathématique con�rme l'intuition développée dans l'application précédente indiquant que les contrats de plus

forte PM avaient plus de chance d'être onéreux.

Le sexe ne prenant que deux valeurs di�érentes, il n'a pas été tracé. On note cependant que si notre assuré de

référence était une femme, sa CSM descendrait à 9,7.

Il pourrait être intéressant d'essayer de réaliser une régression de la CSM en fonction de la PM, du sexe, de

l'âge et de l'ancienneté en utilisant des forêts aléatoires ou des GLM. Cependant, nous disposons ici d'un indi-

cateur placé à un niveau de pro�tabilité nulle. A�n de classer les contrats, il nous su�t d'avoir une estimation,

même grossière de l'impact qu'aura chaque variation de paramètre sur la CSM.

Nous ne pouvons cependant pas simplement nous servir des analyses ci-dessus. Certains des paramètres interra-

gissent entre eux, il est donc nécessaire d'étudier ces interractions. Nous nous intéressons dans un premier temps

à la Provison mathématique dont le niveau devrait nécessairement in�uencer les variations de CSM associées aux

112

Page 113: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

variations des autres paramètres.

En raison des contraintes posées le TMG à l'assureur, nous décidons d'étudier les variations de l'impact de la

PM sur la CSM en fonction du TMG :

Figure 59 � Variations de la CSM en fonction de la PM, ventilées par TMG

L'impact du niveau de la provision mathématique sur la CSM est ampli�é par le TMG : lorsqu'il augmente,

la pente de la courbe se durcit et la CSM décroit de manière plus rapide. Il faut noter que le sexe n'in�uence pas

signi�cativement le niveau de la pente.

Nous avons déterminé les courbes de CSM en fonction des variations de l'âge, de l'ancienneté, du TMG pour une

PM de 11776 et une PM de 5776 a�n d'observer si la forme des courbes obtenues ne varie pas et de quanti�er

l'impact du niveau de PM sur la variation des autres paramètres.

Cette information est déterminante au vu des résultats précédents : les fortes variations de la CSM en fonction

de la PM observées contrastent avec les impacts modérés des autres paramètres et laissent à penser que la PM

contrôle à elle seule la pro�tabilité des contrats (bien que l'on ait pu con�rmer que l'impact de la PM est dépen-

dant du TMG).

Figure 60 � Variations de la CSM en fonction de l'âge pour 2 niveaux de PM

113

Page 114: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Les régressions linéaires simples réalisées nous permettent d'estimer l'impact du niveau de PM sur le rapport

entre la CSM et l'âge.

∗ Pour une PM de 5776, entre 25 et 70 ans nous avons la relation CSM = −5, 6 ∗ age− 238 et entre 70 et

90 ans : CSM = 12, 35 ∗ age− 1497.

∗ Pour une PM de 5776, entre 25 et 70 ans nous avons la relation CSM = −12, 7 ∗ age− 651 et entre 70 et

90 ans : CSM = 28, 8 ∗ age− 3560.

Passer d'une régression de l'évolution de la CSM en fonction de l'âge pour une PM de 5576 à une régression pour

une PM de 11776 revient à multiplier les paramètres de la régression par environ 2,3.

L'impact de l'ancienneté semble lui se stabiliser avec l'augmentation de la PM. Il est quasiment stable avec

uniquement un pic au niveau des 8 ans. Notre contrat de pro�tabilité nulle disposant d'une ancienneté de 7 ans,

nous décidons d'estimer uniquement la variation du pic et de considérer que pour toute autre ancienneté, l'écart

est stable :

Figure 61 � Sensibilité de la CSM à l'ancienneté pour une PM de 11 776

Au vu de l'impact du TMG sur la PM, nous allons réaliser une implémentation partitionnée : Pour chaque

contrat à trier, le code déterminera le TMG du contrat et adaptera la formule d'estimation de la pro�tabilité en

conséquence. Par exemple, pour un TMG de 0,017 nous avons estimé que pour tout contrat :

∗ L'impact de l'écart de PM entre ce contrat et notre contrat de référence sur la CSM est de −0, 156 ∗(PM − 1776).

∗ si l'ancienneté est égale à 7 ou 9, l'écart de CSM par rapport à notre contrat de référence est nul ; Si

elle est égale à 8, l'impact sur la CSM est d'environs 3 ∗ (PMducontrat − 776)/1000 ; Pour toute autre

ancienneté l'impact sera de 15.

∗ L'impact de l'écart d'âge par rapport à notre contrat de référence est (age− 70) ∗ 3 ∗ PM−7761000 si l'âge est

compris en 70 et 90ans et (age− 70) ∗ 1, 2 ∗ PM−7761000 si l'âge du contractant est inférieur à 70ans.

∗ L'impact du sexe est jugé négligeable.

114

Page 115: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Rappelons encore une fois que ce mémoire et particulièrement cette méthode sont des exercices ré�ectifs visant

à apporter des propositions de méthodes se voulant innovantes. Il serait évidemment plus rigoureux de réaliser

des régressions précises avec des forêts aléaroires ou des GLM. Nous allons cependant pro�ter de l'avantage que

constitue la connaissance du contrat de pro�tabilité quasiment nulle a�n de déterminer les classes de pro�tabilité

en utilisant des approximations.

Une fois nos proxy pour l'estimation de la CSM établis pour chaque TMG, il su�t de comparer chaque contrat

du portefeuille au contrat de pro�tabilité nulle.

L'utilisation de la méthode sur l'échantillon représentatif de 1001 contrats a donné des résultats probants en

terme de séparation par classe de pro�tabilité : l'utilisation de la méthode du contrat de pro�tabilité nulle a su

déterminer si un contrat était onéreux ou non dans 100% des cas bien que l'estimation de la CSM des contrats

manque légèrement de précision (23% d'écart relatif en moyenne).

Les écarts observés en terme de CSM sont issus des approximations e�ectuées lors du �tting des courbes de

sensibilité et au manque de considération de l'impact du sexe sur la CSM. Ces écarts devraient donc pouvoir être

réduits de manière considérable. Nous notons qu'a priori, dans le cadre de notre étude, ces écarts n'impactent

pas l'isolation des contrats onéreux du reste du portefeuille. Pour ce qui est de la classi�cation entre les contrats

ayant une chance non signi�cative de devenir onéreux et les autres, nous pouvons déterminer un intervalle de

con�ance sur nos estimations de CSM et considérer que tout contrat dont le signe de la CSM ne varie pas sur

l'intervalle de con�ance possède une chance non signi�cative de devenir onéreux.

Cet intervalle de con�ance pourrait être déterminé de manière rigoureuse en fonction de l'importance des sim-

pli�cations faites lors de la régression des courbes de sensibilités ou à partir des observations des écarts produits

par la méthode sur un sous-ensemble représentatif.

Ainsi, cette dernière méthode permet d'identi�er tous les contrats onéreux du portefeuille sans avoir recours au

modèle ALM. Il évite ainsi de nombreux calculs et produit des résultats en un temps très court par la construction

d'un proxy. Il faut cependant prendre en compte le coût que peut demander la calibration du proxy (surtout si les

régressions sont e�ectuées à l'aide de méthodes performantes telles que des forêts aléatoires). Il faudra également

quanti�er l'impact du TMG sur les contrats. Nous avons dans le cadre de ce mémoire pu nous dispenser de cette

étape en raison du faible nombre de TMG di�érents au sein de notre portefeuille mais ceci ne sera pas le cas

pour tous les assureurs.

Interessons nous maintenant à la deuxième exigence réglementaire introduite par IFRS 17 lors de la segmentation

des contrats : la contrainte de cohorte annuelle. Bien qu'elle soit facultative en approche Fair Value, nous allons

étudier son impact sur la segmentation des contrats.

5 Conséquence de l'ajout de la contrainte de cohorte annuelle sur la

segmentation

En cas d'utilisation de l'approche Fair Value à la date de transition, la contrainte de segmentation par cohorte

annuelle n'est pas obligatoire et l'assureur ne peut l'appliquer que s'il possède su�samment d'informations �ables.

Il a donc été jugé intéressant d'implémenter la contrainte de cohorte annuelle a�n d'en observer ses conséquences

115

Page 116: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

sur la segmentation des contrats.

Pour réaliser cette approche, nous avons considéré que l'ancienneté des contrats indiquait la date de première

émission. A�n d'optimiser la vitesse des calculs nous avons réduit la taille du portefeuille à 4000 contrats. Puis

nous avons lancé la segmentation avec une méthode CAH se reposant sur une distance euclidienne simple (tous

les paramètres de poids sont égaux à 1) en faisant varier le nombre de groupes souhaités entre 25 et 400. Après

la détermination de chaque groupe, nous les avons séparés selon la date d'émission du contrat a�n de constituer

des cohortes annuelles, augmentant ainsi naturellement le nombre de Model Points.

L�impact de la contrainte de cohorte sur l'évolution du nombre deModel Points est retracé par le tableau suivant :

Figure 62 � Tableau récapitulatif de l'impact de la cohorte annuelle sur le nombre de Model Points

On constate que lorsque le nombre de Model point requis est faible, l'ajout de la contrainte de cohorte

annuelle entraine une augmentation du nombre de Model Points créés certes importante, mais pas autant que ce

que l'on aurait pu imaginer. Cette augmentation diminue rapidemment lorsque le nombre de Model Points requis

augmente.

Nous expliquons ces observations par le fait que lorsque le nombre de Model Point requis est faible par rapport

au nombre de contrats à classi�er, les groupes sont nécessairement plus hétérogènes, ils comprennent des contrats

d'ancienneté variée et la contrainte va donc multiplier ce nombre. Cependant, les classes originales (celles avant

application de la contrainte) ayant été créées par recherche d'optimisation de l'homogénéité, elles sont constituées

de contrats proches les uns des autres en termes de paramètres. Dans chaque classe, la majorité des contrats

possèdent la même ancienneté. Cet e�et est accentué par l'aspect � jeune � de notre portefeuille d'étude qui ne

comporte que 14 années d'émissions di�érentes.

A�n d'étudier l'impact de la contrainte de cohorte sur l'homogénéité du contrat, nous avons calculé l'inertie

intra-classe de l'ensemble des classes retournées et l'avons comparée avec celle obtenue sans application de la

contrainte de cohorte annuelle.

Figure 63 � Comparaison des inerties intra-classe en fonction du nombre de classes exigées

Nous observons que l'augmentation du nombre de classes lors d'une segmentation entraine généralement une

116

Page 117: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

diminution de l'inertie intra-classe globale. Cet e�et est ampli�é par le fait que l'augmentation du nombre de

classes repose ici sur la création de groupe de dates d'émission homogènes ce qui implique un écart nul en terme

d'ancienneté et augmente également la probabilité que les TMG soient similaires, les contrats ayant été émis dans

le même contexte.

Les écarts restent cependant assez faibles (variations d'inertie comprises entre 51,4% et 0,8%).

Il nous a alors paru intéressant de modi�er l'implémentation de la contrainte de cohorte de manière à ce que le

nombre de classes retournées sous contrainte de réalisation de cohorte annuelle soit égal au nombre de classes

retournées sans exigence de cohorte a�n de comparer l'homogénéité des classes créées de manière plus juste.

On obtient les résultats suivants :

Figure 64 � Inertie intra-classe en fonction du nombre de classes crées

Reprenons la méthode de l'optimisation de la segmentation avec la méthode CAH et le recuit simulé en

ajoutant la contrainte de cohorte :

Figure 65 � Impact de la cohorte annuelle sur la méthode d'optimisation de la formation de groupes homogènes

117

Page 118: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Si on assureur souhaite respecter la contrainte de cohorte annuelle tout en conservant le même nombre de

Model point, il doit donc faire face à une perte d'homogénéité qui se chi�re ici aux alentours de 20%.

Il faut cependant prendre en considérations le fait que l'inertie est ici déterminée sur la base de la distance

euclidienne classique. Un mesure de distance accordant plus de poids à la proximité de l'ancienneté des contrats

diminuerait ces écarts.

L'utilisation de l'algorithme d'optimisation met en revanche en avant un phénomène de blocage : l'écart relatif

n'arrive pas à descendre sous la barre des 6,45% pour la constitution de 83 Model Points.

Ainsi, bien que la contrainte de cohorte annuelle souhaitée par la norme soient justi�ée en théorie par la volonté

de rassembler des contrats réalisés dans des conditions identiques (et souvent soumis à des TMG proches), elle

pose des problèmes opérationnels non négligeables :

∗ Elle provoque une augmentation du nombre de Model point de l'assureur pouvant être très forte selon la

diversité de son portefeuille, entrainant ainsi de forts coûts et une certaine exigence en terme de capacité

des modèles utilisés.

∗ Même si l'assureur venait à aménager sa segmentation de manière à conserver un nombre de Model Points

raisonnables, l'homogénéité de ses groupes serait alors diminuée, entrainant par la même occasion une

augmentation des écarts observés entre le bilan retourné par son modèle et celui qui serait obtenu en

estimant la pro�tabilité des contrats de manière unitaire. On observerait donc une déformation de sa

réalité comptable et une augmentation de la probabilité de mismatch au sein du groupe de contrats

potentiellement pro�tables.

118

Page 119: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Conclusion

En dépit de sa volonté d'uniformiser la communication �nancière des entreprises d'assurance à l'échelle mon-

diale, la norme IFRS 17 � Insurance Contracts � o�re aux assureurs de vastes libertés de modélisation, et ce

dès la période de transition. Dans le présent mémoire, nous avons tenté de souligné les impacts potentiels sur la

mesure de pro�tabilité des di�érents choix de modélisation laissés à la discrétion des assureurs tels que le choix

de l'ajustement pour le risque non �nancier.

Au-delà des aspects d'uniformisation, les nouvelles règles de segmentation imposées par la norme rendent

impossible l'utilisation des Model Points utilisés dans le cadre des autres normes comptables et prudentielles et

poussent les assureurs à se confronter au problème de la classi�cation des contrats en terme de rentabilité et

d'années d'émission.

L'impact de la prise en considération de la contrainte de cohorte annuelle a été décliné tant en terme d'homogénéité

des Model Points, qu'au niveau de leur quantité. Il en est ressorti qu'au sein de notre portefeuille à la diversité

réduite et orienté vers la constitution de classes homogènes, les cohortes annuelles peuvent tripler le nombre de

Model Points ou, en cas de maitrise de la quantité de Model Points, diminuer l'homogénéité des groupes créées

de plus de 20%.

Son impact sur le bilan S2 reste cependant limité dans le cadre de notre étude, tout comme l'impact des autres

contraintes imposées par la norme IFRS 17. Ces éléments suggèrent la possibilité d'utiliser les Model Points

développés sous IFRS 17 lors de la réalisation de bilans prudentiels Solvabilité II.

Les applications utilisées ont démontré l'e�cacité de la combinaison d'algorithmes d'optimisation avec des

méthodes de clustering, usuelles ou non, qui permettent de créer des Model Points produisant une CSM avec

un écart relatif inférieur à 1% par rapport à la CSM théorique dé�nie. Ces méthodes se sont cependant révélées

chronophages et ont mis en évidence la di�culté que poserait l'estimation de la pro�tabilité d'un portefeuille,

contrat par contrat pour des assureurs ayant un volume d'a�aire important.

Une fois calibrée, l'utilisation de la mesure de dissimilarité comme méthode d'estimation du niveau de pro�tabi-

lité s'est avérée e�cace. En e�et, elle a permis la bonne classi�cation de plus de 80% des contrats en un nombre

de calculs réduits. La pertinence de ces résultats reste néanmoins dépendante des hypothèses choisies liées aux

zones discrétionnaires de la norme.

La deuxième méthode proposée s'a�ranchit de cette limite et propose une méthdologie de détermination d'un

proxy estimant la CSM associée aux contrats. Les résultats obtenus se sont révélés prometteurs en terme de

classi�cation des contrats mais ont a�ché des lacunes au niveau de la précision de la détermination du montant

de CSM associé à chaque contrat. Cette limite issue des approximations réalisées lors de la calibration du proxy

peut être outrepassée par l'utilisation de méthodes de �tting adéquates, ceci pouvant faire l'objet d'une étude

complémentaire.

119

Page 120: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

vgvg

120

Page 121: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Bibliographie

kkk

[1] Bruynooghe M. (1978), Class�cation ascendante hiérarchique des grands ensembles de données : un algo-

rithme rapide fondé sur la construction des voisins réductibles. Les Cahiers de l'Analyse des Données , 3, 7-33.

[2] Buzzi, A (2017), Approximation du bilan économique sous Solvabilité II via des méthodes d'apprentissage

automatique et application à l'ORSA. Mémoire d'actuaire, Université Paris Dauphine, Paris.

[3] CEIOPS (2010), Task Force-Report on the Liquidity Premium. C. SEC-34/10.

[4] EFRAG (2017), Transition to IFRS 17 Insurance Contracts, Issues papers, Paper 05-05. EFRAG TEG mee-

ting

[5] EIOPA (2014), Technical Speci�cation for the Preparatory Phase, Part 1. EIOPA 14/209 document.

[6] Ernst & Young (2012), Applying IFRS : IFRS 13 Fair Value Measurement. Report EYG no. AU1362

[7] IASB (2017), IFRS 17 Insurance contracts, Basis for Conclusions. IFRS Foundation.

[8] IASB (2017), IFRS 17 Insurance contracts, IFRS standards. IFRS Foundation. [9] Gower, J. C., & Ross, G.

J. (1969). Minimum spanning trees and single linkage cluster analysis. Applied statistics, 54-64.

[10] Koelschbach J., Trussell M., Goad A. & Spall C. (2017), First impressions : IFRS 17 Insurance Contracts,

KPMG Publication number 134753.

[11] Macropol K. (2015), Clustering on Graphs : The Markov Cluster Algorithm, CS 595D Presentation, Univer-

sity of California at Santa Barbara, Santa Barbara.

[12] Hines W. & Verheugen H. (2017), IFRS 17 - Introduction, Challenges & Opportunities. Milliman, Dublin

seminar.

[13] Morin C. (2015), Le reporting multinormes en assurance vie - Enjeux et éléments de convergence des réfé-

rentiels Solvabilité 2 et IFRS 4 phase 2. Mémoire d'actuaire, ISUP, Paris.

[14] Saugner G. (2017), Application de la future norme IFRS Contrats d'assurance à un portefeuille de contrats

d'Epargne Euro. Mémoire d'actuaire, CNAM, Paris.

[15] Van Dongen, S. M. (2000). Graph clustering by �ow simulation. Ph.D. Thesis, Utrecht University, Utrecht.

121

Page 122: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

vgvg

122

Page 123: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Annexe A : Rappels

1) Rappels sur les distances

Soit E un ensemble non vide.

Une application d : E × E → R+, (x, y)→ d(x, y) est une distance sur E si elle véri�e :

∗ La propriété de séparation : ∀(x, y) ∈ E × E, x = y ⇔ d(x, y) = 0;

∗ La propriété de symétrie : ∀(x, y) ∈ E × E, d(x, y) = d(y, x);

∗ L'inégalité triangulaire : ∀(x, y, z) ∈ E × E × E, d(x, y) ≤ d(x, z) + d(z, y);

Les distances permettent ainsi de quanti�er les dissimilarités entre deux éléments d'un ensemble.

Les plus courantes étant

∗ La distance euclidienne : d(x, y) ={∑

i(xi − yi)2}1/2

∗ La distance de Manhattan : d(x, y) =∑i |xi − yi|

∗ La distance de Minkowski : d(x, y) = p√∑

i |xi − yi|p

∗ La distance de Tchebychev : d(x, y) = sup1..n|xi − yi|

2) Rappels sur la classi�cation

La classi�cation est l'a�ectation de chaque individu d'un ensemble à seul et unique groupe. C'est ce que l'on

appelle en mathématiques le partitionnement.

Soit E un ensemble non vide, on appelle partition de E tout objet générant des sous ensembles e1, e2, ...en

tels que

∗ ∪i=1...nei = E avec ei 6= ∅∗ ei ∩ ej = ∅ pour i 6= j

Soit ek un sous-ensemble de E comprenant des individus yi, i = 1, n caractérisés par p variables explicatives.

Le barycentre du groupe est le vecteur gk ={

1n

∑i=1,n yi,1,

1n

∑i=1,n yi,2, ......

1n

∑i=1,n yi,p

}ayant donc pour

coordonnées les moyennes.

L'inertie intra-groupe est la �mesure de dispersion multidimensionnelle� à l'intérieur des sous-ensembles de la

partition.

Soit un ensemble E partitionné en n classes ei, i = 1, n. L'inertie intra-classe est donnée par la formule suivante :

Iintra = 1n ∗

∑i=1..n

∑j∈ei||yj − gi||2

L'inertie est un critère couramment utilisé pour mesurer la qualité d'une partition. Minimiser l'inertie intra-classe

revient à créer des groupes homogènes du point de vue de leurs variables explicatives. La meilleure partition selon

ce critère est évidemment celle dont tous les groupes sont des singletons : l'inertie intra-classe associée est alors

nulle. Dans le cadre d'un problème de recherche d'homogénéité, il faut alors chercher à minimiser l'inertie

123

Page 124: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

intra-classe sous contrainte d'un nombre de sous-ensemble �xé.

3) Algorithme des �ots

Les algorithmes reposant sur la théorie des graphes présentés précédemment sont intéressants par rapport à

leur simplicité et à leur apport d'un point de vue opérationnel. Cependant, leur simplicité impacte leur résultat.

Leur manque de précision par rapport à d'autres algorithmes de segmentation de graphes leur est reproché dans

le domaine de la segmentation d'images notamment.

Nous allons donc introduire une méthode de segmentation de graphes plus technique, précise et donc plus popu-

laire : La segmentation par les �ots maximums.

∗ Principe :

On reprend le graphe représentant le portefeuille : les sommets sont les contrats et ils sont liés entre eux par des

arcs pondérés par l'inverse de la dissimilarité entre deux contrats : Plus des contrats seront proches, plus le poids

de l'arc sera important.

On ajoute deux sommets terminaux S et T , liés à tous les sommets du graphe. Notons ai le poids de l'arc liant

T au sommet i , bi le poids de l'arc liant S au sommet i et wij le poids de l'arc reliant les sommets i et j. (donc

l'inverse de la distance entre les contrats i et j).

On dé�nit un indicateur xi tel que, si l'on partitionne le graphe de telle manière qu'il soit impossible d'aller de

S à T , ∀i xi = 1 si il existe un chemin de S à i et xi = 0 sinon.

Ainsi, pour une partition CS,T donnée, le poids de la partition est donné par

W (CS,T ) =∑i ai ∗ xi +

∑i bi ∗ (1− xi) +

∑i,j wij ∗ xj ∗ (1− xi)

Cette fonction correspond à la somme des poids des arêtes ayant été retirées pour partitionner le graphe et

mesure donc une distance entre les 2 classes créées.

Le poids de la partition peut se réécrire

W (CS,T ) =∑i bi +

∑i(ai − bi) ∗ xi +

∑i,j wij ∗ xi −

∑i,j wi,j ∗ xi ∗ xj

W (CS,T ) =∑i bi +

∑i(ai − bi +

∑j wij) ∗ xi −

∑i,j wi,j ∗ xi ∗ xj

W (CS,T ) = A+∑iBi ∗ xi +

∑Ci,j ∗ xi ∗ xj

Avec A =∑i bi, Bi = ai − bi +

∑j wij et Ci,j = −wi,j

Or, le théorème de Minimisation de l'énergie via les �ots maximaux dit que � Toute fonction qui peut être

écrite sous la forme d'une somme dépendant de plus de deux variables binaires x ∈ {0, 1} :W (x1,x2, ....xn) = A+

∑iBi ∗xi+

∑Ci,j ∗xi ∗xj peut être minimisée par les �ots maximaux si et seulement

si A ∈ <+, Bi ∈ <+et Ci,j ∈ <+.

Il est donc possible de déterminer une coupe minimale par l'algorithme des �ots maximaux. Or, les poids étant

égaux à l'inverse de la distance entre les contrats, la coupe de poids minimale sera en réalité la coupe de distance

Maximale entre les contrats, celle qui maximisera l'inertie inter-classe et minimisera donc l'inertie intra-classe.

Il ne reste donc plus qu'à utiliser successivement des algorithmes de �ots maximum pour réaliser une segmentation

de contrats optimaux. Le plus courant étant l'algorithme de Ford-Fulkerson.

124

Page 125: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

Table des �gures

1 Evolution de la CSM sur un exercice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2 Composition des Ful�lment Cash-Flows . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

3 Building Block Approach . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

4 Impact d'une hausse du BEL au bilan IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

5 Compte de résultat sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

6 Distinction des éléments des OCI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37

7 Segmentation Réglementaire des contrats sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . . . 40

8 Choix de l'approche à la date de transition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

9 Test SPPI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47

10 Indices d'aggrégation pour la méthode CAH . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

11 Exemple de Dendrogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

12 Exemples simpli�és de Graphes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

13 Visualisation de la présence des arcs dans les clusters . . . . . . . . . . . . . . . . . . . . . . . . . 60

14 Matrice en sortie de l'algorithme MCL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

15 Méthode de l'arbre couvrant de poids Minimal sur un exemple simple . . . . . . . . . . . . . . . 63

16 Agrégation par dendrogramme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

17 Ecarts de convergence en fonction du nombre de simulations . . . . . . . . . . . . . . . . . . . . . 70

18 Bilan comptable au sein du modèle ALM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

19 Bilan S2 simpli�é . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72

20 Fonctionnement du Modèle ALM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

21 Courbe de la prime de liquidité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

22 Courbe des taux Forward avec ajustement par la prime de liquidité . . . . . . . . . . . . . . . . 75

23 Comparaison des taux ajustés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76

24 Création d'un Model Point . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

25 Principe de l'algorithme de la colonie de fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

26 Problème des minimum locaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

27 Comparatif des algorithmes métaheuristiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

28 Récapitulatif de la méthode de calibration de la mesure de dissimilarité . . . . . . . . . . . . . . 90

29 Répartition du portefeuille par Sexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

30 Répartition du portefeuille par âge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

31 Répartition du portefeuille par ancienneté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

32 Répartition du portefeuille par TMG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

33 Allocation initiale des actifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

34 Distribution du BE d'un Model Point sur 750 simulations . . . . . . . . . . . . . . . . . . . . . . 95

35 Pilotage de la pro�tabilité des contrats par le choix du niveau de con�ance de la VaR . . . . . . 96

36 Evolution de l'Ajustement pour le Risque non �nancier . . . . . . . . . . . . . . . . . . . . . . . . 97

37 Répartition des contrats par pro�tabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

38 Création de Model Points usuels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

39 Comparaison des bilans S2 selon la segmentation utilisée . . . . . . . . . . . . . . . . . . . . . . . 99

40 Bilan S2 sous segmentation IFRS 17 avec contrainte de cohorte . . . . . . . . . . . . . . . . . . . 99

41 Ecarts de convergences observés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

125

Page 126: Mémoire présenté devant l’Université de Paris Dauphine ...€¦ · 1 Mémoire présenté devant l’Université de Paris Dauphine pour l’obtention du Diplôme du Master actuariat

42 Résultat de l'estimation de la pro�tabilité des contrats étudiés au cas par cas . . . . . . . . . . . 100

43 Inertie intra-classe selon le nombre de classes créées . . . . . . . . . . . . . . . . . . . . . . . . . . 101

44 Résultat obtenu pourla constitution de 800 Model Points . . . . . . . . . . . . . . . . . . . . . . 102

45 Comparaison des sorties avec celles obtenues sans segmentation . . . . . . . . . . . . . . . . . . . 102

46 écart relatif avec la segmentation usuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

47 Résultat pour 83 Model Points . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

48 Recuit simulé avec théorie des graphes sur 83 Model Points . . . . . . . . . . . . . . . . . . . . . 103

49 Segmentation avec la théorie des graphes et le recuit simulé . . . . . . . . . . . . . . . . . . . . . 104

50 Convergence du recuit Simulé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

51 Segmentation avec CAH et la colonie de fourmis . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

52 Méthode de simpli�cation de la segmentation sous IFRS 17 . . . . . . . . . . . . . . . . . . . . . 106

53 Evolution de l'algorithme de la colonie de fourmi . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

54 Etat de la colonie de fourmi lors de l'arrêt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

55 Limites de la méthode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

56 Impact du seuil de pro�tabilité sur la précision de la méthode . . . . . . . . . . . . . . . . . . . . 110

57 Méthode du contrat de pro�tabilité nulle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

58 Variations de la CSM selon les paramètres des contrats et le niveau de PM . . . . . . . . . . . . 112

59 Variations de la CSM en fonction de la PM, ventilées par TMG . . . . . . . . . . . . . . . . . . . 113

60 Variations de la CSM en fonction de l'âge pour 2 niveaux de PM . . . . . . . . . . . . . . . . . . 113

61 Sensibilité de la CSM à l'ancienneté pour une PM de 11 776 . . . . . . . . . . . . . . . . . . . . . 114

62 Tableau récapitulatif de l'impact de la cohorte annuelle sur le nombre de Model Points . . . . . . 116

63 Comparaison des inerties intra-classe en fonction du nombre de classes exigées . . . . . . . . . . . 116

64 Inertie intra-classe en fonction du nombre de classes crées . . . . . . . . . . . . . . . . . . . . . . 117

65 Impact de la cohorte annuelle sur la méthode d'optimisation de la formation de groupes homogènes 117

126